JP2004235743A - Picture processor, picture processing method, program and recording medium - Google Patents

Picture processor, picture processing method, program and recording medium Download PDF

Info

Publication number
JP2004235743A
JP2004235743A JP2003019080A JP2003019080A JP2004235743A JP 2004235743 A JP2004235743 A JP 2004235743A JP 2003019080 A JP2003019080 A JP 2003019080A JP 2003019080 A JP2003019080 A JP 2003019080A JP 2004235743 A JP2004235743 A JP 2004235743A
Authority
JP
Japan
Prior art keywords
black character
pixel
image
black
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003019080A
Other languages
Japanese (ja)
Other versions
JP4011494B2 (en
Inventor
Hiroyuki Shibaki
弘幸 芝木
Noriko Miyagi
徳子 宮城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2003019080A priority Critical patent/JP4011494B2/en
Publication of JP2004235743A publication Critical patent/JP2004235743A/en
Application granted granted Critical
Publication of JP4011494B2 publication Critical patent/JP4011494B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a picture processor where information is converted into a picture signal which does not have visually uncomfortable feeling so as to output it when information is transferred to an outer unit which cannot understand embedding of black character information. <P>SOLUTION: The processor is provided with a picture input means 101, a scanner γ correction means 102, an image band separation means 103, a first filter processing means 105, a black character code embedding means 106, a compression means 107, an accumulation means 108, an extension means 109, a black character code extraction means 117, a color correction means 110, a second filter processing means 111, a magnification processing means 112, a base color removal/black generation means 113, a printer γ correction means 114, a half-tone processing means 115, a picture output means 116 and a separation magnification processing means 118. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、プリンタ,デジタル複写機,ファクシミリ,複合機能画像処理装置,MFP(マルチファンクションプリンタ)などの画像処理装置および画像処理方法およびプログラムおよび記録媒体に関する。
【0002】
【従来の技術】
カラー複写機においては、像域分離処理により画像の属性を判定し、最適な画像処理を施すことにより高画質な複写画質を達成している。特に、画像中の黒文字領域を判定し、黒文字に対して黒トナー単色で印字するような黒文字処理は、作像プロセスで発生する色ズレの影響をなくすことができ、高品位な黒文字再生に欠くことのできない処理である。
【0003】
ところで、カラー複写機では、複数枚のコピー出力を行いたいという要求があるが、これに対応するため画像データをハードディスクなどのデータ蓄積装置に一旦蓄積し、これを複数回読み出し、処理・出力する方法が一般的である。このときに問題となるのが像域分離データの取り扱いである。黒文字分離結果などの分離情報は、フィルタ処理,墨生成処理(黒文字では100%UCRにより黒トナーによる再生を行うもの),色消し処理(黒文字部では色補正後のc,m,yトナー量をゼロとし、余分な色成分を除去する処理),γ変換処理(黒文字の再現性を高めたいときに濃くして出力するもの),中間調処理(鮮鋭性の高い文字品質のために、画素単位での単純な閾値処理や誤差拡散など、解像性に優れた中間調処理を施すもの)などのほとんどの処理部で使用されるため、画像データとともに像域分離データも蓄積する必要がある。
【0004】
しかしながら、像域分離データを蓄積するということは、そのための回路が必要であったり、ハードディスクの容量を消費するため、できるならば像域分離データを保存しないことが好適である。また、処理途中の画像信号を外部の画像処理装置に転送し、残りの処理を行った後に出力するようなネットワーク型の画像処理システムなどにおいても、像域分離データを転送することはデータ転送量が増加するなどの問題があった。
【0005】
このような問題を解決する方法が特許文献1に示されている。この特許文献1では、黒文字分離結果を画像データ中に融合させて、蓄積あるいは転送し、読み出し後あるいは受信後に画像データから像域分離情報を抽出し、残りの画像処理を行う際に利用するようにしている。黒文字情報の融合は、黒文字画素を無彩色を表す信号(R=G=BやC=M=YやLabにおけるa=b=0など)に設定することで実現している。また、通常のカラー画像では一般的には用いられないような特殊な値(R=255,G=B=0など)とすることにより、黒文字情報を融合する方法も提案されている。このようにすることによって、像域分離信号を別途蓄積することなく、高画質な複写処理を実現している。
【0006】
しかしながら、近年、黒文字に対する分離結果はさらに細分化が行われており、黒文字という情報だけではさらなる高画質化が行えなくなってきた。
【0007】
例えば特許文献2では、文字のエッジ領域と文字内部領域とを別々に識別し、これらの処理を切り換えることによって、文字の画質をさらに高品位なものにしている。具体的には、文字エッジ部に対してはエッジ強調フィルタを施した後に最も解像性に優れた中間調処理(例えば固定値における2値化処理)を施し、文字内部領域に対してはフィルタスルーののち比較的解像性に優れた中間調処理(2×1のディザ)を施し、上記以外の絵柄部分には平滑化フィルタを施した後に最も階調性,粒状性に優れた中間調処理(2×2のディザ処理)を施すものである。このようにすることで、文字エッジと文字内部領域の境界部分での違和感(デフェクト)が低減された高品位な画像再生を行なうことができる。
【0008】
また、例えば特許文献3には、文字・線画の太さを判定し、太さに応じてUCR処理,フィルタ処理を制御することにより、文字線画等の黒色処理を円滑に行ない、黒文字処理の切り替わりがくっきりと目立つことを防止する技術が示されている。この特許文献3では、多段階に太さを検出し、太さに応じて処理を徐々に切り換えることで違和感の低減を図っている。また、文字・線画が白地中にある場合と網点中あるいは中間調中にある場合とで、異なる処理を行うことで、網点画像中の網点成分を強調してしまうことがなく、写真の縁等で余計な黒文字処理をすることがないようにしている。
【0009】
また、例えば特許文献4には、解像度変換を行う際に文字の太さに応じて補間法を切り換えることで、文字を高解像度で、写真を高階調で出力する技術が示されている。
【0010】
また、例えば特許文献5には、画像データ中の細線エッジ部と細線以外のエッジ部とを検出し、細線エッジ部には最近接画素置換法による解像度変換を行い、細線以外のエッジ部には線形補間法による解像度変換を行うことで、太文字や太線に対してはジャギーのない解像度変換を行い、細線に対しては線の掠れや消失のない解像度変換を行う技術が示されている。
【0011】
また、例えば特許文献6には、所定幅(例えば3画素)以内の細線部と、細線部以外の画像エッジ部とを検出し、細線部には強い強調処理を施し、細線部以外の画像エッジ部には穏やかな強調処理を施すことにより、細線は黒色が強く強調されて、くっきりと再現することができ、細線部以外のエッジ部では明瞭な縁取りが形成されてしまうという不具合を防止する技術が示されている。
【0012】
【特許文献1】
特開平8−98016号公報
【0013】
【特許文献2】
特開2000−133471号公報
【0014】
【特許文献3】
特開平7−203198号公報
【0015】
【特許文献4】
特開2002−57886
【0016】
【特許文献5】
特開平7−184043号公報
【0017】
【特許文献6】
特開平6−38055号公報
【0018】
【発明が解決しようとする課題】
以上のように、ひとことに黒文字と言っても、細線・太線など線の太さの情報、文字のエッジ部・文字の内部などの場所的な情報、白地上文字や網点上文字,写真などの連続調画像中の文字などの背景領域についての情報など、様々な黒文字があり、それぞれ最適な処理(黒文字処理)がある。
【0019】
しかしながら、上述した特許文献1では、黒文字という情報のみしか保持していなかったので、このような細分化された黒文字処理を行うことができなかった。
【0020】
また、黒文字情報が埋め込まれた画像データは、情報を埋め込むために特異な画像信号値を設定するものであるので、外部に出力しこれをRGBスキャンデータとして表示する場合は異常画像となってしまう。
【0021】
本発明は、様々な黒文字情報を画像データ中に埋め込み、これを再抽出し、それぞれに対して適応的な処理を行うことによって高画質な画像再生を行うことの可能な画像処理装置および画像処理方法およびプログラムおよび記録媒体を提供することを目的としている。
【0022】
また、本発明は、黒文字情報の埋め込みを理解できないような外部機器に転送する場合には、視覚的に違和感のない画像信号に変換して出力する画像処理装置および画像処理方法およびプログラムおよび記録媒体を提供することを目的としている。
【0023】
【課題を解決するための手段】
上記目的を達成するために、請求項1記載の発明は、入力されたカラー画像信号に対し対象画素が黒文字画素であるか否かを判定する黒文字画素判定手段と、黒文字画素判定手段によって対象画素が黒文字画素であると判定されたときには、黒文字画素と判定された対象画素に対しては、複数のカラー信号成分のうち少なくとも1つの成分は信号レベルを表し、残りのカラー成分のうち少なくとも1つの成分は属性を表す特定の値(コード情報)とすることにより、画像信号中に黒文字情報を埋め込む黒文字情報埋込手段と、画像信号中に埋め込まれたコード情報を解析することにより前記黒文字画素を抽出する抽出手段と、抽出手段によって抽出された抽出結果を用いて画像処理を施す処理手段とを備えていることを特徴としている。
【0024】
また、請求項2記載の発明は、請求項1記載の画像処理装置において、前記属性を表す特定の値(コード情報)によって黒文字画素のさらに詳細な属性情報を埋め込むことを特徴としている。
【0025】
また、請求項3記載の発明は、請求項2記載の画像処理装置において、黒文字画素の詳細な属性とは、少なくとも白地上黒文字画素を含むことを特徴としている。
【0026】
また、請求項4記載の発明は、請求項2記載の画像処理装置において、黒文字画素の詳細な属性とは、少なくとも連続調画像中の黒文字画素を含むことを特徴としている。
【0027】
また、請求項5記載の発明は、請求項2記載の画像処理装置において、黒文字画素の詳細な属性とは、少なくとも網点上黒文字画素を含むことを特徴としている。
【0028】
また、請求項6記載の発明は、請求項2記載の画像処理装置において、黒文字画素の詳細な属性とは、少なくとも細線黒文字画素を含むことを特徴としている。
【0029】
また、請求項7記載の発明は、請求項2記載の画像処理装置において、黒文字画素の詳細な属性とは、少なくとも太線黒文字画素を含むことを特徴としている。
【0030】
また、請求項8記載の発明は、請求項2記載の画像処理装置において、黒文字画素の詳細な属性とは、少なくとも黒文字部の線の太さ情報を含むことを特徴としている。
【0031】
また、請求項9記載の発明は、請求項2記載の画像処理装置において、黒文字画素の詳細な属性とは、少なくとも黒文字部の文字内部画素を含むことを特徴としている。
【0032】
また、請求項10記載の発明は、請求項1記載の画像処理装置において、黒文字画素以外の画素に対しては、前記属性を表す特定の値(コード情報)以外の値となるように画素値を補正する補正手段をさらに有していることを特徴としている。
【0033】
また、請求項11記載の発明は、請求項1記載の画像処理装置において、前記処理手段によって施される画像処理は、フィルタ処理,変倍処理,墨生成処理,色消し処理,γ変換処理,中間調処理の少なくともいずれかの処理であることを特徴としている。
【0034】
また、請求項12記載の発明は、請求項1または請求項2記載の画像処理装置において、前記黒文字コード埋込手段によって処理された画像信号をシステムまたはユーザによって指定された画像フォーマットに変換して外部機器に転送する処理機能をさらに有し、該処理機能は、前記該画像信号に対しコード化された画素情報を視覚的に違和感のない画像データに補正し、補正した画像信号を外部機器に転送するようになっていることを特徴としている。
【0035】
また、請求項13記載の発明は、入力されたカラー画像信号に対し対象画素が黒文字画素であるかを判定する黒文字画素判定工程と、黒文字画素判定工程によって対象画素が黒文字画素であると判定されたときには、黒文字画素と判定された対象画素に対しては、複数のカラー信号成分のうち少なくとも1つの成分は信号レベルを表し、残りのカラー成分のうち少なくとも1つの成分は属性を表す特定の値(コード情報)とすることにより、画像信号中に黒文字情報を埋め込む黒文字コード埋込工程と、画像信号中に埋め込まれたコード情報を解析することにより前記黒文字画素を抽出する抽出工程と、抽出工程によって抽出された抽出結果を用いて画像処理を施す処理工程とを備えていることを特徴としている。
【0036】
また、請求項14記載の発明は、請求項13記載の画像処理方法において、前記属性を表す特定の値(コード情報)によって黒文字画素のさらに詳細な属性情報を埋め込むことを特徴としている。
【0037】
また、請求項15記載の発明は、請求項13記載の画像処理方法において、黒文字画素以外の画素に対しては、前記属性を表す特定の値(コード情報)以外の値となるように画素値を補正する補正工程をさらに有していることを特徴としている。
【0038】
また、請求項16記載の発明は、請求項13記載の画像処理方法において、抽出された抽出結果を用いて画像処理を施す処理工程は、フィルタ処理,変倍処理,墨生成処理,色消し処理,γ変換処理,中間調処理の少なくともいずれかの処理であることを特徴としている。
【0039】
また、請求項17記載の発明は、請求項13または請求項14記載の画像処理方法において、前記黒文字コード埋込工程によって処理された画像信号をシステムまたはユーザによって指定された画像フォーマットに変換して外部機器に転送する処理機能をさらに有し、該処理機能は、前記画像信号に対しコード化された画素情報を視覚的に違和感のない画像データに補正し、補正した画像信号を外部機器に転送するようになっていることを特徴としている。
【0040】
また、請求項18記載の発明は、入力されたカラー画像信号に対し対象画素が黒文字画素であるかを判定する黒文字画素判定工程と、黒文字画素判定工程によって対象画素が黒文字画素であると判定されたときには、黒文字画素と判定された対象画素に対しては、複数のカラー信号成分のうち少なくとも1つの成分は信号レベルを表し、残りのカラー成分のうち少なくとも1つの成分は属性を表す特定の値(コード情報)とすることにより、画像信号中に黒文字情報を埋め込む黒文字コード埋込工程と、画像信号中に埋め込まれたコード情報を解析することにより前記黒文字画素を抽出する抽出工程と、抽出工程によって抽出された抽出結果を用いて画像処理を施す処理工程とをコンピュータに実現させるためのプログラムである。
【0041】
また、請求項19記載の発明は、入力されたカラー画像信号に対し対象画素が黒文字画素であるかを判定する黒文字画素判定工程と、黒文字画素判定工程によって対象画素が黒文字画素であると判定されたときには、黒文字画素と判定された対象画素に対しては、複数のカラー信号成分のうち少なくとも1つの成分は信号レベルを表し、残りのカラー成分のうち少なくとも1つの成分は属性を表す特定の値(コード情報)とすることにより、画像信号中に黒文字情報を埋め込む黒文字コード埋込工程と、画像信号中に埋め込まれたコード情報を解析することにより前記黒文字画素を抽出する抽出工程と、抽出工程によって抽出された抽出結果を用いて画像処理を施す処理工程とをコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体である。
【0042】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。
【0043】
(第1の実施形態)
図1は本発明の第1の実施形態の画像処理装置の構成例を示す図である。図1を参照すると、この第1の実施形態の画像処理装置は、画像入力手段101と、スキャナγ補正手段102と、像域分離手段103と、第1のフィルタ処理手段105と、黒文字コード埋め込み手段106と、圧縮手段107と、蓄積手段108と、伸張手段109と、黒文字コード抽出手段117と、色補正手段110と、第2のフィルタ処理手段111と、変倍処理手段112と、下色除去・墨生成手段113と、プリンタγ補正手段114と、中間調処理手段115と、画像出力手段116と、分離用変倍処理手段118とを有している。
【0044】
この第1の実施形態の画像処理装置では、次のような処理がなされる。すなわち、スキャナ等の画像入力手段101によって光学的に読み取られた原稿は、rgbの各8bitのデジタル画像信号に変換されて出力される。画像入力手段101から出力された画像信号はスキャナγ補正手段102に入力され、反射率リニアなrgb信号は、スキャナγ補正手段102においてLUT(ルックアップテーブル)等により濃度リニアなRGB信号へと変換される。また、このとき、グレーバランスがとられ、R,G,Bの画素値が等しいときはグレーとなるように調整される。
【0045】
また、画像入力手段101から出力された画像信号rgbは同時に像域分離手段103にも入力され、像域分離手段103に入力した画像は、像域分離手段103によって黒文字画像領域と色文字画像領域及びそれ以外の絵柄領域に識別される。特に黒文字画像領域はより細分化された属性判定が行われる。
【0046】
図2は本発明の第1の実施形態の像域分離手段103の構成例を示す図である。図2の例では、像域分離手段103は、網点検出手段1030、白背景検出手段1031、無彩色判定手段1032、エッジ検出手段1033、細線検出手段1034、文字なか検出手段1035を有し、これらの検出結果を総合判定手段1036にて領域判定して像域分離信号c1として出力するように構成されている。
【0047】
なお、ここで、網点検出手段1030,白背景検出手段1031,無彩色判定手段1032,エッジ検出手段1033,文字なか検出手段1035は、特開平2001−268383に開示されている分離方式となっている。また、細線検出手段1034には、特開平6−38055に開示されている方法を用いることができる。
【0048】
本発明の第1の実施形態では、細線検出手段1034によって黒文字画像領域を細線領域およびそれ以外の領域に識別するとともに、文字なか検出手段1035によって文字なか(文字の内部領域)および文字なか以外の領域に識別するようにしている。
【0049】
以上のように、像域分離手段103によって得られた像域分離信号c1は、図3に示すような画像属性に分類される。すなわち、網点検出手段1030による網点分離結果と白背景検出手段1031による白背景分離結果とにより、対象画像領域が網点画像領域であるか、白地領域であるか、連続調画像領域であるかの識別が行なわれる。エッジ検出手段1033では、これらの領域の中でエッジがあるか否かの判定を行い、エッジ領域である場合には、細線検出手段1034および文字なか検出手段1035によって、細線領域であるか否か、および文字なか領域であるか否かを判定する。
【0050】
なお、この例では、無彩文字に対してのみ、細線,文字なか等の詳細属性の判定を行っているが、もちろん有彩文字に対しても同様の詳細属性判定を行っても良い。
【0051】
ところで、エッジ検出手段1033にてエッジと判定する際の閾値は、網点画像領域,白地領域,連続調画像領域の各々で異なるように構成しておくと良い。例えば、白地画像領域では、閾値を低めに設定し、微小なエッジも文字として判定するようにし、また、網点画像領域では、比較的大きなエッジのみを文字エッジと判定するようにし、また、連続調画像では、この中間的な値に設定することができる。このようにすることで、網点地の網点ドットで検出されるエッジを文字と判定せず、白地上の文字に関しては低コン文字や鉛筆原稿などの比較的小さなエッジを文字と判定することが可能となる。
【0052】
以上のように、図2の例では、総合判定手段1036によって像域分離信号c1は12通りの画像属性に分類される。
【0053】
また、図1において、第1のフィルタ処理手段105では、像域分離手段103からの判定結果(像域分離信号c1)に基づいて、エッジ強調処理、あるいは、平滑化処理、あるいは、その中間的な特性を有するフィルタ処理を施す。具体的には、文字領域(黒文字及び色文字の両領域)に対しては均一なエッジ強調フィルタ処理を施し、網点領域に対しては平滑化フィルタ処理を施し、中間調画像領域に対してはフィルタスルー処理を施す。図4には、第1のフィルタ処理手段105におけるこのような処理形態が示されている。すなわち、第1のフィルタ処理手段105(第1のフィルタ)では、画像領域によって1(平滑)〜3(強調)の3つのフィルタを切り換えて適用している。
【0054】
このように制御することによって、文字部では鮮鋭性を満足し、絵柄部では網点部などでのモアレの抑制を満足する。
【0055】
第1のフィルタ処理手段105によるフィルタ処理後の画像信号は、図1において、次いで、黒文字コード埋込手段106に入力され、黒文字コード埋込手段106では、像域分離データを画像中に埋め込む処理を行なう。
【0056】
図5には、黒文字コード埋込手段106の構成例が示されている。図5の黒文字コード埋込手段106では、第1のフィルタ処理手段105によるフィルタ処理後のR,G,B信号を直接セレクタ1062に入力させるとともに、R,B信号を代表濃度値であるG信号値に書き換えるブロック1060,1061に分岐させている。ブロック1060,1061でG信号に書き換えられたR,B信号は、セレクタ1062に入力し、セレクタ1062では、分離信号c1によってどちらかを選択する。すなわち、セレクタ1062は、黒文字画像領域、つまり図3のSEG(1)〜(9)の領域では代表濃度値に書き換えられたパスを選択し、それ以外の非黒文字領域ではスルーパスを選択する。これにより、黒文字領域ではR’’=G’’=B’’=Gとなり、全て同じ値が設定される。
【0057】
さらに、コード埋込ブロック1063では、像域分離信号c1に応じて、黒文字の詳細な画像属性を埋め込む。具体的なデータの設定値は図3に示されている。すなわち、図3の右のコード欄には、RGBの各値をどのように設定するかが示されている。例えば、画像属性が連続調画像中の黒太文字の文字縁(1)であれば、Rの値を強制的に255にセットし、GおよびBに代表濃度値であるGの値をセットする。また、画像属性が白地上の細線文字(6)であれば、Rの値を0にセットし、Bの値を255にセットし、Gに代表濃度値をセットするようになっている。同様な方法で、SEG(1)〜(9)の全ての黒文字に対応するコード情報を埋め込む。通常の画像中には図3に示したようなデータの組合せをとることはほとんどなく、後段の黒文字コード再抽出ブロック(黒文字コード抽出手段117)で誤って非黒文字領域を黒文字と判定してしまうことはほとんどない。また、画像の性質上、黒文字画素が孤立して存在することはなく、周辺に同じ属性の画素が存在するので、再抽出の際に孤立状態の黒文字属性画素を排除することで、正確な再抽出が可能である。また、この例では示していないが、非黒文字画素領域SEG(10)〜(12)の画像中に黒文字コードに対応するRGB画素値の組合せが存在した場合には、あらかじめ画素値を加工し、コード以外の値となるよう微調整することも効果的である。例えば、非黒文字部分でR=255,G=170,B=170なる画素が存在した場合、このままでは連続調中の太文字(SEG(1))に対応するコードと同じであるので、意図的にR=255,G=172,B=168に加工する。厳密には色変わりが発生するが、スキャナデータではこのような値をもつ画素が連続して存在することはほとんどなく、上記の変更程度の加工であれば実際には画質上ほとんど影響がない。このようにして黒文字コードの抽出精度を向上させることができる。
【0058】
黒文字コード埋込手段106からの画像信号R’G’B’は、次いで、圧縮手段107において画像圧縮が施された後、ハードディスク装置等の蓄積手段108に蓄積される。伸張手段109では、蓄積された信号を再び読み出して伸張し、黒文字コード抽出手段117へと出力する。ここで、圧縮伸張手段107,109は、可逆圧縮でも良いし非可逆圧縮でも良いが、蓄積手段108への蓄積枚数やデータ転送レートを考慮して、通常は非可逆圧縮方式を用いるのが一般的である。
【0059】
黒文字コード抽出手段117では、先の黒文字コード埋込手段106で埋め込んだコード情報に基づき、黒文字画素および黒文字画素の詳細な属性情報の再抽出が行われる。図6には、黒文字コード抽出手段117の構成例が示されている。図6の構成例では、伸張手段109によって伸張された後のR’G’B’信号はコンパレータ1170a〜1170iに入力される。
【0060】
ここで、コンパレータ1170a〜1170fは、R’,G’,B’の信号が0であるか、あるいは、255であるかを判定するブロックである。例えばコンパレータ1170aでは、R’信号とth1(ここではth1は2とする)とを比較し、R’信号がth1よりも小さい値であればR’信号は0と判定し、0であることがアクティブな信号を出力する。また、コンパレータ1170bでは、R’信号をth2(ここではth2は253とする)と比較し、R’信号がth2よりも大きければ255であると判定し、255であることがアクティブな信号を出力する。同様に、コンパレータ1170c〜1170fでは、G’,B’信号について、0であるか、あるいは、255であるかの判定を行う。ここで、th1が2、th2が253というように若干のマージンを持たせているのは、先の圧縮伸張手段107,109が非可逆な方式の場合に必要であり、黒文字コード埋め込み手段106で0にセットした値が伸張後には0ではない値に劣化してしまう影響を吸収するためである。
【0061】
また、コンパレータ1170g〜1170iは、それぞれ、R’とG’が同じ値であるかを判定する回路(1170g)、G’とB’が同じ値であるかを判定する回路(1170h)、B’とR’が同じ値であるかを判定する回路(1170i)である。コンパレータ1170g〜1170iは、それぞれ、同じ値と判定された場合にはアクティブな信号を出力する。なお、コンパレータ1170g〜1170iでも、非可逆圧縮の影響を考慮して、若干のマージンを持たせて判定することが望ましい。
【0062】
コンパレータ1170a〜1170iの判定信号は、デコーダ1171に入力され、デコーダ1171では、判定信号の組合せに応じて、先述のSEG(1)〜(9)属性のいずれか、およびそれ以外の属性にデコードして、属性信号c2を出力する。属性信号c2はデータ再構成回路1172へ入力され、R’G’B’信号は、データ再構成回路1172において、コードを取り外した信号R’’’,G’’’,B’’’に変換されて出力される。具体的には、SEG(1)〜(9)のいずれかの属性であった場合には、その属性に応じて保存された濃度信号の値Gを、残りの0,255の値に書き写して出力し、SEG(1)〜(9)以外の属性、つまり非黒文字の場合にはR’G’B’のまま出力するようにしている。このようにすることよって、埋め込まれたコードを取り外すことができる。なお、前述のように、周辺画素の属性再抽出結果などに応じて属性結果を補正したりすることで、より精度の高い再抽出が行える。
【0063】
次に、色補正手段110では、マスキング演算等によりRGB系の信号をプリンタ系の色材に適したCMY系の信号に変換する。色補正処理は、さまざまな手法が考えられるが、ここでは次式(数1)のようなマスキング演算が行われるものとする。
【0064】
【数1】
C = α11×R + α12×G + α13×B + β1
M = α21×R + α22×G + α23×B + β2
Y = α31×R + α32×G + α33×B + β3
【0065】
但し、α11〜α33およびβ1〜β3は予め定められた色補正係数で、出力されるCMYも8bit(0〜255)の信号とする。
【0066】
色補正手段110からの画像信号は、第2のフィルタ処理手段111に入力される。第2のフィルタ処理手段111では、黒文字コード抽出手段117で再抽出された黒文字属性信号c2に基づいて、適応的なフィルタ処理を施す。適用するフィルタ強度の一例は、図4に示されている。すなわち、図4に示すように、白地上の細線・細い文字に関しては最も強いフィルタレベル5を施す。これによりくっきりとした再現が難しかった細線を高精細に再生することができる。また、連続調画像中の細線には少し弱いフィルタレベル4を施す。網点中の細線に対してはさらに弱いフィルタレベル3を施すのが良い。これはイメージ画像中に非常に強い強調を行うと違和感が発生したりするためである。太文字の文字縁についても、網点では白地、連続調中の太文字縁に比べて弱めのフィルタが好ましい。かつ、網点成分を強調しないような高周波帯域での強調を抑えたバンドパス型のフィルタが好適である。文字中については、いずれもフィルタレベル1とし、スルーで出力するものである。また、絵柄領域についてもスルーで出力する。
【0067】
図1の例においては、圧縮前段と後段で2つのフィルタ(第1のフィルタ処理手段105,第2のフィルタ処理手段111)を持つような構成を示した。第1のフィルタ(第1のフィルタ処理手段105)がある理由は、蓄積した画像信号をハードディスク装置から読み出し、外部I/Fを通じて外部機器に転送する場合に(いわゆるスキャナアプリとして動作させる場合に)、ある程度のフィルタ処理を施した方が好適であるためである。例えば取り込んだスキャナデータをプリンタで出力する場合などは、文字の鮮鋭性を向上させておいた方がくっきり再現するし、網点画像では平滑化処理を施し、網点構造を除去しておいた方がプリンタで施されるディザ処理との干渉モアレも発生せず、高画質な再生が行えるためである。しかし、あまり強い強調を施すと、非可逆圧縮によって発生する画質劣化が大きくなるため、ある程度の強調に留めておいた方が良い。ここで不足した強調分を補うため、第2のフィルタ処理(第2のフィルタ処理手段111)を施すようにしている。特に、鮮鋭性が不足すると人間が感じる色は黒であるので、本発明のように黒文字に対する属性のみを埋め込むことは有効である。中でも、細線、特に白地上の細線にのみ強い強調を施すことができるので、絵柄部でのデフェクトを起こすことなくフィルタ処理が行える。
【0068】
第2のフィルタ処理手段111からの信号は、変倍処理手段112に入力される。変倍処理手段112は、縮小変倍の時、白地上の細線に対しては近接最大画素置換法による変倍を行い、それ以外の画像領域に対してはキュービックコンボリューション法(以下、QC法という)による変倍を行うようになっている。高品位な変倍方式としてQC法があるが、細線画像に対してQC法で縮小すると線切れ,線掠れが発生する。近接最大画素置換法は、仮想サンプリング点の画素値を決定する際に、近接画素の最大値を求め、この値を仮想サンプリング点の画素値とするものである。このような変倍方式では、線画部分にジャギー(がたつき)が発生するが、線が消えたり掠れたりするよりはましである。ところで、線掠れ,線消えが目立つのは白地上の細線であるので、この例では白地上の細線のみに近接最大画素置換法を用いている。
【0069】
また、分離用変倍処理手段118は、変倍処理手段112で施された変倍率と同等の変倍率で分離信号の変倍を行うようになっている。ここで、変倍方法は最近接法である。
【0070】
変倍処理手段112からの画像信号は、下色除去・墨生成手段(BG・UCR)113において、CMYK信号に変換されて出力される。すなわち、下色除去・墨生成手段113では、墨成分であるK信号が生成されるとともに、CMY信号から下色除去(UCR)が行われる。ここで、下色除去・墨生成手段113は、変倍処理後の黒文字属性信号c2を入力し、属性に応じた異なる下色除去・墨生成を行う。基本的に、K信号の生成およびCMY信号からの下色除去は、次式(数2)のように行われる。
【0071】
【数2】
K = Min(C,M,Y) × β1
C’ = C − K × β2
M’ = M − K × β2
Y’ = Y − K × β2
【0072】
但し、Min(C,M,Y)は、CMY信号のうち最小のものであり、β1,β2は属性信号によって決定される係数(0〜1.0)である。
【0073】
各画像属性に対する下色除去・墨生成の制御を図4で説明する。くっきりとした黒文字再現を実現するため、白地上の細線と文字縁については墨率を最大の設定5(β1=1.0)とする。白地上文字の文字なかについては、どのような太さの文字に対しても正しく文字なか検出が行えれば、文字なかも最大墨率5に設定すればよいが、文字の太さが太い場合は正しく文字なかと検出できない場合があるので、デフェクトを小さくするためにやや墨率を下げた設定3(β1=0.8)とする。網点上や連続画像中の黒細線については墨率が高すぎると違和感が目立つので、白地上の黒細線よりもやや低めの設定4(β1=0.9)とする。その他の太さの黒文字に関しては、切り替わりのデフェクトを考慮して設定3とする。絵柄部の墨率は、粒状性を考慮して低めの設定1(β=0.6)とするのが望ましい。
【0074】
また、白地上の黒細線や文字縁では、C’,M’,Y’の値を0にし、色消しを実施して出力することが望ましい。前段の圧縮手段が可逆方式であれば色消しの必要はほとんどないが、非可逆圧縮方式の場合は劣化により黒文字画素に若干の色成分が発生するので、これを消すための色消しがあった方がよい。
【0075】
なお、上述の例では、黒文字の画像属性情報に基づき墨率を決定する例を示したが、別の方式では、エッジ量に基づき墨率を決定する適応的なBG・UCR方式などにおけるエッジ判定閾値を黒文字属性に応じて異なる値を設定するなどしても良い。
【0076】
下色除去・墨生成手段113で処理された信号は、プリンタγ補正手段114によってプリンタエンジン特性に合わせたγ補正が行われる。ここで、黒文字に対して個別のγ特性を適用することができる。図4のように、白地上の細線では、再現性が向上するようにγ特性を高めに設定したγテーブルを適用し、白地上文字の文字縁や文字なかでもややハイγ設定のテーブルを適用する。絵柄領域や、網点・連続画像中の黒文字の内部縁・文字なかでは、階調性を重視したリニアなγテーブルを適用する。また、網点・連続画像中の細線文字では、少しだけ再現性が向上するようなやや立たせたγ特性を用いる。このように、細分化された黒文字属性に応じてきめ細かなγ補正を実施できるので、再現性にすぐれ、かつ切り替わり部分でのデフェクトの少ない画像再生が実現できる。
【0077】
プリンタγ補正後の信号は中間調処理手段115に入力され、中間調処理手段115では、白地上の細線と、白地上の文字縁に対しては、最も解像力に優れた中間調処理設定3(1×1ディザ)を用いる。これはいわゆる画素単位での単純な多値化処理である。また、網点上の文字や連続調画像中の文字、および、文字なかに対しては、比較的解像力に優れ、階調性も得られるような中間設定2(2×1ディザ)を用いる。さらに、黒文字以外の画像属性に対しては、階調性重視の設定1(2×2ディザ)を施す。各中間調処理方式については特開2000−134471に示されている。
【0078】
このように処理することにより、文字の外側エッジと文字なかで切り替わりのデフェクトのない再現が行え、細線文字に対しても解像力に優れた再現が行え、絵柄に対しても粒状性,階調性に優れた再現が行える。
【0079】
以上のように、一口に黒文字といっても、背景の状態,文字の太さ,文字の内外によって適切な処理は異なり、細分化された黒文字属性情報を用いて処理を切り換えることは高画質化に貢献できる。しかも、画像を蓄積する前に属性情報を画像データ中に埋め込むことで属性情報を保持するよう構成しており、これにより、属性情報を別途に保存蓄積する必要がなくなり、蓄積すべきデータ量を低減することができる。
【0080】
(第2の実施形態)
本発明の第2の実施形態は、図1における像域分離手段103の構成が第1の実施形態とは異なり、図7に示すように文字太さ検出手段1037を備えている。すなわち、図7を参照すると、第2の実施形態の像域分離手段103では、網点検出手段1030,白背景検出手段1031,無彩色判定手段1032,エッジ検出手段1033,文字太さ検出手段1037によって、総合的に画像の属性判定を行っている。文字太さ検出手段1037には、例えば特開平7−203198に開示されている方法が用いられる。
【0081】
第2の実施形態における属性判定を図8を用いて説明する。図8に示すように、黒文字と判定された画像領域を、文字太さに応じて、さらに、太文字,普通文字,細線文字に細分化する。また、背景領域についても、連続調画像中,白地中,網点上の3種類に分類し、それらの組合せにより9種類の黒文字領域を判定している。そして、第1のフィルタ処理手段105では、判定結果に応じて図9のようにフィルタ強度の制御を行う。続いて、黒文字コード埋め込み手段106では、図8のSEG(1)〜(9)のように判別された黒文字情報を画像データ中に埋め込む。具体的なコードは図8の右欄の通りである。
【0082】
そして、圧縮伸張手段107,109による圧縮伸張後の画像信号に対し、黒文字コード抽出手段117では、第1の実施形態で説明したと同様に、画像データ中から黒文字属性情報を抽出する。そして、抽出した黒文字属性情報に基づき、第2のフィルタ処理手段111では、白地上の細線文字には強い強調(設定5)を施し、太文字には比較的弱い強調(設定2)を施す。また、中程度の太さの普通文字には中間的な強度(設定3)を施す。そして、変倍処理手段112では、第1の実施形態で説明したと同様に、変倍処理を行なう。
【0083】
次いで、下色除去・墨生成手段(BG・UCR)113では、白地上の細線文字に対しては、最も高い墨率設定5(β1=1.0)を適用し、太くなるにつれて墨率設定を下げるように制御する。また、連続調中の文字や網点上の文字に関しては、デフェクトを考慮し白地上文字よりも低めの墨率設定とする。
【0084】
次いで、プリンタγ補正手段114,中間調処理115では、第1の実施形態で説明したと同様の処理を行なう。
【0085】
以上のように、第2の実施形態では、像域分離手段103において、文字太さを検出し、画像データ中に、黒文字情報と、黒文字の太さ,背景情報についての詳細属性を埋め込み、圧縮蓄積処理の後段でこれを抽出し画質処理に利用することで、高品質な画像再生を行なうことができる。
【0086】
ところで、上述した第1,第2の実施形態のような画像処理装置で処理したスキャン画像を外部機器に転送したいという要求がある。図1の構成例は、蓄積手段108に蓄積された信号を外部転送する構成となっている。すなわち、図1の例では、蓄積手段108に蓄積された画像信号を所定のフォーマットに変換して外部装置に転送する場合、蓄積手段108からの信号を読み出し、圧縮・伸張手段119にて伸張し、解像度変換手段121で所定の解像度に変換する。外部転送時のデータサイズを小さくするため、例えば600dpi解像度画像を300dpiや200dpiに変換する。さらに、ブロック122でsRGB変換などの標準信号に変換し、JPEG圧縮・伸張手段123でJPEGフォーマットに変換し、NIC124を介して外部装置に転送することができる。
【0087】
しかしながら、黒文字コードが埋め込まれた状態では、画像信号値が本来の画像とは大きく異なっているので、モニタなどに表示したときに異常画像となる。そこで、本発明では、補正手段120を設け、外部転送する前に画像データを補正手段120によって補正し、モニタなどに表示する際に異常とならないようにしている。
【0088】
すなわち、図1において、蓄積手段108から読み出された画像信号は、圧縮・伸張手段119にて伸張されて補正手段120に入力し、補正手段120では、埋め込まれた黒文字コードを図6の黒文字コード抽出手段で抽出し、コードが埋め込まれた画素とそうでない画素とを判別する。さらに、黒文字コードが埋め込まれた画素には、R,G,Bすべてのデータを代表値(ここではGデータ)とする。黒文字コードが埋め込まれていない画素は、そのままのRGB値を出力する。
【0089】
さらに解像度変換手段121では、指定手段(図示せず)によって指定された解像度に変換し、sRGB変換手段122でsRGB信号に変換し、ブロック123でJPEG圧縮を施した後、NIC(Network InterfaceCard)124を通して外部I/Fに出力する。このようにすることで、外部機器に転送したときに異常画像とならないような画像補正を行なうことができる。
【0090】
また、上述の例では、補正手段120は、黒文字コードが埋め込まれた画素にはR,G,Bすべてのデータを代表値(ここではGデータ)とするものであったが、別の例としては、補正手段120は、白地上の黒文字コード(SEG(4)〜(6))に対しては上述と同様にR=G=Bとなるように補正し、白地上の黒文字以外のコード(SEG(1)〜(3),SEG(7)〜(9))に対しては、R=G=Bの値から若干離れた値とするものであっても良い。例えば、処理対象画素がR=255,G=170,B=170であったとき、これは黒文字コードが埋め込まれた画素であり、連続調中の太文字文字縁(表1の場合)を示している。上述の例の方法では、R=170,G=170,B=170と補正するところであるが、このようには補正せず、例えばR=168,G=170,B=172などの値に補正するようになっていても良い。つまり完全に一致させたR=G=Bではなく、少し値をずらしたR≒G≒Bとなるように補正するようになっていても良い。このように補正しても、モニタなどに表示したときに異常画像となることはない。この状態では、白地上の黒文字のみがR=G=Bとなっており、その他の画素はR=G=Bという条件が成り立っていないこととなる。このようなルールを設けておけば、外部機器で黒文字処理を施して出力する場合や、再び本画像処理装置に外部I/Fから入力して処理する場合など、R=G=B信号を白地上黒文字画素として抽出し黒文字処理することで、白地上黒文字の品質を維持することができる。先述の白地上黒文字以外の黒文字画素もR=G=Bとして出力する補正処理では、網点上の黒文字や連続調画像中の黒文字に対しても黒文字処理を施してしまうので違和感のある画像となってしまう。本発明のように、白地上の黒文字のみに黒文字処理を施せるようR=G=Bとし、網点上および連続調中の黒文字に対してはあえてR=G=Bとならないように黒文字情報を放棄して補正出力し、受信側ではR=G=B画素のみを黒文字処理するように構成すれば、白地上の文字品質を維持し、絵柄中での極端な黒文字処理のない違和感の少ない画像再生が実現できる。
【0091】
上述したように、本発明の画像処理装置は、入力されたカラー画像信号に対し対象画素が黒文字画素であるか否かを判定する黒文字画素判定手段と、黒文字画素判定手段によって対象画素が黒文字画素であると判定されたときには、黒文字画素と判定された対象画素に対しては、複数のカラー信号成分のうち少なくとも1つの成分は信号レベルを表し、残りのカラー成分のうち少なくとも1つの成分は属性を表す特定の値(コード情報)とすることにより、画像信号中に黒文字情報を埋め込む黒文字情報埋込手段と、画像信号中に埋め込まれたコード情報を解析することにより前記黒文字画素を抽出する抽出手段と、抽出手段によって抽出された抽出結果を用いて画像処理を施す処理手段とを備えていることを特徴としている。
【0092】
この本発明の画像処理装置において、前記属性を表す特定の値(コード情報)によって黒文字画素のさらに詳細な属性情報を埋め込むことができる。
【0093】
ここで、黒文字画素の詳細な属性としては、少なくとも白地上黒文字画素を含むことができる。
【0094】
あるいは、黒文字画素の詳細な属性としては、少なくとも連続調画像中の黒文字画素を含むことができる。
【0095】
あるいは、黒文字画素の詳細な属性としては、少なくとも網点上黒文字画素を含むことができる。
【0096】
あるいは、黒文字画素の詳細な属性としては、少なくとも細線黒文字画素を含むことができる。
【0097】
あるいは、黒文字画素の詳細な属性としては、少なくとも太線黒文字画素を含むことができる。
【0098】
あるいは、黒文字画素の詳細な属性としては、少なくとも黒文字部の線の太さ情報を含むことができる。
【0099】
あるいは、黒文字画素の詳細な属性としては、少なくとも黒文字部の文字内部画素を含むことができる。
【0100】
また、上述した本発明の画像処理装置において、黒文字画素以外の画素に対しては、前記属性を表す特定の値(コード情報)以外の値となるように画素値を補正する補正手段をさらに有していても良い。
【0101】
また、上述した本発明の画像処理装置において、前記処理手段によって施される画像処理は、フィルタ処理,変倍処理,墨生成処理,色消し処理,γ変換処理,中間調処理の少なくともいずれかの処理である。
【0102】
また、上述した本発明の画像処理装置において、前記黒文字コード埋込手段によって処理された画像信号をシステムまたはユーザによって指定された画像フォーマットに変換して外部機器に転送する処理機能をさらに有し、該処理機能は、前記該画像信号に対しコード化された画素情報を視覚的に違和感のない画像データに補正し、補正した画像信号を外部機器に転送するようになっていても良い。
【0103】
また、本発明の画像処理方法は、入力されたカラー画像信号に対し対象画素が黒文字画素であるかを判定する黒文字画素判定工程と、黒文字画素判定工程によって対象画素が黒文字画素であると判定されたときには、黒文字画素と判定された対象画素に対しては、複数のカラー信号成分のうち少なくとも1つの成分は信号レベルを表し、残りのカラー成分のうち少なくとも1つの成分は属性を表す特定の値(コード情報)とすることにより、画像信号中に黒文字情報を埋め込む黒文字コード埋込工程と、画像信号中に埋め込まれたコード情報を解析することにより前記黒文字画素を抽出する抽出工程と、抽出工程によって抽出された抽出結果を用いて画像処理を施す処理工程とを備えていることを特徴としている。
【0104】
この本発明の画像処理方法において、前記属性を表す特定の値(コード情報)によって黒文字画素のさらに詳細な属性情報を埋め込むことができる。
【0105】
また、この本発明の画像処理方法において、黒文字画素以外の画素に対しては、前記属性を表す特定の値(コード情報)以外の値となるように画素値を補正する補正工程をさらに有していても良い。
【0106】
また、この本発明の画像処理方法において、抽出された抽出結果を用いて画像処理を施す処理工程は、フィルタ処理,変倍処理,墨生成処理,色消し処理,γ変換処理,中間調処理の少なくともいずれかの処理である。
【0107】
また、この本発明の画像処理方法において、前記黒文字コード埋込工程によって処理された画像信号をシステムまたはユーザによって指定された画像フォーマットに変換して外部機器に転送する処理機能をさらに有し、該処理機能は、前記画像信号に対しコード化された画素情報を視覚的に違和感のない画像データに補正し、補正した画像信号を外部機器に転送するようになっていても良い。
【0108】
上述のように、本発明によれば、像域分離手段で黒文字に対する細分化された属性判定を行い、これを画像データ中に埋め込み、蓄積し、再び画像データを読み出し黒文字に関する細分化された属性情報(背景や黒文字の太さに関する情報)を抽出し、フィルタ処理,変倍処理,墨生成処理,色消し処理,γ変換処理,中間調処理等を適応的に制御することにより、デフェクトの少ない高画質な黒文字再生を行うことができる。また、属性情報を画像データ中に埋め込んで蓄積するので、属性情報を別に保存蓄積する必要がなく、蓄積すべきデータ量の低減が図れる。
【0109】
また、黒文字コードを埋め込む際には、黒文字以外の画素に対して黒文字コード以外の値となるように意図的に画像信号を補正するようにしているので、後段で黒文字コードを抽出する際の精度を向上させ、高画質化に貢献することができる。
【0110】
また、黒文字情報が埋め込まれた画像データを外部機器に転送して使用する際には、補正手段によって黒文字コードを取り外し、視覚的に違和感のない画像信号に黒文字画素値を補正して出力するようにしているので、視覚的に違和感のない画像出力を行うことができる。
【0111】
本発明の上述した画像処理は、コンピュータに実現させるプログラムの形で提供することができる。
【0112】
また、本発明の上述した画像処理をコンピュータに実現させるためのプログラムは、例えばソフトウェアパッケージ(具体的には、CD−ROM等の記録媒体)の形で提供することができる。
【0113】
換言すれば、本発明の画像処理装置は、汎用の計算機システムにCD−ROM等の記録媒体に記録されたプログラムを読み込ませて、この汎用計算機システムのマイクロプロセッサに処理を実行させる装置構成においても実施することが可能である。この場合、本発明の処理を実行するためのプログラム(すなわち、ハードウェアシステムで用いられるプログラム)は、媒体に記録された状態で提供される。プログラムなどが記録される記録媒体としては、CD−ROMに限られるものではなく、ROM,RAM,フレキシブルディスク,メモリカード等が用いられても良い。媒体に記録されたプログラムは、ハードウェアシステムに組み込まれている記憶装置、例えばハードディスクにインストールされ起動されることにより、このプログラムを実行して、本発明の処理を実現することができる。
【0114】
【発明の効果】
以上に説明したように、請求項1乃至請求項19記載の発明によれば、様々な黒文字情報を画像データ中に埋め込み、これを再抽出し、それぞれに対して適応的な処理を行うことによって高画質な画像再生を行うことができる。
【0115】
また、本発明は、黒文字情報の埋め込みを理解できないような外部機器に転送する場合には、視覚的に違和感のない画像信号に変換して出力することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態の画像処理装置の構成例を示す図である。
【図2】本発明の第1の実施形態の像域分離手段の構成例を示す図である。
【図3】像域分離信号の画像属性への分類を示す図である。
【図4】第1のフィルタ処理手段における処理形態を示す図である。
【図5】黒文字コード埋込手段の構成例を示す図である。
【図6】黒文字コード抽出手段の構成例を示す図である。
【図7】本発明の第2の実施形態の像域分離手段の構成例を示す図である。
【図8】第2の実施形態における属性判定を説明するための図である。
【図9】第1のフィルタ処理手段におけるフィルタ強度の制御を説明するための図である。
【符号の説明】
101 画像入力手段
116 画像出力手段
102 スキャナγ補正手段
103 像域分離手段
105 第1のフィルタ処理手段
106 黒文字コード埋め込み手段
117 黒文字コード抽出手段
110 色補正手段
111 第2のフィルタ処理手段
112 変倍処理手段
118 分離用変倍処理手段
113 下色除去・墨生成手段
114 プリンタγ補正手段
115 中間調処理手段
108 蓄積手段
107 圧縮手段
109 伸張手段
119 圧縮・伸張手段
120 補正手段
121 解像度変換手段
122 ブロック
123 JPEG圧縮・伸張手段
124 NIC
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus such as a printer, a digital copying machine, a facsimile, a multifunction image processing apparatus, an MFP (multifunction printer), an image processing method, a program, and a recording medium.
[0002]
[Prior art]
2. Description of the Related Art In a color copying machine, high-quality copy image quality is achieved by determining image attributes by image area separation processing and performing optimal image processing. In particular, black character processing in which a black character area in an image is determined and black characters are printed with a single color of black toner for black characters can eliminate the effect of color misregistration that occurs in the image forming process, and lacks high-quality black character reproduction. This is a process that cannot be performed.
[0003]
By the way, in color copiers, there is a demand to copy and output a plurality of sheets. To cope with this, image data is temporarily stored in a data storage device such as a hard disk, and is read out, processed and output a plurality of times. The method is general. The problem at this time is handling of image area separation data. Separation information such as a black character separation result includes filter processing, black generation processing (reproduction with black toner by 100% UCR for black characters), and color erasure processing (black, c, m, and y toner amounts after color correction are used for black characters). Zero processing to remove extra color components), γ-conversion processing (output with darkening to enhance the reproducibility of black characters), halftone processing (pixel unit for high sharp character quality) Since it is used in most processing units such as those that perform a halftone process with excellent resolution, such as simple threshold processing and error diffusion, it is necessary to accumulate image area separation data together with image data.
[0004]
However, accumulating the image area separation data requires a circuit for it and consumes the capacity of the hard disk. Therefore, it is preferable not to store the image area separation data if possible. Also, in a network-type image processing system or the like in which an image signal being processed is transferred to an external image processing apparatus and the remaining processing is performed and then output, the transfer of the image area separation data is a data transfer amount. There was a problem such as increase.
[0005]
Patent Literature 1 discloses a method for solving such a problem. In this Patent Document 1, the black character separation result is fused into the image data, stored or transferred, and after reading or receiving, the image area separation information is extracted from the image data and used for performing the remaining image processing. I have to. The fusion of black character information is realized by setting the black character pixels to a signal representing an achromatic color (R = G = B, C = M = Y, a = b = 0 in Lab, etc.). Further, a method has been proposed in which black character information is fused by setting a special value (R = 255, G = B = 0, etc.) that is not generally used in a normal color image. By doing so, high-quality copy processing is realized without separately storing the image area separation signal.
[0006]
However, in recent years, the separation result for black characters has been further subdivided, and it has become impossible to further improve the image quality only with information of black characters.
[0007]
For example, in Patent Literature 2, an edge area of a character and an inner area of a character are separately identified, and these processes are switched to further improve the image quality of the character. Specifically, after performing an edge emphasis filter on a character edge portion, a halftone process (for example, binarization process at a fixed value) having the highest resolution is performed, and a filter is performed on a character internal region. After passing through, a halftone process (2 × 1 dither) with relatively excellent resolution is applied, and a pattern portion other than the above is subjected to a smoothing filter, and then a halftone with the best gradation and graininess. Processing (2 × 2 dither processing) is performed. By doing so, it is possible to perform high-quality image reproduction with reduced discomfort at the boundary between the character edge and the character internal area.
[0008]
In addition, for example, in Japanese Patent Application Laid-Open No. H10-157, the thickness of a character / line image is determined, and the UCR process and the filter process are controlled in accordance with the thickness to smoothly perform a black process on a character / line image and switch to a black character process. A technique for preventing sharpness from being noticeable is disclosed. In Patent Literature 3, the thickness is detected in multiple stages, and the processing is gradually switched according to the thickness to reduce the sense of discomfort. Also, by performing different processing depending on whether a character or a line drawing is in a white background and in a halftone or halftone, the halftone component in the halftone image is not emphasized, This prevents extra black character processing from being performed at the edges and the like.
[0009]
Further, for example, Japanese Patent Application Laid-Open No. H11-163,086 discloses a technique for outputting a character at a high resolution and a photograph at a high gradation by switching an interpolation method according to the thickness of the character when performing resolution conversion.
[0010]
Also, for example, in Patent Document 5, a thin line edge portion and an edge portion other than a thin line in image data are detected, resolution conversion is performed on the thin line edge portion by a nearest pixel replacement method, and an edge portion other than the thin line is detected. There is disclosed a technique of performing resolution conversion by a linear interpolation method to perform resolution conversion without jaggies for bold characters and bold lines and performing resolution conversion without blurring or disappearing of lines for thin lines.
[0011]
Further, for example, in Patent Document 6, a thin line portion within a predetermined width (for example, 3 pixels) and an image edge portion other than the thin line portion are detected, and a strong emphasis process is performed on the thin line portion, and an image edge other than the thin line portion is detected. By applying gentle emphasis processing to the part, the thin line is strongly emphasized in black, and it can be reproduced clearly and the technology that prevents the problem that clear edges are formed at the edges other than the thin line part It is shown.
[0012]
[Patent Document 1]
JP-A-8-98016
[0013]
[Patent Document 2]
JP 2000-133471 A
[0014]
[Patent Document 3]
JP-A-7-203198
[0015]
[Patent Document 4]
JP-A-2002-57886
[0016]
[Patent Document 5]
Japanese Patent Application Laid-Open No. 7-184443
[0017]
[Patent Document 6]
JP-A-6-38055
[0018]
[Problems to be solved by the invention]
As described above, even if it is a black character, information on the thickness of a line such as a thin line or a thick line, information on a location such as an edge portion of a character or the inside of a character, a character on a white background, a character on a halftone dot, a photograph, etc. There are various black characters such as information on a background area such as characters in the continuous tone image, and each has an optimum process (black character processing).
[0019]
However, in Patent Literature 1 described above, only the information of black characters is stored, and thus, such segmented black character processing cannot be performed.
[0020]
Further, since image data in which black character information is embedded sets a unique image signal value in order to embed the information, when the image data is output to the outside and displayed as RGB scan data, it becomes an abnormal image. .
[0021]
The present invention provides an image processing apparatus and an image processing method capable of embedding various black character information in image data, re-extracting the information, and performing adaptive processing on each of the information to reproduce high-quality images. It is an object to provide a method, a program and a recording medium.
[0022]
Further, the present invention provides an image processing apparatus, an image processing method, a program, and a recording medium that convert an embedded black character information into an image signal that does not cause a sense of discomfort when outputting the image signal to an external device that does not understand the black character information. It is intended to provide.
[0023]
[Means for Solving the Problems]
In order to achieve the above object, the invention according to claim 1 includes a black character pixel determination unit that determines whether a target pixel is a black character pixel in an input color image signal, and a black pixel determination unit that determines the target pixel. Is determined to be a black character pixel, at least one of the plurality of color signal components represents a signal level for the target pixel determined to be a black character pixel, and at least one of the remaining color components The component is a specific value (code information) representing an attribute, whereby black character information embedding means for embedding black character information in an image signal, and analyzing the code information embedded in the image signal, the black character pixel is identified. It is characterized by comprising extraction means for extracting, and processing means for performing image processing using the extraction result extracted by the extraction means.
[0024]
According to a second aspect of the present invention, in the image processing apparatus of the first aspect, further detailed attribute information of a black character pixel is embedded by a specific value (code information) representing the attribute.
[0025]
According to a third aspect of the present invention, in the image processing apparatus according to the second aspect, the detailed attribute of the black character pixel includes at least a black character pixel on a white background.
[0026]
According to a fourth aspect of the present invention, in the image processing apparatus of the second aspect, the detailed attribute of the black character pixel includes at least a black character pixel in the continuous tone image.
[0027]
According to a fifth aspect of the present invention, in the image processing apparatus of the second aspect, the detailed attribute of the black character pixel includes at least a black character pixel on a halftone dot.
[0028]
According to a sixth aspect of the present invention, in the image processing apparatus of the second aspect, the detailed attribute of the black character pixel includes at least a thin line black character pixel.
[0029]
According to a seventh aspect of the present invention, in the image processing apparatus according to the second aspect, the detailed attribute of the black character pixel includes at least a bold black character pixel.
[0030]
According to an eighth aspect of the present invention, in the image processing apparatus of the second aspect, the detailed attribute of the black character pixel includes at least line thickness information of the black character portion.
[0031]
According to a ninth aspect of the present invention, in the image processing apparatus of the second aspect, the detailed attribute of the black character pixel includes at least a character internal pixel of a black character portion.
[0032]
According to a tenth aspect of the present invention, in the image processing apparatus according to the first aspect, a pixel value other than a black character pixel is set to a value other than a specific value (code information) representing the attribute. Is further provided with a correction means for correcting.
[0033]
According to an eleventh aspect of the present invention, in the image processing apparatus of the first aspect, the image processing performed by the processing means includes a filtering process, a scaling process, a black generation process, a color erasing process, a γ conversion process, It is characterized in that it is at least one of halftone processing.
[0034]
According to a twelfth aspect of the present invention, in the image processing apparatus according to the first or second aspect, the image signal processed by the black character code embedding unit is converted into an image format designated by a system or a user. The image processing apparatus further includes a processing function of transferring the pixel information coded to the image signal to image data that does not cause a sense of strangeness, and the corrected image signal is transmitted to the external device. It is characterized in that it is designed to be transferred.
[0035]
In the invention according to claim 13, a black character pixel determining step of determining whether the target pixel is a black character pixel in the input color image signal, and the target pixel is determined to be a black character pixel by the black character pixel determining step. For a target pixel determined to be a black character pixel, at least one of the plurality of color signal components represents a signal level, and at least one of the remaining color components has a specific value representing an attribute. (Code information), a black character code embedding step of embedding black character information in the image signal, an extraction step of extracting the black character pixel by analyzing the code information embedded in the image signal, and an extraction step And a processing step of performing image processing using the extraction result extracted by the method.
[0036]
According to a fourteenth aspect of the present invention, in the image processing method of the thirteenth aspect, further detailed attribute information of the black character pixel is embedded by a specific value (code information) representing the attribute.
[0037]
According to a fifteenth aspect of the present invention, in the image processing method according to the thirteenth aspect, a pixel value other than a black character pixel is set to a value other than the specific value (code information) representing the attribute. Is further provided.
[0038]
According to a sixteenth aspect of the present invention, in the image processing method of the thirteenth aspect, the processing steps of performing image processing using the extracted extraction result include a filtering process, a scaling process, a black generation process, and an achromatization process. , Γ conversion processing, and halftone processing.
[0039]
According to a seventeenth aspect of the present invention, in the image processing method of the thirteenth or fourteenth aspect, the image signal processed in the black character code embedding step is converted into an image format designated by a system or a user. The image processing apparatus further includes a processing function of transferring the pixel information coded to the image signal to image data that does not cause a sense of strangeness, and transferring the corrected image signal to the external device. It is characterized by being adapted to.
[0040]
In the invention according to claim 18, the target pixel is determined to be a black character pixel by the black character pixel determination step of determining whether the target pixel is a black character pixel in the input color image signal. For a target pixel determined to be a black character pixel, at least one of the plurality of color signal components represents a signal level, and at least one of the remaining color components has a specific value representing an attribute. (Code information), a black character code embedding step of embedding black character information in the image signal, an extraction step of extracting the black character pixel by analyzing the code information embedded in the image signal, and an extraction step And a processing step of performing image processing using the extraction result extracted by the computer.
[0041]
According to a nineteenth aspect of the present invention, the target pixel is determined to be a black character pixel by the black character pixel determination step of determining whether the target pixel is a black character pixel in the input color image signal. For a target pixel determined to be a black character pixel, at least one of the plurality of color signal components represents a signal level, and at least one of the remaining color components has a specific value representing an attribute. (Code information), a black character code embedding step of embedding black character information in the image signal, an extraction step of extracting the black character pixel by analyzing the code information embedded in the image signal, and an extraction step And a processing step of performing image processing using the extraction result extracted by the computer. Over data is readable recording medium.
[0042]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0043]
(1st Embodiment)
FIG. 1 is a diagram illustrating a configuration example of an image processing apparatus according to a first embodiment of the present invention. Referring to FIG. 1, the image processing apparatus according to the first embodiment includes an image input unit 101, a scanner γ correction unit 102, an image area separation unit 103, a first filter processing unit 105, and black character code embedding. Means 106, compression means 107, storage means 108, expansion means 109, black character code extraction means 117, color correction means 110, second filter processing means 111, scaling processing means 112, It has a removal / black generation unit 113, a printer γ correction unit 114, a halftone processing unit 115, an image output unit 116, and a scaling unit 118 for separation.
[0044]
In the image processing apparatus according to the first embodiment, the following processing is performed. That is, a document optically read by the image input means 101 such as a scanner is converted into an 8-bit digital image signal of rgb and output. The image signal output from the image input means 101 is input to the scanner γ correction means 102, and the linear reflectance rgb signal is converted into a linear density RGB signal by an LUT (look-up table) in the scanner γ correction means 102. Is done. At this time, gray balance is obtained, and when the pixel values of R, G, and B are equal, adjustment is made so that the color becomes gray.
[0045]
The image signal rgb output from the image input means 101 is also input to the image area separating means 103 at the same time, and the image input to the image area separating means 103 is converted into a black character image area and a color character image area by the image area separating means 103. And other picture areas. In particular, the attribute determination is performed on the black character image area in a more subdivided manner.
[0046]
FIG. 2 is a diagram illustrating a configuration example of the image area separating unit 103 according to the first embodiment of the present invention. In the example of FIG. 2, the image area separating unit 103 includes a halftone dot detecting unit 1030, a white background detecting unit 1031, an achromatic color determining unit 1032, an edge detecting unit 1033, a thin line detecting unit 1034, and a character middle detecting unit 1035. These detection results are configured to be area-determined by the comprehensive determination means 1036 and output as an image area separation signal c1.
[0047]
Here, the halftone dot detecting means 1030, the white background detecting means 1031, the achromatic color judging means 1032, the edge detecting means 1033, and the character inside detecting means 1035 adopt the separation method disclosed in JP-A-2001-268383. I have. Also, the method disclosed in JP-A-6-38055 can be used for the thin line detecting means 1034.
[0048]
In the first embodiment of the present invention, the black character image area is identified as a thin line area and other areas by the thin line detecting means 1034, and the character is detected as a non-character (internal area of a character) and a non-character area by the detecting means 1035. The area is identified.
[0049]
As described above, the image area separation signal c1 obtained by the image area separation unit 103 is classified into image attributes as shown in FIG. That is, the target image area is a halftone image area, a white background area, or a continuous tone image area based on the halftone dot separation result by the halftone dot detection unit 1030 and the white background separation result by the white background detection unit 1031. Is identified. The edge detecting means 1033 determines whether or not there is an edge in these areas. If the area is an edge area, the thin line detecting means 1034 and the character inside detecting means 1035 determine whether or not the area is a thin line area. , And whether or not the area is within a character.
[0050]
In this example, the determination of the detailed attributes such as the thin line and the inside of the character is performed only for the achromatic character. However, the same detailed attribute determination may be performed for the chromatic character.
[0051]
By the way, it is preferable that the threshold value at the time of determining an edge by the edge detecting means 1033 is configured to be different for each of the halftone image area, the white background area, and the continuous tone image area. For example, in a white background image region, the threshold value is set lower, and a minute edge is determined as a character. In a halftone image region, only a relatively large edge is determined as a character edge. In a toned image, this intermediate value can be set. In this way, the edge detected by the halftone dot of the halftone dot is not determined as a character, and a relatively small edge such as a low-contrast character or a pencil manuscript is determined as a character for a character on a white background. Becomes possible.
[0052]
As described above, in the example of FIG. 2, the image area separation signal c1 is classified into 12 types of image attributes by the comprehensive determination unit 1036.
[0053]
In FIG. 1, the first filter processing unit 105 performs edge enhancement processing, smoothing processing, or intermediate processing based on the determination result (image area separation signal c1) from the image area separation unit 103. Filter processing having various characteristics. Specifically, a uniform edge enhancement filter process is performed on the character region (both black and color character regions), a smoothing filter process is performed on the halftone dot region, and a halftone image region is processed. Performs filter-through processing. FIG. 4 shows such a processing mode in the first filter processing means 105. That is, the first filter processing unit 105 (first filter) switches and applies three filters 1 (smooth) to 3 (emphasis) depending on the image area.
[0054]
By controlling in this manner, the sharpness is satisfied in the character portion, and the suppression of moiré in the halftone dot portion is satisfied in the picture portion.
[0055]
The image signal after the filter processing by the first filter processing means 105 is input to the black character code embedding means 106 in FIG. 1, and the black character code embedding means 106 embeds the image area separation data in the image. Perform
[0056]
FIG. 5 shows a configuration example of the black character code embedding means 106. In the black character code embedding means 106 of FIG. 5, the R, G, and B signals after the filter processing by the first filter processing means 105 are directly input to the selector 1062, and the R, B signals are G signals which are representative density values. The process branches to blocks 1060 and 1061 for rewriting values. The R and B signals rewritten to the G signals in blocks 1060 and 1061 are input to the selector 1062, and the selector 1062 selects one of them according to the separation signal c1. That is, the selector 1062 selects the path rewritten to the representative density value in the black character image area, that is, the areas of SEG (1) to (9) in FIG. 3, and selects the through path in the other non-black character areas. As a result, in the black character area, R ″ = G ″ = B ″ = G, and the same value is set for all.
[0057]
Further, the code embedding block 1063 embeds detailed image attributes of black characters in accordance with the image area separation signal c1. Specific data set values are shown in FIG. That is, how to set each value of RGB is shown in the code column on the right side of FIG. For example, if the image attribute is a character edge (1) of a bold black character in a continuous tone image, the value of R is forcibly set to 255, and the value of G, which is a representative density value, is set to G and B. . If the image attribute is a thin line character (6) on a white background, the value of R is set to 0, the value of B is set to 255, and the representative density value is set to G. In the same manner, code information corresponding to all black characters of SEG (1) to (9) is embedded. In a normal image, the combination of data as shown in FIG. 3 is rarely taken, and a non-black character area is erroneously determined as a black character in the black character code re-extraction block (black character code extraction means 117) at the subsequent stage. Few things. Also, due to the nature of the image, black character pixels do not exist in isolation, and there are pixels with the same attribute in the surroundings. Extraction is possible. Although not shown in this example, if there is a combination of RGB pixel values corresponding to the black character code in the images of the non-black character pixel areas SEG (10) to (12), the pixel values are processed in advance, Fine adjustment to a value other than the code is also effective. For example, if there is a pixel of R = 255, G = 170, B = 170 in a non-black character portion, the code is the same as the code corresponding to the bold character (SEG (1)) in continuous tone, so that it is intentional. And R = 255, G = 172, B = 168. Strictly, a color change occurs, but pixels having such a value rarely exist continuously in the scanner data, and processing with the above-described degree of change hardly affects the image quality in practice. Thus, the extraction accuracy of the black character code can be improved.
[0058]
The image signal R′G′B ′ from the black character code embedding unit 106 is then subjected to image compression by the compression unit 107 and then stored in the storage unit 108 such as a hard disk device. The expansion means 109 reads out the stored signal again, expands it, and outputs it to the black character code extraction means 117. Here, the compression / expansion means 107 and 109 may be either lossless compression or irreversible compression. However, in general, an irreversible compression method is used in consideration of the number of data stored in the storage means 108 and the data transfer rate. It is a target.
[0059]
The black character code extracting unit 117 re-extracts black character pixels and detailed attribute information of the black character pixels based on the code information embedded by the black character code embedding unit 106. FIG. 6 shows a configuration example of the black character code extracting means 117. In the configuration example of FIG. 6, the R′G′B ′ signals after being expanded by the expansion unit 109 are input to the comparators 1170a to 1170i.
[0060]
Here, the comparators 1170a to 1170f are blocks for determining whether the signals of R ′, G ′, and B ′ are 0 or 255. For example, the comparator 1170a compares the R ′ signal with th1 (here, th1 is 2), and if the R ′ signal is smaller than th1, the R ′ signal is determined to be 0, and may be 0. Output an active signal. Further, the comparator 1170b compares the R ′ signal with th2 (th2 is 253 in this case), and determines that the R ′ signal is 255 if the R ′ signal is larger than th2, and outputs an active signal when it is 255. I do. Similarly, the comparators 1170c to 1170f determine whether the G ′ and B ′ signals are 0 or 255. Here, it is necessary that the compression / expansion means 107 and 109 have an irreversible method to provide a margin such as th1 = 2 and th2 = 253. This is to absorb the effect that the value set to 0 is degraded to a value other than 0 after decompression.
[0061]
The comparators 1170g to 1170i respectively include a circuit (1170g) for determining whether R 'and G' have the same value, a circuit (1170h) for determining whether G 'and B' have the same value, and B ' And a circuit (1170i) for determining whether R ′ and R ′ have the same value. Each of the comparators 1170g to 1170i outputs an active signal when it is determined that they have the same value. Note that it is desirable that the comparators 1170g to 1170i also have some margins in the determination in consideration of the effect of the lossy compression.
[0062]
The determination signals of the comparators 1170a to 1170i are input to a decoder 1171. The decoder 1171 decodes the SEG (1) to (9) attributes described above and other attributes according to the combination of the determination signals. And outputs an attribute signal c2. The attribute signal c2 is input to the data reconfiguration circuit 1172, and the R′G′B ′ signal is converted into the signals R ′ ″, G ′ ″, B ′ ″ from which the codes have been removed in the data reconfiguration circuit 1172. Is output. Specifically, when the attribute is one of the attributes of SEG (1) to (9), the value G of the density signal stored according to the attribute is copied to the remaining value of 0,255. In the case of attributes other than SEG (1) to (9), that is, non-black characters, R'G'B 'is output as it is. By doing so, the embedded cord can be removed. Note that, as described above, by correcting the attribute result in accordance with the attribute re-extraction result of the peripheral pixels or the like, more accurate re-extraction can be performed.
[0063]
Next, the color correction unit 110 converts the RGB signals into CMY signals suitable for the color materials of the printer by a masking operation or the like. Various methods are conceivable for the color correction processing. Here, it is assumed that a masking operation such as the following equation (Equation 1) is performed.
[0064]
(Equation 1)
C = α11 × R + α12 × G + α13 × B + β1
M = α21 × R + α22 × G + α23 × B + β2
Y = α31 × R + α32 × G + α33 × B + β3
[0065]
Here, α11 to α33 and β1 to β3 are predetermined color correction coefficients, and the output CMY is also an 8-bit (0 to 255) signal.
[0066]
The image signal from the color correction unit 110 is input to the second filter processing unit 111. The second filter processing means 111 performs adaptive filter processing based on the black character attribute signal c2 re-extracted by the black character code extraction means 117. An example of the applied filter strength is shown in FIG. That is, as shown in FIG. 4, the strongest filter level 5 is applied to fine lines and thin characters on a white background. This makes it possible to reproduce fine lines, which were difficult to reproduce clearly, with high definition. A slightly weak filter level 4 is applied to the thin lines in the continuous tone image. It is preferable to apply a weaker filter level 3 to a thin line in a halftone dot. This is because if a very strong emphasis is performed in the image image, a sense of incongruity may occur. Regarding the character border of a bold character, it is preferable to use a filter which is weaker than a bold character edge in a white background and a continuous tone in a halftone dot. In addition, a band-pass filter that suppresses emphasis in a high-frequency band such that a dot component is not emphasized is preferable. All of the characters are set to the filter level 1 and output through. The picture area is also output through.
[0067]
In the example of FIG. 1, a configuration is shown in which two filters (first filter processing means 105 and second filter processing means 111) are provided before and after compression. The first filter (first filter processing unit 105) is provided when the stored image signal is read out from the hard disk device and transferred to an external device via an external I / F (when operating as a so-called scanner application). This is because it is preferable to perform a certain amount of filter processing. For example, when the captured scanner data was output by a printer, the sharpness of the characters would be better reproduced if sharpness was improved, and the halftone dot image would have been smoothed to remove the halftone dot structure. This is because high-quality reproduction can be performed without causing interference moire with dither processing performed by the printer. However, if too strong emphasis is applied, image quality deterioration caused by irreversible compression increases, so it is better to keep the emphasis to some extent. Here, the second filter processing (second filter processing means 111) is performed to compensate for the insufficient emphasis. In particular, if the sharpness is insufficient, the color perceived by humans is black, so it is effective to embed only the attribute for black characters as in the present invention. In particular, strong emphasis can be applied only to thin lines, especially thin lines on a white background, so that filter processing can be performed without causing defects in the picture portion.
[0068]
The signal from the second filtering unit 111 is input to the scaling unit 112. The scaling processing unit 112 performs scaling by the maximum pixel replacement method for a thin line on a white background at the time of reduction and scaling, and performs a cubic convolution method (hereinafter referred to as a QC method) for other image areas. ). There is a QC method as a high-quality zooming method. However, when a fine line image is reduced by the QC method, line breakage and line blurring occur. In the proximity maximum pixel replacement method, when determining the pixel value of the virtual sampling point, the maximum value of the proximity pixel is obtained, and this value is used as the pixel value of the virtual sampling point. In such a scaling method, jaggies (rattle) occur in the line drawing portion, but this is better than disappearing or blurring of the line. By the way, since line blur and line disappearance are conspicuous in thin lines on a white background, in this example, the proximity maximum pixel replacement method is used only for thin lines on a white background.
[0069]
Further, the separation scaling unit 118 performs scaling of the separated signal at a scaling ratio equivalent to the scaling ratio performed by the scaling unit 112. Here, the scaling method is the closest method.
[0070]
The image signal from the scaling unit 112 is converted into a CMYK signal by the under color removal / black generation unit (BG / UCR) 113 and output. That is, the under color removal / black generation means 113 generates a K signal as a black component and performs under color removal (UCR) from the CMY signals. Here, the under color removal / black generation means 113 inputs the black character attribute signal c2 after the scaling process, and performs different under color removal / black generation according to the attribute. Basically, generation of the K signal and removal of undercolor from the CMY signal are performed as in the following equation (Equation 2).
[0071]
(Equation 2)
K = Min (C, M, Y) × β1
C ′ = C−K × β2
M ′ = M−K × β2
Y ′ = Y−K × β2
[0072]
Here, Min (C, M, Y) is the smallest of the CMY signals, and β1 and β2 are coefficients (0 to 1.0) determined by the attribute signal.
[0073]
The control of undercolor removal and black generation for each image attribute will be described with reference to FIG. In order to realize clear black character reproduction, the blackness ratio is set to the maximum setting 5 (β1 = 1.0) for fine lines and character edges on a white background. As for characters on white background, if it is possible to correctly detect characters of any thickness, it is sufficient to set the characters to maximum ink ratio of 5. If the characters are thick, Since it may not be possible to correctly detect the middle of a character, a setting 3 (β1 = 0.8) with a slightly lower black ratio is used to reduce the defect. For black fine lines on halftone dots and in a continuous image, if the black ratio is too high, a sense of incongruity is noticeable. Therefore, the setting 4 (β1 = 0.9), which is slightly lower than the black fine lines on a white background, is used. For black characters of other thicknesses, the setting is set to 3 in consideration of the switching defect. The black ratio of the picture portion is desirably set to a lower setting 1 (β = 0.6) in consideration of the graininess.
[0074]
Further, it is desirable that the values of C ', M', and Y 'be set to 0 for black fine lines and character edges on a white background, and then output after achromatization. If the preceding compression means is a reversible method, there is almost no need for color erasure, but in the case of the lossy compression method, some color components occur in black character pixels due to deterioration, so there was color erasure to eliminate this. Better.
[0075]
In the above-described example, an example in which the black ratio is determined based on the image attribute information of the black character has been described. However, in another method, the edge determination in an adaptive BG / UCR system or the like in which the black ratio is determined based on the edge amount. A different threshold value may be set according to the black character attribute.
[0076]
The signal processed by the under color removal / black generation unit 113 is subjected to γ correction according to the printer engine characteristics by the printer γ correction unit 114. Here, individual γ characteristics can be applied to black characters. As shown in Fig. 4, for thin lines on a white background, a gamma table with a higher gamma characteristic is applied to improve reproducibility, and a table with a slightly higher gamma setting is applied to the character edges and characters of white background characters. I do. A linear γ table emphasizing gradation is applied to the picture area, the inner edge of the black character in the halftone dot / continuous image, and the character. In the case of a thin line character in a halftone dot / continuous image, a slightly raised γ characteristic that slightly improves reproducibility is used. As described above, fine γ correction can be performed in accordance with the subdivided black character attributes, so that an image can be reproduced with excellent reproducibility and with few defects at the switching portion.
[0077]
The signal after the printer γ correction is input to the halftone processing unit 115, and the halftone processing unit 115 sets the halftone processing setting 3 (the most excellent resolution) for fine lines on a white background and character edges on a white background. 1 × 1 dither) is used. This is a so-called simple multi-value processing in pixel units. Also, for characters on halftone dots, characters in continuous tone images, and inside characters, the intermediate setting 2 (2 × 1 dither) is used so that the resolution is relatively excellent and the gradation can be obtained. Further, for image attributes other than black characters, a setting 1 (2 × 2 dither) with emphasis on gradation is performed. Each halftone processing method is disclosed in JP-A-2000-134471.
[0078]
By performing such processing, it is possible to perform reproduction without a defect of switching between the outer edge of the character and the character, to reproduce with excellent resolving power even for fine line characters, and to achieve granularity and gradation even for patterns. Excellent reproduction can be performed.
[0079]
As described above, even if it is a black character, appropriate processing differs depending on the background state, character thickness, and inside and outside of the character, and switching the processing using the subdivided black character attribute information increases the image quality. Can contribute to In addition, the attribute information is stored by embedding the attribute information in the image data before storing the image. This eliminates the need to separately store and store the attribute information, and reduces the amount of data to be stored. Can be reduced.
[0080]
(Second embodiment)
The second embodiment of the present invention differs from the first embodiment in the configuration of the image area separating unit 103 in FIG. 1 and includes a character thickness detecting unit 1037 as shown in FIG. That is, referring to FIG. 7, in the image area separating unit 103 of the second embodiment, the halftone dot detecting unit 1030, the white background detecting unit 1031, the achromatic determining unit 1032, the edge detecting unit 1033, and the character thickness detecting unit 1037 Thus, the attributes of the image are comprehensively determined. As the character thickness detecting means 1037, for example, a method disclosed in JP-A-7-203198 is used.
[0081]
The attribute determination in the second embodiment will be described with reference to FIG. As shown in FIG. 8, the image area determined to be a black character is further subdivided into thick characters, ordinary characters, and thin line characters according to the character thickness. The background region is also classified into three types in the continuous tone image, in the white background, and on the halftone dot, and nine types of black character regions are determined based on a combination thereof. Then, the first filter processing unit 105 controls the filter strength as shown in FIG. 9 according to the determination result. Subsequently, the black character code embedding means 106 embeds black character information determined as in SEG (1) to (9) in FIG. 8 in the image data. Specific codes are as shown in the right column of FIG.
[0082]
Then, the black character code extracting means 117 extracts black character attribute information from the image data with respect to the image signal after compression and decompression by the compression and decompression means 107 and 109, as described in the first embodiment. Then, based on the extracted black character attribute information, the second filter processing unit 111 performs strong emphasis (setting 5) on thin line characters on a white background and relatively weak emphasis (setting 2) on thick characters. In addition, an intermediate strength (setting 3) is applied to ordinary characters of medium thickness. Then, the scaling processing unit 112 performs the scaling processing in the same manner as described in the first embodiment.
[0083]
Next, the under color removal / black generation means (BG / UCR) 113 applies the highest black ratio setting 5 (β1 = 1.0) to the thin line characters on the white background, and sets the black ratio as the thickness increases. Is controlled to lower. For characters in continuous tone and characters on halftone dots, the ink ratio is set lower than that of white background characters in consideration of defects.
[0084]
Next, in the printer γ correction unit 114 and the halftone processing 115, the same processing as described in the first embodiment is performed.
[0085]
As described above, in the second embodiment, the image area separating unit 103 detects the character thickness, embeds black character information and detailed attributes of the black character thickness and background information in the image data, and compresses the image data. By extracting this at a later stage of the accumulation processing and using it for the image quality processing, high-quality image reproduction can be performed.
[0086]
By the way, there is a request to transfer a scanned image processed by the image processing apparatus as in the first and second embodiments to an external device. The configuration example of FIG. 1 is configured to externally transfer the signal stored in the storage unit 108. That is, in the example of FIG. 1, when the image signal stored in the storage unit 108 is converted into a predetermined format and transferred to an external device, the signal from the storage unit 108 is read out and decompressed by the compression / decompression unit 119. The resolution is converted to a predetermined resolution by the resolution conversion means 121. In order to reduce the data size at the time of external transfer, for example, a 600 dpi resolution image is converted to 300 dpi or 200 dpi. Further, it can be converted into a standard signal such as sRGB conversion in a block 122, converted into a JPEG format by a JPEG compression / decompression means 123, and transferred to an external device via the NIC 124.
[0087]
However, in the state where the black character code is embedded, the image signal value is greatly different from the original image, so that an abnormal image is displayed when displayed on a monitor or the like. Therefore, in the present invention, the correcting means 120 is provided so that the image data is corrected by the correcting means 120 before the image data is externally transferred, so that no abnormality occurs when the image data is displayed on a monitor or the like.
[0088]
That is, in FIG. 1, the image signal read from the storage unit 108 is expanded by the compression / expansion unit 119 and input to the correction unit 120. The correction unit 120 converts the embedded black character code into the black character code of FIG. The pixel is extracted by the code extracting means, and a pixel in which the code is embedded and a pixel in which the code is not included are determined. Further, in the pixel in which the black character code is embedded, all data of R, G, and B are set as representative values (here, G data). Pixels with no embedded black character code output the RGB values as they are.
[0089]
Further, the resolution conversion unit 121 converts the resolution to the resolution designated by the designation unit (not shown), converts the sRGB signal into an sRGB signal by the sRGB conversion unit 122, performs JPEG compression in the block 123, and then converts the NIC (Network Interface Card) 124. Output to the external I / F through By doing so, it is possible to perform image correction so that an abnormal image does not occur when the image is transferred to an external device.
[0090]
In the above-described example, the correction unit 120 sets all data of R, G, and B as the representative value (here, G data) in the pixel in which the black character code is embedded. However, as another example, The correction means 120 corrects black character codes (SEG (4) to (6)) on a white background so that R = G = B in the same manner as described above, and codes other than black characters on a white background (SEG (4) to (6)). For SEG (1) to (3) and SEG (7) to (9)), a value slightly different from the value of R = G = B may be used. For example, when the pixel to be processed is R = 255, G = 170, B = 170, this is a pixel in which a black character code is embedded, and indicates a bold character edge in continuous tone (in the case of Table 1). ing. In the method of the above-described example, correction is made to R = 170, G = 170, B = 170. However, such correction is not performed, and correction is performed to values such as R = 168, G = 170, B = 172. You may be able to. That is, the correction may be made so that RGG ≒ B, which is slightly different from R な く G = B, instead of R = G = B, which is completely matched. Even if corrected in this way, an abnormal image does not occur when displayed on a monitor or the like. In this state, only black characters on a white background have R = G = B, and other pixels do not satisfy the condition of R = G = B. If such a rule is provided, the R = G = B signal can be converted to white when the black character processing is performed by an external device and output, or when the image processing apparatus is again input and processed from an external I / F. By extracting the black character on the ground and processing the black character, the quality of the black character on the white background can be maintained. In the above-described correction processing in which the black character pixels other than the black character on the white background are also output as R = G = B, black character processing is performed on black characters on halftone dots and black characters in a continuous tone image. turn into. As in the present invention, R = G = B is set so that black character processing can be performed only on black characters on a white background, and black character information is set so that R = G = B is not intentionally set for black characters on halftone dots and in continuous tone. If the receiving side is configured to perform black character processing on only R = G = B pixels, the image quality can be maintained on a white background, and an image with little discomfort without extreme black character processing in a picture can be obtained. Reproduction can be realized.
[0091]
As described above, the image processing apparatus of the present invention includes a black character pixel determining unit that determines whether or not a target pixel is a black character pixel with respect to an input color image signal. When it is determined that the target pixel is determined to be a black character pixel, at least one of the plurality of color signal components represents a signal level, and at least one of the remaining color components has an attribute. A black character information embedding means for embedding black character information in an image signal by setting a specific value (code information) representing the following, and an extraction for extracting the black character pixel by analyzing the code information embedded in the image signal Means, and a processing means for performing image processing using the extraction result extracted by the extraction means.
[0092]
In the image processing apparatus of the present invention, further detailed attribute information of the black character pixel can be embedded by the specific value (code information) representing the attribute.
[0093]
Here, the detailed attributes of the black character pixel can include at least a black character pixel on a white background.
[0094]
Alternatively, the detailed attributes of the black character pixels can include at least the black character pixels in the continuous tone image.
[0095]
Alternatively, the detailed attributes of the black character pixel can include at least a black character pixel on a halftone dot.
[0096]
Alternatively, the detailed attribute of the black character pixel can include at least a thin line black character pixel.
[0097]
Alternatively, the detailed attribute of the black character pixel may include at least a bold black character pixel.
[0098]
Alternatively, the detailed attributes of the black character pixel can include at least line thickness information of the black character portion.
[0099]
Alternatively, the detailed attributes of the black character pixel may include at least the character internal pixel of the black character portion.
[0100]
In the above-described image processing apparatus according to the present invention, the image processing apparatus further includes a correction unit that corrects a pixel value of a pixel other than a black character pixel to a value other than the specific value (code information) representing the attribute. May be.
[0101]
In the above-described image processing apparatus of the present invention, the image processing performed by the processing means is at least one of a filter process, a scaling process, a black generation process, an achromatization process, a γ conversion process, and a halftone process. Processing.
[0102]
Further, in the above-described image processing apparatus of the present invention, the image processing apparatus further has a processing function of converting an image signal processed by the black character code embedding unit into an image format designated by a system or a user and transferring the image signal to an external device, The processing function may correct pixel information coded with respect to the image signal into image data that does not cause a sense of strangeness, and may transfer the corrected image signal to an external device.
[0103]
In the image processing method of the present invention, the target pixel is determined to be a black character pixel by the black character pixel determination step of determining whether the target pixel is a black character pixel with respect to the input color image signal. For a target pixel determined to be a black character pixel, at least one of the plurality of color signal components represents a signal level, and at least one of the remaining color components has a specific value representing an attribute. (Code information), a black character code embedding step of embedding black character information in the image signal, an extraction step of extracting the black character pixel by analyzing the code information embedded in the image signal, and an extraction step And a processing step of performing image processing using the extraction result extracted by the above method.
[0104]
In the image processing method of the present invention, further detailed attribute information of the black character pixel can be embedded by the specific value (code information) representing the attribute.
[0105]
Further, the image processing method of the present invention further includes a correction step of correcting a pixel value of a pixel other than a black character pixel to a value other than the specific value (code information) representing the attribute. May be.
[0106]
Further, in the image processing method of the present invention, the processing steps of performing image processing using the extracted extraction result include filter processing, scaling processing, black generation processing, blackout processing, γ conversion processing, and halftone processing. At least one of the processes.
[0107]
Further, in the image processing method of the present invention, the image processing method further has a processing function of converting the image signal processed in the black character code embedding step into an image format designated by a system or a user and transferring the image signal to an external device, The processing function may correct the pixel information coded with respect to the image signal into image data that does not cause a sense of strangeness, and transfer the corrected image signal to an external device.
[0108]
As described above, according to the present invention, the segmented attribute determination for the black character is performed by the image area separating unit, embedded in the image data, stored, read out again the image data, and read out the attribute for the black character. By extracting information (information about the thickness of the background and black characters) and adaptively controlling filter processing, scaling processing, black generation processing, color erasure processing, γ conversion processing, halftone processing, etc., defects are reduced. High-quality black characters can be reproduced. Further, since the attribute information is embedded and stored in the image data, there is no need to separately store and store the attribute information, and the amount of data to be stored can be reduced.
[0109]
Also, when embedding a black character code, the image signal is intentionally corrected so that pixels other than the black character have a value other than the black character code. And contribute to high image quality.
[0110]
When the image data in which the black character information is embedded is transferred to an external device for use, the black character code is removed by the correction unit, and the black character pixel value is corrected and output to an image signal that is visually uncomfortable. Therefore, it is possible to output an image that is visually unnatural.
[0111]
The above-described image processing of the present invention can be provided in the form of a program to be realized by a computer.
[0112]
A program for causing a computer to implement the above-described image processing of the present invention can be provided in, for example, a software package (specifically, a recording medium such as a CD-ROM).
[0113]
In other words, the image processing apparatus of the present invention may be configured such that a general-purpose computer system reads a program recorded on a recording medium such as a CD-ROM and causes a microprocessor of the general-purpose computer system to execute processing. It is possible to implement. In this case, a program for executing the processing of the present invention (that is, a program used in a hardware system) is provided in a state recorded on a medium. The recording medium on which the program or the like is recorded is not limited to a CD-ROM, but may be a ROM, a RAM, a flexible disk, a memory card, or the like. The program recorded on the medium is installed and activated in a storage device incorporated in the hardware system, for example, a hard disk, so that the program can be executed to realize the processing of the present invention.
[0114]
【The invention's effect】
As described above, according to the first to 19th aspects, various black character information is embedded in image data, re-extracted, and adaptive processing is performed on each of them. High-quality image reproduction can be performed.
[0115]
Also, according to the present invention, when transferring to an external device that cannot understand the embedding of black character information, the image signal can be converted into an image signal that does not cause a strange feeling and output.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration example of an image processing apparatus according to a first embodiment of the present invention.
FIG. 2 is a diagram illustrating a configuration example of an image area separating unit according to the first embodiment of the present invention.
FIG. 3 is a diagram showing classification of image area separation signals into image attributes.
FIG. 4 is a diagram showing a processing mode in a first filter processing unit.
FIG. 5 is a diagram showing a configuration example of a black character code embedding unit.
FIG. 6 is a diagram illustrating a configuration example of a black character code extraction unit.
FIG. 7 is a diagram illustrating a configuration example of an image area separating unit according to a second embodiment of the present invention.
FIG. 8 is a diagram for describing attribute determination in the second embodiment.
FIG. 9 is a diagram for explaining control of filter strength in the first filter processing means.
[Explanation of symbols]
101 Image input means
116 Image Output Means
102 Scanner gamma correction means
103 Image area separation means
105 First filter processing means
106 Black character code embedding means
117 Black character code extraction means
110 color correction means
111 second filter processing means
112 Zoom processing means
118 Magnification processing means for separation
113 Under color removal / black generation means
114 Printer gamma correction means
115 halftone processing means
108 storage means
107 compression means
109 Extension means
119 Compression / expansion means
120 Correction means
121 Resolution conversion means
122 blocks
123 JPEG compression / decompression means
124 NIC

Claims (19)

入力されたカラー画像信号に対し対象画素が黒文字画素であるか否かを判定する黒文字画素判定手段と、黒文字画素判定手段によって対象画素が黒文字画素であると判定されたときには、黒文字画素と判定された対象画素に対しては、複数のカラー信号成分のうち少なくとも1つの成分は信号レベルを表し、残りのカラー成分のうち少なくとも1つの成分は属性を表す特定の値(コード情報)とすることにより、画像信号中に黒文字情報を埋め込む黒文字情報埋込手段と、画像信号中に埋め込まれたコード情報を解析することにより前記黒文字画素を抽出する抽出手段と、抽出手段によって抽出された抽出結果を用いて画像処理を施す処理手段とを備えていることを特徴とする画像処理装置。A black character pixel determining unit that determines whether the target pixel is a black character pixel for the input color image signal, and is determined as a black character pixel when the target pixel is determined to be a black character pixel by the black character pixel determining unit. For the target pixel, at least one of the plurality of color signal components represents a signal level, and at least one of the remaining color components has a specific value (code information) representing an attribute. Using black character information embedding means for embedding black character information in an image signal, extracting means for extracting the black character pixels by analyzing code information embedded in the image signal, and using the extraction result extracted by the extracting means. An image processing apparatus comprising: a processing unit that performs image processing by using a computer. 請求項1記載の画像処理装置において、前記属性を表す特定の値(コード情報)によって黒文字画素のさらに詳細な属性情報を埋め込むことを特徴とする画像処理装置。2. The image processing apparatus according to claim 1, wherein more specific attribute information of a black character pixel is embedded by a specific value (code information) representing the attribute. 請求項2記載の画像処理装置において、黒文字画素の詳細な属性とは、少なくとも白地上黒文字画素を含むことを特徴とする画像処理装置。3. The image processing apparatus according to claim 2, wherein the detailed attribute of the black character pixel includes at least a black character pixel on a white background. 請求項2記載の画像処理装置において、黒文字画素の詳細な属性とは、少なくとも連続調画像中の黒文字画素を含むことを特徴とする画像処理装置。3. The image processing apparatus according to claim 2, wherein the detailed attribute of the black character pixel includes at least a black character pixel in the continuous tone image. 請求項2記載の画像処理装置において、黒文字画素の詳細な属性とは、少なくとも網点上黒文字画素を含むことを特徴とする画像処理装置。3. The image processing apparatus according to claim 2, wherein the detailed attribute of the black character pixel includes at least a black character pixel on a halftone dot. 請求項2記載の画像処理装置において、黒文字画素の詳細な属性とは、少なくとも細線黒文字画素を含むことを特徴とする画像処理装置。3. The image processing apparatus according to claim 2, wherein the detailed attribute of the black character pixel includes at least a thin line black character pixel. 請求項2記載の画像処理装置において、黒文字画素の詳細な属性とは、少なくとも太線黒文字画素を含むことを特徴とする画像処理装置。3. The image processing apparatus according to claim 2, wherein the detailed attribute of the black character pixel includes at least a bold black character pixel. 請求項2記載の画像処理装置において、黒文字画素の詳細な属性とは、少なくとも黒文字部の線の太さ情報を含むことを特徴とする画像処理装置。3. The image processing apparatus according to claim 2, wherein the detailed attribute of the black character pixel includes at least line thickness information of the black character portion. 請求項2記載の画像処理装置において、黒文字画素の詳細な属性とは、少なくとも黒文字部の文字内部画素を含むことを特徴とする画像処理装置。3. The image processing apparatus according to claim 2, wherein the detailed attribute of the black character pixel includes at least a character internal pixel of a black character portion. 請求項1記載の画像処理装置において、黒文字画素以外の画素に対しては、前記属性を表す特定の値(コード情報)以外の値となるように画素値を補正する補正手段をさらに有していることを特徴とする画像処理装置。2. The image processing apparatus according to claim 1, further comprising a correction unit that corrects a pixel value of a pixel other than a black character pixel to a value other than a specific value (code information) representing the attribute. An image processing apparatus, comprising: 請求項1記載の画像処理装置において、前記処理手段によって施される画像処理は、フィルタ処理,変倍処理,墨生成処理,色消し処理,γ変換処理,中間調処理の少なくともいずれかの処理であることを特徴とする画像処理装置。2. The image processing apparatus according to claim 1, wherein the image processing performed by the processing unit is at least one of a filter process, a scaling process, a black generation process, a color erasure process, a γ conversion process, and a halftone process. An image processing apparatus, comprising: 請求項1または請求項2記載の画像処理装置において、前記黒文字コード埋込手段によって処理された画像信号をシステムまたはユーザによって指定された画像フォーマットに変換して外部機器に転送する処理機能をさらに有し、該処理機能は、前記該画像信号に対しコード化された画素情報を視覚的に違和感のない画像データに補正し、補正した画像信号を外部機器に転送するようになっていることを特徴とする画像処理装置。3. The image processing apparatus according to claim 1, further comprising a processing function of converting an image signal processed by said black character code embedding unit into an image format designated by a system or a user and transferring the image signal to an external device. The processing function corrects the pixel information coded with respect to the image signal into image data that does not cause a sense of discomfort, and transfers the corrected image signal to an external device. Image processing apparatus. 入力されたカラー画像信号に対し対象画素が黒文字画素であるかを判定する黒文字画素判定工程と、黒文字画素判定工程によって対象画素が黒文字画素であると判定されたときには、黒文字画素と判定された対象画素に対しては、複数のカラー信号成分のうち少なくとも1つの成分は信号レベルを表し、残りのカラー成分のうち少なくとも1つの成分は属性を表す特定の値(コード情報)とすることにより、画像信号中に黒文字情報を埋め込む黒文字コード埋込工程と、画像信号中に埋め込まれたコード情報を解析することにより前記黒文字画素を抽出する抽出工程と、抽出工程によって抽出された抽出結果を用いて画像処理を施す処理工程とを備えていることを特徴とする画像処理方法。A black character pixel determining step of determining whether the target pixel is a black character pixel with respect to the input color image signal; and, if the target pixel is determined to be a black character pixel in the black character pixel determining step, the target determined to be a black character pixel. For a pixel, at least one of a plurality of color signal components represents a signal level, and at least one of the remaining color components has a specific value (code information) representing an attribute, thereby obtaining an image. A black character code embedding step of embedding black character information in a signal, an extraction step of extracting the black character pixel by analyzing the code information embedded in the image signal, and an image using the extraction result extracted in the extraction step. And a processing step of performing processing. 請求項13記載の画像処理方法において、前記属性を表す特定の値(コード情報)によって黒文字画素のさらに詳細な属性情報を埋め込むことを特徴とする画像処理方法。14. The image processing method according to claim 13, further comprising embedding further detailed attribute information of a black character pixel with a specific value (code information) representing the attribute. 請求項13記載の画像処理方法において、黒文字画素以外の画素に対しては、前記属性を表す特定の値(コード情報)以外の値となるように画素値を補正する補正工程をさらに有していることを特徴とする画像処理方法。14. The image processing method according to claim 13, further comprising a correction step of correcting a pixel value of a pixel other than a black character pixel to a value other than a specific value (code information) representing the attribute. An image processing method comprising: 請求項13記載の画像処理方法において、抽出された抽出結果を用いて画像処理を施す処理工程は、フィルタ処理,変倍処理,墨生成処理,色消し処理,γ変換処理,中間調処理の少なくともいずれかの処理であることを特徴とする画像処理方法。14. The image processing method according to claim 13, wherein the image processing using the extracted result is at least one of a filter process, a scaling process, a black generation process, an achromatization process, a gamma conversion process, and a halftone process. An image processing method, which is any one of the processes. 請求項13または請求項14記載の画像処理方法において、前記黒文字コード埋込工程によって処理された画像信号をシステムまたはユーザによって指定された画像フォーマットに変換して外部機器に転送する処理機能をさらに有し、該処理機能は、前記画像信号に対しコード化された画素情報を視覚的に違和感のない画像データに補正し、補正した画像信号を外部機器に転送するようになっていることを特徴とする画像処理方法。15. The image processing method according to claim 13, further comprising a processing function of converting an image signal processed in the black character code embedding step into an image format designated by a system or a user and transferring the image signal to an external device. The processing function corrects the coded pixel information with respect to the image signal to image data that does not cause a sense of discomfort, and transfers the corrected image signal to an external device. Image processing method. 入力されたカラー画像信号に対し対象画素が黒文字画素であるかを判定する黒文字画素判定処理と、黒文字画素判定処理によって対象画素が黒文字画素であると判定されたときには、黒文字画素と判定された対象画素に対しては、複数のカラー信号成分のうち少なくとも1つの成分は信号レベルを表し、残りのカラー成分のうち少なくとも1つの成分は属性を表す特定の値(コード情報)とすることにより、画像信号中に黒文字情報を埋め込む黒文字コード埋込処理と、画像信号中に埋め込まれたコード情報を解析することにより前記黒文字画素を抽出する抽出処理と、抽出処理によって抽出された抽出結果を用いて画像処理を施す処理とをコンピュータに実現させるためのプログラム。A black character pixel determination process for determining whether the target pixel is a black character pixel in the input color image signal, and a target determined to be a black character pixel when the target pixel is determined to be a black character pixel by the black character pixel determination process. For a pixel, at least one of a plurality of color signal components represents a signal level, and at least one of the remaining color components has a specific value (code information) representing an attribute, thereby obtaining an image. A black character code embedding process of embedding black character information in a signal, an extraction process of extracting the black character pixel by analyzing code information embedded in an image signal, and an image using an extraction result extracted by the extraction process. A program for causing a computer to perform processing to be performed. 入力されたカラー画像信号に対し対象画素が黒文字画素であるかを判定する黒文字画素判定処理と、黒文字画素判定処理によって対象画素が黒文字画素であると判定されたときには、黒文字画素と判定された対象画素に対しては、複数のカラー信号成分のうち少なくとも1つの成分は信号レベルを表し、残りのカラー成分のうち少なくとも1つの成分は属性を表す特定の値(コード情報)とすることにより、画像信号中に黒文字情報を埋め込む黒文字コード埋込処理と、画像信号中に埋め込まれたコード情報を解析することにより前記黒文字画素を抽出する抽出処理と、抽出処理によって抽出された抽出結果を用いて画像処理を施す処理とをコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。A black character pixel determination process for determining whether the target pixel is a black character pixel in the input color image signal, and a target determined as a black character pixel when the target pixel is determined to be a black character pixel by the black character pixel determination process For a pixel, at least one of a plurality of color signal components represents a signal level, and at least one of the remaining color components has a specific value (code information) representing an attribute. A black character code embedding process for embedding black character information in a signal, an extraction process for extracting the black character pixel by analyzing code information embedded in an image signal, and an image using an extraction result extracted by the extraction process. A computer-readable recording medium in which a program for causing a computer to execute a process of performing a process is recorded.
JP2003019080A 2003-01-28 2003-01-28 Image processing apparatus, image processing method, program, and recording medium Expired - Fee Related JP4011494B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003019080A JP4011494B2 (en) 2003-01-28 2003-01-28 Image processing apparatus, image processing method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003019080A JP4011494B2 (en) 2003-01-28 2003-01-28 Image processing apparatus, image processing method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2004235743A true JP2004235743A (en) 2004-08-19
JP4011494B2 JP4011494B2 (en) 2007-11-21

Family

ID=32949049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003019080A Expired - Fee Related JP4011494B2 (en) 2003-01-28 2003-01-28 Image processing apparatus, image processing method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP4011494B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009055121A (en) * 2007-08-23 2009-03-12 Sharp Corp Image processing device, image processing method, image forming apparatus and program, recording medium
JP2014068394A (en) * 2014-01-04 2014-04-17 Konica Minolta Inc Image data encoding method
WO2014141404A1 (en) * 2013-03-13 2014-09-18 楽天株式会社 Image processing device, image processing method, and image processing program
CN111046782A (en) * 2019-12-09 2020-04-21 上海海洋大学 Fruit rapid identification method for apple picking robot

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009055121A (en) * 2007-08-23 2009-03-12 Sharp Corp Image processing device, image processing method, image forming apparatus and program, recording medium
JP4740913B2 (en) * 2007-08-23 2011-08-03 シャープ株式会社 Image processing apparatus, image processing method, image forming apparatus and program, and recording medium
WO2014141404A1 (en) * 2013-03-13 2014-09-18 楽天株式会社 Image processing device, image processing method, and image processing program
US9779513B2 (en) 2013-03-13 2017-10-03 Rakuten, Inc. Image processing device, image processing method, and image processing program
JP2014068394A (en) * 2014-01-04 2014-04-17 Konica Minolta Inc Image data encoding method
CN111046782A (en) * 2019-12-09 2020-04-21 上海海洋大学 Fruit rapid identification method for apple picking robot
CN111046782B (en) * 2019-12-09 2023-06-23 上海海洋大学 Quick fruit identification method for apple picking robot

Also Published As

Publication number Publication date
JP4011494B2 (en) 2007-11-21

Similar Documents

Publication Publication Date Title
US7327874B2 (en) Method of and apparatus for image processing apparatus, and computer product
JP4549418B2 (en) Image processing apparatus, image processing method, image forming apparatus, program, and recording medium
JP4176114B2 (en) Image compression apparatus, image reading apparatus including the same, image processing apparatus including the image compression apparatus, image forming apparatus including the same, and image compression processing method
JP2014021931A (en) Image processing device and image processing method
JP4637054B2 (en) Image processing apparatus, control method therefor, computer program, and computer-readable storage medium
JP6271874B2 (en) Image processing apparatus and image processing method
JP3929030B2 (en) Image processing device
JP4212876B2 (en) Image processing apparatus and image processing system
JP4908382B2 (en) Image processing apparatus and image processing method
JP4011494B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP4050639B2 (en) Image processing apparatus, image processing method, and program executed by computer
JP2004112728A (en) Image processing apparatus
JP5165043B2 (en) Device, method and program capable of detecting line
JP4526577B2 (en) Image processing apparatus, image processing system, and image processing method
JP2010278534A (en) Image processing apparatus
JP4771902B2 (en) Image processing apparatus and image processing method
JP4185831B2 (en) Image processing apparatus, image processing method, and image processing program
JP3907871B2 (en) Color image processing device
JP5072907B2 (en) Image processing device
JP3581756B2 (en) Image processing device
JP2004112604A (en) Image processing apparatus
JP5165137B2 (en) Device, method and program capable of detecting line
JP2006041792A (en) Image processing apparatus
JP2001211318A (en) Device and method for image processing, storage medium, and image processing system
JPH07274017A (en) Picture processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070905

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100914

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110914

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120914

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130914

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees