JP2005031759A - Image processor and image processing method to which spatial filter is applied - Google Patents
Image processor and image processing method to which spatial filter is applied Download PDFInfo
- Publication number
- JP2005031759A JP2005031759A JP2003193116A JP2003193116A JP2005031759A JP 2005031759 A JP2005031759 A JP 2005031759A JP 2003193116 A JP2003193116 A JP 2003193116A JP 2003193116 A JP2003193116 A JP 2003193116A JP 2005031759 A JP2005031759 A JP 2005031759A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- edge enhancement
- filter
- image
- frequency response
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 16
- 230000004044 response Effects 0.000 claims abstract description 47
- 238000000034 method Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims 1
- 230000008859 change Effects 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 19
- 238000006243 chemical reaction Methods 0.000 description 9
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は画像形成システムにおける画像処理に関し、特に画像入力部のセンサの周波数応答特性による影響を補正するための処理に関するものである。
【0002】
【従来の技術】
従来、スキャナで原稿画像を読み取る際、センサの周波数応答特性(MTF)を考慮して、デジタルフィルタをかけることにより読み取りデータの補正を行っている。その際、センサの代表的なMTFを元に全方向同一の特性を持つ固定のデジタルフィルタを利用するのが一般的である。
【0003】
複写機などに利用されるスキャナには、機種毎に様々な形式のセンサが採用されている。この中には、例えばコンタクトイメージセンサ等、周波数応答特性が方向によって大きく異なるものもある。また、センサの利用形態によっては入力される画像の鮮鋭性が主走査方向と副走査方向で異なることもある。
【0004】
【特許文献1】
特開平11−177836号公報
【特許文献2】
特開2001−245157公報
【0005】
【発明が解決しようとする課題】
しかしながら、このような場合、全方向同一の特性を持つデジタルフィルタを用いると、入力された画像の鮮鋭性が方向に依存したまま処理されることになる。一般的に言って、装置内の画像処理機能は、全方向同一の扱いができることを前提にしていることが多いため、センサの周波数応答特性が方向によって大きく異なる場合、処理後の画像の鮮鋭性が方向によって違う問題があるばかりでなく、その他の画像処理が意図通りに行われない可能性があるという問題点があった。
【0006】
本発明ではこのような課題に鑑みてなされたものであり、その課題は、画像入力装置内センサの周波数応答特性の方向依存性を考慮した上で、入力画像データを補正するためのデジタルフィルタをセンサ毎に最適なものに設定する画像処理装置および画像処理方法を提供することにある。
【0007】
【課題を解決するための手段】
上記課題を解決するために、本発明による画像装置は、デジタルフィルタによって画像のエッジ強調度を変更する画像処理装置であって、互いに異なる方向でエッジ強調度が異なるフィルタを適用するためのフィルタ処理手段と、異なる方向における前記エッジ強調度の差を変更するための変更手段とを備えている。また、本発明による画像処理装置は、さらに、画像入力装置のセンサの周波数応答特性を検出する検出手段と、検出手段で検出した、異なる方向における周波数応答特性を記憶する記憶手段と、記憶手段に記憶された前記周波数応答特性に応じて変更手段に入力する係数を決定し、デジタルフィルタを算出し記憶するためのフィルタ算出手段とを備えている。また、変更手段は、異なる方向でのエッジ強調度の差が最小の周波数応答特性と、このエッジ強調度の差が最大の周波数応答特性とに対応する複数画素分のフィルタ係数のセットを記憶し、これに基づいて他のエッジ強調度の差を持つものに対応する複数画素分のフィルタ係数を線形補間演算により算出している。そして、線形補間演算は、方向によるエッジ強調度の差が最大であるフィルタのエッジ強調度の差を基準にした割合を係数として行うようにしている。なお、線形補間演算により算出されたフィルタ係数の総和は、2のべき乗で表される。また、算出されたフィルタ係数のうち、DC成分に対応する係数は、このDC成分以外に対応する係数の演算で累積されうる誤差を吸収して、フィルタ係数の総和が2のべき乗で表されるように設定される。
【0008】
本発明による画像処理方法は、デジタルフィルタによって画像のエッジ強調度を変更する画像処理方法であって、互いに異なる方向でエッジ強調度が異なるフィルタを適用するためのフィルタ処理工程と、異なる方向におけるエッジ強調度の差を変更するための変更工程とを備えている。また、本発明による画像処理方法は、 さらに、画像入力装置のセンサの周波数応答特性を検出する検出工程と、検出工程で検出された、異なる方向における前記周波数応答特性をメモリに記憶する記憶工程と、メモリに記憶された周波数応答特性に応じて変更工程で入力する係数を決定し、デジタルフィルタを算出し記憶するためのフィルタ算出工程とを備えている。そして、変更工程では、異なる方向でのエッジ強調度の差が最小の周波数応答特性と、このエッジ強調度の差が最大の周波数応答特性とに対応する複数画素分のフィルタ係数のセットが記憶され、これに基づいて他のエッジ強調度の差を持つものに対応する複数画素分のフィルタ係数を線形補間演算により算出することとしている。なお、線形補間演算は、方向によるエッジ強調度の差が最大であるフィルタのエッジ強調度の差を基準にした割合を係数として行う。また、線形補間演算により算出されたフィルタ係数の総和は、2のべき乗で表される。さらに、算出されたフィルタ係数のうち、DC成分に対応する係数は、このDC成分以外に対応する係数の演算で累積されうる誤差を吸収して、前記フィルタ係数の総和が2のべき乗で表されるように設定される。
【0009】
【発明の実施の形態】
以下、本発明の好適な実施形態について、添付図面を参照して詳細に説明する。まず、本発明の実施形態に係る画像処理装置システムについて、構成要素毎に説明する。
【0010】
<ハードウェア全体構成>
図1は、本実施例を適用するのに好適なデジタル複合機の制御システム構成を示す図である。
【0011】
コントローラユニット100は、画像入力装置であるスキャナ200や画像出力装置であるプリンタ300と接続され、一方でLAN500や電話回線600と接続される。そして、コントローラユニット100は画像情報やデバイス情報の入出力を制御している。実際にはCPU103がデジタル複合機全体を制御する機能を有している。RAM107はCPU103が動作するために必要なデータが格納されたシステムワークメモリであり、画像データを一時記憶するための画像メモリとしても利用される。ROM108はブートROMとして利用され、デジタル複合機のブートプログラムが格納されている。HDD109はハードディスクドライブであり、システムソフトウェア、画像データ等が格納される。このHDD109には、ネットワーク(LAN500)に接続されているノードに関する画像出力速度、設置位置などの情報がアドレスごとに保存される場合もある。操作部I/F(インターフェース)104は操作部400とシステムバス101とのインターフェースの役割を果たし、操作部400の図示しない液晶部に表示するための画像データを操作部400に対して出力する。また、操作部I/F104は操作部400からユーザが入力した情報をCPU103に伝える役割をする。システムバス101とLAN500とは、ネットワークI/F105を介して接続され、情報の入出力が行われる。また、システムバス101と電話回線600とはモデム106を介して接続される。モデム106では、データ送受信を行うための変調復調処理が行われる。以上のようにして各デバイスがシステムバス101上に配置される。
【0012】
また、イメージバスI/F110は、システムバス101と画像データを高速で転送する画像バス102を接続するためのものであり、データ構造を変換するバスブリッジとして機能する。なお、画像バス102は、PCIバスまたはIEEE1394などの高速バスで構成される。
【0013】
画像バス102上には以下のデバイスが配置される。ラスターイメージプロセッサ(RIP)111はPDLコードをビットマップイメージに展開する。デバイスI/F部112は、画像入出力デバイスであるスキャナ200やプリンタ300とコントローラ100を接続し、画像データの同期系/非同期系の変換を行う。スキャナ画像処理部700は、入力画像データに対し補正、加工、編集を行う。プリンタ画像処理部800は、プリント出力画像データに対して、プリンタに合わせた補正、解像度変換等を行う。画像圧縮部115は、多値画像データはJPEG、2値画像データはJBIG、MMR、MHの圧縮伸張処理を行う。
【0014】
<画像入力部(スキャナ)>
図2は、画像入力部であるスキャナの外観を示す図である。画像入力デバイスであるスキャナ部200は、原稿となる紙上の画像を照明し、図示しないCCDラインセンサを走査することで、ラスターイメージデータとして電気信号に変換する。原稿用紙は原稿フィーダ201のトレイ202にセットし、ユーザが操作部400から読み取り起動指示することにより、コントローラCPU103がスキャナ200に指示を与え、フィーダ201は原稿用紙を一枚ずつフィードし原稿画像の読み取り動作を行う。
【0015】
<画像出力部(プリンタ)>
図3は、画像出力部であるプリンタの外観図を示す図である。画像出力デバイスであるプリンタ部300はラスターイメージデータを用紙上の画像に変換する部分であり、その方式は感光体ドラムや感光体べルトを用いた電子写真方式、微少ノズルアレイからインクを吐出して用紙上に直接画像を印字するインクジェット方式等があるが、どの方式でも構わない。プリント動作の起動はコントローラCPU103からの指示によって開始する。プリンタ部300は、異なる用紙サイズまたは異なる用紙向きを選択できるように複数の給紙段を持ち、それに対応した用紙カセット302,303,304,305が装着される。また、排紙トレイ306は印字し終わった用紙を受けるものである。
【0016】
<スキャナ画像処理部>
図4は、スキャナ画像処理部700の構成を示す図である。画像バスI/Fコントローラ701は、画像バス102と接続され、そのバスアクセスシーケンスを制御する機能を有すると共に、スキャナ画像処理部700内の各デバイスの制御及びタイミングを発生させる機能も有する。MTF補正フィルタ処理部702は、本実施の形態に係る処理方法を実行する部分であり、スキャナのセンサ特性による画像の周波数特性を補正するとともにエッジ強調を行うため、デジタル空間フィルタでコンボリューション演算を行う。つまり、MTF補正フィルタ702では、後述の処理によってスキャナ200の特性に合わせたフィルタ係数が決定され、このフィルタによってエッジ強調処理が方向に依存して行われる。像域分離処理部703は、入力画像から文字部を検出することにより、像域を判定し、その後の画像処理に利用する像域信号を生成する。テーブル処理部704は、MTF補正フィルタによって方向依存性あるエッジ強調処理が行われた輝度データを濃度データに変換するために、テーブル変換を行うブロックである。例えば、輝度データ(0〜255の段階)を白黒データ(例えば0〜255の段階)で表すような変換を行う。フィルタ処理部705は、画像全体に対してエッジ強調をするなどの目的に従ったデジタル空間フィルタでコンボリューション演算を行う。MTF補正フィルタは方向依存性を持っているが、フィルタ705は方向依存性は持っていない。編集部706は、例えば入力画像データからマーカーペン等のポインティングデバイスで囲まれた閉領域を認識して、その閉領域内の画像データに対して、影つけ、網掛け、ネガポジ反転等の画像加工処理を行う。そして、処理が終了した画像データは、再び画像I/Fバスコントローラ701を介して、画像バス102上に転送されるのである。なお、フィルタ705の処理とMTF補正フィルタの処理702を一度に行うようにMTF補正フィルタ702の係数を決定することもできるが詳細は省略する。
【0017】
<プリンタ画像処理部>
図5は、プリンタ画像処理部800の構成を示す図である。画像バスI/Fコントローラ801は、画像バス102と接続され、そのバスアクセスシーケンスを制御する機能とプリンタ画像処理部800内の各デバイスの制御及びタイミングを発生させる機能とを有する。下地除去処理部802は、背景に薄い色がある原稿を読み取った画像データ等が送られてきた場合に背景色を除去する。色変換処理部803は、プリンタの出力特性にに合わせた色変換を行う。解像度変換部804は、LAN500あるいは電話回線600から受信した画像データを、プリンタ300の解像度に変換するための解像度変換を行う。スムージング処理部805は、解像度変換後の画像データのジャギー(斜め線等の白黒境界部に現れる画像のがさつき)を滑らかにする処理を行う。
【0018】
<本実施の形態に特有なフィルタ係数設定処理>
次に、本実施の形態に特有なデジタルフィルタの係数設定処理を説明する。画像入力装置に採用されるセンサは、種別ごと、さらには個体ごとに方向による周波数応答特性差が異なる場合がある。画像入力後の様々な画像処理に対応するために、それらの周波数応答特性を個別に補正することが望ましい。
【0019】
しかし、同じ機構の装置内でセンサのみを入れ替える場合、大量生産する中でセンサの個体差がある場合、また、ネットワーク利用によって、入力装置、画像編集機能、出力装置など画像を扱う機器またはアプリケーションの組み合わせが複雑になる場合等、一定の補正係数のみで対応することが難しいのが現状である。そのため、様々な周波数特性差ごとのフィルタを多数用意しておくことが望ましいが、個別のフィルタ係数を大量に記憶させておくことは大量のメモリ容量が必要になり現実的ではないという問題点がある。
【0020】
そこで、本実施の形態では、様々な周波数応答特性、特に方向による特性の違いを持つセンサに適したフィルタを、線形補間演算を利用して、算出し適用する方法を用いることにより上記問題点を解決している。
【0021】
図6、図7はそれぞれ入力されたデジタル画像データに適用するためのフィルタ係数を示す図である。この例では共に7×7画素のフィルタ係数を採用している。また、図8は図6のフィルタ係数の周波数応答を示す図であり、図9は図7のフィルタ係数の周波数応答を示す図である。
【0022】
なお、図8及び図9は、横軸に空間周波数をとり、縦軸にパワーをとっている。横軸の空間周波数の単位は、lp/mm(ラインペアパーミリメートル)であり、1mmあたり何本のラインのペアがあるかを示す単位である。また、縦軸のパワーは、それぞれの周波数成分を何%に強調するかを示している。そして、パワー100%ということは、入力画像をそのまま出力することを意味しているのである。
【0023】
図6および図8で示されるフィルタは、X軸方向とY軸方向の周波数応答の違いが想定され得る最も大きい場合に適用すべきものであり、センサのY軸方向の周波数応答がX軸方向に比べて高いため、Y軸方向の強調量をX軸方向に比べて低く抑える特性を持つフィルタである。図7および図9で示されるフィルタは、X軸方向とY軸方向の周波数応答が等しい場合に適用すべきものであり、両方向で同じ強調量を持つ特性のフィルタである。つまり、両方向でエッジ強調度の差が無い周波数応答特性となっている。なお、ここでは、エッジ強調度の差が無いものを実施の形態として用いているが、全く差が無いものでなくてもよく、その差が図8で示される強調度の差に比べて充分に小さければ本発明として適用可能である。即ち、図8のフィルタは、XY軸両方向におけるエッジ強調度の差が最大のものを示し、図9のフィルタは、XY軸両方向におけるエッジ強調度の差が最小のものを示している。エッジ強調度の差が無いということは、差が最小となる場合の理想的な状態といえる。
【0024】
図8に示すフィルタにおいて、X軸方向とY軸方向の周波数応答の最大値は、6lp/mm付近でそれぞれ約270%、170%である。図9に示すフィルタは両方向ともに約270%である。これら2つのフィルタからX軸方向の最大値が約270%、Y軸方向の最大値が約170%〜270%のフィルタを生成する手順を説明する。
【0025】
図6のフィルタ係数をSF1(M,N)、図7のフィルタ係数をSF2(M,N)と表記し、引数MをX方向、引数NをY方向とし、左上を0行0列と定義する。例えば、SF1(2,3)の値は38である。
【0026】
このフィルタ算出機能を利用する第一の具体的例について説明する。SF1(M,N)とSF2(M,N)のちょうど中間(ここでは0.5と表す)の特性を持つF(M,N)を求める場合が挙げられ、そのための線形補間演算は以下の式で表すことができる。
【0027】
F(M,N)=SF1(M,N)×0.5+SF2(M,N)×0.5
この式において、小数点以下は四捨五入することにし、7×7画素分の係数を算出すると、図10に示すフィルタ係数が求められる。ただし、DC(直流)成分F(3,3)の値は、他の係数演算で累積される四捨五入の誤差を吸収するため、F(M,N)全係数の和が2のべき乗、この例では128となるよう調整を行っている。これは、本実施の形態をハードウエアで実現した場合、2のべき乗で表した方がシフト演算する際に都合が良いからである。
【0028】
なお、ここで中間(0.5)とは、求めるフィルタのY軸方向の最大値の範囲である約170%〜270%の中間点を表しており、この例ではY軸方向の最大値すなわち後述のGが220%であることを意味している。また、SF1(M,N)とSF2(M,N)をいかなる割合で線形補間演算を行うかは、接続されたスキャナ200固有の周波数特性、即ち、X方向の周波数応答特性とY方向の周波数応答特性の違いによって決まるものである。スキャナ200の特性は、ある画像を読み込ませたときに取得するようにしてもいいし、スキャナ200自体が自己の特性に関するデータを持っていて、接続時にそれをコントローラ100が読み込んできても良い。また、接続時にだけ本実施の形態に係る線形補間演算を実行するようにしてもいいし、定期的に実行するようにしても良い。
【0029】
さらに、このフィルタ算出機能を利用する第2の具体的例としては、エッジ強調フィルタのパワーが最大となる周波数での周波数応答特性が、X軸方向(主走査方向)で40%、Y軸方向(副走査方向)で60%のセンサで入力された画像データに対して、両方向共に同程度のエッジ強調をかける処理を行う場合が挙げられ、そのためのフィルタF(M,N)は次の式で表される。
【0030】
F(M,N)=SF1(M,N)×(270−G)+SF2(M,N)×(G−170)
Gは求めるフィルタのY軸方向のパワー最大値で、この場合は、G=270×40/60=180となる。この場合でも得られたフィルタ係数F(M,N)全係数の総和は、2のべき乗、この例では128となるようにDC成分の係数値は調整される。
【0031】
この結果求められたフィルタは、図12、図13に示す通りである。
【0032】
また、本実施に形態で示される線形補間演算を一般化して記述すると以下のように表される。
【0033】
F(M,N)=SF1(M,N)×(MAXy2−G)+SF2(M,N)×(G−MAXy1)、
G=(MAXx)×(Ax/Ay)
ここで、MAXxはエッジ強調フィルタのX軸方向のパワー最大値、MAXy1は基となるフィルタのうち方向差が最大のフィルタのY軸方向のパワー最大値、Gは求めるフィルタのY軸方向のパワー最大値、Axはある周波数でのX軸方向のセンサ周波数応答特性、Ayは同周波数でのY軸方向のセンサ周波数応答特性を示すものである。
【0034】
図14は、以上の処理の概略をフローチャートで示した図である。エッジ強調度の差を変更する処理が指示されると、処理はステップS101に移行し、ステップS101において、スキャナ(画像入力装置)におけるセンサの少なくとも2方向(異なる方向)の周波数応答特性が検出される。この異なる方向は、本実施の形態ではX軸方向とY軸方向である。そして、ステップS102に移行し、各方向における周波数応答特性に対応するフィルタ係数が取得される。さらに、ステップS103に移行し、ステップS102で取得されたフィルタ係数を線形補間することによりエッジ強調度の差を変更する。この線形補間は上記のような線形補間演算式を用いて行われる。エッジ強調度の差が変更されたら処理が終了する。
【0035】
本発明による実施形態の処理は、各機能具現化したソフトウェアのプログラムコードを記録した記憶媒体をシステム或は装置に提供し、そのシステム或は装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フロッピィ(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。
【0036】
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれている。
【0037】
更に、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含む。
【0038】
【発明の効果】
以上説明したように、本発明によれば、方向により特性の異なるデジタルフィルタを適用することで、出力画像の鮮鋭性の方向依存性を低減させる効果がある。さらに、本発明によれば、方向ごとの特性の差に従って、適用すべきデジタルフィルタを算出することができるため、機器内に記憶するフィルタのデータ容量を節約する効果がある。
【図面の簡単な説明】
【図1】本実施の形態を適用するのに好適なデジタル複合機の制御システム構成を示す図である。
【図2】スキャナの外観を示す図である。
【図3】プリンタの外観を示す図である。
【図4】スキャナ画像処理部の構成を示す図である。
【図5】プリンタ画像処理部の構成を示す図である。
【図6】本実施の形態における線形補間に用いるデジタルフィルタ係数の第一の具体例を示す図である。
【図7】本実施の形態における線形補間に用いるデジタルフィルタ係数の第二の具体例を示す図である。
【図8】図6に示されるデジタルフィルタの周波数応答特性を示す図である。
【図9】図7に示されるデジタルフィルタの周波数応答特性を示す図である。
【図10】本実施の形態による線形補間によって算出した、エッジ強調度変更後のフィルタ係数の第一の具体例を示す図である。
【図11】図10に示されるデジタルフィルタの周波数応答特性を示す図である。
【図12】本実施の形態による線形補間によって算出した、エッジ強調度変更後のフィルタ係数の第二の具体例を示す図である。
【図13】図12に示されるデジタルフィルタの周波数応答特性を示す図である。
【図14】本実施の形態によるエッジ強調度変更処理の概略を示すフローチャートである。
【符号の説明】
100 コントローラユニット
103 CPU
107 RAM
108 ROM
400 操作部
700 スキャナ画像処理部
702 MTF補正フィルタ処理部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to image processing in an image forming system, and more particularly to processing for correcting an influence due to a frequency response characteristic of a sensor of an image input unit.
[0002]
[Prior art]
Conventionally, when a document image is read by a scanner, the read data is corrected by applying a digital filter in consideration of the frequency response characteristic (MTF) of the sensor. In that case, it is common to use a fixed digital filter having the same characteristics in all directions based on the typical MTF of the sensor.
[0003]
Various types of sensors are employed for scanners used in copiers and the like for each model. Among these, for example, a contact image sensor, the frequency response characteristics vary greatly depending on the direction. In addition, the sharpness of the input image may differ between the main scanning direction and the sub-scanning direction depending on the usage form of the sensor.
[0004]
[Patent Document 1]
JP-A-11-177836 [Patent Document 2]
Japanese Patent Laid-Open No. 2001-245157
[Problems to be solved by the invention]
However, in such a case, if a digital filter having the same characteristics in all directions is used, the sharpness of the input image is processed depending on the direction. Generally speaking, the image processing function in the device is often premised on the same handling in all directions, so if the frequency response characteristics of the sensor differ greatly depending on the direction, the sharpness of the processed image However, there is a problem that other image processing may not be performed as intended.
[0006]
The present invention has been made in view of such problems, and the problem is that a digital filter for correcting input image data is considered in consideration of the direction dependency of the frequency response characteristics of the sensor in the image input apparatus. An object of the present invention is to provide an image processing apparatus and an image processing method which are set optimally for each sensor.
[0007]
[Means for Solving the Problems]
In order to solve the above-described problem, an image apparatus according to the present invention is an image processing apparatus that changes the edge enhancement degree of an image by a digital filter, and performs filter processing for applying filters having different edge enhancement degrees in different directions. And a changing means for changing the difference in the edge enhancement degree in different directions. The image processing apparatus according to the present invention further includes a detection unit that detects a frequency response characteristic of the sensor of the image input device, a storage unit that stores the frequency response characteristic detected by the detection unit in different directions, and a storage unit. Filter calculating means for determining a coefficient to be input to the changing means according to the stored frequency response characteristic, and calculating and storing a digital filter. Further, the changing means stores a set of filter coefficients for a plurality of pixels corresponding to a frequency response characteristic having a minimum difference in edge enhancement in different directions and a frequency response characteristic having the maximum difference in edge enhancement. Based on this, filter coefficients for a plurality of pixels corresponding to other edge enhancement differences are calculated by linear interpolation. The linear interpolation calculation is performed using a ratio based on the difference in edge enhancement of the filter having the largest difference in edge enhancement depending on the direction as a coefficient. Note that the total sum of the filter coefficients calculated by the linear interpolation calculation is represented by a power of 2. Among the calculated filter coefficients, the coefficient corresponding to the DC component absorbs an error that can be accumulated by the calculation of the coefficient corresponding to the component other than the DC component, and the sum of the filter coefficients is expressed by a power of 2. Is set as follows.
[0008]
An image processing method according to the present invention is an image processing method for changing an edge enhancement degree of an image using a digital filter, and includes a filter processing step for applying filters having different edge enhancement degrees in different directions, and edges in different directions. And a change step for changing the difference in the degree of emphasis. The image processing method according to the present invention further includes a detection step of detecting a frequency response characteristic of a sensor of the image input device, and a storage step of storing the frequency response characteristic in a different direction detected in the detection step in a memory. And a filter calculating step for determining a coefficient to be input in the changing step in accordance with the frequency response characteristic stored in the memory, and calculating and storing a digital filter. In the changing step, a set of filter coefficients for a plurality of pixels corresponding to the frequency response characteristic having the smallest difference in edge enhancement in different directions and the frequency response characteristic having the largest difference in edge enhancement is stored. Based on this, filter coefficients for a plurality of pixels corresponding to other differences in edge enhancement are calculated by linear interpolation. Note that the linear interpolation calculation is performed using a ratio based on the difference in edge enhancement of the filter having the largest difference in edge enhancement depending on the direction as a coefficient. Further, the total sum of the filter coefficients calculated by the linear interpolation calculation is represented by a power of 2. Further, among the calculated filter coefficients, the coefficient corresponding to the DC component absorbs an error that can be accumulated by the calculation of the coefficient corresponding to other than the DC component, and the sum of the filter coefficients is represented by a power of 2. Is set to
[0009]
DETAILED DESCRIPTION OF THE INVENTION
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. First, an image processing apparatus system according to an embodiment of the present invention will be described for each component.
[0010]
<Hardware configuration>
FIG. 1 is a diagram showing a control system configuration of a digital multi-function peripheral suitable for applying the present embodiment.
[0011]
The
[0012]
The image bus I /
[0013]
The following devices are arranged on the
[0014]
<Image input unit (scanner)>
FIG. 2 is a diagram illustrating an appearance of a scanner which is an image input unit. The
[0015]
<Image output unit (printer)>
FIG. 3 is an external view of a printer that is an image output unit. The
[0016]
<Scanner image processing unit>
FIG. 4 is a diagram illustrating a configuration of the scanner
[0017]
<Printer image processing unit>
FIG. 5 is a diagram illustrating a configuration of the printer
[0018]
<Filter coefficient setting process peculiar to this embodiment>
Next, a digital filter coefficient setting process unique to this embodiment will be described. The sensors employed in the image input apparatus may have different frequency response characteristic differences depending on directions for each type and for each individual. In order to cope with various image processing after image input, it is desirable to individually correct their frequency response characteristics.
[0019]
However, if only sensors are replaced within a device with the same mechanism, if there are individual differences among sensors in mass production, or if a device or application that handles images such as input devices, image editing functions, and output devices is used by using a network. At present, it is difficult to deal with only a fixed correction coefficient when the combination becomes complicated. For this reason, it is desirable to prepare a large number of filters for various frequency characteristic differences. However, storing a large amount of individual filter coefficients requires a large amount of memory capacity and is not practical. is there.
[0020]
Therefore, in the present embodiment, the above problem is solved by using a method of calculating and applying a filter suitable for a sensor having various frequency response characteristics, particularly differences in characteristics depending on directions, using linear interpolation calculation. It has been solved.
[0021]
6 and 7 are diagrams showing filter coefficients to be applied to the input digital image data. In this example, both employ 7 × 7 pixel filter coefficients. 8 is a diagram showing the frequency response of the filter coefficient of FIG. 6, and FIG. 9 is a diagram showing the frequency response of the filter coefficient of FIG.
[0022]
8 and 9, the horizontal axis represents the spatial frequency and the vertical axis represents the power. The unit of the spatial frequency on the horizontal axis is lp / mm (line pair per millimeter), which is a unit indicating how many line pairs are present per mm. Further, the power on the vertical axis indicates to what percentage each frequency component is emphasized. The power of 100% means that the input image is output as it is.
[0023]
The filters shown in FIGS. 6 and 8 should be applied when the difference in the frequency response between the X-axis direction and the Y-axis direction is the greatest, and the frequency response in the Y-axis direction of the sensor is in the X-axis direction. Since it is higher than the above, it is a filter having a characteristic that suppresses the enhancement amount in the Y-axis direction lower than that in the X-axis direction. The filters shown in FIGS. 7 and 9 are to be applied when the frequency responses in the X-axis direction and the Y-axis direction are equal, and are filters having characteristics having the same enhancement amount in both directions. That is, the frequency response characteristic has no difference in edge enhancement degree in both directions. Here, the embodiment without difference in edge enhancement is used as an embodiment, but it may not be at all, and the difference is sufficiently larger than the difference in enhancement shown in FIG. If it is small, it can be applied as the present invention. That is, the filter in FIG. 8 shows the largest difference in edge enhancement in both XY axes, and the filter in FIG. 9 shows the smallest difference in edge enhancement in both XY directions. The fact that there is no difference in edge enhancement is an ideal state when the difference is minimized.
[0024]
In the filter shown in FIG. 8, the maximum values of the frequency responses in the X-axis direction and the Y-axis direction are about 270% and 170% near 6 lp / mm, respectively. The filter shown in FIG. 9 is about 270% in both directions. A procedure for generating a filter having a maximum value in the X-axis direction of about 270% and a maximum value in the Y-axis direction of about 170% to 270% from these two filters will be described.
[0025]
The filter coefficient in FIG. 6 is represented as SF1 (M, N), the filter coefficient in FIG. 7 is represented as SF2 (M, N), the argument M is defined as the X direction, the argument N is defined as the Y direction, and the upper left is defined as 0 rows and 0 columns. To do. For example, the value of SF1 (2, 3) is 38.
[0026]
A first specific example using this filter calculation function will be described. There is a case where F (M, N) having a characteristic exactly halfway between SF1 (M, N) and SF2 (M, N) (here, expressed as 0.5) is obtained. It can be expressed by a formula.
[0027]
F (M, N) = SF1 (M, N) × 0.5 + SF2 (M, N) × 0.5
In this equation, the fractional part is rounded off, and when the coefficient for 7 × 7 pixels is calculated, the filter coefficient shown in FIG. 10 is obtained. However, since the value of the DC (direct current) component F (3, 3) absorbs rounding errors accumulated in other coefficient operations, the sum of all F (M, N) coefficients is a power of 2, in this example Then, the adjustment is made to be 128. This is because, when the present embodiment is realized by hardware, the power of 2 is more convenient when performing a shift operation.
[0028]
Here, the middle (0.5) represents an intermediate point of about 170% to 270%, which is the range of the maximum value in the Y-axis direction of the filter to be obtained. In this example, the maximum value in the Y-axis direction, This means that G described later is 220%. The ratio of the linear interpolation calculation for SF1 (M, N) and SF2 (M, N) depends on the frequency characteristic specific to the
[0029]
Further, as a second specific example using this filter calculation function, the frequency response characteristic at the frequency at which the power of the edge enhancement filter is maximum is 40% in the X-axis direction (main scanning direction), and the Y-axis direction. There is a case in which the image data input by 60% of the sensor in the (sub-scanning direction) is subjected to processing for applying the same degree of edge enhancement in both directions, and the filter F (M, N) for this is expressed by the following equation: It is represented by
[0030]
F (M, N) = SF1 (M, N) × (270−G) + SF2 (M, N) × (G−170)
G is the maximum power value in the Y-axis direction of the filter to be obtained. In this case, G = 270 × 40/60 = 180. Even in this case, the coefficient value of the DC component is adjusted so that the total sum of all the obtained filter coefficients F (M, N) is a power of 2, 128 in this example.
[0031]
The filters obtained as a result are as shown in FIGS.
[0032]
Further, the linear interpolation calculation shown in the present embodiment is generalized and described as follows.
[0033]
F (M, N) = SF1 (M, N) × (MAX y2− G) + SF2 (M, N) × (G−MAX y1 ),
G = (MAX x ) × (A x / A y )
Here, MAX x is the maximum power value in the X-axis direction of the edge enhancement filter, MAX y1 is the maximum power value in the Y-axis direction of the filter having the maximum direction difference among the basic filters, and G is the Y-axis direction of the filter to be obtained. of maximum power, a x X-axis direction of the sensor frequency response characteristics at a certain frequency, a y shows a Y-axis direction of the sensor frequency response characteristics at the same frequency.
[0034]
FIG. 14 is a flowchart showing the outline of the above processing. When a process for changing the difference in edge enhancement is instructed, the process proceeds to step S101. In step S101, frequency response characteristics in at least two directions (different directions) of the sensor in the scanner (image input apparatus) are detected. The The different directions are the X-axis direction and the Y-axis direction in the present embodiment. And it transfers to step S102 and the filter coefficient corresponding to the frequency response characteristic in each direction is acquired. Furthermore, the process proceeds to step S103, and the difference in edge enhancement is changed by linearly interpolating the filter coefficient acquired in step S102. This linear interpolation is performed using the above-described linear interpolation formula. If the difference in edge enhancement is changed, the process ends.
[0035]
In the processing according to the embodiment of the present invention, a storage medium in which a program code of software embodying each function is recorded is provided to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus stores the storage medium in the storage medium. It is also achieved by reading and executing the programmed program code. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying such a program code, for example, a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM Etc. can be used.
[0036]
Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code Includes a case where the function of the above-described embodiment is realized by performing part or all of the actual processing.
[0037]
Furthermore, after the program code read from the storage medium is written in the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function is determined based on the instruction of the program code. This includes the case where the CPU of the expansion board or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
[0038]
【The invention's effect】
As described above, according to the present invention, there is an effect of reducing the direction dependency of the sharpness of an output image by applying digital filters having different characteristics depending on directions. Furthermore, according to the present invention, the digital filter to be applied can be calculated according to the difference in characteristics for each direction, so that there is an effect of saving the data capacity of the filter stored in the device.
[Brief description of the drawings]
FIG. 1 is a diagram showing a control system configuration of a digital multi-function peripheral suitable for applying the present embodiment.
FIG. 2 is a diagram illustrating an appearance of a scanner.
FIG. 3 is a diagram illustrating an appearance of a printer.
FIG. 4 is a diagram illustrating a configuration of a scanner image processing unit.
FIG. 5 is a diagram illustrating a configuration of a printer image processing unit.
FIG. 6 is a diagram showing a first specific example of digital filter coefficients used for linear interpolation in the present embodiment.
FIG. 7 is a diagram illustrating a second specific example of digital filter coefficients used for linear interpolation in the present embodiment.
FIG. 8 is a diagram showing frequency response characteristics of the digital filter shown in FIG. 6;
9 is a diagram showing frequency response characteristics of the digital filter shown in FIG.
FIG. 10 is a diagram illustrating a first specific example of a filter coefficient after changing the edge enhancement degree, calculated by linear interpolation according to the present embodiment.
11 is a diagram showing frequency response characteristics of the digital filter shown in FIG.
FIG. 12 is a diagram illustrating a second specific example of the filter coefficient after changing the edge enhancement degree, calculated by linear interpolation according to the present embodiment.
13 is a diagram showing frequency response characteristics of the digital filter shown in FIG.
FIG. 14 is a flowchart showing an outline of edge enhancement degree change processing according to the present embodiment;
[Explanation of symbols]
100
107 RAM
108 ROM
400
Claims (14)
互いに異なる方向で前記エッジ強調度が異なるフィルタを適用するためのフィルタ処理手段と、
前記異なる方向における前記エッジ強調度の差を変更するための変更手段と、を備えることを特徴とする画像処理装置。An image processing apparatus for changing an edge enhancement degree of an image by a digital filter,
Filter processing means for applying filters having different edge enhancement levels in different directions;
An image processing apparatus comprising: changing means for changing a difference in the edge enhancement degree in the different directions.
前記検出手段で検出した、前記異なる方向における前記周波数応答特性を記憶する記憶手段と、
前記記憶手段に記憶された前記周波数応答特性に応じて前記変更手段に入力する係数を決定し、デジタルフィルタを算出し記憶するためのフィルタ算出手段と、
を備えることを特徴とする請求項1に記載の画像処理装置。Furthermore, detection means for detecting the frequency response characteristics of the sensor of the image input device;
Storage means for storing the frequency response characteristics in the different directions detected by the detection means;
Filter calculating means for determining a coefficient to be input to the changing means according to the frequency response characteristic stored in the storage means, and calculating and storing a digital filter;
The image processing apparatus according to claim 1, further comprising:
互いに異なる方向で前記エッジ強調度が異なるフィルタを適用するためのフィルタ処理工程と、
前記異なる方向における前記エッジ強調度の差を変更するための変更工程と、を備えることを特徴とする画像処理方法。An image processing method for changing an edge enhancement degree of an image by a digital filter,
A filtering process for applying filters having different edge enhancement levels in different directions;
An image processing method comprising: a changing step for changing a difference between the edge enhancement levels in the different directions.
前記検出工程で検出した、前記異なる方向における前記周波数応答特性をメモリに記憶する記憶工程と、
前記メモリに記憶された前記周波数応答特性に応じて前記変更工程で入力する係数を決定し、デジタルフィルタを算出し記憶するためのフィルタ算出工程と、を備えることを特徴とする請求項7に記載の画像処理方法。Furthermore, a detection step of detecting a frequency response characteristic of the sensor of the image input device;
A storage step of storing in the memory the frequency response characteristics in the different directions detected in the detection step;
8. A filter calculating step for determining a coefficient to be input in the changing step according to the frequency response characteristic stored in the memory, and calculating and storing a digital filter. Image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003193116A JP2005031759A (en) | 2003-07-07 | 2003-07-07 | Image processor and image processing method to which spatial filter is applied |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003193116A JP2005031759A (en) | 2003-07-07 | 2003-07-07 | Image processor and image processing method to which spatial filter is applied |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005031759A true JP2005031759A (en) | 2005-02-03 |
Family
ID=34204706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003193116A Pending JP2005031759A (en) | 2003-07-07 | 2003-07-07 | Image processor and image processing method to which spatial filter is applied |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005031759A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008017291A (en) * | 2006-07-07 | 2008-01-24 | Canon Inc | Image processor, image processing method, image processing program, and storage medium |
JP2012073679A (en) * | 2010-09-27 | 2012-04-12 | Fujitsu Ltd | Imaging device, image evaluation method, and focus adjustment control program |
JP2012134668A (en) * | 2010-12-20 | 2012-07-12 | Canon Inc | Image processing apparatus and image processing method |
CN104954624A (en) * | 2014-03-26 | 2015-09-30 | 富士施乐株式会社 | Correct control device, image reading apparatus, and correction control method |
JP2015192176A (en) * | 2014-03-27 | 2015-11-02 | 富士ゼロックス株式会社 | Correction control device, image reading apparatus and correction control program |
-
2003
- 2003-07-07 JP JP2003193116A patent/JP2005031759A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008017291A (en) * | 2006-07-07 | 2008-01-24 | Canon Inc | Image processor, image processing method, image processing program, and storage medium |
JP4677376B2 (en) * | 2006-07-07 | 2011-04-27 | キヤノン株式会社 | Image processing apparatus, image processing method, image processing program, and storage medium |
US7999972B2 (en) | 2006-07-07 | 2011-08-16 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, image processing program, and storage medium |
JP2012073679A (en) * | 2010-09-27 | 2012-04-12 | Fujitsu Ltd | Imaging device, image evaluation method, and focus adjustment control program |
JP2012134668A (en) * | 2010-12-20 | 2012-07-12 | Canon Inc | Image processing apparatus and image processing method |
US8774545B2 (en) | 2010-12-20 | 2014-07-08 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method with weighted vectors for filtering |
CN104954624A (en) * | 2014-03-26 | 2015-09-30 | 富士施乐株式会社 | Correct control device, image reading apparatus, and correction control method |
JP2015192176A (en) * | 2014-03-27 | 2015-11-02 | 富士ゼロックス株式会社 | Correction control device, image reading apparatus and correction control program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4476203B2 (en) | Image processing apparatus, program, and image processing method | |
JP4769661B2 (en) | Image processing device | |
JP6338469B2 (en) | Image processing apparatus and image processing method | |
JP5407627B2 (en) | Image processing apparatus, image processing method, and program | |
JP2007082060A (en) | Image processing device and connection system for image processings | |
JP2002232654A (en) | Device and method for image processing and computer readable recording medium with program for making computer perform the method recorded thereon | |
US8294954B2 (en) | Image forming apparatus and method for reducing the difference of image qualities between the image data read by a plurality of reading units | |
JP2005031759A (en) | Image processor and image processing method to which spatial filter is applied | |
JP4908382B2 (en) | Image processing apparatus and image processing method | |
JP2007251835A (en) | Image processor, and image processing method | |
JP6391348B2 (en) | Image processing apparatus, image processing method, and program | |
JP2000125117A (en) | Picture processing method and processor | |
JP2005027037A (en) | Format conversion method and image processing apparatus | |
JP2006011754A (en) | Image processing device and image processing method | |
JP2660170B2 (en) | Image processing device | |
JP2006224595A (en) | Printing system | |
JP3638168B2 (en) | Image data storage device | |
JP2004349858A (en) | Image processor and document duplicating apparatus using the same | |
JP2008092323A (en) | Image processing equipment, and image reading apparatus and image forming apparatus equipped with the same | |
JP3911459B2 (en) | Image reading device | |
JP4165838B2 (en) | Image reading device | |
JP2002199223A (en) | Image processor, image processing method and storage medium | |
JP2852029B2 (en) | Image processing method | |
JP2003264700A (en) | Image processing apparatus and image processing method | |
JP2004128811A (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080902 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081003 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090220 |