JP2005031759A - Image processor and image processing method to which spatial filter is applied - Google Patents

Image processor and image processing method to which spatial filter is applied Download PDF

Info

Publication number
JP2005031759A
JP2005031759A JP2003193116A JP2003193116A JP2005031759A JP 2005031759 A JP2005031759 A JP 2005031759A JP 2003193116 A JP2003193116 A JP 2003193116A JP 2003193116 A JP2003193116 A JP 2003193116A JP 2005031759 A JP2005031759 A JP 2005031759A
Authority
JP
Japan
Prior art keywords
image processing
edge enhancement
filter
image
frequency response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003193116A
Other languages
Japanese (ja)
Inventor
Ritsuko Otake
律子 大竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003193116A priority Critical patent/JP2005031759A/en
Publication of JP2005031759A publication Critical patent/JP2005031759A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor and an image processing method for optimally setting a digital filter for correcting an input image for every sensor with the direction dependency of the frequency characteristics of a sensor in a scanner taken into consideration. <P>SOLUTION: This image processor 100 for changing the edge emphasis degree of an input image by a digital filter is configured to apply filters whose edge emphasis degrees are different in mutually different directions, and to change the edge emphasis degrees in the different directions. Especially, as processing to change the edge emphasis degrees, frequency response characteristics in the different directions of a scanner 200 are detected, and filter coefficients to change the emphasis degrees are calculated by using a linear interpolation arithmetic operation according to the characteristics. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は画像形成システムにおける画像処理に関し、特に画像入力部のセンサの周波数応答特性による影響を補正するための処理に関するものである。
【0002】
【従来の技術】
従来、スキャナで原稿画像を読み取る際、センサの周波数応答特性(MTF)を考慮して、デジタルフィルタをかけることにより読み取りデータの補正を行っている。その際、センサの代表的なMTFを元に全方向同一の特性を持つ固定のデジタルフィルタを利用するのが一般的である。
【0003】
複写機などに利用されるスキャナには、機種毎に様々な形式のセンサが採用されている。この中には、例えばコンタクトイメージセンサ等、周波数応答特性が方向によって大きく異なるものもある。また、センサの利用形態によっては入力される画像の鮮鋭性が主走査方向と副走査方向で異なることもある。
【0004】
【特許文献1】
特開平11−177836号公報
【特許文献2】
特開2001−245157公報
【0005】
【発明が解決しようとする課題】
しかしながら、このような場合、全方向同一の特性を持つデジタルフィルタを用いると、入力された画像の鮮鋭性が方向に依存したまま処理されることになる。一般的に言って、装置内の画像処理機能は、全方向同一の扱いができることを前提にしていることが多いため、センサの周波数応答特性が方向によって大きく異なる場合、処理後の画像の鮮鋭性が方向によって違う問題があるばかりでなく、その他の画像処理が意図通りに行われない可能性があるという問題点があった。
【0006】
本発明ではこのような課題に鑑みてなされたものであり、その課題は、画像入力装置内センサの周波数応答特性の方向依存性を考慮した上で、入力画像データを補正するためのデジタルフィルタをセンサ毎に最適なものに設定する画像処理装置および画像処理方法を提供することにある。
【0007】
【課題を解決するための手段】
上記課題を解決するために、本発明による画像装置は、デジタルフィルタによって画像のエッジ強調度を変更する画像処理装置であって、互いに異なる方向でエッジ強調度が異なるフィルタを適用するためのフィルタ処理手段と、異なる方向における前記エッジ強調度の差を変更するための変更手段とを備えている。また、本発明による画像処理装置は、さらに、画像入力装置のセンサの周波数応答特性を検出する検出手段と、検出手段で検出した、異なる方向における周波数応答特性を記憶する記憶手段と、記憶手段に記憶された前記周波数応答特性に応じて変更手段に入力する係数を決定し、デジタルフィルタを算出し記憶するためのフィルタ算出手段とを備えている。また、変更手段は、異なる方向でのエッジ強調度の差が最小の周波数応答特性と、このエッジ強調度の差が最大の周波数応答特性とに対応する複数画素分のフィルタ係数のセットを記憶し、これに基づいて他のエッジ強調度の差を持つものに対応する複数画素分のフィルタ係数を線形補間演算により算出している。そして、線形補間演算は、方向によるエッジ強調度の差が最大であるフィルタのエッジ強調度の差を基準にした割合を係数として行うようにしている。なお、線形補間演算により算出されたフィルタ係数の総和は、2のべき乗で表される。また、算出されたフィルタ係数のうち、DC成分に対応する係数は、このDC成分以外に対応する係数の演算で累積されうる誤差を吸収して、フィルタ係数の総和が2のべき乗で表されるように設定される。
【0008】
本発明による画像処理方法は、デジタルフィルタによって画像のエッジ強調度を変更する画像処理方法であって、互いに異なる方向でエッジ強調度が異なるフィルタを適用するためのフィルタ処理工程と、異なる方向におけるエッジ強調度の差を変更するための変更工程とを備えている。また、本発明による画像処理方法は、 さらに、画像入力装置のセンサの周波数応答特性を検出する検出工程と、検出工程で検出された、異なる方向における前記周波数応答特性をメモリに記憶する記憶工程と、メモリに記憶された周波数応答特性に応じて変更工程で入力する係数を決定し、デジタルフィルタを算出し記憶するためのフィルタ算出工程とを備えている。そして、変更工程では、異なる方向でのエッジ強調度の差が最小の周波数応答特性と、このエッジ強調度の差が最大の周波数応答特性とに対応する複数画素分のフィルタ係数のセットが記憶され、これに基づいて他のエッジ強調度の差を持つものに対応する複数画素分のフィルタ係数を線形補間演算により算出することとしている。なお、線形補間演算は、方向によるエッジ強調度の差が最大であるフィルタのエッジ強調度の差を基準にした割合を係数として行う。また、線形補間演算により算出されたフィルタ係数の総和は、2のべき乗で表される。さらに、算出されたフィルタ係数のうち、DC成分に対応する係数は、このDC成分以外に対応する係数の演算で累積されうる誤差を吸収して、前記フィルタ係数の総和が2のべき乗で表されるように設定される。
【0009】
【発明の実施の形態】
以下、本発明の好適な実施形態について、添付図面を参照して詳細に説明する。まず、本発明の実施形態に係る画像処理装置システムについて、構成要素毎に説明する。
【0010】
<ハードウェア全体構成>
図1は、本実施例を適用するのに好適なデジタル複合機の制御システム構成を示す図である。
【0011】
コントローラユニット100は、画像入力装置であるスキャナ200や画像出力装置であるプリンタ300と接続され、一方でLAN500や電話回線600と接続される。そして、コントローラユニット100は画像情報やデバイス情報の入出力を制御している。実際にはCPU103がデジタル複合機全体を制御する機能を有している。RAM107はCPU103が動作するために必要なデータが格納されたシステムワークメモリであり、画像データを一時記憶するための画像メモリとしても利用される。ROM108はブートROMとして利用され、デジタル複合機のブートプログラムが格納されている。HDD109はハードディスクドライブであり、システムソフトウェア、画像データ等が格納される。このHDD109には、ネットワーク(LAN500)に接続されているノードに関する画像出力速度、設置位置などの情報がアドレスごとに保存される場合もある。操作部I/F(インターフェース)104は操作部400とシステムバス101とのインターフェースの役割を果たし、操作部400の図示しない液晶部に表示するための画像データを操作部400に対して出力する。また、操作部I/F104は操作部400からユーザが入力した情報をCPU103に伝える役割をする。システムバス101とLAN500とは、ネットワークI/F105を介して接続され、情報の入出力が行われる。また、システムバス101と電話回線600とはモデム106を介して接続される。モデム106では、データ送受信を行うための変調復調処理が行われる。以上のようにして各デバイスがシステムバス101上に配置される。
【0012】
また、イメージバスI/F110は、システムバス101と画像データを高速で転送する画像バス102を接続するためのものであり、データ構造を変換するバスブリッジとして機能する。なお、画像バス102は、PCIバスまたはIEEE1394などの高速バスで構成される。
【0013】
画像バス102上には以下のデバイスが配置される。ラスターイメージプロセッサ(RIP)111はPDLコードをビットマップイメージに展開する。デバイスI/F部112は、画像入出力デバイスであるスキャナ200やプリンタ300とコントローラ100を接続し、画像データの同期系/非同期系の変換を行う。スキャナ画像処理部700は、入力画像データに対し補正、加工、編集を行う。プリンタ画像処理部800は、プリント出力画像データに対して、プリンタに合わせた補正、解像度変換等を行う。画像圧縮部115は、多値画像データはJPEG、2値画像データはJBIG、MMR、MHの圧縮伸張処理を行う。
【0014】
<画像入力部(スキャナ)>
図2は、画像入力部であるスキャナの外観を示す図である。画像入力デバイスであるスキャナ部200は、原稿となる紙上の画像を照明し、図示しないCCDラインセンサを走査することで、ラスターイメージデータとして電気信号に変換する。原稿用紙は原稿フィーダ201のトレイ202にセットし、ユーザが操作部400から読み取り起動指示することにより、コントローラCPU103がスキャナ200に指示を与え、フィーダ201は原稿用紙を一枚ずつフィードし原稿画像の読み取り動作を行う。
【0015】
<画像出力部(プリンタ)>
図3は、画像出力部であるプリンタの外観図を示す図である。画像出力デバイスであるプリンタ部300はラスターイメージデータを用紙上の画像に変換する部分であり、その方式は感光体ドラムや感光体べルトを用いた電子写真方式、微少ノズルアレイからインクを吐出して用紙上に直接画像を印字するインクジェット方式等があるが、どの方式でも構わない。プリント動作の起動はコントローラCPU103からの指示によって開始する。プリンタ部300は、異なる用紙サイズまたは異なる用紙向きを選択できるように複数の給紙段を持ち、それに対応した用紙カセット302,303,304,305が装着される。また、排紙トレイ306は印字し終わった用紙を受けるものである。
【0016】
<スキャナ画像処理部>
図4は、スキャナ画像処理部700の構成を示す図である。画像バスI/Fコントローラ701は、画像バス102と接続され、そのバスアクセスシーケンスを制御する機能を有すると共に、スキャナ画像処理部700内の各デバイスの制御及びタイミングを発生させる機能も有する。MTF補正フィルタ処理部702は、本実施の形態に係る処理方法を実行する部分であり、スキャナのセンサ特性による画像の周波数特性を補正するとともにエッジ強調を行うため、デジタル空間フィルタでコンボリューション演算を行う。つまり、MTF補正フィルタ702では、後述の処理によってスキャナ200の特性に合わせたフィルタ係数が決定され、このフィルタによってエッジ強調処理が方向に依存して行われる。像域分離処理部703は、入力画像から文字部を検出することにより、像域を判定し、その後の画像処理に利用する像域信号を生成する。テーブル処理部704は、MTF補正フィルタによって方向依存性あるエッジ強調処理が行われた輝度データを濃度データに変換するために、テーブル変換を行うブロックである。例えば、輝度データ(0〜255の段階)を白黒データ(例えば0〜255の段階)で表すような変換を行う。フィルタ処理部705は、画像全体に対してエッジ強調をするなどの目的に従ったデジタル空間フィルタでコンボリューション演算を行う。MTF補正フィルタは方向依存性を持っているが、フィルタ705は方向依存性は持っていない。編集部706は、例えば入力画像データからマーカーペン等のポインティングデバイスで囲まれた閉領域を認識して、その閉領域内の画像データに対して、影つけ、網掛け、ネガポジ反転等の画像加工処理を行う。そして、処理が終了した画像データは、再び画像I/Fバスコントローラ701を介して、画像バス102上に転送されるのである。なお、フィルタ705の処理とMTF補正フィルタの処理702を一度に行うようにMTF補正フィルタ702の係数を決定することもできるが詳細は省略する。
【0017】
<プリンタ画像処理部>
図5は、プリンタ画像処理部800の構成を示す図である。画像バスI/Fコントローラ801は、画像バス102と接続され、そのバスアクセスシーケンスを制御する機能とプリンタ画像処理部800内の各デバイスの制御及びタイミングを発生させる機能とを有する。下地除去処理部802は、背景に薄い色がある原稿を読み取った画像データ等が送られてきた場合に背景色を除去する。色変換処理部803は、プリンタの出力特性にに合わせた色変換を行う。解像度変換部804は、LAN500あるいは電話回線600から受信した画像データを、プリンタ300の解像度に変換するための解像度変換を行う。スムージング処理部805は、解像度変換後の画像データのジャギー(斜め線等の白黒境界部に現れる画像のがさつき)を滑らかにする処理を行う。
【0018】
<本実施の形態に特有なフィルタ係数設定処理>
次に、本実施の形態に特有なデジタルフィルタの係数設定処理を説明する。画像入力装置に採用されるセンサは、種別ごと、さらには個体ごとに方向による周波数応答特性差が異なる場合がある。画像入力後の様々な画像処理に対応するために、それらの周波数応答特性を個別に補正することが望ましい。
【0019】
しかし、同じ機構の装置内でセンサのみを入れ替える場合、大量生産する中でセンサの個体差がある場合、また、ネットワーク利用によって、入力装置、画像編集機能、出力装置など画像を扱う機器またはアプリケーションの組み合わせが複雑になる場合等、一定の補正係数のみで対応することが難しいのが現状である。そのため、様々な周波数特性差ごとのフィルタを多数用意しておくことが望ましいが、個別のフィルタ係数を大量に記憶させておくことは大量のメモリ容量が必要になり現実的ではないという問題点がある。
【0020】
そこで、本実施の形態では、様々な周波数応答特性、特に方向による特性の違いを持つセンサに適したフィルタを、線形補間演算を利用して、算出し適用する方法を用いることにより上記問題点を解決している。
【0021】
図6、図7はそれぞれ入力されたデジタル画像データに適用するためのフィルタ係数を示す図である。この例では共に7×7画素のフィルタ係数を採用している。また、図8は図6のフィルタ係数の周波数応答を示す図であり、図9は図7のフィルタ係数の周波数応答を示す図である。
【0022】
なお、図8及び図9は、横軸に空間周波数をとり、縦軸にパワーをとっている。横軸の空間周波数の単位は、lp/mm(ラインペアパーミリメートル)であり、1mmあたり何本のラインのペアがあるかを示す単位である。また、縦軸のパワーは、それぞれの周波数成分を何%に強調するかを示している。そして、パワー100%ということは、入力画像をそのまま出力することを意味しているのである。
【0023】
図6および図8で示されるフィルタは、X軸方向とY軸方向の周波数応答の違いが想定され得る最も大きい場合に適用すべきものであり、センサのY軸方向の周波数応答がX軸方向に比べて高いため、Y軸方向の強調量をX軸方向に比べて低く抑える特性を持つフィルタである。図7および図9で示されるフィルタは、X軸方向とY軸方向の周波数応答が等しい場合に適用すべきものであり、両方向で同じ強調量を持つ特性のフィルタである。つまり、両方向でエッジ強調度の差が無い周波数応答特性となっている。なお、ここでは、エッジ強調度の差が無いものを実施の形態として用いているが、全く差が無いものでなくてもよく、その差が図8で示される強調度の差に比べて充分に小さければ本発明として適用可能である。即ち、図8のフィルタは、XY軸両方向におけるエッジ強調度の差が最大のものを示し、図9のフィルタは、XY軸両方向におけるエッジ強調度の差が最小のものを示している。エッジ強調度の差が無いということは、差が最小となる場合の理想的な状態といえる。
【0024】
図8に示すフィルタにおいて、X軸方向とY軸方向の周波数応答の最大値は、6lp/mm付近でそれぞれ約270%、170%である。図9に示すフィルタは両方向ともに約270%である。これら2つのフィルタからX軸方向の最大値が約270%、Y軸方向の最大値が約170%〜270%のフィルタを生成する手順を説明する。
【0025】
図6のフィルタ係数をSF1(M,N)、図7のフィルタ係数をSF2(M,N)と表記し、引数MをX方向、引数NをY方向とし、左上を0行0列と定義する。例えば、SF1(2,3)の値は38である。
【0026】
このフィルタ算出機能を利用する第一の具体的例について説明する。SF1(M,N)とSF2(M,N)のちょうど中間(ここでは0.5と表す)の特性を持つF(M,N)を求める場合が挙げられ、そのための線形補間演算は以下の式で表すことができる。
【0027】
F(M,N)=SF1(M,N)×0.5+SF2(M,N)×0.5
この式において、小数点以下は四捨五入することにし、7×7画素分の係数を算出すると、図10に示すフィルタ係数が求められる。ただし、DC(直流)成分F(3,3)の値は、他の係数演算で累積される四捨五入の誤差を吸収するため、F(M,N)全係数の和が2のべき乗、この例では128となるよう調整を行っている。これは、本実施の形態をハードウエアで実現した場合、2のべき乗で表した方がシフト演算する際に都合が良いからである。
【0028】
なお、ここで中間(0.5)とは、求めるフィルタのY軸方向の最大値の範囲である約170%〜270%の中間点を表しており、この例ではY軸方向の最大値すなわち後述のGが220%であることを意味している。また、SF1(M,N)とSF2(M,N)をいかなる割合で線形補間演算を行うかは、接続されたスキャナ200固有の周波数特性、即ち、X方向の周波数応答特性とY方向の周波数応答特性の違いによって決まるものである。スキャナ200の特性は、ある画像を読み込ませたときに取得するようにしてもいいし、スキャナ200自体が自己の特性に関するデータを持っていて、接続時にそれをコントローラ100が読み込んできても良い。また、接続時にだけ本実施の形態に係る線形補間演算を実行するようにしてもいいし、定期的に実行するようにしても良い。
【0029】
さらに、このフィルタ算出機能を利用する第2の具体的例としては、エッジ強調フィルタのパワーが最大となる周波数での周波数応答特性が、X軸方向(主走査方向)で40%、Y軸方向(副走査方向)で60%のセンサで入力された画像データに対して、両方向共に同程度のエッジ強調をかける処理を行う場合が挙げられ、そのためのフィルタF(M,N)は次の式で表される。
【0030】
F(M,N)=SF1(M,N)×(270−G)+SF2(M,N)×(G−170)
Gは求めるフィルタのY軸方向のパワー最大値で、この場合は、G=270×40/60=180となる。この場合でも得られたフィルタ係数F(M,N)全係数の総和は、2のべき乗、この例では128となるようにDC成分の係数値は調整される。
【0031】
この結果求められたフィルタは、図12、図13に示す通りである。
【0032】
また、本実施に形態で示される線形補間演算を一般化して記述すると以下のように表される。
【0033】
F(M,N)=SF1(M,N)×(MAXy2−G)+SF2(M,N)×(G−MAXy1)、
G=(MAX)×(A/A
ここで、MAXはエッジ強調フィルタのX軸方向のパワー最大値、MAXy1は基となるフィルタのうち方向差が最大のフィルタのY軸方向のパワー最大値、Gは求めるフィルタのY軸方向のパワー最大値、Aはある周波数でのX軸方向のセンサ周波数応答特性、Aは同周波数でのY軸方向のセンサ周波数応答特性を示すものである。
【0034】
図14は、以上の処理の概略をフローチャートで示した図である。エッジ強調度の差を変更する処理が指示されると、処理はステップS101に移行し、ステップS101において、スキャナ(画像入力装置)におけるセンサの少なくとも2方向(異なる方向)の周波数応答特性が検出される。この異なる方向は、本実施の形態ではX軸方向とY軸方向である。そして、ステップS102に移行し、各方向における周波数応答特性に対応するフィルタ係数が取得される。さらに、ステップS103に移行し、ステップS102で取得されたフィルタ係数を線形補間することによりエッジ強調度の差を変更する。この線形補間は上記のような線形補間演算式を用いて行われる。エッジ強調度の差が変更されたら処理が終了する。
【0035】
本発明による実施形態の処理は、各機能具現化したソフトウェアのプログラムコードを記録した記憶媒体をシステム或は装置に提供し、そのシステム或は装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フロッピィ(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。
【0036】
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれている。
【0037】
更に、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含む。
【0038】
【発明の効果】
以上説明したように、本発明によれば、方向により特性の異なるデジタルフィルタを適用することで、出力画像の鮮鋭性の方向依存性を低減させる効果がある。さらに、本発明によれば、方向ごとの特性の差に従って、適用すべきデジタルフィルタを算出することができるため、機器内に記憶するフィルタのデータ容量を節約する効果がある。
【図面の簡単な説明】
【図1】本実施の形態を適用するのに好適なデジタル複合機の制御システム構成を示す図である。
【図2】スキャナの外観を示す図である。
【図3】プリンタの外観を示す図である。
【図4】スキャナ画像処理部の構成を示す図である。
【図5】プリンタ画像処理部の構成を示す図である。
【図6】本実施の形態における線形補間に用いるデジタルフィルタ係数の第一の具体例を示す図である。
【図7】本実施の形態における線形補間に用いるデジタルフィルタ係数の第二の具体例を示す図である。
【図8】図6に示されるデジタルフィルタの周波数応答特性を示す図である。
【図9】図7に示されるデジタルフィルタの周波数応答特性を示す図である。
【図10】本実施の形態による線形補間によって算出した、エッジ強調度変更後のフィルタ係数の第一の具体例を示す図である。
【図11】図10に示されるデジタルフィルタの周波数応答特性を示す図である。
【図12】本実施の形態による線形補間によって算出した、エッジ強調度変更後のフィルタ係数の第二の具体例を示す図である。
【図13】図12に示されるデジタルフィルタの周波数応答特性を示す図である。
【図14】本実施の形態によるエッジ強調度変更処理の概略を示すフローチャートである。
【符号の説明】
100 コントローラユニット
103 CPU
107 RAM
108 ROM
400 操作部
700 スキャナ画像処理部
702 MTF補正フィルタ処理部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to image processing in an image forming system, and more particularly to processing for correcting an influence due to a frequency response characteristic of a sensor of an image input unit.
[0002]
[Prior art]
Conventionally, when a document image is read by a scanner, the read data is corrected by applying a digital filter in consideration of the frequency response characteristic (MTF) of the sensor. In that case, it is common to use a fixed digital filter having the same characteristics in all directions based on the typical MTF of the sensor.
[0003]
Various types of sensors are employed for scanners used in copiers and the like for each model. Among these, for example, a contact image sensor, the frequency response characteristics vary greatly depending on the direction. In addition, the sharpness of the input image may differ between the main scanning direction and the sub-scanning direction depending on the usage form of the sensor.
[0004]
[Patent Document 1]
JP-A-11-177836 [Patent Document 2]
Japanese Patent Laid-Open No. 2001-245157
[Problems to be solved by the invention]
However, in such a case, if a digital filter having the same characteristics in all directions is used, the sharpness of the input image is processed depending on the direction. Generally speaking, the image processing function in the device is often premised on the same handling in all directions, so if the frequency response characteristics of the sensor differ greatly depending on the direction, the sharpness of the processed image However, there is a problem that other image processing may not be performed as intended.
[0006]
The present invention has been made in view of such problems, and the problem is that a digital filter for correcting input image data is considered in consideration of the direction dependency of the frequency response characteristics of the sensor in the image input apparatus. An object of the present invention is to provide an image processing apparatus and an image processing method which are set optimally for each sensor.
[0007]
[Means for Solving the Problems]
In order to solve the above-described problem, an image apparatus according to the present invention is an image processing apparatus that changes the edge enhancement degree of an image by a digital filter, and performs filter processing for applying filters having different edge enhancement degrees in different directions. And a changing means for changing the difference in the edge enhancement degree in different directions. The image processing apparatus according to the present invention further includes a detection unit that detects a frequency response characteristic of the sensor of the image input device, a storage unit that stores the frequency response characteristic detected by the detection unit in different directions, and a storage unit. Filter calculating means for determining a coefficient to be input to the changing means according to the stored frequency response characteristic, and calculating and storing a digital filter. Further, the changing means stores a set of filter coefficients for a plurality of pixels corresponding to a frequency response characteristic having a minimum difference in edge enhancement in different directions and a frequency response characteristic having the maximum difference in edge enhancement. Based on this, filter coefficients for a plurality of pixels corresponding to other edge enhancement differences are calculated by linear interpolation. The linear interpolation calculation is performed using a ratio based on the difference in edge enhancement of the filter having the largest difference in edge enhancement depending on the direction as a coefficient. Note that the total sum of the filter coefficients calculated by the linear interpolation calculation is represented by a power of 2. Among the calculated filter coefficients, the coefficient corresponding to the DC component absorbs an error that can be accumulated by the calculation of the coefficient corresponding to the component other than the DC component, and the sum of the filter coefficients is expressed by a power of 2. Is set as follows.
[0008]
An image processing method according to the present invention is an image processing method for changing an edge enhancement degree of an image using a digital filter, and includes a filter processing step for applying filters having different edge enhancement degrees in different directions, and edges in different directions. And a change step for changing the difference in the degree of emphasis. The image processing method according to the present invention further includes a detection step of detecting a frequency response characteristic of a sensor of the image input device, and a storage step of storing the frequency response characteristic in a different direction detected in the detection step in a memory. And a filter calculating step for determining a coefficient to be input in the changing step in accordance with the frequency response characteristic stored in the memory, and calculating and storing a digital filter. In the changing step, a set of filter coefficients for a plurality of pixels corresponding to the frequency response characteristic having the smallest difference in edge enhancement in different directions and the frequency response characteristic having the largest difference in edge enhancement is stored. Based on this, filter coefficients for a plurality of pixels corresponding to other differences in edge enhancement are calculated by linear interpolation. Note that the linear interpolation calculation is performed using a ratio based on the difference in edge enhancement of the filter having the largest difference in edge enhancement depending on the direction as a coefficient. Further, the total sum of the filter coefficients calculated by the linear interpolation calculation is represented by a power of 2. Further, among the calculated filter coefficients, the coefficient corresponding to the DC component absorbs an error that can be accumulated by the calculation of the coefficient corresponding to other than the DC component, and the sum of the filter coefficients is represented by a power of 2. Is set to
[0009]
DETAILED DESCRIPTION OF THE INVENTION
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. First, an image processing apparatus system according to an embodiment of the present invention will be described for each component.
[0010]
<Hardware configuration>
FIG. 1 is a diagram showing a control system configuration of a digital multi-function peripheral suitable for applying the present embodiment.
[0011]
The controller unit 100 is connected to a scanner 200 that is an image input device and a printer 300 that is an image output device, while being connected to a LAN 500 and a telephone line 600. The controller unit 100 controls input / output of image information and device information. Actually, the CPU 103 has a function of controlling the entire digital multi-function peripheral. A RAM 107 is a system work memory in which data necessary for the operation of the CPU 103 is stored, and is also used as an image memory for temporarily storing image data. The ROM 108 is used as a boot ROM, and stores a boot program for the digital multifunction peripheral. An HDD 109 is a hard disk drive and stores system software, image data, and the like. The HDD 109 may store information such as an image output speed and an installation position related to a node connected to the network (LAN 500) for each address. An operation unit I / F (interface) 104 serves as an interface between the operation unit 400 and the system bus 101, and outputs image data to be displayed on a liquid crystal unit (not shown) of the operation unit 400 to the operation unit 400. The operation unit I / F 104 serves to transmit information input by the user from the operation unit 400 to the CPU 103. The system bus 101 and the LAN 500 are connected via a network I / F 105 to input / output information. Further, the system bus 101 and the telephone line 600 are connected via a modem 106. The modem 106 performs modulation / demodulation processing for data transmission / reception. Each device is arranged on the system bus 101 as described above.
[0012]
The image bus I / F 110 is for connecting the system bus 101 and the image bus 102 for transferring image data at high speed, and functions as a bus bridge for converting the data structure. The image bus 102 is configured by a high-speed bus such as a PCI bus or IEEE1394.
[0013]
The following devices are arranged on the image bus 102. A raster image processor (RIP) 111 expands a PDL code into a bitmap image. The device I / F unit 112 connects the scanner 100 and the printer 300, which are image input / output devices, to the controller 100, and performs synchronous / asynchronous conversion of image data. A scanner image processing unit 700 corrects, processes, and edits input image data. The printer image processing unit 800 performs correction, resolution conversion, and the like according to the printer on the print output image data. The image compression unit 115 performs compression / decompression processing of JPEG for multi-value image data and JBIG, MMR, and MH for binary image data.
[0014]
<Image input unit (scanner)>
FIG. 2 is a diagram illustrating an appearance of a scanner which is an image input unit. The scanner unit 200, which is an image input device, illuminates an image on paper as a document and scans a CCD line sensor (not shown) to convert it into an electrical signal as raster image data. The manuscript paper is set on the tray 202 of the manuscript feeder 201, and when the user gives a reading start instruction from the operation unit 400, the controller CPU 103 gives an instruction to the scanner 200, and the feeder 201 feeds the manuscript paper one by one to copy the manuscript image. Perform a read operation.
[0015]
<Image output unit (printer)>
FIG. 3 is an external view of a printer that is an image output unit. The printer unit 300, which is an image output device, is a part that converts raster image data into an image on paper. The method is an electrophotographic method using a photosensitive drum or a photosensitive belt, and ink is ejected from a micro nozzle array. There is an ink jet method for printing an image directly on paper, but any method may be used. Activation of the printing operation is started by an instruction from the controller CPU 103. The printer unit 300 has a plurality of paper feed stages so that different paper sizes or different paper orientations can be selected, and paper cassettes 302, 303, 304, and 305 corresponding to the paper feed stages are mounted. A paper discharge tray 306 receives paper that has been printed.
[0016]
<Scanner image processing unit>
FIG. 4 is a diagram illustrating a configuration of the scanner image processing unit 700. The image bus I / F controller 701 is connected to the image bus 102 and has a function of controlling the bus access sequence, and also has a function of generating control and timing of each device in the scanner image processing unit 700. The MTF correction filter processing unit 702 is a part that executes the processing method according to the present embodiment. In order to correct the frequency characteristics of the image by the sensor characteristics of the scanner and perform edge enhancement, the MTF correction filter processing unit 702 performs a convolution operation using a digital spatial filter. Do. That is, in the MTF correction filter 702, a filter coefficient that matches the characteristics of the scanner 200 is determined by a process described later, and edge enhancement processing is performed depending on the direction by this filter. The image area separation processing unit 703 determines an image area by detecting a character part from the input image, and generates an image area signal used for subsequent image processing. The table processing unit 704 is a block that performs table conversion in order to convert luminance data that has undergone direction-dependent edge enhancement processing by the MTF correction filter into density data. For example, conversion is performed so that luminance data (steps 0 to 255) is represented by black and white data (for example, steps 0 to 255). The filter processing unit 705 performs a convolution operation with a digital spatial filter according to a purpose such as edge enhancement on the entire image. The MTF correction filter has direction dependency, but the filter 705 does not have direction dependency. For example, the editing unit 706 recognizes a closed region surrounded by a pointing device such as a marker pen from input image data, and performs image processing such as shading, shading, and negative / positive inversion on the image data in the closed region. Process. Then, the processed image data is transferred to the image bus 102 via the image I / F bus controller 701 again. Note that the coefficient of the MTF correction filter 702 can be determined so that the process of the filter 705 and the process 702 of the MTF correction filter are performed at once, but the details are omitted.
[0017]
<Printer image processing unit>
FIG. 5 is a diagram illustrating a configuration of the printer image processing unit 800. The image bus I / F controller 801 is connected to the image bus 102 and has a function of controlling the bus access sequence and a function of generating control and timing of each device in the printer image processing unit 800. The background removal processing unit 802 removes the background color when image data or the like obtained by reading a document having a light background color is sent. A color conversion processing unit 803 performs color conversion in accordance with the output characteristics of the printer. A resolution conversion unit 804 performs resolution conversion for converting image data received from the LAN 500 or the telephone line 600 into the resolution of the printer 300. The smoothing processing unit 805 performs a process of smoothing jaggy (image roughness appearing at a black and white border such as an oblique line) of the image data after resolution conversion.
[0018]
<Filter coefficient setting process peculiar to this embodiment>
Next, a digital filter coefficient setting process unique to this embodiment will be described. The sensors employed in the image input apparatus may have different frequency response characteristic differences depending on directions for each type and for each individual. In order to cope with various image processing after image input, it is desirable to individually correct their frequency response characteristics.
[0019]
However, if only sensors are replaced within a device with the same mechanism, if there are individual differences among sensors in mass production, or if a device or application that handles images such as input devices, image editing functions, and output devices is used by using a network. At present, it is difficult to deal with only a fixed correction coefficient when the combination becomes complicated. For this reason, it is desirable to prepare a large number of filters for various frequency characteristic differences. However, storing a large amount of individual filter coefficients requires a large amount of memory capacity and is not practical. is there.
[0020]
Therefore, in the present embodiment, the above problem is solved by using a method of calculating and applying a filter suitable for a sensor having various frequency response characteristics, particularly differences in characteristics depending on directions, using linear interpolation calculation. It has been solved.
[0021]
6 and 7 are diagrams showing filter coefficients to be applied to the input digital image data. In this example, both employ 7 × 7 pixel filter coefficients. 8 is a diagram showing the frequency response of the filter coefficient of FIG. 6, and FIG. 9 is a diagram showing the frequency response of the filter coefficient of FIG.
[0022]
8 and 9, the horizontal axis represents the spatial frequency and the vertical axis represents the power. The unit of the spatial frequency on the horizontal axis is lp / mm (line pair per millimeter), which is a unit indicating how many line pairs are present per mm. Further, the power on the vertical axis indicates to what percentage each frequency component is emphasized. The power of 100% means that the input image is output as it is.
[0023]
The filters shown in FIGS. 6 and 8 should be applied when the difference in the frequency response between the X-axis direction and the Y-axis direction is the greatest, and the frequency response in the Y-axis direction of the sensor is in the X-axis direction. Since it is higher than the above, it is a filter having a characteristic that suppresses the enhancement amount in the Y-axis direction lower than that in the X-axis direction. The filters shown in FIGS. 7 and 9 are to be applied when the frequency responses in the X-axis direction and the Y-axis direction are equal, and are filters having characteristics having the same enhancement amount in both directions. That is, the frequency response characteristic has no difference in edge enhancement degree in both directions. Here, the embodiment without difference in edge enhancement is used as an embodiment, but it may not be at all, and the difference is sufficiently larger than the difference in enhancement shown in FIG. If it is small, it can be applied as the present invention. That is, the filter in FIG. 8 shows the largest difference in edge enhancement in both XY axes, and the filter in FIG. 9 shows the smallest difference in edge enhancement in both XY directions. The fact that there is no difference in edge enhancement is an ideal state when the difference is minimized.
[0024]
In the filter shown in FIG. 8, the maximum values of the frequency responses in the X-axis direction and the Y-axis direction are about 270% and 170% near 6 lp / mm, respectively. The filter shown in FIG. 9 is about 270% in both directions. A procedure for generating a filter having a maximum value in the X-axis direction of about 270% and a maximum value in the Y-axis direction of about 170% to 270% from these two filters will be described.
[0025]
The filter coefficient in FIG. 6 is represented as SF1 (M, N), the filter coefficient in FIG. 7 is represented as SF2 (M, N), the argument M is defined as the X direction, the argument N is defined as the Y direction, and the upper left is defined as 0 rows and 0 columns. To do. For example, the value of SF1 (2, 3) is 38.
[0026]
A first specific example using this filter calculation function will be described. There is a case where F (M, N) having a characteristic exactly halfway between SF1 (M, N) and SF2 (M, N) (here, expressed as 0.5) is obtained. It can be expressed by a formula.
[0027]
F (M, N) = SF1 (M, N) × 0.5 + SF2 (M, N) × 0.5
In this equation, the fractional part is rounded off, and when the coefficient for 7 × 7 pixels is calculated, the filter coefficient shown in FIG. 10 is obtained. However, since the value of the DC (direct current) component F (3, 3) absorbs rounding errors accumulated in other coefficient operations, the sum of all F (M, N) coefficients is a power of 2, in this example Then, the adjustment is made to be 128. This is because, when the present embodiment is realized by hardware, the power of 2 is more convenient when performing a shift operation.
[0028]
Here, the middle (0.5) represents an intermediate point of about 170% to 270%, which is the range of the maximum value in the Y-axis direction of the filter to be obtained. In this example, the maximum value in the Y-axis direction, This means that G described later is 220%. The ratio of the linear interpolation calculation for SF1 (M, N) and SF2 (M, N) depends on the frequency characteristic specific to the connected scanner 200, that is, the frequency response characteristic in the X direction and the frequency in the Y direction. It depends on the difference in response characteristics. The characteristics of the scanner 200 may be acquired when a certain image is read, or the scanner 200 itself has data relating to its own characteristics, and the controller 100 may read it when connected. Further, the linear interpolation calculation according to the present embodiment may be executed only at the time of connection, or may be executed periodically.
[0029]
Further, as a second specific example using this filter calculation function, the frequency response characteristic at the frequency at which the power of the edge enhancement filter is maximum is 40% in the X-axis direction (main scanning direction), and the Y-axis direction. There is a case in which the image data input by 60% of the sensor in the (sub-scanning direction) is subjected to processing for applying the same degree of edge enhancement in both directions, and the filter F (M, N) for this is expressed by the following equation: It is represented by
[0030]
F (M, N) = SF1 (M, N) × (270−G) + SF2 (M, N) × (G−170)
G is the maximum power value in the Y-axis direction of the filter to be obtained. In this case, G = 270 × 40/60 = 180. Even in this case, the coefficient value of the DC component is adjusted so that the total sum of all the obtained filter coefficients F (M, N) is a power of 2, 128 in this example.
[0031]
The filters obtained as a result are as shown in FIGS.
[0032]
Further, the linear interpolation calculation shown in the present embodiment is generalized and described as follows.
[0033]
F (M, N) = SF1 (M, N) × (MAX y2− G) + SF2 (M, N) × (G−MAX y1 ),
G = (MAX x ) × (A x / A y )
Here, MAX x is the maximum power value in the X-axis direction of the edge enhancement filter, MAX y1 is the maximum power value in the Y-axis direction of the filter having the maximum direction difference among the basic filters, and G is the Y-axis direction of the filter to be obtained. of maximum power, a x X-axis direction of the sensor frequency response characteristics at a certain frequency, a y shows a Y-axis direction of the sensor frequency response characteristics at the same frequency.
[0034]
FIG. 14 is a flowchart showing the outline of the above processing. When a process for changing the difference in edge enhancement is instructed, the process proceeds to step S101. In step S101, frequency response characteristics in at least two directions (different directions) of the sensor in the scanner (image input apparatus) are detected. The The different directions are the X-axis direction and the Y-axis direction in the present embodiment. And it transfers to step S102 and the filter coefficient corresponding to the frequency response characteristic in each direction is acquired. Furthermore, the process proceeds to step S103, and the difference in edge enhancement is changed by linearly interpolating the filter coefficient acquired in step S102. This linear interpolation is performed using the above-described linear interpolation formula. If the difference in edge enhancement is changed, the process ends.
[0035]
In the processing according to the embodiment of the present invention, a storage medium in which a program code of software embodying each function is recorded is provided to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus stores the storage medium in the storage medium. It is also achieved by reading and executing the programmed program code. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying such a program code, for example, a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM Etc. can be used.
[0036]
Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code Includes a case where the function of the above-described embodiment is realized by performing part or all of the actual processing.
[0037]
Furthermore, after the program code read from the storage medium is written in the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function is determined based on the instruction of the program code. This includes the case where the CPU of the expansion board or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
[0038]
【The invention's effect】
As described above, according to the present invention, there is an effect of reducing the direction dependency of the sharpness of an output image by applying digital filters having different characteristics depending on directions. Furthermore, according to the present invention, the digital filter to be applied can be calculated according to the difference in characteristics for each direction, so that there is an effect of saving the data capacity of the filter stored in the device.
[Brief description of the drawings]
FIG. 1 is a diagram showing a control system configuration of a digital multi-function peripheral suitable for applying the present embodiment.
FIG. 2 is a diagram illustrating an appearance of a scanner.
FIG. 3 is a diagram illustrating an appearance of a printer.
FIG. 4 is a diagram illustrating a configuration of a scanner image processing unit.
FIG. 5 is a diagram illustrating a configuration of a printer image processing unit.
FIG. 6 is a diagram showing a first specific example of digital filter coefficients used for linear interpolation in the present embodiment.
FIG. 7 is a diagram illustrating a second specific example of digital filter coefficients used for linear interpolation in the present embodiment.
FIG. 8 is a diagram showing frequency response characteristics of the digital filter shown in FIG. 6;
9 is a diagram showing frequency response characteristics of the digital filter shown in FIG.
FIG. 10 is a diagram illustrating a first specific example of a filter coefficient after changing the edge enhancement degree, calculated by linear interpolation according to the present embodiment.
11 is a diagram showing frequency response characteristics of the digital filter shown in FIG.
FIG. 12 is a diagram illustrating a second specific example of the filter coefficient after changing the edge enhancement degree, calculated by linear interpolation according to the present embodiment.
13 is a diagram showing frequency response characteristics of the digital filter shown in FIG.
FIG. 14 is a flowchart showing an outline of edge enhancement degree change processing according to the present embodiment;
[Explanation of symbols]
100 Controller unit 103 CPU
107 RAM
108 ROM
400 Operation Unit 700 Scanner Image Processing Unit 702 MTF Correction Filter Processing Unit

Claims (14)

デジタルフィルタによって画像のエッジ強調度を変更する画像処理装置であって、
互いに異なる方向で前記エッジ強調度が異なるフィルタを適用するためのフィルタ処理手段と、
前記異なる方向における前記エッジ強調度の差を変更するための変更手段と、を備えることを特徴とする画像処理装置。
An image processing apparatus for changing an edge enhancement degree of an image by a digital filter,
Filter processing means for applying filters having different edge enhancement levels in different directions;
An image processing apparatus comprising: changing means for changing a difference in the edge enhancement degree in the different directions.
さらに、画像入力装置のセンサの周波数応答特性を検出する検出手段と、
前記検出手段で検出した、前記異なる方向における前記周波数応答特性を記憶する記憶手段と、
前記記憶手段に記憶された前記周波数応答特性に応じて前記変更手段に入力する係数を決定し、デジタルフィルタを算出し記憶するためのフィルタ算出手段と、
を備えることを特徴とする請求項1に記載の画像処理装置。
Furthermore, detection means for detecting the frequency response characteristics of the sensor of the image input device;
Storage means for storing the frequency response characteristics in the different directions detected by the detection means;
Filter calculating means for determining a coefficient to be input to the changing means according to the frequency response characteristic stored in the storage means, and calculating and storing a digital filter;
The image processing apparatus according to claim 1, further comprising:
前記変更手段は、前記異なる方向での前記エッジ強調度の差が最小の周波数応答特性と、前記エッジ強調度の差が最大の周波数応答特性とに対応する複数画素分のフィルタ係数のセットを記憶し、これに基づいて他のエッジ強調度の差を持つものに対応する複数画素分のフィルタ係数を線形補間演算により算出することを特徴とする請求項2に記載の画像処理装置。The changing unit stores a set of filter coefficients for a plurality of pixels corresponding to a frequency response characteristic having a minimum difference in edge enhancement in the different directions and a frequency response characteristic having the maximum difference in edge enhancement. The image processing apparatus according to claim 2, wherein, based on this, filter coefficients for a plurality of pixels corresponding to other differences in edge enhancement are calculated by linear interpolation calculation. 前記線形補間演算は、方向によるエッジ強調度の差が最大であるフィルタのエッジ強調度の差を基準にした割合を係数として行うことを特徴とする請求項3に記載の画像処理装置。The image processing apparatus according to claim 3, wherein the linear interpolation calculation is performed using, as a coefficient, a ratio based on a difference in edge enhancement degree of a filter having a maximum difference in edge enhancement degree depending on a direction. 前記線形補間演算により算出されたフィルタ係数の総和は、2のべき乗で表されることを特徴とする請求項4に記載の画像処理装置。The image processing apparatus according to claim 4, wherein the total sum of the filter coefficients calculated by the linear interpolation calculation is represented by a power of two. 前記算出されたフィルタ係数のうち、DC成分に対応する係数は、このDC成分以外に対応する係数の演算で累積されうる誤差を吸収して、前記フィルタ係数の総和が2のべき乗で表されるように設定されることを特徴とする請求項5に記載の画像処理装置。Among the calculated filter coefficients, a coefficient corresponding to a DC component absorbs an error that can be accumulated by calculation of a coefficient corresponding to the DC component other than the DC component, and the sum of the filter coefficients is expressed by a power of 2. The image processing apparatus according to claim 5, wherein the image processing apparatus is set as follows. デジタルフィルタによって画像のエッジ強調度を変更する画像処理方法であって、
互いに異なる方向で前記エッジ強調度が異なるフィルタを適用するためのフィルタ処理工程と、
前記異なる方向における前記エッジ強調度の差を変更するための変更工程と、を備えることを特徴とする画像処理方法。
An image processing method for changing an edge enhancement degree of an image by a digital filter,
A filtering process for applying filters having different edge enhancement levels in different directions;
An image processing method comprising: a changing step for changing a difference between the edge enhancement levels in the different directions.
さらに、画像入力装置のセンサの周波数応答特性を検出する検出工程と、
前記検出工程で検出した、前記異なる方向における前記周波数応答特性をメモリに記憶する記憶工程と、
前記メモリに記憶された前記周波数応答特性に応じて前記変更工程で入力する係数を決定し、デジタルフィルタを算出し記憶するためのフィルタ算出工程と、を備えることを特徴とする請求項7に記載の画像処理方法。
Furthermore, a detection step of detecting a frequency response characteristic of the sensor of the image input device;
A storage step of storing in the memory the frequency response characteristics in the different directions detected in the detection step;
8. A filter calculating step for determining a coefficient to be input in the changing step according to the frequency response characteristic stored in the memory, and calculating and storing a digital filter. Image processing method.
前記変更工程では、前記異なる方向での前記エッジ強調度の差が最小の周波数応答特性と、前記エッジ強調度の差が最大の周波数応答特性とに対応する複数画素分のフィルタ係数のセットが記憶され、これに基づいて他のエッジ強調度の差を持つものに対応する複数画素分のフィルタ係数を線形補間演算により算出することを特徴とする請求項8に記載の画像処理方法。In the changing step, a set of filter coefficients for a plurality of pixels corresponding to the frequency response characteristic having the smallest difference in edge enhancement in the different directions and the frequency response characteristic having the largest difference in edge enhancement is stored. 9. The image processing method according to claim 8, wherein filter coefficients for a plurality of pixels corresponding to other edge enhancement differences are calculated based on this by linear interpolation calculation. 前記線形補間演算は、方向によるエッジ強調度の差が最大であるフィルタのエッジ強調度の差を基準にした割合を係数として行うことを特徴とする請求項9に記載の画像処理方法。The image processing method according to claim 9, wherein the linear interpolation calculation is performed using, as a coefficient, a ratio based on a difference in edge enhancement of a filter having a maximum difference in edge enhancement depending on a direction. 前記線形補間演算により算出されたフィルタ係数の総和は、2のべき乗で表されることを特徴とする請求項10に記載の画像処理方法。The image processing method according to claim 10, wherein the sum of the filter coefficients calculated by the linear interpolation calculation is represented by a power of two. 前記算出されたフィルタ係数のうち、DC成分に対応する係数は、このDC成分以外に対応する係数の演算で累積されうる誤差を吸収して、前記フィルタ係数の総和が2のべき乗で表されるように設定されることを特徴とする請求項11に記載の画像処理方法。Among the calculated filter coefficients, a coefficient corresponding to a DC component absorbs an error that can be accumulated by calculation of a coefficient corresponding to the DC component other than the DC component, and the sum of the filter coefficients is expressed by a power of 2. The image processing method according to claim 11, wherein the image processing method is set as follows. 請求項7乃至12のいずれか1項に記載の画像処理方法を実行することを特徴とするプログラム。A program that executes the image processing method according to any one of claims 7 to 12. 請求項13に記載のプログラムを記憶したことを特徴とする、コンピュータで読み取り可能な記憶媒体。A computer-readable storage medium storing the program according to claim 13.
JP2003193116A 2003-07-07 2003-07-07 Image processor and image processing method to which spatial filter is applied Pending JP2005031759A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003193116A JP2005031759A (en) 2003-07-07 2003-07-07 Image processor and image processing method to which spatial filter is applied

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003193116A JP2005031759A (en) 2003-07-07 2003-07-07 Image processor and image processing method to which spatial filter is applied

Publications (1)

Publication Number Publication Date
JP2005031759A true JP2005031759A (en) 2005-02-03

Family

ID=34204706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003193116A Pending JP2005031759A (en) 2003-07-07 2003-07-07 Image processor and image processing method to which spatial filter is applied

Country Status (1)

Country Link
JP (1) JP2005031759A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008017291A (en) * 2006-07-07 2008-01-24 Canon Inc Image processor, image processing method, image processing program, and storage medium
JP2012073679A (en) * 2010-09-27 2012-04-12 Fujitsu Ltd Imaging device, image evaluation method, and focus adjustment control program
JP2012134668A (en) * 2010-12-20 2012-07-12 Canon Inc Image processing apparatus and image processing method
CN104954624A (en) * 2014-03-26 2015-09-30 富士施乐株式会社 Correct control device, image reading apparatus, and correction control method
JP2015192176A (en) * 2014-03-27 2015-11-02 富士ゼロックス株式会社 Correction control device, image reading apparatus and correction control program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008017291A (en) * 2006-07-07 2008-01-24 Canon Inc Image processor, image processing method, image processing program, and storage medium
JP4677376B2 (en) * 2006-07-07 2011-04-27 キヤノン株式会社 Image processing apparatus, image processing method, image processing program, and storage medium
US7999972B2 (en) 2006-07-07 2011-08-16 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing program, and storage medium
JP2012073679A (en) * 2010-09-27 2012-04-12 Fujitsu Ltd Imaging device, image evaluation method, and focus adjustment control program
JP2012134668A (en) * 2010-12-20 2012-07-12 Canon Inc Image processing apparatus and image processing method
US8774545B2 (en) 2010-12-20 2014-07-08 Canon Kabushiki Kaisha Image processing apparatus and image processing method with weighted vectors for filtering
CN104954624A (en) * 2014-03-26 2015-09-30 富士施乐株式会社 Correct control device, image reading apparatus, and correction control method
JP2015192176A (en) * 2014-03-27 2015-11-02 富士ゼロックス株式会社 Correction control device, image reading apparatus and correction control program

Similar Documents

Publication Publication Date Title
JP4476203B2 (en) Image processing apparatus, program, and image processing method
JP4769661B2 (en) Image processing device
JP6338469B2 (en) Image processing apparatus and image processing method
JP5407627B2 (en) Image processing apparatus, image processing method, and program
JP2007082060A (en) Image processing device and connection system for image processings
JP2002232654A (en) Device and method for image processing and computer readable recording medium with program for making computer perform the method recorded thereon
US8294954B2 (en) Image forming apparatus and method for reducing the difference of image qualities between the image data read by a plurality of reading units
JP2005031759A (en) Image processor and image processing method to which spatial filter is applied
JP4908382B2 (en) Image processing apparatus and image processing method
JP2007251835A (en) Image processor, and image processing method
JP6391348B2 (en) Image processing apparatus, image processing method, and program
JP2000125117A (en) Picture processing method and processor
JP2005027037A (en) Format conversion method and image processing apparatus
JP2006011754A (en) Image processing device and image processing method
JP2660170B2 (en) Image processing device
JP2006224595A (en) Printing system
JP3638168B2 (en) Image data storage device
JP2004349858A (en) Image processor and document duplicating apparatus using the same
JP2008092323A (en) Image processing equipment, and image reading apparatus and image forming apparatus equipped with the same
JP3911459B2 (en) Image reading device
JP4165838B2 (en) Image reading device
JP2002199223A (en) Image processor, image processing method and storage medium
JP2852029B2 (en) Image processing method
JP2003264700A (en) Image processing apparatus and image processing method
JP2004128811A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081003

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090220