JP3703180B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP3703180B2
JP3703180B2 JP24282195A JP24282195A JP3703180B2 JP 3703180 B2 JP3703180 B2 JP 3703180B2 JP 24282195 A JP24282195 A JP 24282195A JP 24282195 A JP24282195 A JP 24282195A JP 3703180 B2 JP3703180 B2 JP 3703180B2
Authority
JP
Japan
Prior art keywords
value
pixel
interpolation
image information
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24282195A
Other languages
Japanese (ja)
Other versions
JPH0993424A (en
Inventor
信孝 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP24282195A priority Critical patent/JP3703180B2/en
Priority to US08/715,116 priority patent/US5917963A/en
Publication of JPH0993424A publication Critical patent/JPH0993424A/en
Application granted granted Critical
Publication of JP3703180B2 publication Critical patent/JP3703180B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、入力した画像情報を変倍し、低解像情報から高解像情報に解像度変換する画像処理装置及び画像処理方法に関するものである。
【0002】
【従来の技術】
従来より、入力した低解像情報を高解像情報に解像度変換する方法として、様々な方法が提案されている。これらの方法は、対象となる画像の種類(例えば、各画素ごとに階調情報を持つ多値画像、擬似中間調により2値化された2値画像、固定閾値により2値化された2値画像、文字画像等)によって、その変換処理方法が異なっている。
【0003】
従来の内挿方法としては、例えば、図17に示すような、内挿点に最も近い、同じ画素値を配列する最近接内挿方法、図18に示すような、内挿点を囲む4点(4点の画素値をA,B,C,Dとする)の距離により、以下の演算によって画素値Eを決定する共1次内挿法等が一般的に用いられている。
【0004】
E=(1−i)(1−j)A+i・(1−j)B+j・(1−i)C+ijDただし、画素間距離を1とした場合、Aから横方向にi、縦方向にjの距離があるとする(i≦1,j≦1)。
【0005】
また、低解像、多階調の画像情報を、高解像、2値の画像情報に変換する場合、例えば、2値出力のみ可能なプリンタ等の画像出力装置が、プリンタエンジンの解像度に相当する画像情報を出力しようとするとき、あらかじめ、ホストコンピュータからエンジン解像度の情報を入力することも考えられるが、ホストコンピュータ上での展開、処理の負担、また、送信に要する時間等を考えれば、低解像の情報を入力して高解像の2値情報を作成して出力する構成も考えられる。
【0006】
現在、多値画像の2値化による擬似中間調処理には、誤差拡散法が多く用いられている。しかし、プリンタのエンジン解像度が高解像化されてくると、処理の重い誤差拡散法よりもディザ法を用いた方が、処理時間、回路規模等の面で有利になる。また、画質、特に階調性においては、高解像化に伴い、これらの方法の差は縮まっていく。ただし、問題となるのは解像性であり、ディザ法を用いた場合、階調性と解像性が背反条件となり、中間調の文字部や、自然画像のエッジ部での劣化が視覚的に目立ってしまう。そこで、従来より、エッジ強調を施した後にディザ法にて2値化を行なう方法が提案されている。
【0007】
【発明が解決しようとする課題】
しかしながら、上記従来の方法には、以下に示す問題がある。
【0008】
まず、図17に示す方法は、構成が簡単であるという利点はあるが、対象画像を自然画像等に用いた場合には、拡大するブロック毎に画素値が決定されるため、視覚的にブロックが目立ってしまい画質的に劣悪である。
【0009】
また、この方法を文字、線画像、CG(コンピュータグラフィック)画像等に用いた場合でも、拡大するブロック毎に同一画素値が連続するため、特に、斜線等には、図19,図20に示すように、ジャギーといわれるギザギザの目立った劣悪な画像になってしまう。図19,図20は、縦横ともに2倍の解像度変換の例であるが、倍率が大きくなればなるほど、上記の劣化は大きくなる。なお、図19,図20中にある“200”,“10”等は画素値である。
【0010】
図18に示す方法は、自然画像の拡大には一般的に良く用いられている方法である。この方法では、平均化され、スムージングのかかった画質になるが、エッジ部やシャープな画質が要求される部分では、ぼけた画質になってしまう。さらに、地図等をスキャンした画像や、文字部を含む自然画像のような場合、補間によるぼけのために、大切な情報が受け手に伝わらないこともある。
【0011】
図21は、図18に示す方法により、図19の入力画像情報を縦横2倍ずつに補間処理をした画像情報を示している。この方法では、図21からも明らかなように、斜線周辺のみならず、斜線そのものも画素値が均一にならず、ぼけが生じてしまう。
【0012】
また、解像度変換と擬似中間調処理の両方を行なう場合について考える。
【0013】
図17,図18に示す解像度変換した後の画像を、フィルタリングによりエッジ強調を施して、ディザ処理を行なった場合、図17に示す例では、ジャギーをより目立たせることになってしまう。また、図18に示す例では、既にエッジが鈍ってしまっている状態、すなわち、エッジ自体が補間により距離を有してしまった状態なので、強調を施したとしても低解像度時に発生していたような急峻なエッジは再現されない。さらに、解像度変換後の画素数が増加した後でフィルタリングするため、処理の負荷が増加する。
【0014】
つまり、多階調の解像度変換においては、補間によるぼけや、ジャギーの発生しない良好な解像度変換が、また、多階調の解像度変換+擬似中間調処理では、階調性、解像性が両立するような処理が実現できないという問題がある。
【0015】
本発明は、上述の課題に鑑みてなされたもので、その目的とするところは、入力した低解像度情報から高解像度情報に変換する際、自然画像では特に問題となる補間によるぼけを生じることなく、画質的に良好な変換処理が実現できる画像処理装置及び画像処理方法を提供することである。
【0016】
【課題を解決するための手段】
上記の目的を達成するため、本発明は、入力した低解像の画像情報を高解像の画像情報に変換し、該画像情報の画素数を(N×M)倍に増加する処理を行なう画像処理装置において、前記低解像の画像情報の注目画素を取り囲む複数画素より構成されるウインドウ内から画素値の最大値及び最小値を検出する検出手段と、前記最大値及び最小値に基づいて前記最大値及び最小値の中間値を算出する第1の算出手段と、前記低解像の画像情報の1画素分を(N×M)画素分に補間する補間手段と、前記低解像の画像情報の注目画素に対応する、前記補間手段で補間後の(N×M)画素の各々の補間値と、前記中間値との差分値を算出する第2の算出手段と、前記差分値が0に近いほど急峻なエッジになるように、前記(N×M)画素のブロック内の画素値を決定する決定手段とを備える。
【0017】
また、本発明は、入力した低解像の画像情報を高解像の画像情報に変換し、該画像情報の画素数を(N×M)倍に増加する処理を行なう画像処理装置において、前記低解像の画像情報に平滑化を施す平滑化手段と、前記低解像の画像情報の注目画素を取り囲む複数画素より構成されるウインドウ内から画素値の最大値及び最小値を検出する検出手段と、前記最大値及び最小値に基づいて前記最大値及び最小値の中間値を算出する第1の算出手段と、前記平滑化後の画像情報の1画素分を(N×M)画素分に補間する補間手段と、前記低解像の画像情報の注目画素に対応する、前記補間手段で補間後の(N×M)画素の各々の補間値と、前記中間値との差分値を算出する第2の算出手段と、前記差分値の絶対値が予め設定した所定閾値よりも小さい補間画素のうち、差分値が正となる補間画素に対しては、その画素値を前記最大値より大きい値に決定し、差分値が負となる補間画素に対しては、その画素値を前記最小値より小さい値に決定し、前記差分値の絶対値が予め設定した所定閾値以上の画素のうち、差分値が正となる補間画素に対しては前記最大値に決定し、差分値が負となる補間画素に対しては前記最小値に決定する決定手段とを備える。
【0018】
さらに、本発明は、入力した低解像の画像情報を高解像の画像情報に変換し、該画像情報の画素数を(N×M)倍に増加する処理を行なう画像処理装置において、前記低解像の画像情報の注目画素を取り囲む複数画素より構成されるウインドウ内から画素値の最大値及び最小値を検出する検出手段と、前記最大値及び最小値に基づいて前記最大値及び最小値の中間値を算出する第1の算出手段と、前記低解像の画像情報の1画素分を(N×M)画素分に補間する補間手段と、前記低解像の画像情報の注目画素に対応する、前記補間手段で補間後の(N×M)画素の各々の補間値と、前記中間値との差分値を算出する第2の算出手段と、前記差分値に基づき前記(N×M)画素それぞれの画素値を決定する決定手段と、前記決定手段により決定された画素値をディザ法により2値化する2値化手段とを備え、前記決定手段は、前記差分値が正の場合、前記最大値から差分値を減じた値を補間画素の画素値として決定し、前記差分値が負の場合、前記最小値から差分値を減じた値を補間画素の画素値として決定する。
【0019】
【発明の実施の形態】
以下、添付図面を参照して、本発明に係る実施の形態を詳細に説明する。
<第1の実施の形態>
図1は、本発明の第1の実施の形態に係る画像処理装置の要部を示すブロック図である。なお、本画像処理装置は、主としてプリンタ等の画像出力装置内部に具備されるのが効率的であるが、画像出力装置以外の画像処理装置、ホストコンピュータ内において、その機能を実現するアプリケーションソフトとして内蔵することも可能である。
【0020】
そこで、図1を参照して、本実施の形態に係る画像処理装置の動作手順を説明する。なお、ここでは、入力した画像情報を、縦N倍、横M倍の画素数の情報に変換する例について述べる。
【0021】
図1において、100は本装置の入力端子を示し、この端子からは低解像の画像情報が入力される。入力された低解像情報は、ラインバッファ101により、その数ライン分が格納、保持される。この数ライン分の画像情報により、注目画素を中心としたX×Y画素単位のウインドウ処理が施される。また、102は、上記ウインドウ内の画像情報から、最大値、最小値を検出するMAX,MIN検出部である。
【0022】
103は線形補間部であり、注目画素を中心として、共1次補間処理(以下、線形補間処理という)により、元のサンプリング間の画素が埋められ、縦N倍、横M倍の補間情報を作成する。なお、この線形補間処理については、図12に示した例にて説明したため、ここではその説明を省略する。
【0023】
104は中間値算出部を示し、検出されたMAX,MINから中間値aを、以下の式(1)により算出する。
【0024】
a=(MAX+MIN)/2 …(1)
105は加算器であり、注目画素に相当するN×M画素のブロック(以下、注目画素ブロックと称す)内で、線形補間情報と中間値aとの差分値bを算出する。ここで、注目画素ブロック内の線形補間情報をDATA(i,j)とすると、以下の式(2)にて、各画素の差分値b(i,j)が算出できる。
【0025】
b(i,j)=DATA(i,j)−a …(2)
また、106はコントラスト算出部を示し、検出されたMAX,MIN情報から、以下の式(3)により、X×Y画素内のコントラスト値cを算出する。
【0026】
c=MAX−MIN …(3)
このようにして算出したコントラスト値c、及び差分値b(i,j)は、LUT(ルックアップテーブル)107に送信され、上記ウインドウ内のエッジのコントラスト、及び差分値の相対関係をもとに所定の値を出力する。このLUTに用いるメモリの容量、及びその価格との関係により、LUTへの入力段階で、コントラスト値c、及び差分値b(i,j)の情報を量子化して、ビット数を落とすことも実用的である。そして、LUTから出力された値は、加算器108にて中間値aと加算され、出力端子109に送信されて、不図示のプリンタエンジン等に出力される。
【0027】
次に、図2〜図4を参照して、本実施の形態に係る高解像のエッジ作成について説明する。
【0028】
図2において、●印はウインドウ内の画素値を示している。ここでは、説明を簡単にするために1次元方向で示し、注目画素(Ix,y)の隣接画素(Ix−1,y)、及び(Ix+1,y)が、それぞれ、MAX値、MIN値であるものと仮定する。また、MAX値からMIN値に向けて引かれている実線は、線形補間情報を示している。そして、注目画素(Ix,y)を中心に矢印で示される領域は、今回、高解像度情報を作成する注目画素ブロックの領域を示している。
【0029】
図3は、検出したMAX,MINから算出した中間値aの値((MAX+MIN)/2)を破線にて示している。また、線形補間情報と中間値aとの差分値をb、MAX,MINのコントラストをcにて示している。
【0030】
本実施の形態では、これらb,cの値の相対関係により、高解像の注目画素ブロック内の情報を作成するが、それは、以下に述べる論理に基づいている。
【0031】
先ず、破線aは、上述のようにMAX,MINの中間値であることから、ウインドウ内のエッジの中心部であるとみなすことができる。そして、補間が線形的なものであるために、濃度方向において、補間情報の画素値がaに近づく程、すなわち、差分値bが0に近づく程、空間的な距離としてもエッジの中心部に近づくということになる。言い換えると、濃度方向での距離を空間的な距離に置き換えているわけである。
【0032】
いま、自然画像等の急峻なエッジ部が、線形補間により補間ぼけを生じているのであれば、高解像の情報でも急峻なエッジを作成しなくてはならない。上述したように、濃度方向である差分値bの値の変化が、空間的なエッジ中心との距離に置き換わるのであれば、差分値bが0に近づく程(すなわち、エッジの中心に近づく程)、急峻なエッジ角度を有するようにLUTを作成すれば良いことになる。
【0033】
また、MAX,MINのコントラスト情報をLUTに入力するため、差分値bとの相対値のみならず、cの絶対的な値により、低解像の原情報がコントラストの大きいエッジ部であるのか、あるいは平坦部であるのかが容易に判別できる。仮に平坦部であれば、エッジの作成は必要ないし、原情報のエッジの大きさに依存して、高解像のエッジの急峻さが制御できる。なお、LUTの値は、出力エンジンに最適化して、実験的に算出しても良い。
【0034】
ここでは、LUTの構成を採用しているため、濃度方向に非線形なエッジ形状が自由に作成できる。また、LUTからの出力は、画素値という絶対的な値を有していないため、絶対的な値aとの加算により、高解像画素値を作成できる。
【0035】
図4は、実際のLUTからの出力をもとに、高解像のエッジを作成した場合の処理結果を示す図である。同図において、太線部が、注目画素ブロック内に新たに作成した急峻なエッジ情報である。
【0036】
以上説明したように、本実施の形態によれば、低解像情報の1画素を補間し、低解像情報の注目画素に対応する、補間後の画素ブロック内の画像情報と一定値との差分値を算出して、この差分をもとに、補間した画素のブロック内の画素値を決定することで、効率的、かつ良好な画質の高解像情報の作成が可能となる。
【0037】
また、一定値である中間値aをMAX値,MIN値から動的に求めることができ、容易にエッジ中心を特定できる。
【0038】
なお、上記の実施の形態では、LUTを用いて高解像情報を作成しているが、これに限定されず、単純な演算にてエッジ作成が実現できるのであれば、例えば、差分値bを評価関数にして演算しても構わない。また、ウインドウは、エッジの最大値、最小値の頂点が必ず入るようにて、そのサイズを可変にしても良い。さらに、LUTの容量によっては、MAX,MIN、差分値bの3種の値を入力して、注目画素ブロック内の画素値を決定するようにしても良い。
<第2の実施の形態>
以下、本発明に係る第2の実施の形態について説明する。
【0039】
本実施の形態では、特にホストコンピュータ上で展開された文字、線画像等の高解像化の処理に有効な方法を示す。また、本実施の形態は、特にウインドウ内の階調数が2レベルのときに有効となる。
【0040】
前述したように、低解像度で展開、作成された文字、線画像は、従来の補間方法ではジャギーを生じてしまう。そこで、文字、線画像等の入力画像において、平滑化フィルタにより低解像のエッジ情報を崩し、解像度フリーの状態にしてから、所望の画素数に線形補間した後に、解像度に相当したエッジを新たに作成する方法も提案されている。
【0041】
そこで、本実施の形態では、上述した濃度方向の距離と、空間的な距離の置き換えを用いて、エッジ強調をする。
【0042】
図5は、本実施の形態に係る画像処理装置の要部を示すブロック図である。図中、図1に示す画像処理装置と同一構成要素には同一番号を付し、相互に異なった部分について説明する。
【0043】
図5において、入力端子100により入力した低解像情報は、101のラインバッファに蓄積、格納され、その数ライン分の情報をもとに、注目画素を取り囲んでウインドウを作成する。そして、MAX,MIN検出部102にて、このウインドウ内の最大値、最小値を検出し、上記の式(1)と同様に、中間値算出部104にて中間値aを算出する。
【0044】
一方、200は平滑化部であり、ウインドウ内の情報をもとに、図6に示すようなLPF(ローバスフィルタ)により平滑化を実現する。言うまでもなく、ここでのフィルタは、図6に示すものに限定されない。
【0045】
平滑化後の低解像情報は、今まで発生していたエッジが崩された状態になり、崩された状態のまま、線形補間部103により、注目画素1画素分がN×M画素に補間される。
【0046】
また、105は加算器であり、注目画素に相当するN×M画素のブロック(以下、注目画素ブロックと称す)内で、平滑化後の線形補間情報と中間値aとの差分値bを算出する。上記第1の実施の形態と同様、この注目画素ブロック内の平滑化後の線形補間情報をFILT(i,j)とすると、各画素の差分値b(i,j)は、以下の式(4)にて算出できる。
【0047】
b(i,j)=FILT(i,j)−a …(4)
そして、検出されたMAX,MIN、及び差分値b(i,j)は、画素値決定部201に送信され、決定された画素値は出力端子109に送信されて、不図示のプリンタエンジン等に出力される。
【0048】
図7は、本実施の形態に係る画素値決定部201の動作手順を示すフローチャートである。同図において、ステップS1では、差分値b(i,j)が0以上か否かを判断し、差分値が0以上の場合には、ステップS2にて、あらかじめ設定している正の値αとの比較をする。また、差分値が負の場合には、ステップS3にて、値−αとの比較をする。
【0049】
言い換えると、ステップS2,S3では、差分値b(i,j)が、0から±α(閾値)離れているか否かを判断している。
【0050】
ステップS2にて、差分値が閾値α以上と判断された場合には、画素値決定部201は、ステップS4で、出力値OUT(i,j)としてMAX値を出力する。また、差分値が0以上、かつ閾値α未満の場合には、画素値決定部201は、ステップS5で、あらかじめ設定した正の値βをMAX値に付加して、出力する。他方、ステップS3にて、差分値が閾値−α以上、0未満と判断された場合には、MIN値からβを減じた値が出力され(ステップS6)、差分値が閾値−α未満の場合には、MIN値が出力される(ステップS7)。
【0051】
次に、図8〜図10を参照して、本実施の形態における高解像のエッジ作成について説明する。
【0052】
図8において、●印は、平滑化後のウインドウ内の画素値を示しており、図2と同様、説明を簡単にするために1次元方向で示し、注目画素(Ix,y)の隣接画素(Ix−1,y)、及び(Ix+1,y)の平滑化以前の画素値は、それぞれMAX値、MIN値であるものと仮定する。また、各画素間に引かれている実線は、平滑化後の線形補間情報を示している。さらに、注目画素Ix,yを中心に矢印で引かれている領域は、今回、高解像情報を作成する注目画素ブロックの領域である。
【0053】
図9は、検出したMAX,MINから算出したaの値((MAX+MIN)/2)を破線にて示しており、線形補間情報とaとの差分値をbにて示している。また、図10は、図7に示した処理結果を示している。
【0054】
すなわち、図10において、太線部が画素値決定部201からの出力に相当し、差分値bが0近辺の部分の出力画素値は強調され、その他の画素値はMAX値とMIN値に置き換えられている。これは、上記第1の実施の形態にて示した理論と同様、差分値bの値をもとにエッジ部からの空間的な距離を判定して、新たな高解像情報のエッジ強調をかけているのである。
【0055】
平滑化後の情報に対してエッジ強調を実行するのは、低解像のエッジを削除するためであって、作成した情報は、ジャギーの存在しない、エッジの強調された良好な画像になる。仮に、HPF(ハイパスフィルタ)により、作成した高解像情報のエッジ強調を実現しようとすれば、N×M倍に増加した画素分に対してフィルタリングをしなくてはならない。
【0056】
図11,図12は、本実施の形態に係るエッジ作成方法をエッジ抽出に用いた例を示す図である。特に、図12に示すように、差分値の値が0近辺(±αの範囲)の部分だけを抜き出して、他の部分とは突出した値を設定することにより、エッジの抽出画像も容易に実現できる。
【0057】
このように、本実施の形態によれば、相対的にエッジ中心との濃度方向の距離を空間的な距離に置き換え、平滑化後の情報に対してエッジ強調をかけることで、文字、線画像等の解像度変換で問題となるジャギーの発生を抑え、良好かつエッジの明確な画質の解像度変換が実現できる。
【0058】
なお、本実施の形態においても、上記第1の実施の形態と同様にLUTを用いてもよいし、また、α,βの値は実験的に求めてもよい。
【0059】
図13は、第3の実施の形態に係る画像処理装置の要部を示すブロック図である。図中、図1に示す画像処理装置と同一構成要素には同一番号を付し、ここでは、相互に異なった部分について説明する。
【0060】
図13において、入力端子100により入力した低解像情報は、ラインバッファ101に蓄積、格納され、その数ライン分の情報をもとに注目画素を取り囲んでウインドウを作成する。そして、ウインドウ内の最大値、最小値をMAX,MIN検出部102にて検出し、上記の式(1)と同様に、中間値算出部104にて中間値aを算出する。
【0061】
一方、ウインドウ内の画像情報は、線形補間部103により、注目画素1画素分がN×M画素に補間される。また、加算器105は、注目画素に相当するN×M画素のブロック(以下、注目画素ブロックと称す)内で、線形補間情報と中間値aとの差分値bを、上記の式(2)にて算出する。
【0062】
検出したMAX,MIN、及び差分値b(i,j)は、画素値決定部300に送信され、ここで決定された画素値は、比較器301に送信されて、図14に示すようなディザマトリクスをもとにして作成した2値化閾値出力と比較される。すなわち、ここでは、ディザ信号の閾値による2値化を行ない、比較結果が、出力端子109に送信され、不図示のプリンタエンジン等に出力される。
【0063】
上記の画素値決定部300では、MAX,MIN、及び差分値b(i,j)を入力して、以下の演算を行なう。すなわち、
b(i,j)≧0のとき
OUT(i,j)=MAX−b(i,j)
b(i,j)<0のとき …(5)
OUT(i,j)=MIN−b(i,j)
以下、本実施の形態におけるエッジ処理について説明する。
【0064】
図15,図16は、本実施の形態におけるエッジ処理を説明するための図であり、図15において、●印は、ウインドウ内の画素値を示している。ここでも、説明を簡単にするために1次元方向で示し、注目画素(Ix,y)の隣接画素(Ix−1,y)、及び(Ix+1,y)が、それぞれMAX値、MIN値であるものと仮定する。そして、図15において、MAX値からMIN値に向けて引かれている実線は、線形補間情報を示している。また、注目画素Ix,yを中心に矢印で引かれている領域は、今回、高解像情報を作成する注目画素ブロックの領域を示している。
【0065】
図16は、検出したMAX,MINから算出したaの値((MAX+MIN)/2)を破線にて示している。また、太線部は、上述の画素値決定部300からの出力を示している(実際は、b(i,j)=0で不連続になるが、説明を容易にするために連続的に実線を引いている)。
【0066】
図16より明らかなように、bが正の部分、負の部分それぞれにおいて、線形補間情報と太線とが鏡像関係になり、太線の軌跡は、線形補間情報の軌跡とは大幅に異なっている。そして、エッジからの距離が近づくに従って、出力値のコントラストが増加している。
【0067】
上述のようなエッジ部の作成は、以下の理論による。
【0068】
先ず、本実施の形態では、画素値決定部300からの出力値が、最終出力値ではないため、その後段で適用されるディザ法にとって有利なエッジ部を作成すべきである。仮に、図16に示す太線部が最終出力であれば、作成した注目画素ブロックの情報は、同じく作成する隣接画素ブロックの情報との連続性が失われ、大きな画質劣化が予想される。
【0069】
しかし、ディザ法、特に拡大倍率(N×M)倍以上のディザマトリックスを使用した場合には、低解像時の注目画素の濃度をできるだけ維持し、かつ、高解像時のエッジ部にドットが集中するようなエッジ形状が好ましい。すなわち、エッジからの距離に応じてコントラストが大きくなるため、エッジ近傍では、ディザ法による劣化を受けづらく、エッジから離れるほどディザ法の影響を受ける。
【0070】
言い換えれば、作成する注目画素ブロック内で、解像度優先にする部分と、階調性優先にする部分とを両立させていることになる。
【0071】
このように、本実施の形態では、画素値を決定した後、ディザ法にて階調処理を行なうことで、高解像度のエッジ作成後のフィルタリングによるエッジ強調に比べ、原情報の濃度変化が少なく、解像性、階調性の両立が可能で、かつ、良好な2値画像を容易に実現できる。
【0072】
本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用しても良い。また、本発明は、システムあるいは装置にプログラムを供給することによって実施される場合にも適用できることは言うまでもない。この場合、本発明に係るプログラムを格納した記憶媒体が本発明を構成することになる。そして、その記憶媒体からそのプログラムをシステムあるいは装置に読み出すことによって、そのシステムあるいは装置が、あらかじめ定められた仕方で動作する。
【0073】
【発明の効果】
以上説明したように、本発明によれば、低解像情報の注目画素に対応する、低解像情報の1画素を補間し、補間後の画素の各々の補間値と画素値の最大値及び最小値の中間値との差分値をもとに、差分値が0に近いほど急峻なエッジになるように、補間した画素のブロック内の画素値を決定することで、効率的で良好な画質の高解像情報の作成が可能となる。
【0074】
また、他の発明によれば、相対的にエッジ中心の濃度方向での距離を空間的な距離に置き換えることで、ジャギーの発生を抑え、良好かつエッジのはっきりした画質の解像度変換が実現できる。
【0075】
さらに、他の発明によれば、画素値を決定した後、ディザ法にて階調処理を行なうことで、解像度変換と擬似中間調処理を同時に進めた場合にも、解像度変換で作成したエッジ情報がディザ法によって劣化されず、解像性と階調性の両立が可能となる。
【0076】
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係る画像処理装置の要部を示すブロック図である。
【図2】第1の実施の形態に係る高解像のエッジ作成を説明するための図である。
【図3】第1の実施の形態に係る高解像のエッジ作成を説明するための図である。
【図4】第1の実施の形態において高解像のエッジを作成した場合の処理結果を示す図である。
【図5】第2の実施の形態に係る画像処理装置の要部を示すブロック図である。
【図6】平滑化のためのLPF(ローバスフィルタ)の例を示す図である。
【図7】第2の実施の形態に係る画素値決定部の動作手順を示すフローチャートである。
【図8】第2の実施の形態に係る高解像のエッジ作成を説明するための図である。
【図9】第2の実施の形態に係る高解像のエッジ作成を説明するための図である。
【図10】第2の実施の形態において高解像のエッジを作成した場合の処理結果を示す図である。
【図11】第2の実施の形態に係るエッジ作成方法をエッジ抽出に用いた例を示す図である。
【図12】第2の実施の形態に係るエッジ作成方法をエッジ抽出に用いた例を示す図である。
【図13】第3の実施の形態に係る画像処理装置の要部を示すブロック図である。
【図14】ディザマトリクスの例を示す図である。
【図15】第3の実施の形態におけるエッジ処理を説明するための図である。
【図16】第3の実施の形態におけるエッジ処理を説明するための図である。
【図17】従来の最近接内挿方法を説明するための図である。
【図18】従来の共1次内挿方法を説明するための図である。
【図19】入力情報を示す図である。
【図20】従来の最近接内挿法での処理結果を示す図である。
【図21】従来の共1次内挿法での処理結果を示す図である。
【符号の説明】
100 入力端子
101 ラインバッファ
102 MAX,MIN検出部
103 線形補間部
104 中間値算出部
105 加算器
106 コントラスト算出部
107 LUT(ルックアップテーブル)
108 加算器
109 出力端子
200 平滑化部
201,300 画素値決定部
301 比較器
302 ディザマトリクス
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus that scales input image information and converts the resolution from low resolution information to high resolution information. And image processing method It is about.
[0002]
[Prior art]
Conventionally, various methods have been proposed as a method for converting the resolution of input low resolution information into high resolution information. These methods are based on the type of target image (for example, a multi-valued image having gradation information for each pixel, a binary image binarized by a pseudo halftone, and a binary value binarized by a fixed threshold value. The conversion processing method differs depending on the image, character image, and the like.
[0003]
As a conventional interpolation method, for example, as shown in FIG. 17, the closest interpolation method that arranges the same pixel values closest to the interpolation point, four points surrounding the interpolation point as shown in FIG. A bilinear interpolation method is generally used in which the pixel value E is determined by the following calculation according to the distance of four pixel values A, B, C, and D.
[0004]
E = (1-i) (1-j) A + i. (1-j) B + j. (1-i) C + ijD However, if the inter-pixel distance is 1, i from the A in the horizontal direction and j in the vertical direction. It is assumed that there is a distance (i ≦ 1, j ≦ 1).
[0005]
Further, when converting low resolution, multi-gradation image information into high resolution and binary image information, for example, an image output device such as a printer capable of only binary output corresponds to the resolution of the printer engine. When trying to output image information to be output, it is conceivable to input engine resolution information from the host computer in advance, but considering the development on the host computer, the burden of processing, the time required for transmission, etc. A configuration is also conceivable in which low-resolution information is input to generate and output high-resolution binary information.
[0006]
Currently, an error diffusion method is often used for pseudo halftone processing by binarization of a multi-valued image. However, when the engine resolution of the printer becomes higher, it is more advantageous in terms of processing time, circuit scale, etc. to use the dither method than the error diffusion method, which requires heavy processing. Further, with respect to image quality, particularly gradation, the difference between these methods is reduced as the resolution increases. However, the problem is resolution, and when dithering is used, gradation and resolution are contradictory conditions, and deterioration at the halftone character and natural image edges is visually It will stand out. Therefore, conventionally, a method of performing binarization by the dither method after edge enhancement has been proposed.
[0007]
[Problems to be solved by the invention]
However, the conventional method has the following problems.
[0008]
First, the method shown in FIG. 17 has an advantage that the configuration is simple. However, when the target image is used for a natural image or the like, the pixel value is determined for each block to be enlarged, so that the block visually. Is conspicuous and the image quality is poor.
[0009]
Further, even when this method is used for a character, a line image, a CG (computer graphic) image, etc., the same pixel value continues for each block to be enlarged. As a result, the image becomes a conspicuous inferior image of jaggedness called jaggy. FIG. 19 and FIG. 20 are examples of resolution conversion that is double in both the vertical and horizontal directions, but the above-described deterioration increases as the magnification increases. Note that “200”, “10”, and the like in FIGS. 19 and 20 are pixel values.
[0010]
The method shown in FIG. 18 is a method that is generally used for enlarging a natural image. In this method, the image quality is averaged and smoothed, but the image quality is blurred in the edge portion and the portion where sharp image quality is required. Furthermore, in the case of an image obtained by scanning a map or the like or a natural image including a character part, important information may not be transmitted to the receiver due to blurring due to interpolation.
[0011]
FIG. 21 shows image information obtained by interpolating the input image information shown in FIG. 19 twice vertically and horizontally by the method shown in FIG. In this method, as is apparent from FIG. 21, the pixel values are not uniform not only in the vicinity of the oblique line but also in the oblique line itself, and blurring occurs.
[0012]
Consider a case where both resolution conversion and pseudo halftone processing are performed.
[0013]
When the image after resolution conversion shown in FIGS. 17 and 18 is edge-enhanced by filtering and subjected to dither processing, in the example shown in FIG. 17, jaggy becomes more noticeable. Further, in the example shown in FIG. 18, since the edge has already become dull, that is, the edge itself has a distance due to interpolation, it seems to have occurred at low resolution even if emphasis is applied. A sharp edge is not reproduced. Furthermore, since the filtering is performed after the number of pixels after resolution conversion has increased, the processing load increases.
[0014]
In other words, in multi-gradation resolution conversion, good resolution conversion without blurring and jaggies does not occur, and in multi-gradation resolution conversion + pseudo halftone processing, both gradation and resolution are compatible. There is a problem that such processing cannot be realized.
[0015]
The present invention has been made in view of the above-described problems. The object of the present invention is to avoid blurring due to interpolation, which is a problem particularly in natural images when converting input low resolution information to high resolution information. , Image processing apparatus capable of realizing conversion processing with good image quality And image processing method Is to provide.
[0016]
[Means for Solving the Problems]
In order to achieve the above object, the present invention performs a process of converting input low-resolution image information into high-resolution image information and increasing the number of pixels of the image information by (N × M) times. In the image processing device, detection means for detecting a maximum value and a minimum value of a pixel value from within a window composed of a plurality of pixels surrounding the target pixel of the low-resolution image information, and the maximum value as well as Based on the minimum value Between the maximum and minimum values A first calculation unit that calculates a value; an interpolation unit that interpolates one pixel of the low-resolution image information into (N × M) pixels; and a target pixel of the low-resolution image information. , Each interpolation value of (N × M) pixels after interpolation by the interpolation means, Middle Second calculating means for calculating a difference value with respect to the value; and determining means for determining a pixel value in the block of (N × M) pixels so that the difference value is closer to 0 and has a steeper edge; Is provided.
[0017]
Further, the present invention provides an image processing apparatus for converting input low-resolution image information into high-resolution image information and performing a process of increasing the number of pixels of the image information by (N × M) times. Smoothing means for smoothing low-resolution image information, and detection means for detecting the maximum and minimum pixel values from a window composed of a plurality of pixels surrounding the target pixel of the low-resolution image information And the maximum value as well as Based on the minimum value Between the maximum and minimum values A first calculating unit that calculates a value, an interpolating unit that interpolates one pixel of the smoothed image information into (N × M) pixels, and a target pixel of the low-resolution image information , Each interpolation value of (N × M) pixels after interpolation by the interpolation means, Middle A second calculating means for calculating a difference value with respect to a value, and an interpolation pixel having a positive difference value among interpolation pixels whose absolute value of the difference value is smaller than a predetermined threshold value set in advance; The value is determined to be larger than the maximum value, and for an interpolated pixel whose difference value is negative, the pixel value is determined to be smaller than the minimum value. Of the pixels whose absolute value of the difference value is equal to or greater than a predetermined threshold value, the maximum value is determined for an interpolation pixel having a positive difference value, and the interpolation pixel having a negative difference value is determined. Is determined to be the minimum value Determining means.
[0018]
Furthermore, the present invention provides an image processing apparatus that performs processing for converting input low-resolution image information into high-resolution image information and increasing the number of pixels of the image information by (N × M) times. Detecting means for detecting a maximum value and a minimum value of a pixel value from within a window composed of a plurality of pixels surrounding a target pixel of low-resolution image information; and the maximum value as well as Based on the minimum value Between the maximum and minimum values A first calculation unit that calculates a value; an interpolation unit that interpolates one pixel of the low-resolution image information into (N × M) pixels; and a target pixel of the low-resolution image information. , Each interpolation value of (N × M) pixels after interpolation by the interpolation means, Middle A second calculating unit that calculates a difference value from the value; a determining unit that determines a pixel value of each of the (N × M) pixels based on the difference value; and a pixel value determined by the determining unit is a dither method Binarizing means for binarizing according to the above, and when the difference value is positive, the determining means determines a value obtained by subtracting the difference value from the maximum value as a pixel value of an interpolation pixel, and the difference value is If negative, a value obtained by subtracting the difference value from the minimum value is determined as the pixel value of the interpolation pixel.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments according to the present invention will be described below in detail with reference to the accompanying drawings.
<First Embodiment>
FIG. 1 is a block diagram showing a main part of the image processing apparatus according to the first embodiment of the present invention. Although it is efficient that the present image processing apparatus is mainly provided in an image output apparatus such as a printer, the image processing apparatus is an application software that realizes its function in an image processing apparatus other than the image output apparatus or a host computer. It can also be built in.
[0020]
An operation procedure of the image processing apparatus according to this embodiment will be described with reference to FIG. Here, an example will be described in which input image information is converted into information of the number of pixels of vertical N times and horizontal M times.
[0021]
In FIG. 1, reference numeral 100 denotes an input terminal of this apparatus, and low-resolution image information is input from this terminal. The input low-resolution information is stored and held by the line buffer 101 for several lines. Based on the image information for several lines, window processing in units of X × Y pixels centered on the pixel of interest is performed. Reference numeral 102 denotes a MAX / MIN detector that detects the maximum value and the minimum value from the image information in the window.
[0022]
Reference numeral 103 denotes a linear interpolation unit, in which pixels between original samplings are filled by bilinear interpolation processing (hereinafter referred to as linear interpolation processing) centering on the target pixel, and interpolation information of N times vertical and M times horizontal is obtained. create. Since this linear interpolation processing has been described in the example shown in FIG. 12, the description thereof is omitted here.
[0023]
An intermediate value calculation unit 104 calculates an intermediate value a from the detected MAX and MIN according to the following equation (1).
[0024]
a = (MAX + MIN) / 2 (1)
Reference numeral 105 denotes an adder, which calculates a difference value b between the linear interpolation information and the intermediate value a in an N × M pixel block (hereinafter referred to as a target pixel block) corresponding to the target pixel. Here, if the linear interpolation information in the pixel block of interest is DATA (i, j), the difference value b (i, j) of each pixel can be calculated by the following equation (2).
[0025]
b (i, j) = DATA (i, j) -a (2)
Reference numeral 106 denotes a contrast calculation unit, which calculates the contrast value c in the X × Y pixel from the detected MAX and MIN information according to the following equation (3).
[0026]
c = MAX-MIN (3)
The contrast value c and the difference value b (i, j) calculated in this way are transmitted to the LUT (look-up table) 107, and based on the contrast between the edge contrast and the difference value in the window. A predetermined value is output. Depending on the capacity of the memory used for the LUT and its price, it is also practical to reduce the number of bits by quantizing the information of the contrast value c and the difference value b (i, j) at the input stage to the LUT. Is. The value output from the LUT is added to the intermediate value a by the adder 108, transmitted to the output terminal 109, and output to a printer engine (not shown) or the like.
[0027]
Next, high-resolution edge creation according to the present embodiment will be described with reference to FIGS.
[0028]
In FIG. 2, a black circle indicates a pixel value in the window. Here, for simplification of explanation, the one-dimensional direction is shown, and adjacent pixels (Ix−1, y) and (Ix + 1, y) of the target pixel (Ix, y) are respectively expressed as MAX values and MIN values. Assume that there is. A solid line drawn from the MAX value toward the MIN value indicates linear interpolation information. A region indicated by an arrow centered on the pixel of interest (Ix, y) indicates a region of the pixel block of interest for which high resolution information is created this time.
[0029]
FIG. 3 shows a value ((MAX + MIN) / 2) of the intermediate value a calculated from the detected MAX and MIN by a broken line. Further, the difference value between the linear interpolation information and the intermediate value a is indicated by b, and the contrast between MAX and MIN is indicated by c.
[0030]
In the present embodiment, information in a high-resolution pixel block of interest is created based on the relative relationship between these b and c values, which is based on the logic described below.
[0031]
First, since the broken line a is an intermediate value between MAX and MIN as described above, it can be regarded as the center of the edge in the window. Since the interpolation is linear, in the density direction, the closer the pixel value of the interpolation information is to a, that is, the closer the difference value b is to 0, the spatial distance is closer to the center of the edge. It will be approaching. In other words, the distance in the density direction is replaced with a spatial distance.
[0032]
If a steep edge portion of a natural image or the like has a blurring due to linear interpolation, a steep edge must be created even with high resolution information. As described above, if the change in the difference value b in the density direction is replaced with the spatial distance from the edge center, the difference value b approaches zero (that is, the edge value approaches the edge center). The LUT should be created so as to have a steep edge angle.
[0033]
In addition, since the contrast information of MAX and MIN is input to the LUT, whether the low-resolution original information is an edge portion having a large contrast based on not only the relative value with the difference value b but also the absolute value of c, Alternatively, it can be easily determined whether the portion is a flat portion. If it is a flat part, it is not necessary to create an edge, and the sharpness of the high-resolution edge can be controlled depending on the size of the edge of the original information. Note that the LUT value may be calculated experimentally by optimizing the output engine.
[0034]
Here, since the LUT configuration is adopted, a non-linear edge shape can be freely created in the density direction. Further, since the output from the LUT does not have an absolute value called a pixel value, a high resolution pixel value can be created by addition to the absolute value a.
[0035]
FIG. 4 is a diagram illustrating a processing result when a high-resolution edge is created based on an output from an actual LUT. In the figure, the bold line portion is steep edge information newly created in the target pixel block.
[0036]
As described above, according to the present embodiment, one pixel of the low resolution information is interpolated, and the image information in the pixel block after interpolation corresponding to the target pixel of the low resolution information is set to a certain value. By calculating the difference value and determining the pixel value in the interpolated pixel block based on this difference, it is possible to create high-resolution information with efficient and good image quality.
[0037]
Further, the intermediate value a which is a constant value can be dynamically obtained from the MAX value and the MIN value, and the edge center can be easily specified.
[0038]
In the above embodiment, the high resolution information is created using the LUT. However, the present invention is not limited to this, and if edge creation can be realized by a simple calculation, for example, the difference value b is It may be calculated as an evaluation function. In addition, the size of the window may be variable so that the maximum value and the minimum value of the edge are included. Further, depending on the capacity of the LUT, three values of MAX, MIN, and difference value b may be input to determine the pixel value in the target pixel block.
<Second Embodiment>
The second embodiment according to the present invention will be described below.
[0039]
In this embodiment, a method that is particularly effective for high resolution processing of characters, line images, etc. developed on a host computer will be described. The present embodiment is particularly effective when the number of gradations in the window is two levels.
[0040]
As described above, characters and line images developed and created at a low resolution cause jaggy in the conventional interpolation method. Therefore, in an input image such as a character or line image, the low-resolution edge information is destroyed by a smoothing filter to make it resolution-free, and after linear interpolation to the desired number of pixels, an edge corresponding to the resolution is newly added. A method of creating a file is also proposed.
[0041]
Therefore, in this embodiment, edge emphasis is performed using the above-described replacement of the distance in the density direction and the spatial distance.
[0042]
FIG. 5 is a block diagram showing a main part of the image processing apparatus according to the present embodiment. In the figure, the same components as those in the image processing apparatus shown in FIG. 1 are denoted by the same reference numerals, and different parts will be described.
[0043]
In FIG. 5, low resolution information input from the input terminal 100 is accumulated and stored in a line buffer 101, and a window is created surrounding the pixel of interest based on the information for several lines. Then, the maximum and minimum values in this window are detected by the MAX / MIN detection unit 102, and the intermediate value a is calculated by the intermediate value calculation unit 104 in the same manner as the above equation (1).
[0044]
On the other hand, reference numeral 200 denotes a smoothing unit, which realizes smoothing by LPF (Low Bass Filter) as shown in FIG. 6 based on information in the window. Needless to say, the filter here is not limited to that shown in FIG.
[0045]
The low-resolution information after smoothing is in a state in which the edge that has been generated is broken, and the linear interpolation unit 103 interpolates one pixel of interest into N × M pixels in the broken state. Is done.
[0046]
Reference numeral 105 denotes an adder that calculates a difference value b between the linear interpolation information after smoothing and the intermediate value a in an N × M pixel block (hereinafter referred to as a target pixel block) corresponding to the target pixel. To do. As in the first embodiment, if the linear interpolation information after smoothing in this pixel block of interest is FILT (i, j), the difference value b (i, j) of each pixel is expressed by the following formula ( 4).
[0047]
b (i, j) = FILT (i, j) -a (4)
Then, the detected MAX, MIN, and difference value b (i, j) are transmitted to the pixel value determining unit 201, and the determined pixel value is transmitted to the output terminal 109 to be sent to a printer engine (not shown) or the like. Is output.
[0048]
FIG. 7 is a flowchart showing an operation procedure of the pixel value determination unit 201 according to the present embodiment. In step S1, it is determined whether or not the difference value b (i, j) is 0 or more. If the difference value is 0 or more, a positive value α set in advance in step S2 is determined. Compare with. On the other hand, if the difference value is negative, it is compared with the value -α in step S3.
[0049]
In other words, in steps S2 and S3, the difference value b (i, j) is changed from 0 to ± α. (Threshold) It is judged whether or not they are separated.
[0050]
In step S2, the difference value is Threshold If it is determined that α is greater than or equal to α, the pixel value determination unit 201 outputs the MAX value as the output value OUT (i, j) in step S4. Also, the difference value is 0 or more, and Threshold If it is less than α, the pixel value determining unit 201 adds a preset positive value β to the MAX value and outputs it in step S5. On the other hand, in step S3, the difference value is Threshold When it is determined that it is greater than or equal to −α and less than 0, a value obtained by subtracting β from the MIN value is output (step S6), and the difference value is Threshold If it is less than -α, the MIN value is output (step S7).
[0051]
Next, high-resolution edge creation in the present embodiment will be described with reference to FIGS.
[0052]
In FIG. 8, the black circles indicate the pixel values in the window after smoothing, and in the same way as in FIG. 2, are shown in a one-dimensional direction for the sake of simplicity, and are adjacent to the target pixel (Ix, y). It is assumed that pixel values before smoothing (Ix-1, y) and (Ix + 1, y) are a MAX value and a MIN value, respectively. A solid line drawn between the pixels indicates linear interpolation information after smoothing. Further, the region drawn with an arrow around the pixel of interest Ix, y is the region of the pixel block of interest for which high resolution information is to be created this time.
[0053]
In FIG. 9, the value a ((MAX + MIN) / 2) calculated from the detected MAX and MIN is indicated by a broken line, and the difference value between the linear interpolation information and a is indicated by b. FIG. 10 shows the processing result shown in FIG.
[0054]
That is, in FIG. 10, the thick line portion corresponds to the output from the pixel value determining unit 201, the output pixel value in the portion where the difference value b is near 0 is emphasized, and the other pixel values are replaced with the MAX value and the MIN value. ing. Similar to the theory shown in the first embodiment, the spatial distance from the edge portion is determined based on the difference value b, and edge enhancement of new high-resolution information is performed. It is over.
[0055]
The reason why edge enhancement is performed on the smoothed information is to delete low-resolution edges, and the created information becomes a good image with enhanced edges without jaggies. If an edge enhancement of the created high resolution information is to be realized by HPF (high pass filter), the pixel that has been increased by a factor of N × M must be filtered.
[0056]
11 and 12 are diagrams illustrating an example in which the edge creation method according to the present embodiment is used for edge extraction. In particular, as shown in FIG. 12, by extracting only the portion where the difference value is near 0 (± α range) and setting a value that protrudes from the other portions, the edge extracted image can be easily set. realizable.
[0057]
As described above, according to the present embodiment, the distance in the density direction relative to the edge center is replaced with a spatial distance, and edge enhancement is applied to the smoothed information, whereby a character, line image is obtained. Thus, it is possible to suppress the occurrence of jaggies that are a problem in resolution conversion and the like, and realize resolution conversion with good and clear image quality.
[0058]
Also in the present embodiment, an LUT may be used as in the first embodiment, and the values of α and β may be obtained experimentally.
[0059]
FIG. 13 is a block diagram illustrating a main part of an image processing apparatus according to the third embodiment. In the figure, the same components as those in the image processing apparatus shown in FIG. 1 are denoted by the same reference numerals, and different parts will be described here.
[0060]
In FIG. 13, the low resolution information input from the input terminal 100 is accumulated and stored in the line buffer 101, and a window is created surrounding the pixel of interest based on the information for several lines. Then, the maximum and minimum values in the window are detected by the MAX / MIN detection unit 102, and the intermediate value a is calculated by the intermediate value calculation unit 104 in the same manner as the above equation (1).
[0061]
On the other hand, in the image information in the window, the linear interpolation unit 103 interpolates one pixel of interest into N × M pixels. Further, the adder 105 calculates the difference value b between the linear interpolation information and the intermediate value a within the N × M pixel block (hereinafter referred to as the target pixel block) corresponding to the target pixel, using the above equation (2). Calculate with
[0062]
The detected MAX, MIN, and difference value b (i, j) are transmitted to the pixel value determining unit 300, and the pixel value determined here is transmitted to the comparator 301, and the dither as shown in FIG. It is compared with the binarized threshold output created based on the matrix. That is, here, binarization is performed based on the threshold value of the dither signal, and the comparison result is transmitted to the output terminal 109 and output to a printer engine (not shown) or the like.
[0063]
The pixel value determination unit 300 receives MAX, MIN, and the difference value b (i, j) and performs the following calculation. That is,
When b (i, j) ≧ 0
OUT (i, j) = MAX−b (i, j)
When b (i, j) <0 (5)
OUT (i, j) = MIN−b (i, j)
Hereinafter, edge processing in the present embodiment will be described.
[0064]
FIGS. 15 and 16 are diagrams for explaining edge processing in the present embodiment. In FIG. 15, ● marks indicate pixel values in the window. Also here, in order to simplify the explanation, the one-dimensional direction is shown, and the adjacent pixels (Ix-1, y) and (Ix + 1, y) of the target pixel (Ix, y) are the MAX value and the MIN value, respectively. Assume that In FIG. 15, a solid line drawn from the MAX value toward the MIN value indicates linear interpolation information. In addition, the region drawn with an arrow around the target pixel Ix, y indicates the region of the target pixel block for which high resolution information is to be created this time.
[0065]
FIG. 16 shows the value a ((MAX + MIN) / 2) calculated from the detected MAX and MIN by a broken line. The thick line portion indicates the output from the above-described pixel value determining unit 300 (actually, it is discontinuous when b (i, j) = 0, but for the sake of easy explanation, the solid line is continuously displayed. Pulling).
[0066]
As is clear from FIG. 16, the linear interpolation information and the bold line are mirror images in each of the positive part and the negative part of b, and the thick line locus is significantly different from the locus of the linear interpolation information. As the distance from the edge approaches, the contrast of the output value increases.
[0067]
The creation of the edge as described above is based on the following theory.
[0068]
First, in this embodiment, since the output value from the pixel value determining unit 300 is not the final output value, an edge portion that is advantageous for the dither method applied in the subsequent stage should be created. If the bold line portion shown in FIG. 16 is the final output, the information on the created pixel block of interest will lose continuity with the information on the neighboring pixel block to be created, and a large deterioration in image quality is expected.
[0069]
However, when using the dither method, especially when using a dither matrix with an enlargement ratio (N × M) or more, the density of the pixel of interest at the time of low resolution is maintained as much as possible, and dots are formed at the edges at the time of high resolution An edge shape in which the concentration is concentrated is preferable. That is, since the contrast increases in accordance with the distance from the edge, deterioration near the edge is difficult to be deteriorated by the dither method, and the influence of the dither method is affected as the distance from the edge increases.
[0070]
In other words, in the pixel-of-interest block to be created, both the resolution priority and the gradation priority are compatible.
[0071]
As described above, in this embodiment, after the pixel value is determined, gradation processing is performed by the dither method, so that the density change of the original information is less than that of edge enhancement by filtering after creating a high-resolution edge. In addition, both resolution and gradation can be achieved, and a good binary image can be easily realized.
[0072]
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of one device. Needless to say, the present invention can also be applied to a case where the present invention is implemented by supplying a program to a system or apparatus. In this case, the storage medium storing the program according to the present invention constitutes the present invention. Then, by reading the program from the storage medium to the system or apparatus, the system or apparatus operates in a predetermined manner.
[0073]
【The invention's effect】
As described above, according to the present invention, one pixel of the low resolution information corresponding to the target pixel of the low resolution information is interpolated, and the pixel after the interpolation Between the interpolated value and the maximum and minimum pixel values By determining the pixel value in the block of interpolated pixels so that the edge becomes steeper as the difference value is closer to 0 based on the difference value from the value, high resolution with efficient and good image quality Information can be created.
[0074]
Further, according to another invention, by replacing the distance in the density direction of the edge center relatively with a spatial distance, it is possible to suppress the occurrence of jaggies and realize a resolution conversion with good and clear image quality.
[0075]
Furthermore, according to another invention, after the pixel value is determined, the gradation process is performed by the dither method, so that the edge information created by the resolution conversion can be performed even when the resolution conversion and the pseudo halftone process are simultaneously performed. However, it is not deteriorated by the dither method, and both resolution and gradation can be achieved.
[0076]
[Brief description of the drawings]
FIG. 1 is a block diagram showing a main part of an image processing apparatus according to a first embodiment of the present invention.
FIG. 2 is a diagram for explaining high-resolution edge creation according to the first embodiment;
FIG. 3 is a diagram for explaining high-resolution edge creation according to the first embodiment;
FIG. 4 is a diagram showing a processing result when a high-resolution edge is created in the first embodiment.
FIG. 5 is a block diagram illustrating a main part of an image processing apparatus according to a second embodiment.
FIG. 6 is a diagram illustrating an example of an LPF (low bass filter) for smoothing.
FIG. 7 is a flowchart showing an operation procedure of a pixel value determination unit according to the second embodiment.
FIG. 8 is a diagram for explaining edge creation with high resolution according to the second embodiment;
FIG. 9 is a diagram for explaining high-resolution edge creation according to the second embodiment;
FIG. 10 is a diagram illustrating a processing result when a high-resolution edge is created in the second embodiment.
FIG. 11 is a diagram illustrating an example in which the edge creation method according to the second embodiment is used for edge extraction.
FIG. 12 is a diagram illustrating an example in which the edge creation method according to the second embodiment is used for edge extraction.
FIG. 13 is a block diagram illustrating a main part of an image processing apparatus according to a third embodiment.
FIG. 14 is a diagram illustrating an example of a dither matrix.
FIG. 15 is a diagram for explaining edge processing in the third embodiment;
FIG. 16 is a diagram for explaining edge processing in the third embodiment;
FIG. 17 is a diagram for explaining a conventional closest interpolation method;
FIG. 18 is a diagram for explaining a conventional bilinear interpolation method.
FIG. 19 is a diagram showing input information.
FIG. 20 is a diagram illustrating a processing result obtained by a conventional closest interpolation method.
FIG. 21 is a diagram showing a processing result in a conventional bilinear interpolation method.
[Explanation of symbols]
100 input terminals
101 Line buffer
102 MAX, MIN detector
103 Linear interpolation unit
104 Intermediate value calculator
105 adder
106 Contrast calculator
107 LUT (Lookup Table)
108 Adder
109 Output terminal
200 Smoothing part
201,300 pixel value determination unit
301 Comparator
302 dither matrix

Claims (7)

入力した低解像の画像情報を高解像の画像情報に変換し、該画像情報の画素数を(N×M)倍に増加する処理を行なう画像処理装置において、
前記低解像の画像情報の注目画素を取り囲む複数画素より構成されるウインドウ内から画素値の最大値及び最小値を検出する検出手段と、
前記最大値及び最小値に基づいて前記最大値及び最小値の中間値を算出する第1の算出手段と、
前記低解像の画像情報の1画素分を(N×M)画素分に補間する補間手段と、
前記低解像の画像情報の注目画素に対応する、前記補間手段で補間後の(N×M)画素の各々の補間値と、前記中間値との差分値を算出する第2の算出手段と、
前記差分値が0に近いほど急峻なエッジになるように、前記(N×M)画素のブロック内の画素値を決定する決定手段とを備えることを特徴とする画像処理装置。
In an image processing apparatus that converts input low-resolution image information into high-resolution image information and performs a process of increasing the number of pixels of the image information by (N × M) times,
Detecting means for detecting a maximum value and a minimum value of a pixel value from within a window composed of a plurality of pixels surrounding the target pixel of the low-resolution image information;
First calculating means for calculating an intermediate value between the maximum value and the minimum value based on the maximum value and the minimum value;
Interpolation means for interpolating one pixel of the low resolution image information into (N × M) pixels;
Second calculation means for calculating a difference value between each interpolated value of the (N × M) pixels after interpolation by the interpolation means and corresponding to the target pixel of the low-resolution image information; ,
An image processing apparatus comprising: a determination unit that determines a pixel value in the block of (N × M) pixels so that the difference value is closer to 0 and has a steeper edge.
さらに、前記最大値から前記最小値を減ずることによって、エッジのコントラスト値を算出する第3の算出手段を備え、前記コントラスト値に基づき、エッジ部または平坦部であるかを判別し、前記決定手段は、平坦部に対してはエッジを作成することなく、前記(N×M)画素のブロック内の画素値を決定することを特徴とする請求項1に記載の画像処理装置。  Furthermore, it comprises a third calculating means for calculating a contrast value of an edge by subtracting the minimum value from the maximum value, and determines whether the edge portion or a flat portion is based on the contrast value, and the determining means The image processing apparatus according to claim 1, wherein a pixel value in the block of (N × M) pixels is determined without creating an edge for a flat portion. 前記決定手段による画素値の決定は、前記差分値及び前記コントラスト値を入力して、その入力値に応じて前記中間値に加算すべきエッジの傾きを制御する値を出力するルックアップテーブル(LUT)を用いて行なわれることを特徴とする請求項に記載の画像処理装置。The determination unit determines the pixel value by inputting the difference value and the contrast value and outputting a value for controlling the slope of the edge to be added to the intermediate value according to the input value (LUT). The image processing apparatus according to claim 2 , wherein 入力した低解像の画像情報を高解像の画像情報に変換し、該画像情報の画素数を(N×M)倍に増加する処理を行なう画像処理装置において、
前記低解像の画像情報に平滑化を施す平滑化手段と、
前記低解像の画像情報の注目画素を取り囲む複数画素より構成されるウインドウ内から画素値の最大値及び最小値を検出する検出手段と、
前記最大値及び最小値に基づいて前記最大値及び最小値の中間値を算出する第1の算出手段と、
前記平滑化後の画像情報の1画素分を(N×M)画素分に補間する補間手段と、
前記低解像の画像情報の注目画素に対応する、前記補間手段で補間後の(N×M)画素の各々の補間値と、前記中間値との差分値を算出する第2の算出手段と、
前記差分値の絶対値が予め設定した所定閾値よりも小さい補間画素のうち、差分値が正となる補間画素に対しては、その画素値を前記最大値より大きい値に決定し、差分値が負となる補間画素に対しては、その画素値を前記最小値より小さい値に決定し、前記差分値の絶対値が予め設定した所定閾値以上の画素のうち、差分値が正となる補間画素に対しては前記最大値に決定し、差分値が負となる補間画素に対しては前記最小値に決定する決定手段とを備えることを特徴とする画像処理装置。
In an image processing apparatus that converts input low-resolution image information into high-resolution image information and performs a process of increasing the number of pixels of the image information by (N × M) times,
Smoothing means for smoothing the low-resolution image information;
Detecting means for detecting a maximum value and a minimum value of a pixel value from within a window composed of a plurality of pixels surrounding the target pixel of the low-resolution image information;
First calculating means for calculating an intermediate value between the maximum value and the minimum value based on the maximum value and the minimum value;
Interpolation means for interpolating one pixel of the smoothed image information into (N × M) pixels;
Second calculation means for calculating a difference value between each interpolated value of the (N × M) pixels after interpolation by the interpolation means and corresponding to the target pixel of the low-resolution image information; ,
Among interpolation pixels whose absolute value of the difference value is smaller than a predetermined threshold value set in advance, for an interpolation pixel whose difference value is positive, the pixel value is determined to be larger than the maximum value, and the difference value is For interpolation pixels that are negative, the pixel value is determined to be smaller than the minimum value, and among the pixels whose absolute value of the difference value is equal to or greater than a predetermined threshold value, the interpolation pixel that has a positive difference value An image processing apparatus, comprising: a determining unit that determines the maximum value for an interpolation pixel and determines the minimum value for an interpolation pixel having a negative difference value.
入力した低解像の画像情報を高解像の画像情報に変換し、該画像情報の画素数を(N×M)倍に増加する処理を行なう画像処理装置において、
前記低解像の画像情報の注目画素を取り囲む複数画素より構成されるウインドウ内から画素値の最大値及び最小値を検出する検出手段と、
前記最大値及び最小値に基づいて前記最大値及び最小値の中間値を算出する第1の算出手段と、
前記低解像の画像情報の1画素分を(N×M)画素分に補間する補間手段と、
前記低解像の画像情報の注目画素に対応する、前記補間手段で補間後の(N×M)画素の各々の補間値と、前記中間値との差分値を算出する第2の算出手段と、
前記差分値に基づき前記(N×M)画素それぞれの画素値を決定する決定手段と、
前記決定手段により決定された画素値をディザ法により2値化する2値化手段とを備え、
前記決定手段は、前記差分値が正の場合、前記最大値から差分値を減じた値を補間画素の画素値として決定し、前記差分値が負の場合、前記最小値から差分値を減じた値を補間画素の画素値として決定することを特徴とする画像処理装置。
In an image processing apparatus that converts input low-resolution image information into high-resolution image information and performs a process of increasing the number of pixels of the image information by (N × M) times,
Detecting means for detecting a maximum value and a minimum value of a pixel value from within a window composed of a plurality of pixels surrounding the target pixel of the low-resolution image information;
First calculating means for calculating an intermediate value between the maximum value and the minimum value based on the maximum value and the minimum value;
Interpolation means for interpolating one pixel of the low resolution image information into (N × M) pixels;
Second calculation means for calculating a difference value between each interpolated value of the (N × M) pixels after interpolation by the interpolation means and corresponding to the target pixel of the low-resolution image information; ,
Determining means for determining a pixel value of each of the (N × M) pixels based on the difference value;
Binarizing means for binarizing the pixel value determined by the determining means by a dither method;
When the difference value is positive, the determining unit determines a value obtained by subtracting the difference value from the maximum value as a pixel value of an interpolation pixel, and when the difference value is negative, the difference value is subtracted from the minimum value. An image processing apparatus, wherein a value is determined as a pixel value of an interpolation pixel.
前記補間手段は、線形補間を実行することを特徴とする請求項1、請求項4、請求項5の何れか一項に記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the interpolation unit performs linear interpolation. 入力した低解像の画像情報を高解像の画像情報に変換し、該画像情報の画素数を(N×M)倍に増加する処理を行なう画像処理方法において、
前記低解像の画像情報の注目画素を取り囲む複数画素より構成されるウインドウ内から画素値の最大値及び最小値を検出する検出工程と、
前記最大値及び最小値に基づいて前記最大値及び最小値の中間値を算出する第1の算出工程と、
前記低解像の画像情報の1画素分を(N×M)画素分に補間する補間工程と、
前記低解像の画像情報の注目画素に対応する、前記補間工程で補間後の(N×M)画素の各々の補間値と、前記中間値との差分値を算出する第2の算出工程と、
前記差分値が0に近いほど急峻なエッジになるように、前記(N×M)画素のブロック内の画素値を決定する決定工程とを備えることを特徴とする画像処理方法。
In the image processing method for converting the input low-resolution image information into high-resolution image information and performing a process of increasing the number of pixels of the image information by (N × M) times,
A detection step of detecting a maximum value and a minimum value of pixel values from within a window composed of a plurality of pixels surrounding the target pixel of the low-resolution image information;
A first calculation step of calculating an intermediate value between the maximum value and the minimum value based on the maximum value and the minimum value;
An interpolation step of interpolating one pixel of the low-resolution image information into (N × M) pixels;
A second calculation step of calculating a difference value between each interpolated value of the (N × M) pixel after interpolation in the interpolation step and the intermediate value corresponding to the target pixel of the low-resolution image information; ,
And a determination step of determining a pixel value in the block of (N × M) pixels so that the difference value is closer to 0 and has a steeper edge.
JP24282195A 1995-09-21 1995-09-21 Image processing apparatus and image processing method Expired - Fee Related JP3703180B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP24282195A JP3703180B2 (en) 1995-09-21 1995-09-21 Image processing apparatus and image processing method
US08/715,116 US5917963A (en) 1995-09-21 1996-09-17 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24282195A JP3703180B2 (en) 1995-09-21 1995-09-21 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JPH0993424A JPH0993424A (en) 1997-04-04
JP3703180B2 true JP3703180B2 (en) 2005-10-05

Family

ID=17094801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24282195A Expired - Fee Related JP3703180B2 (en) 1995-09-21 1995-09-21 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP3703180B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108320263A (en) * 2017-12-29 2018-07-24 维沃移动通信有限公司 A kind of method, device and mobile terminal of image procossing

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2763776B1 (en) * 1997-05-21 1999-07-02 Isaac Azancot METHOD AND APPARATUS FOR PROCESSING, RECORDING AND RECONSTRUCTION OF A HIGH RESOLUTION ANALOG VIDEO SIGNAL WITH STANDARD VIDEO FRAME FOR REAL TIME ANGIO GRAPHICS AND CARDIOVASCULAR ANGIOPLASTY PROCEDURES
US6903745B2 (en) 2003-05-19 2005-06-07 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
JP2010028548A (en) * 2008-07-22 2010-02-04 Kyocera Mita Corp Image processor, image forming apparatus, and image processing program
JP2015088910A (en) * 2013-10-30 2015-05-07 株式会社沖データ Image processing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108320263A (en) * 2017-12-29 2018-07-24 维沃移动通信有限公司 A kind of method, device and mobile terminal of image procossing

Also Published As

Publication number Publication date
JPH0993424A (en) 1997-04-04

Similar Documents

Publication Publication Date Title
US5917963A (en) Image processing apparatus and image processing method
JP3143209B2 (en) Image magnification device
US6816166B2 (en) Image conversion method, image processing apparatus, and image display apparatus
US7149355B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable record medium storing image processing program
JP3585703B2 (en) Image processing device
US7061492B2 (en) Text improvement
JP3210248B2 (en) Image processing apparatus and method
JP3176195B2 (en) Image processing device
JP2001251517A (en) Image processing method, image processor and image processing system
JP3167120B2 (en) Image processing apparatus and method
JP3700357B2 (en) Image processing device
US5539866A (en) Method and apparatus for accurately rendering half-bitted image pixels
JP4065462B2 (en) Image processing apparatus and image processing method
JP3703180B2 (en) Image processing apparatus and image processing method
JP3026706B2 (en) Image processing device
JP3092769B2 (en) Image processing device
JP3604910B2 (en) Image reduction device and recording medium recording image reduction program
US6628427B1 (en) Method and apparatus for image processing which improves performance of gray scale image transformation
JP3624153B2 (en) Image processing apparatus and image processing method
JP3262425B2 (en) Image processing device
JP3200351B2 (en) Image processing apparatus and method
JP3581460B2 (en) Image processing method and apparatus
JP2777476B2 (en) Image processing device
JP2004153821A (en) Method for generating output image by transforming input image
JP2831573B2 (en) Pseudo halftone image processing system

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030905

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20040423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050719

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080729

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090729

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090729

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100729

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100729

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110729

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120729

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120729

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130729

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees