JP4126541B2 - Image processing apparatus, image processing method, image processing program, and storage medium - Google Patents

Image processing apparatus, image processing method, image processing program, and storage medium Download PDF

Info

Publication number
JP4126541B2
JP4126541B2 JP2002346561A JP2002346561A JP4126541B2 JP 4126541 B2 JP4126541 B2 JP 4126541B2 JP 2002346561 A JP2002346561 A JP 2002346561A JP 2002346561 A JP2002346561 A JP 2002346561A JP 4126541 B2 JP4126541 B2 JP 4126541B2
Authority
JP
Japan
Prior art keywords
image
enlarged image
enlarged
region
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002346561A
Other languages
Japanese (ja)
Other versions
JP2004180171A (en
Inventor
聡 久保田
敢也 石坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2002346561A priority Critical patent/JP4126541B2/en
Publication of JP2004180171A publication Critical patent/JP2004180171A/en
Application granted granted Critical
Publication of JP4126541B2 publication Critical patent/JP4126541B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、カラーを含む多階調で表現された画像の拡大処理を行う画像処理技術に関するものであり、特に入力された画像に対してボケやジャギーなどの画質欠陥をなるべく生じさせること無く、高画質にしかも処理負荷が軽い拡大処理を行う画像処理技術に関するものである。
【0002】
【従来の技術】
画像の拡大処理は、画像の編集やファイリング、表示、印刷などを行うシステムにとって基本的な処理の一つである。また近年、インターネットのホームページ上の画像やデジタルビデオなどのディスプレイ解像度での表示を主目的とした画像データなどの普及により、これらの低解像度画像を高解像度のプリンタなどで印刷することも頻繁に行われている。このプリンタによる印刷の際に、高画質の出力結果を得ることが望まれており、高画質の拡大処理に対する重要度が高まっている。
【0003】
カラーを含む多階調で表現された画像(以下では、これを多値画像と称する)を拡大処理する既存の代表的な手法としては、最近傍法や線形補間法、キュービック・コンボリューション法などがある。最近傍法は、拡大後の各画素値として、その画素を原画像上に逆写像した際に最も距離が近い画素の画素値を使うという方法である。この方法は、演算量が少ないため高速に処理することができる。しかし、原画像の1画素がそのまま矩形形状に拡大されるため、隣り合う画素の画素値の差が小さい場合は画質劣化の程度は小さくほとんど影響はないが、逆に大きい場合などは、斜線部やエッジ部のジャギーが目立ったり、倍率が大きい場合には画像がモザイク状になるなど、画質劣化の程度は大きい。
【0004】
線形補間法は、画素間の画素値が直線的に変化していると仮定し、拡大後の画素を逆写像した点の近傍4画素の画素値を線形に補間して画素値を求めるという方法である。この方法では、最近傍法よりも処理は重いものの演算量は比較的少なく、ジャギーなども発生しにくい。その一方で、直線的に変化しているという仮定に当てはまらないエッジ部分を中心に、画像全体がボケ気味になるという欠点がある。
【0005】
キュービック・コンボリューション法は、標本化定理に基づいてsinc関数(sin(x)/x)を近似した補間関数を定義し、拡大後の画素を逆写像した点の近傍16画素(X、Y方向それぞれ4画素)と前記の近似補間関数との畳み込み演算により、拡大後の画素値を求める方法である。この方法は、前記2つの手法に比べて画質は比較的良いが、参照範囲が大きく演算量が多いという欠点がある。また、高域が強調気味となる特性を持つため、エッジ部分で軽いジャギーが発生したりノイズ成分が強調されてしまうなどの欠点もある。
【0006】
これらの問題を解決する試みとして、例えば特許文献1、特許文献2、特許文献3や特許文献4などの新規方式が提案されている。特許文献1に記載されている技術では、まず原画像を2値化し、その2値画像から原画像に含まれる斜め成分の方向を予め用意した2次元パターン(行列データ)と一致判定することにより求め、求められた斜め方向に沿って補間処理をする。またそれ以外の部分は線形補間処理を行っている。しかし、原画像を予め定められた閾値により2値化してから斜め成分の方向判定を行っているので、濃度差の大きいエッジに対しては有効であるが、濃度差の小さいエッジの再現には問題がある。
【0007】
特許文献2に記載されている技術では、パターンファイルに1対1に対応した整数倍率毎のドット配置ファイル(拡大パターンファイル)と画素ブロックのどの位置の画素値で配置ファイルの画素値を決定するかという画素参照情報により拡大画像ブロックを生成する。さらに一致パターンがないときは単純に現画像ブロックの注目画素で拡大画像ブロックを生成する。しかし特許文献2では、パターンマッチングのみで一意に拡大ブロックを生成しているため、パターンファイルおよびドット配置ファイルの数により拡大画像の画質が決まる、つまり画質向上には予め多くのパターンファイルが必要であり、多くのパターンファイルを予め用意しておくのは現実的ではない。
【0008】
特許文献3に記載されている技術では、原画像の変化度合いの検出法として、エッジ検出フィルタによるエッジ検出を行い、そのエッジ検出結果に基づいてエッジ画素を定義する。そしてエッジ画素と判断された場合には、キュービック・コンボリューション法の3次関数形状を調整したM−キュービック法で拡大を行い、そうでない場合は最近傍法で拡大する。しかし、変化度合いの大きいエッジ部分をM−キュービック法で行うので、キュービック・コンボリューション法の画質特徴を踏襲し、ジャギーの発生やノイズ成分が強調されるという欠点がある。
【0009】
特許文献4に記載されている技術では、画像の性質を予めブロック毎の濃度ヒストグラムで測り、その結果に基づいて第1補間(パターンマッチング法またはニアレストネイバー法(NN法))と第2補間(キュービック・コンボリューション法あるいはM−キュービック法)の結果を重畳する。第1補間処理の1つであるパターンマッチング法では、予め定めた角度パターンに現画像ブロックから生成したパターン(2値化パターン)が一致した場合、現画像ブロックを含む参照ブロックを用いて所定のルールで注目画素に対する補間画素ブロックを生成する。しかし特許文献4においても、M−キュービック法との重畳であるのでジャギーの発生やノイズ成分が強調される問題がある。
【0010】
このような従来の拡大手法に対し、高画質な拡大手法として例えば特願2002−76896号に記載されている手法がある。この手法は、正確なエッジ方向を検出し、そのエッジ方向に応じた画素値から拡大画像を生成するものであり、入力された画像に対してボケやジャギーなどの画質欠陥をなるべく生じさせること無く拡大処理を行うことができる。しかし処理に時間がかかるため、高画質を維持したまま処理負荷を低減し、高速処理によって処理時間を短縮することが望まれていた。
【0011】
【特許文献1】
特開2000−228723号公報
【特許文献2】
特開2001−188900号公報
【特許文献3】
特開2000−188681号公報
【特許文献4】
特開2002−165089号公報
【0012】
【発明が解決しようとする課題】
本発明は、上述した従来技術の問題点を考慮してなされたものであり、入力された画像に対してボケやジャギーなどの画質欠陥をなるべく生じさせること無く、高画質に、しかも処理負荷が軽く高速に拡大処理を行うことができる画像処理装置及び画像処理方法を提供することを目的とするものである。また、そのような画像処理装置の機能あるいは画像処理方法をコンピュータにより実行するための画像処理プログラムと、そのような画像処理プログラムを格納したコンピュータが読取可能な記憶媒体を提供することを目的とするものである。
【0013】
【課題を解決するための手段】
本発明は、画像の拡大処理を行う画像処理装置及び画像処理方法において、注目画素を含む所定の大きさの画像領域の特徴量を領域特徴量算出手段で算出し、算出された特徴量が所定の条件を満たす前記画像領域に対応する拡大画像領域を拡大画像領域生成手段で生成し、さらに入力画像を前記画像領域の拡大手法とは異なる拡大手法により拡大画像生成手段で拡大して拡大画像を生成し、画像配置手段で拡大画像領域を拡大画像上の対応する位置に配置することを特徴とするものである。
【0017】
このように、全体としては拡大画像生成手段で処理負荷の軽い拡大手法を用いて拡大処理しておき、エッジ部などの画質にとって重要な部分のみについて拡大画像領域生成手段で高画質の拡大画像領域を生成して配置する。これによって、画像全体に対して高画質の拡大手法を用いて拡大処理を行う場合に比べて処理負荷を軽減することができ、高画質でありながら高速に拡大処理を行うことが可能となる。
【0018】
領域特徴量算出手段によって算出する特徴量としては、画像領域内の各画素値から画像領域内の凹凸度合いを算出したり、画像領域内の変化方向を算出することができる。また、カラー画像については、色空間におけるそれぞれの色成分毎に特徴量を算出し、算出した1つあるいは複数の特徴量をもとに色空間における1つの色成分のデータを選択し、その1つの色成分のデータにおける画像領域の特徴量をすべての色成分における画像領域の特徴量とすることができる。また拡大画像領域生成手段に設けられる拡大手段としては、例えば、画像領域の特徴量とともに、その画像領域の近傍領域の特徴量および近傍領域内の画素値を用いて拡大画像領域を生成する拡大手段を設けておき、領域特徴量算出手段で算出された特徴量が所定の条件を満たす画像領域、例えばエッジなどを含む高画質の拡大処理が必要な画像領域に対して、この拡大手段を選択して拡大処理を行うことができる。画像全体の拡大処理を行う拡大画像生成手段としては、入力画像毎あるいは入力画像中の数ライン毎に拡大画像を生成するように構成することができる。
【0019】
画像配置手段による拡大画像領域の配置は、拡大画像を書き換えてしまうほか、拡大画像と重なり合うように順次配置し、重なり合う画素については重なる画素値の総和を算出して重なった数で割るように構成することができる。
【0020】
さらに本発明は、画像の拡大処理をコンピュータに実行させる画像処理プログラムであって、請求項1ないし請求項10のいずれか1項に記載の画像処理装置の機能あるいは請求項11に記載の画像処理方法をコンピュータに実行させることを特徴とするものである。これによって、上述の拡大処理の機能をコンピュータによって実行させることができる。さらに本発明では、このような画像処理プログラムを格納したコンピュータが読取可能な記憶媒体を提供することができる。
【0021】
【発明の実施の形態】
図1は、本発明の画像処理装置及び画像処理方法の第1の実施の形態を示すブロック図である。図中、1は画像処理部、2は画像データ格納部、11は画像ブロック設定部、12は画像ブロック特徴量算出部、13は拡大画像ブロック生成部、14は画像ブロック配置部、21は第1生成部、22は第2生成部である。
【0022】
画像データ格納部2は、画像データが画像処理部1で拡大処理されるまで一時的に記憶する機能や、解像度変換または拡大処理された拡大画像データが図示しない出力装置に出力されるまで一時的に記憶する機能などを備えたものである。なお、画像データは画像処理装置で処理可能な画像フォーマット(例えば、BMP、TIFF、PNGなど)で記述されたデータであり、図示しないデジタルカメラやスキャナなどによって取り込まれたり、パーソナルコンピュータ等において作成、編集等を処理するアプリケーションプログラムで作成された画像データ等である。拡大画像データについても、同様の画像フォーマットのデータである。
【0023】
画像処理部1は、画像ブロック設定部11と、画像ブロック特徴量算出部12と、拡大画像ブロック生成部13と、画像ブロック配置部14を含んで構成されており、画像データ格納部2との間で、拡大処理の対象となる画像データの読み出しや、拡大処理によって生成された拡大画像データの書き込みなどを行う。
【0024】
画像ブロック設定部11は、画像ブロック特徴量算出部12および拡大画像ブロック生成部13における処理で必要とされる所定のブロックサイズをそれぞれ設定し、画像データ格納部2に記憶されている入力画像データから注目画素を含むそれぞれのブロックサイズの画像ブロックを順次切り出し、画像ブロック特徴量算出部12および拡大画像ブロック生成部13に送信する。
【0025】
画像ブロック特徴量算出部12は、画像ブロック設定部11で順次切り出された画像ブロック中の注目領域における画像特徴量を、注目領域あるいは注目領域の周辺部を含む画像ブロック内の各画素値から算出する。画像特徴量としては、例えば後述するように注目領域のエッジ強度およびエッジ角度を算出することができる。しかしこれに限られるものではなく、例えば注目領域の各画素値の平均値を求め、その平均値に対する注目領域の各画素値のばらつきを表すような値(例えば、標準偏差や分散)を求めるなど、種々の画像特徴量を算出するものであってよい。
【0026】
拡大画像ブロック生成部13は、複数の拡大手段、ここでは第1生成部21及び第2生成部22を有しており、画像ブロック特徴量算出部12で算出された画像特徴量に従って複数の拡大手段を切り替えて注目領域に対応する拡大画像ブロックを生成する。例えば画像ブロック特徴量算出部12においてエッジ強度を数値として算出している場合、特徴量と所定値とを比較し、その比較の結果に応じて第1生成部21あるいは第2生成部22のいずれかに切り替えて拡大画像ブロックを生成することができる。なお、ここでは特徴量が所定値よりも大きい場合には第1生成部21で、所定値以下の場合には第2生成部22で拡大処理を行うものとする。もちろん、拡大手段の切り替えに用いる特徴量はエッジ強度に限られるものではなく、上述の標準偏差や分散、あるいはそのほかの種々の特徴量を用いることができる。第1生成部21及び第2生成部22における拡大手法は任意であるが、上述の例のようにエッジ強度が大きい数値を示す場合に動作する第1生成部21としては、画質を優先した拡大手法が望ましい。また、この場合の第2生成部22は、第1生成部21よりも高速で処理可能な拡大手法が望ましく、これによって全体の処理時間を短縮することができる。
【0027】
画像ブロック配置部14は、拡大画像ブロック生成部13で生成された拡大画像ブロックを順次配置し、解像度変換あるいは拡大された拡大画像データを画像データ格納部2に出力する。なお、拡大画像ブロックの配置方法については後述するが、例えば順次並べてゆく方法の他、拡大画像ブロックを重なり合うように順次配置して重畳させ、重なる画素値の総和を重なった数で割ることにより画素値を算出するように構成することもできる。
【0028】
図2は、本発明の画像処理装置及び画像処理方法の実施の一形態における動作の一例を示すフローチャートである。ここでは具体例を含めて説明してゆく。S41において、画像データ格納部2に記憶された入力画像データに対して、画像ブロック設定部11で、画像ブロック特徴量算出部12および拡大画像ブロック生成部13の処理で必要とされる各々のブロックサイズを設定する。さらに、設定したブロックサイズの画像ブロックを入力画像データから切り出す。図3は、画像ブロック設定部11で設定及び切り出しを行う画像ブロックの説明図である。中央部の細かい右上がりのハッチングを施した画素が注目領域、その周囲の荒い左上がりのハッチングを施した画素が周辺領域である。ここでは一例として、注目領域を2×2画素サイズ、注目領域を含む周辺領域を4×4画素サイズとしている。この場合、設定されるブロックサイズは2倍拡大の場合は図3(A)に示す6×6画素サイズの画像ブロックが、また4倍拡大の場合は図3(B)に示す8×8画素サイズの画像ブロックが切り出される。
【0029】
S42において、画像ブロック特徴量算出部12は、切り出された画像ブロック中の注目領域(図3中の細かい右上がりのハッチングを施した2×2画素の領域)のエッジ強度Gを以下の式(1)で算出する。なお、{a,b,c,d}は注目領域内の各画素値である。入力画像データがグレースケール画像でなく、例えばRGB色空間のカラー画像の場合は、注目領域に関してR,G,Bの各色空間の色成分毎の画像ブロックそれぞれについて、式(1)を用いてエッジ強度Gr、Gg、Gbを計算し、Gr、Gg、Gb中で最大のエッジ強度である色成分の画像ブロックを選択し、そのエッジ強度を注目領域の(すべての色成分に共通の)エッジ強度とする。
gx=(a+c−b−d)/2
gy=(a+b−c−d)/2
G=gx×gx+gy×gy ・・(1)
なお、エッジ強度は上記式(1)で算出されるものに限定されるわけでなく、以下の式(2)などで算出してもよい。
G=|gx|+|gy| ・・(2)
【0030】
S43において、S42で算出した注目領域のエッジ強度Gと所定の閾値Thとの比較を行う。ここで閾値Thよりエッジ強度Gが大きい場合は、注目領域が入力画像中のエッジ部分あるいは変化の大きい部分であるので、そうした注目領域の画像特徴を保存するような拡大画像ブロックの生成処理をS44〜S47において行う。また、注目領域のエッジ強度Gが閾値Thよりも小さい場合は、S44〜S47の処理に比べて処理負荷の小さい拡大画像ブロックの生成処理をS48において行う。
【0031】
S44において、画像ブロック特徴量算出部12は、閾値Thよりエッジ強度Gが大きいと判断された注目領域およびその注目領域を含む1ないし複数の周辺領域中の参照領域のエッジ角度Θを以下に示す式(3)でそれぞれ計算する。
Θ=arctan(gy/gx) ・・(3)
なお、gx、gyはS42において各々算出された値である。そして、得られた複数のエッジ角度Θから注目領域のエッジ方向θを推定する。例えば得られた複数のエッジ角度Θの平均値を取るなどの演算を行い、エッジ方向θを推定することができる。もちろん、エッジ方向θの推定方法は任意である。
【0032】
S45において、画像ブロック特徴量算出部12は、S44で推定されたエッジ方向θおよび注目領域の画素分布パターンを用いて第1および第2エッジパターンを選択する。ここで第1および第2エッジパターンは、後述の図9に示すようにエッジ方向および画素分布パターン毎に予め用意されており、例えば図示しない画像処理部1中の記憶部あるいは画像データ格納部2の一部などにテーブル情報として記憶させておくことができる。なお、詳細は後述する。
【0033】
S46において、拡大画像ブロック生成部13の第1生成部21は、拡大率に応じたサイズおよび要素値をもつ所定の強調パターン(以下、強調カーネルと呼ぶ)を用いて、画像ブロック設定部11で切り出された画像ブロック中の注目領域およびその周辺領域の画像データを強調する。なお、強調カーネル及びその強調カーネルを用いた強調処理については後述する。
【0034】
S47において、拡大画像ブロック生成部13の第1生成部21は、画像ブロック特徴量算出部12で推定された前記注目領域のエッジ方向θと、選択された前記エッジパターンおよびS46において算出された注目領域および周辺領域の強調された画素値を用いて、注目領域に対する拡大画像ブロックを生成する。
【0035】
このようにして、S43において注目領域のエッジ強度Gが大きい場合に、そのようなエッジ部分あるいは変化が大きいという特徴を保存するような拡大画像ブロックが生成される。これによって、エッジ部分などについてボケやジャギーの少ない高画質の拡大画像ブロックの生成を行うことができる。
【0036】
一方、S48において、拡大画像ブロック生成部13の第2生成部22は、S43で画像ブロック特徴量算出部12において閾値Thよりエッジ強度Gが小さいと判断された注目領域に対する拡大画像ブロックを生成する。第2生成部22における拡大画像ブロック生成処理は、S44〜S47における拡大画像ブロックの生成処理とは異なり、例えば最近傍補間などの処理負荷の小さい拡大処理でよい。すなわち、エッジ強度Gが小さい場合には、上述のような複雑で処理時間を要する処理を行わなくても、もっと処理負荷の小さい拡大画像ブロックの生成処理でも十分な画質を得ることが可能である。従って、エッジ強度Gが小さい場合には拡大画像ブロック生成部13の第2生成部22を選択して処理負荷の小さい拡大画像ブロックの生成処理を行い、全体としての処理時間の短縮を図っている。
【0037】
S49において、画像ブロック配置部14は、拡大画像ブロック生成部13で生成された前記注目領域に対する拡大画像ブロック(S44〜S47の処理で生成された拡大画像ブロック及びS48の処理で生成された拡大画像ブロック)を、後述する所定の方法で順次配置し、配置を終えた画像ブロックを出力すべき拡大画像データの一部として画像データ格納部2に格納する。
【0038】
S50において、入力画像データに対して出力すべき拡大画像データの生成が完了したかを判断し、完了していない場合は、S41に処理を戻し、次の画像ブロックを切り出し、上述の処理を繰り返す。完了した場合は、拡大画像データを出力して拡大処理を終了する。
【0039】
以上、本発明の画像処理装置及び画像処理方法の実施の一形態における動作の一例について説明した。次に、主要部である画像ブロック特徴量算出部12、拡大画像ブロック生成部13および画像ブロック配置部15の詳細について説明する。
【0040】
まず、画像ブロック特徴量算出部12の詳細について説明する。ここでも上述の図3に示したように、注目領域を2×2画素サイズブロック、注目領域を含む周辺領域を4×4画素サイズブロックとする。図4は、画像ブロック特徴量算出部12の一構成例を示すブロック図である。図中、31はエッジ強度算出部、32はエッジ方向推定部、33はエッジパターン選択部である。図4に示した例では、画像ブロック特徴量算出部12は、エッジ強度算出部31、エッジ方向推定部32、エッジパターン選択部33を有している。
【0041】
エッジ強度算出部31は、上述したように、画像ブロック設定部11で切り出された画像ブロック中の注目領域のエッジ強度Gを上記の式(1)で算出し、算出されたエッジ強度Gと所定の閾値Thとの比較を行い、注目領域の拡大処理手法を選択する。なお、注目領域のエッジ強度Gが閾値Thよりも小さい場合は、エッジ方向推定部32及びエッジパターン選択部33における処理を行わずに、拡大画像ブロック生成部13の第2生成部22における拡大処理が行われる。
【0042】
以下にエッジ方向推定部32およびエッジパターン選択部33の処理の詳細を説明する。図5は、注目領域および周辺領域の具体例と注目領域のエッジ方向の一例の説明図である。図5(A)は注目領域および周辺領域の一例を示している。各矩形がそれぞれ画素であり、各数字はそれぞれの画素値を示している。注目領域は太線枠で囲まれた画素{a,b,c,d}={15,104,86,203}である。この図5に示す例を用いて、エッジ方向推定部32におけるエッジ方向推定処理の流れについて説明する。
【0043】
図6は、エッジ方向推定部32におけるエッジ方向推定処理の一例を示すフローチャートである。S61において、図5(A)中の太線枠で囲まれた注目領域のエッジ角度Θを、上述した式(3)で計算する。例えば具体的に図5(A)に示すような注目領域{a,b,c,d}={15,104,86,203}の場合、gx、gyはそれぞれ式(1)よりgx=−103、gy=−85となる。従って、図5(A)に示す注目領域におけるエッジ角度ΘはΘ=−140.5°となる。このエッジ角度Θの方向を図5(B)においては破線の矢線によって示している。
【0044】
さらに図5(B)に示すように角度方向を設定し、得られたエッジ角度Θを22.5°(8方向)の角度範囲のいずれに含まれるかを調べる。この場合、エッジ角度Θが0°あるいは±180°を方向0、22.5°あるいは−157.5°の方向を方向1、45°あるいは−135°の方向を方向2、67.5°あるいは−112.5°の方向を方向3、90°あるいは−90°の方向を方向4、112.5°あるいは−67.5°の方向を方向5、135°あるいは−45°の方向を方向6、157.5°あるいは−22.5°の方向を方向7とし、これらの角度の±11.25°の範囲をそれぞれの方向であるものとしている。上述の具体例におけるエッジ角度Θ(=−140.5°)は−135°±11.25°の範囲内に含まれるので、エッジ角度は方向2となる。
【0045】
S61では、さらに後述するS66における注目領域のエッジ方向推定に用いるエッジ角度の参照数をカウントするための変数である角度参照数を1にセットする。
【0046】
S62において、S61で計算された注目領域のエッジ角度Θに応じて、図5(A)に示した周辺領域(太線枠外の領域)中からエッジ方向の推定に用いる参照領域を選択する。図7は、エッジ方向の推定に用いる参照領域の一例の説明図である。図中の太線枠で示した2×2画素が参照領域である。図7(A)はS61で求めたエッジ角度の方向が0の場合を示し、図7(B)は方向が4の場合、図7(C)はそれ以外の方向の場合を示している。なお、図7(A)及び(B)に示す方向0及び方向4の場合の参照領域の数は2であり、図7(C)に示す方向0,4以外の方向の場合の参照領域の数は4である。図5に示した具体例では、エッジ角度の方向は方向2であるので、図7(C)に示した4つの参照領域が選択の候補となる。なお、参照領域の選択は図7に示したものに限定されるわけではなく、例えば図7(C)の場合などは、参照領域数を8としたり、それぞれの方向に応じた参照領域を設定してもよい。
【0047】
S63において、S62で選択された参照領域の1つに対して、S61と同様に式(3)に従って、エッジ角度Θを計算する。S64において、S63で計算された参照領域のエッジ角度と、S61で計算された注目領域のエッジ角度とを比較する。両エッジ角度の差が予め設定されている閾値Θthよりも小さい場合には、S65において角度参照数を1増やし、S66に処理を移す。両エッジ方向の差が予め設定されている閾値Θthよりも大きい場合には、エッジ方向推定には適さない参照領域と判断し、そのままS66に処理を移す。S66において、全ての選択可能な参照領域のエッジ角度計算が終了したか否かを判断する。終了していればS67に処理を移し、まだ終了していない参照領域がある場合には、S63からS65の処理を繰り返す。
【0048】
図5に示した具体例では、上部の参照領域{86,203,171,211}からエッジ角度ΘU=−149.4°、左部の参照領域{10,15,20,86}からエッジ角度ΘL=−131.2°、下部の参照領域{1,102,15,104}からエッジ角度ΘD=−175.2°、右部の参照領域{104,215,203,219}からエッジ角度ΘR=−141.0°となる。注目領域のエッジ角度Θ=−140.5°とそれぞれの参照領域のエッジ角度が比較され、その差が閾値Θthより小さい参照領域の数が角度参照数としてカウントされる。
【0049】
S67において、注目領域のエッジ角度と、S64においてエッジ方向推定に適したと判断された参照領域のエッジ角度との総和を計算し、前記エッジ角度の総和を角度参照数で割った平均エッジ角度を注目領域の推定エッジ方向とする。図8は、図5に示した注目領域における推定エッジ方向の一例の説明図である。例えば上述の具体例において、すべての参照領域について注目領域のエッジ角度との差が閾値Θthより小さいとすれば、注目領域及び4つの参照領域から求められたエッジ角度の総和は−737.3°となり、角度参照数5で割ることによって平均エッジ角度は−147.5°と求めることができる。この場合も上述の注目領域のエッジ方向と同様に、例えば8方向のいずれかに正規化するとすれば、−147.5°は方向1となる。これを推定エッジ方向とする。
【0050】
なお上述の説明では、入力画像データがグレースケール画像である場合について説明を行っているが、勿論これに限定されるわけではない。例えばRGB色空間のカラー画像の場合には、先に図2のフローチャートのS32でも説明したように、各々の色成分のデータにおけるエッジ角度Gr、Gg、Gbの強さにより選択された色空間データで上記の処理を行えばよい。このようにすることで、カラー画像における拡大画像データのエッジ部の色ずれなど、画質低下を抑えることが可能となる。
【0051】
また、上述の説明では注目領域および参照領域における式(1)を用いたエッジ角度計算後に8方向のいずれかに正規化したが、勿論これに限定されるわけではなく、さらに精度の高いエッジ方向が必要であれば12方向(15.0°ごと)、16方向(12.25°ごと)など、さらに多数の方向に正規化しても良い。
【0052】
次に、エッジパターン選択部33の動作の詳細について説明する。図9は、エッジパターンテーブルの一例の説明図である。エッジパターン選択部33は、例えば図9に示すようなエッジパターンテーブルを用いて、エッジパターンの変換を行う。図9に示したように、エッジパターンテーブルには注目領域のパターンサイズに対応する第1エッジパターンがそれぞれのエッジ方向(ここでは8方向)ごとに1ないし数パターンが登録されており、それぞれのパターンに対応して、第1エッジパターンのパターンサイズよりも大きなパターンサイズのパターンが第2エッジパターンとして登録されている。
【0053】
エッジパターン選択部33では、例えば図9に示すようなエッジパターンテーブルを用いて、エッジ方向推定部32で推定された注目領域のエッジ方向に相当する第1エッジパターンを選択し、選択された第1エッジパターンに対応する第2エッジパターンを決定する。
【0054】
具体的に図5(A)に示す太線枠で囲まれた注目領域およびその周辺領域の場合、注目領域に対する推定エッジ方向は、エッジ方向推定部11によって、上述のようにすべての参照領域について注目領域のエッジ角度との差が閾値Θthより小さいとした場合には方向1であると求められている。注目領域の推定エッジ方向(方向1)に従い、図9に示すエッジパターンテーブル内から注目領域のエッジパターンに相当するパターン候補が選択される。この場合、方向1の第1エッジパターンであるパターン0からパターン3の4つのパターンが選択され、図5(A)に示す注目領域に対する第1エッジパターンの候補となる。
【0055】
次に、エッジパターン選択部33では、以下に説明するように、パターン0からパターン3のいずれか1つを注目領域に対する第1エッジパターンとして選択する。図10は、図5に示す注目領域に対応する第1エッジパターンの選択方法の具体例の説明図である。この具体例では、推定エッジ方向が方向1であったことにより、図5に示した注目領域に対するエッジパターンとして、図9に示すエッジパターンテーブルから第1エッジパターン中の4つのエッジパターンの候補が選択された。選択されたエッジパターンの候補を図10(A)として示している。
【0056】
このようなエッジパターンの候補のそれぞれについて、図10(B)に示すようにビットパターン化する。ここでは白部分を0、それ以外を1としてビットパターン化している。ただし、図9に示すエッジパターンテーブルを予めビットテーブル化して登録しておいても良く、その場合は、このビットパターン化の処理は省略できる。
【0057】
次に式(4)に従い、注目領域中の平均画素値を計算し、注目領域内の各々の画素値から平均値を引き、その符号を以て注目領域の画素値パターンとする。
Mean=(a+b+c+d)/4
a_sign=a−Mean
b_sign=b−Mean
c_sign=c−Mean
d_sign=d−Mean ・・(4)
図5(A)に示す例の場合ではMean=(15+104+86+203)/4=102であり、a_sign=−87、b_sign=2、c_sign=−16、d_sign=101であり、その符号を画素値パターンとすると図10(C)に示すようになる。さらに画素値パターンを図10(D)に示すようにビットパターン化する。
【0058】
次に、図10(B)に示した各エッジパターン候補のビットパターンと、図10(D)に示した注目領域のビットパターンとのパターンマッチングを行い、注目領域に対する第1エッジパターン中のエッジパターンを1つ選択する。この場合はパターン2が注目領域に対する第1エッジパターンとして選択される(図10(E))。
【0059】
最後に、第1エッジパターンが選択されると、それに1対1に対応するように予め用意された第2エッジパターンを決定する。この場合は図9に示したエッジパターンテーブルから、第1エッジパターンにおける方向1のパターン2に対応する第2エッジパターン(方向1、パターン2)が選択される(図10(F))。第2エッジパターンは、後述する拡大画像ブロック生成部2における注目領域に対する拡大画像ブロック生成の際に使用される。
【0060】
なお、第1および第2エッジパターンは図9に示したものに限定されるわけではなく、例えば、入力画像データの種類に応じて図9とは異なったエッジパターンを用いてもよく、また各角度における第1および第2エッジパターン候補数を増減させてもよい。もちろん、テーブルとして構成する必要もなく、特定された第1エッジパターンから第2エッジパターンが導出できればよい。
【0061】
次に拡大画像ブロック生成部13について詳細に説明する。最初に、拡大画像ブロック生成部13の第1生成部21における拡大画像領域の生成処理の詳細について説明する。拡大画像ブロック生成部13の第1生成部21では、まず、画像ブロック設定部11で設定された拡大倍率に応じたサイズおよび要素の強調カーネルを用いて、上述の図3に示したような画像ブロック設定部11で切り出された画像ブロック中の注目領域およびその周辺領域の画像データのコントラストを強調する。
【0062】
図11は、拡大画像ブロック生成部13の第1生成部21で用いる強調カーネルの具体例の説明図である。また図12は、図11に示す強調カーネルで画素Pを強調する場合の説明図である。図11(A)に示す強調カーネル(カーネル0)は倍率が2倍の時に、図11(B)に示す強調カーネル(カーネル1)は倍率が4倍の時に、図11(C)に示す強調カーネル(カーネル2)は倍率が8倍の時に、それぞれ用いるものである。図中、中心の画素値とその画素の上下左右に配置されたハッチングを施した画素を使用し、下部に記載した重みを用いて強調処理を行うことを示している。
【0063】
拡大処理を行う場合、4倍、8倍の処理を行うと、原画像の特徴を有している画素は2画素、4画像離れた位置の画素となる。そのため、図11に示すように倍率が高いほど離れた画素を選択して強調処理に用いている。もちろん、16倍以降の倍率においても同様である。また、参照する画素の位置は、図11に示すような上下左右に限られたものではない。例えば、斜め方向の画素を含めたり、さらに離れた画素をも参照するように構成したり、入力画像データの種類およびサイズなどにより用いるカーネルを変更するなど、カーネルの要素(参照する画素)および要素間の距離が図11に示した強調カーネルと異なったものを用いてもよい。
【0064】
例えば図11(A)に示すような強調カーネルを用いる場合、図12(A)に示すように、例えば中心の参照画素Pの強調処理を行う場合には、その上下左右に存在する画素a,b,c,dを参照し、また重みとして中心の注目画素については1.6を、周辺の参照画素に対しては0.15をそれぞれ用いる。これらにより、画素Pの画素値P’は次の式(5)に従って計算することができる。
注目画素値P’=1.60×P‐0.15×(a+b+c+d)・・(5)
【0065】
なお、例えば図11(B)に示すような強調カーネルを用いる場合にも、同様に図12(B)に示すように参照画素Pの強調処理を行う場合には、その上下左右に1画素おいて存在する画素a,b,c,dを参照し、また重みとして中心の注目画素については1.2を、周辺の参照画素に対しては0.05をそれぞれ用いて式(5)と同様にして画素Pの画素値P’を計算すればよい。
【0066】
図13は、入力画像データを8倍拡大する場合の強調カーネルによるコントラスト強調処理の説明図である。後述するように第1生成部21による拡大処理の手法は2倍ごとに行うため、8倍の拡大を行う場合には、まず2倍の拡大を行い、2倍に拡大された画像データに対してさらに2倍の拡大を行って4倍に拡大された画像データを生成し、さらにその4倍に拡大された画像データに対して2倍の拡大を行って、最終的に8倍に拡大された画像データを得る。上述の強調カーネルによる強調処理は、それぞれの2倍拡大の前に行う。
【0067】
すなわち、図13(A)に示す入力画像データを2倍拡大する場合に、図11(A)に示すカーネル0を用いて入力画像データのコントラスト強調を行い、後述する処理によって2倍に拡大して図13(B)に示す2倍拡大データを生成する。次に、図13(B)に示す2倍拡大された画像データを2倍拡大する場合に、2倍拡大画像データに対して図11(B)に示すカーネル1を用いてコントラスト強調を行い、その後2倍に拡大して図13(C)に示す4倍拡大データを生成する。さらに、図13(C)に示す4倍拡大データに対して図11(C)に示すカーネル2を用いてコントラスト強調を行い、その後2倍に拡大して図13(D)に示す8倍拡大データを生成する。図11に示した強調カーネルは、このようにして用いられ、それぞれの拡大の段階でのデータに対して強調処理を施す。
【0068】
次に拡大画像ブロック生成部13の第1生成部21は、実際に拡大画像ブロックを生成する。この拡大画像ブロックの生成処理の詳細について説明する。拡大画像ブロック生成部13の第1生成部21では、画像ブロック特徴量算出部12のエッジパターン選択部33で得られた第2エッジパターンと、上述の画像強調処理においてコントラスト強調された画素値を用いて、注目領域に対する拡大画像ブロックを生成する。
【0069】
図14は、拡大画像ブロック生成部13の第1生成部21における拡大画像ブロック生成処理の一例を示すフローチャートである。S71において、画像強調処理によりコントラスト強調された注目領域、および、画像ブロック特徴量算出部12のエッジパターン選択部33で選択された第2エッジパターンを用いて、まず3×3画素の拡大画像ブロックを生成する。図15は、3×3画素の拡大画像ブロックの生成処理の具体例の説明図である。図15(A)には図5(A)に示した注目領域及び周辺領域の一例を示している。また、この注目領域に対応して、例えば図10において説明したようにして求められた第2エッジパターン(図9における方向1のパターン2)を図15(B)に示している。図15(B)においては、それぞれの画素をp0〜p8としている。図15(A)に示した注目領域{a,b,c,d}をもとに、画素p0〜p8の画素値を次の式によって計算する。
p0=a
p1=(a+c)/2
p2=b
p3=(a+c)/2
p4=(b+c)/2
p5=(b+d)/2
p6=c
p7=(b+d)/2
p8=d
このような計算を行うことによって、図15(C)に示すように3×3画素の拡大画像ブロックを生成することができる。
【0070】
図16は、第2エッジパターンと3×3画素の拡大画像ブロックを生成する際に用いる計算式の一例の説明図である。上述のように図15(B)に示したような第2エッジパターンが選択されている場合には、上述の式によって3×3画素の拡大画像ブロックを生成することができるが、この時用いる計算式は、選択された第2エッジパターン毎に決まっている。図16(A)に示した第2エッジパターンは図9に示す方向1のパターン0であり、
p0=a
p2=b
p3=(a+c)/2
p4=(b+c)/2
p5=(b+d)/2
p6=c
p7=(c+d)/2
p8=d
p1=2×p4−p7
によって3×3画素の拡大画像ブロックを生成することができる。
【0071】
図16(B)に示した第2エッジパターンは図9に示す方向5のパターン1であり、この場合は
p0=a
p1=(a+c)/2
p2=b
p3=(c+d)/2
p4=(a+d)/2
p5=(a+b)/2
p6=c
p7=(c+d)/2
p8=d
によって3×3画素の拡大画像ブロックを生成することができる。
【0072】
図16(C)に示した第2エッジパターンは図9に示す方向2のパターン0であり、この場合は
p0=a
p1=a
p2=b
p3=a
p4=(b+c)/2
p5=(b+d)/2
p6=c
p7=(c+d)/2
p8=d
によって3×3画素の拡大画像ブロックを生成することができる。
【0073】
図16(D)に示した第2エッジパターンは図9に示す方向0のパターン0であり、この場合は
p0=a
p1=(a+b)/2
p2=b
p3=(a+c)/2
p5=(b+d)/2
p6=c
p7=(c+d)/2
p8=d
p4=(p1+p7)/2
によって3×3画素の拡大画像ブロックを生成することができる。なお、他の第2エッジパターンの場合にも、同様にそれぞれの第2エッジパターンに対応した計算式に従って計算を行うことによって、3×3画素の拡大画像ブロックを生成することができる。
【0074】
図14に戻り、S72において、画像ブロック特徴量算出部12のエッジ方向推定部32で推定された注目領域の推定エッジ方向を判断し、推定エッジ方向が方向1〜方向3および方向5〜方向7の場合はS73に、推定エッジ方向が方向0および方向4(すなわちエッジ方向が垂直あるいは水平方向)の場合はS74に処理を移す。
【0075】
S73において、注目領域の推定エッジ方向が方向1〜方向3および方向5〜方向7の場合、すなわちエッジ方向が垂直あるいは水平方向以外の場合に、S71で生成された3×3画素の拡大画像ブロックから4×4画素の拡大画像ブロックを生成する。ここでは、3×3画素の拡大画像ブロックと、コントラスト強調された注目領域及びその周辺領域から、まず3×4画素の拡大画像ブロックを生成し、その後、生成した3×4画素の拡大画像ブロックとコントラスト強調された注目領域及びその周辺領域から4×4画素の拡大画像ブロックを生成する。
【0076】
図17は、3×4画素の拡大画像ブロックの生成処理の具体例の説明図である。図17(A)には一例として図5(A)に示した注目領域及び周辺領域の例を示している。また、図17(B)におけるp0〜p8は、図15(C)に示した3×3画素の拡大画像ブロックを中央部に示している。
【0077】
まず図17(B)の中央部に示す3×3画素の拡大画像ブロックとともに、図17(A)において太線枠で示した、コントラスト強調された周辺領域中の参照画素(r0〜r5)を用いて、図17(C)に示す3×4画素の拡大画像ブロック(q0〜q11)を生成する。3×4画素の拡大画像ブロックの各画素値q0〜q11は、次のような計算式により決定される。
q0=0.2×r0+0.8×p0
q1=0.4×p0+0.6×p1
q2=0.6×p1+0.4×p2
q3=0.8×p2+0.2×r1
q4=0.2×r2+0.8×p3
q5=0.4×p3+0.6×p4
q6=0.6×p4+0.4×p5
q7=0.8×p5+0.2×r3
q8=0.2×r4+0.8×p6
q9=0.4×p6+0.6×p7
q10=0.6×p7+0.4×p8
q11=0.8×p8+0.2×r5
【0078】
図18は、推定エッジ方向による参照画素の選択方法の説明図である。図17に示した例では、図5(A)に示した注目領域及び周辺領域から画像ブロック特徴量算出部12で求めた推定エッジ方向が方向1であった場合を想定して、参照画素の位置を図17(A)に太線枠で囲んだように左上から下へ3画素と右下から上へ3画素とした。この参照画素の例を図18(A)に示しているが、このような位置の画素を参照画素とするのは、注目領域の推定エッジ方向が方向1(22.5°)から方向3(67.5°)の場合である。注目領域の推定エッジ方向が方向5(112.5°)から方向7(157.5°)の場合には、図18(B)に太線枠で囲んで示すように、左下から上へ3画素と右上から下へ3画素とするとよい。このように、注目領域における推定エッジ方向に従って、参照画素を選択する。もちろん、参照画素の選択は図18に示すように2パターンからの選択に限定されるわけではなく、推定エッジ方向に従い、より多くの参照画素選択パターンを用意してもよい。また、選択する参照画素についても、推定エッジ方向によって変更してもよい。
【0079】
図19は、4×4画素の拡大画像ブロックの生成処理の具体例の説明図である。上述のようにして生成された3×4画素の拡大画像ブロック、および、コントラスト強調された周辺領域中の参照画素(r0〜r7)を用いて、4×4画素の拡大画像ブロックを生成する。コントラスト強調された注目領域及び参照領域を図19(A)に示し、生成された3×4画素の拡大画像ブロックを図19(B)の中央部に示している。ここでは参照画素r0〜r7として、図19(A)において太線枠で示したように、コントラスト強調された参照領域の下部4画素と上部4画素を用いる。そして、次のような計算式に従って、図19(C)に示す4×4画素の拡大画像ブロック(s0〜s15)を生成する。
s0=0.2×r0+0.8×q0
s1=0.2×r1+0.8×q1
s2=0.2×r2+0.8×q2
s3=0.2×r3+0.8×q3
s4=0.4×q0+0.6×q4
s5=0.4×q1+0.6×q5
s6=0.4×q2+0.6×q6
s7=0.4×q3+0.6×q7
s8=0.6×q4+0.4×q8
s9=0.6×q5+0.4×q9
s10=0.6×q6+0.4×q10
s11=0.6×q7+0.4×q11
s12=0.8×q8+0.2×r4
s13=0.8×q9+0.2×r5
s14=0.8×q10+0.2×r6
s15=0.8×q11+0.2×r7
【0080】
なお、上記で説明した図14のS73における4×4画素の拡大画像ブロックの生成処理において、ここでは3×3画素ブロック→3×4画素ブロック→4×4画素ブロックという処理の流れによって拡大処理を行う例を示したが、3×3画素ブロック→4×3画素ブロック→4×4画素ブロックの処理の流れでもよいし、3×3画素ブロックから4×4画素ブロックを生成してもよい。もちろん、これらの場合の参照画素の選択は適宜変更されることになる。
【0081】
図14に戻り、S74では、注目領域の推定エッジ方向が方向0および方向4の場合(すなわち垂直方向あるいは水平方向の場合)に、S71で生成された3×3画素の拡大画像ブロックから4×4画素の拡大画像ブロックを生成する。図20は、推定エッジ方向が方向0および方向4の場合における4×4画素の拡大画像ブロックの生成処理の一例の説明図である。注目領域の推定エッジ方向が方向0および方向4の場合は、図20(A)に示すコントラスト強調された周辺領域中の画素(A,B,C,D)を用い、図20(B)において左右に示す参照画素r0〜r5を次のような式を用いて算出する。
r0=A
r1=B
r2=0.5×A+0.5×C
r3=0.5×B+0.5×D
r4=C
r5=D
なお、図20(B)の中央部には、図14のS71で生成された3×3画素の拡大画像ブロックp0〜p8を示している。
【0082】
このようにして3×3画素の拡大画像ブロックと、参照画素r0〜r5が得られたら、これらを用いて上述の図17で説明した計算方法によって3×4画素の拡大画像ブロックq0〜q11を生成する。これを図20(C)に示している。さらに、このようにして生成した3×4画素の拡大画像ブロックq0〜q11と、図20(A)に示すコントラスト強調された周辺領域の上下4画素ずつを参照画素とし、上述の図19に示した計算方法によって図20(D)に示す4×4画素の拡大画像ブロック(s0〜s15)を生成する。
【0083】
以上のように、図14に示したS71からS74の処理を行うことにより、画像ブロック特徴量算出部12において閾値Thよりエッジ強度Gが大きいと判断された注目領域に対する4×4画素の拡大画像ブロック(例えば図19(C)または図20(D)に示すs0〜s15)が生成される。
【0084】
次に、画像ブロック特徴量算出部12において閾値Thよりエッジ強度Gが小さいと判断された注目領域に対しては、拡大画像ブロック生成部13の第2生成部22において、上述したような注目領域の画像特徴を保存する拡大画像ブロック生成部13の第1生成部21における拡大処理ではなく、処理負荷を軽減した、より簡便な拡大画像ブロックの生成処理を行う。例えばその一例として、2×2画素の注目領域から最近傍補間により4×4画素の拡大画像ブロックを生成することができる。もちろん、この第2生成部22において用いる拡大手法は任意であり、第1生成部21よりも処理負荷の軽い手法であればどのような手法を用いてもよい。
【0085】
以上説明したように、画像ブロック特徴量算出部12で算出された画像特徴量に従って、拡大画像ブロック生成部13において行う拡大処理を選択することにより、入力画像データを高画質に拡大でき、さらには処理負荷も削減することが可能となる。具体的には、第2生成部22において第1生成部21よりも処理負荷の軽い拡大手法を用いることによって、拡大処理全体の処理負荷を軽減し、処理時間を短縮して高速な拡大処理を実現することができる。なお、ここでは拡大画像ブロック生成部13が2つの拡大手法を有しているものとし、いずれかを選択的に用いることとしたが、さらに複数の拡大手法を設けておき、画像ブロック特徴量算出部12で算出された種々の画像特徴量に従って複数の拡大手法の中からいずれかを選択して拡大処理を行うように構成することもできる。
【0086】
次に、画像ブロック配置部14について説明する。画像ブロック配置部14では、拡大画像ブロック生成部13で生成された注目領域に対する拡大画像ブロックを所定の方法により順次配置する。図21は、拡大画像ブロック生成部13で生成された4×4画素の拡大画像ブロックを配置する具体例の説明図である。図21に示す例では、順次生成された拡大画像ブロック0および拡大画像ブロック1をオーバーラップさせるように配置している。オーバーラップする画素は各々前画素値との平均をとるようにして配置する。または、オーバーラップする画素の総和を計算し、前記画素値の総和をオーバーラップした数で割ることにより各画素値を算出するようにしてもよい。この場合、注目画素は例えば1画素づつずらしながら選択し、拡大処理を行ってゆくことになる。あるいは、オーバーラップさせずに並べてゆくこともできる。この場合、注目領域を重ならないように選択してゆけばよい。
【0087】
なお、4×4画素の拡大画像ブロックは、拡大画像ブロック生成部13中の第1生成部21と第2生成部22のいずれかで生成されるため、拡大方式の違いによる画質劣化が懸念されるが、上述のようにオーバーラップさせて平均化することによって、そのような画質劣化の発生を抑えることができる。
【0088】
図22は、本発明の画像処理装置及び画像処理方法の第2の実施の形態を示すブロック図である。図中、図1と同様の部分には同じ符号を付し、重複する説明を省略する。13’は拡大画像ブロック生成部、14’は画像ブロック配置部、15は拡大画像生成部である。この第2の実施の形態においては、画像処理部1は、画像ブロック設定部11、画像ブロック特徴量算出部12、拡大画像ブロック生成部13’、画像ブロック配置部14’とともに、拡大画像生成部15を含んで構成されている。なお、画像ブロック設定部11及び画像ブロック特徴量算出部12は、上述の第1の実施の形態における機能と同様である。また、拡大画像ブロック生成部13’及び画像ブロック配置部14’は、上述の第1の実施の形態における拡大画像ブロック生成部13及び画像ブロック配置部14に対応する構成である。このうち、拡大画像ブロック生成部13’は、上述の第1の実施の形態における拡大画像ブロック生成部13の第1生成部21の機能と同様であり、ここでは説明を省略する。
【0089】
画像ブロック配置部14’は、画像ブロック特徴量算出部12において閾値Thよりエッジ強度Gが大きいと判断された注目領域に対し、拡大画像ブロック生成部13’で拡大処理された拡大画像ブロックを、後述する拡大画像生成部15から出力された拡大画像上の対応する位置に順次配置し、解像度変換または拡大された画像データを画像データ格納部2に出力する。拡大画像ブロックを拡大画像生成部15から出力された拡大画像上の対応する位置に順次配置する際には、拡大画像ブロックの各画素値で置き換えるように配置してもよいし、または拡大画像生成部15から出力された拡大画像の対応する位置の各画素値と重畳するように配置してもよい。なお、拡大画像ブロック同士はオーバーラップするように配置される場合、オーバーラップする画素の総和を計算し、画素値の総和をオーバーラップした数で割ることにより各画素値を算出する。
【0090】
拡大画像生成部15は、画像データ格納部2に記憶されている入力画像データを拡大し、画像ブロック配置部14’にその拡大画像を出力する。拡大画像生成部15における拡大処理は、拡大画像ブロック生成部13’における拡大処理とは異なり、より処理負荷の小さい拡大処理、例えば最近傍補間拡大や線形補間拡大処理などを行うことができる。さらに、画像ブロック毎の処理ではなく、入力画像単位あるいは入力画像数ライン単位で処理することができる。
【0091】
図23は、本発明の画像処理装置及び画像処理方法の第2の実施の形態における動作の一例を示すフローチャートである。なお、S81、S82、およびS84からS87までの処理は、図2に示した第1の実施の形態の処理の一例におけるS41、S42、およびS44からS47までの処理と同様なので説明を省略する。
【0092】
S83において、画像ブロック特徴量算出部12は、S82で算出した注目領域の特徴量を算出する。ここでは上述の例と同様にエッジ強度Gを算出し、所定の閾値Thとの比較を行うこととする。もちろん、この第2の実施の形態においても、画像ブロック特徴量算出部12で算出する特徴量はエッジ強度に限らないことは上述の第1の実施の形態と同様である。
【0093】
ここで閾値Thよりエッジ強度Gが大きい場合は、注目領域が入力画像中のエッジ部分あるいは変化の大きい部分であるので、そのような注目領域の画像特徴を保存する拡大処理をS84〜S87において行い、拡大画像ブロックを生成する。なお、上述のようにこのS84〜S87における拡大処理については説明を省略する。
【0094】
注目領域のエッジ強度Gが閾値Thよりも小さい場合は、S84〜S87の処理を行わず、処理をS81に移し、次の画像ブロックを設定する。すなわち当該注目領域については拡大画像ブロック生成部13’による拡大画像ブロックの生成を行わない。
【0095】
一方、このような処理と並行して、あるいは前後して、拡大画像生成部15による拡大画像の生成処理が行われる。すなわちS88において、拡大画像生成部15は、画像データ格納部2に記憶されている入力画像データを画像毎または数ライン毎に入力し、最近傍補間拡大処理を行い、画像ブロック配置部14’に出力する。もちろんS88で行う拡大処理は、最近傍補間拡大処理に限ったものではなく、拡大画像ブロック生成部13’における拡大手法よりも処理負荷の軽い種々の手法、例えば線形補間拡大処理などを、処理速度要求や出力画像データに要求される画質などを勘案して適用することもできる。
【0096】
S89において、画像ブロック配置部14’は、拡大画像ブロック生成部13’で生成された注目領域に対する拡大画像ブロックを、拡大画像生成部15で生成した拡大画像上の対応する位置に順次配置する。拡大画像ブロックがオーバーラップして配置される場合には、上述のような平均化の処理を行う。これらの処理をすべて終えた拡大画像ブロックあるいはライン単位の拡大画像は、画像データ格納部2に出力され、格納される。
【0097】
S90において、入力画像データに対して出力すべき拡大画像データの生成が完了したか否かを判断し、完了していない場合はS81に処理を戻し、次の画像ブロックを切り出して上述のS81からS90までの処理を繰り返す。完了した場合は、拡大画像データを所定の出力先に出力して拡大処理を終了する。
【0098】
このような処理によって、入力画像データは処理負荷の軽い拡大手法によって拡大画像生成部15により高速に拡大処理が施される。しかしこのままではエッジ部などにボケやジャギーなどが発生することがある。これに対して本発明の第2の実施の形態では、エッジ部分あるいは変化の大きい部分については部分的に拡大画像ブロック生成部13’によって画像特徴を保存する拡大処理を行うことによって、高画質の拡大画像を得ている。従って、全体として高速であるとともに高画質の拡大画像を得ることが可能となる。
【0099】
図24は、本発明の画像処理装置の機能または画像処理方法をコンピュータプログラムで実現した場合におけるコンピュータプログラム及びそのコンピュータプログラムを格納した記憶媒体の一例の説明図である。図中、101はプログラム、102はコンピュータ、111は光磁気ディスク、112は光ディスク、113は磁気ディスク、114はメモリ、121は光磁気ディスク装置、122は光ディスク装置、123は磁気ディスク装置である。
【0100】
上述の本発明の各実施の形態で説明した画像処理部1の機能は、コンピュータにより実行可能なプログラム101によっても実現することが可能である。その場合、そのプログラム101およびそのプログラムが用いるデータなどは、コンピュータが読み取り可能な記憶媒体に記憶することも可能である。記憶媒体とは、コンピュータのハードウェア資源に備えられている読取装置に対して、プログラムの記述内容に応じて、磁気、光、電気等のエネルギーの変化状態を引き起こして、それに対応する信号の形式で、読取装置にプログラムの記述内容を伝達できるものである。例えば、光磁気ディスク111,光ディスク112(CDやDVDなどを含む)、磁気ディスク113,メモリ114(ICカード、メモリカードなどを含む)等である。もちろんこれらの記憶媒体は、可搬型に限られるものではない。
【0101】
これらの記憶媒体にプログラム101を格納しておき、例えばコンピュータ102の光磁気ディスク装置121,光ディスク装置122,磁気ディスク装置123,あるいは図示しないメモリスロットにこれらの記憶媒体を装着することによって、コンピュータからプログラム101を読み出し、本発明の画像処理装置の機能または画像処理方法を実行することができる。あるいは、予め記憶媒体をコンピュータ102に装着しておき、例えばネットワークなどを介してプログラム101をコンピュータ102に転送し、記憶媒体にプログラム101を格納して実行させてもよい。なお、画像データ格納部2は、コンピュータ102内のメモリあるいは付属の磁気ディスク装置やその他の記憶媒体を適用することができる。もちろん、本発明の一部の機能についてハードウェアによって構成することもできるし、あるいは、すべてをハードウェアで構成してもよい。
【0102】
【発明の効果】
以上の説明から明らかなように、本発明によれば、注目画素を含む所定の大きさの画像領域の特徴量を算出し、算出された特徴量に従って注目画素を含む所定の大きさの画像領域を拡大する複数の拡大手法を切り替えて拡大画像領域を生成し、得られた拡大画像領域を所定の方法で配置して、拡大された出力画像を生成している。このような拡大処理によって、例えば、入力画像中の特徴的な部分に関しては、その特徴量を保存する拡大手法を適用し、入力画像中の平坦な部分(空や肌などの画像部分)などの特徴的でない部分に関しては処理負荷の小さい拡大手法を適用することによって、特徴的部分のボケやジャギーの画質欠陥を抑制した高画質な拡大処理を行うとともに、処理負荷が小さく高速に拡大処理を行うことができる。
【0103】
さらに、注目画素を含む所定の大きさの画像領域の特徴量を算出し、算出された特徴量に従って、特定の注目画素を含む所定の大きさの画像領域を拡大して拡大画像領域を生成し、さらに入力画像を特徴量と関係なく、拡大画像領域の生成処理とは異なる拡大手法で拡大して拡大画像を生成し、拡大画像領域を拡大画像上の対応する位置に所定の方法で配置することにより、拡大された出力画像を生成することができる。このような拡大処理によって、処理負荷の重い画像領域毎の拡大処理を特徴的な部分だけに限定することができ、高画質な拡大画像が得られるとともに、処理負荷が小さく高速な拡大処理を実現することができるという効果がある。
【図面の簡単な説明】
【図1】 本発明の画像処理装置及び画像処理方法の第1の実施の形態を示すブロック図である。
【図2】 本発明の画像処理装置及び画像処理方法の実施の一形態における動作の一例を示すフローチャートである。
【図3】 画像ブロック設定部11で設定及び切り出しを行う画像ブロックの説明図である。
【図4】 画像ブロック特徴量算出部12の一構成例を示すブロック図である。
【図5】 注目領域および周辺領域の具体例と注目領域のエッジ方向の一例の説明図である。
【図6】 エッジ方向推定部32におけるエッジ方向推定処理の一例を示すフローチャートである。
【図7】 エッジ方向の推定に用いる参照領域の一例の説明図である。
【図8】 図5に示した注目領域における推定エッジ方向の一例の説明図である。
【図9】 エッジパターンテーブルの一例の説明図である。
【図10】 図5に示す注目領域に対応する第1エッジパターンの選択方法の具体例の説明図である。
【図11】 拡大画像ブロック生成部13の第1生成部21で用いる強調カーネルの具体例の説明図である。
【図12】 図11に示す強調カーネルで画素Pを強調する場合の説明図である。
【図13】 入力画像データを8倍拡大する場合の強調カーネルによるコントラスト強調処理の説明図である。
【図14】 拡大画像ブロック生成部13の第1生成部21における拡大画像ブロック生成処理の一例を示すフローチャートである。
【図15】 3×3画素の拡大画像ブロックの生成処理の具体例の説明図である。
【図16】 第2エッジパターンと3×3画素の拡大画像ブロックを生成する際に用いる計算式の一例の説明図である。
【図17】 3×4画素の拡大画像ブロックの生成処理の具体例の説明図である。
【図18】 推定エッジ方向による参照画素の選択方法の説明図である。
【図19】 4×4画素の拡大画像ブロックの生成処理の具体例の説明図である。
【図20】 推定エッジ方向が方向0および方向4の場合における4×4画素の拡大画像ブロックの生成処理の一例の説明図である。
【図21】 拡大画像ブロック生成部13で生成された4×4画素の拡大画像ブロックを配置する具体例の説明図である。
【図22】 本発明の画像処理装置及び画像処理方法の第2の実施の形態を示すブロック図である。
【図23】 本発明の画像処理装置及び画像処理方法の第2の実施の形態における動作の一例を示すフローチャートである。
【図24】 本発明の画像処理装置の機能または画像処理方法をコンピュータプログラムで実現した場合におけるコンピュータプログラム及びそのコンピュータプログラムを格納した記憶媒体の一例の説明図である。
【符号の説明】
1…画像処理部、2…画像データ格納部、11…画像ブロック設定部、12…画像ブロック特徴量算出部、13,13’…拡大画像ブロック生成部、14,14’…画像ブロック配置部、15…拡大画像生成部、21…第1生成部、22…第2生成部、31…エッジ強度算出部、32…エッジ方向推定部、33…エッジパターン選択部、101…プログラム、102…コンピュータ、111…光磁気ディスク、112…光ディスク、113…磁気ディスク、114…メモリ、121…光磁気ディスク装置、122…光ディスク装置、123…磁気ディスク装置。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing technique for performing an enlargement process of an image expressed in multiple gradations including color, and in particular without causing image quality defects such as blur and jaggy to the input image as much as possible. The present invention relates to an image processing technique for performing enlargement processing with high image quality and light processing load.
[0002]
[Prior art]
The image enlargement process is one of basic processes for a system that performs image editing, filing, display, printing, and the like. In recent years, with the widespread use of image data mainly for display at display resolutions such as images on the Internet homepage and digital video, these low-resolution images are frequently printed by high-resolution printers. It has been broken. At the time of printing with this printer, it is desired to obtain a high-quality output result, and the importance of the high-quality enlargement process is increasing.
[0003]
Typical existing methods for enlarging images expressed in multi-tones including color (hereinafter referred to as multi-valued images) include nearest neighbor method, linear interpolation method, cubic convolution method, etc. There is. The nearest neighbor method is a method in which the pixel value of the pixel having the closest distance is used as each enlarged pixel value when the pixel is reversely mapped on the original image. Since this method has a small amount of calculation, it can be processed at high speed. However, since one pixel of the original image is directly expanded into a rectangular shape, the degree of image quality degradation is small and has little effect when the pixel value difference between adjacent pixels is small. The image quality is greatly deteriorated, for example, when the jaggy on the edge portion is conspicuous or the image has a mosaic shape when the magnification is large.
[0004]
In the linear interpolation method, it is assumed that pixel values between pixels change linearly, and pixel values of four pixels in the vicinity of a point obtained by inversely mapping the enlarged pixel are linearly interpolated to obtain a pixel value. It is. Although this method is heavier than the nearest neighbor method, the amount of calculation is relatively small, and jaggies are less likely to occur. On the other hand, there is a drawback that the entire image becomes blurred, centering on the edge portion that does not apply to the assumption that it changes linearly.
[0005]
The cubic convolution method defines an interpolation function that approximates a sinc function (sin (x) / x) based on the sampling theorem, and 16 pixels in the vicinity of a point obtained by inversely mapping the enlarged pixel (X and Y directions) This is a method for obtaining an enlarged pixel value by a convolution operation of each of 4 pixels) and the approximate interpolation function. This method has a relatively good image quality as compared with the above two methods, but has a drawback of a large reference range and a large amount of calculation. In addition, since the high frequency band is emphasized, there are disadvantages such as light jaggies occurring at the edge and noise components being emphasized.
[0006]
As an attempt to solve these problems, for example, new methods such as Patent Document 1, Patent Document 2, Patent Document 3, and Patent Document 4 have been proposed. In the technique described in Patent Document 1, first, an original image is binarized, and the direction of an oblique component included in the original image is determined from the binary image to coincide with a two-dimensional pattern (matrix data) prepared in advance. Obtain and perform interpolation processing along the obtained oblique direction. In addition, linear interpolation processing is performed for the other portions. However, since the direction of the diagonal component is determined after binarizing the original image with a predetermined threshold, it is effective for edges with a large density difference, but for reproducing edges with a small density difference. There's a problem.
[0007]
In the technique described in Patent Document 2, a pixel value of an arrangement file is determined by a dot arrangement file (enlarged pattern file) for each integer magnification corresponding to one-to-one in the pattern file and a pixel value at any position of the pixel block. An enlarged image block is generated based on the pixel reference information. Further, when there is no matching pattern, an enlarged image block is simply generated with the target pixel of the current image block. However, in Patent Document 2, since an enlarged block is uniquely generated only by pattern matching, the image quality of the enlarged image is determined by the number of pattern files and dot arrangement files. In other words, a large number of pattern files are necessary in advance to improve image quality. Yes, it is not realistic to prepare many pattern files in advance.
[0008]
In the technique described in Patent Literature 3, edge detection is performed by an edge detection filter as a method for detecting the degree of change in an original image, and edge pixels are defined based on the edge detection result. When it is determined that the pixel is an edge pixel, enlargement is performed by the M-cubic method in which the cubic function shape of the cubic convolution method is adjusted. Otherwise, enlargement is performed by the nearest neighbor method. However, since the edge portion having a large degree of change is performed by the M-cubic method, the image quality characteristics of the cubic convolution method are followed, and there is a disadvantage that jaggy generation and noise components are emphasized.
[0009]
In the technique described in Patent Document 4, the property of an image is measured in advance by a density histogram for each block, and based on the result, a first interpolation (pattern matching method or nearest neighbor method (NN method)) and a second interpolation are performed. Superimpose the results of (cubic convolution method or M-cubic method). In the pattern matching method, which is one of the first interpolation processes, when a pattern (binarized pattern) generated from a current image block matches a predetermined angle pattern, a predetermined block is used using a reference block including the current image block. An interpolation pixel block for the target pixel is generated by the rule. However, Patent Document 4 also has a problem that jaggy and noise components are emphasized because of superimposition with the M-cubic method.
[0010]
For example, Japanese Patent Application No. 2002-76896 discloses a high-quality enlargement technique as compared with such a conventional enlargement technique. This method detects an accurate edge direction and generates an enlarged image from pixel values corresponding to the edge direction, and causes as little image quality defects as blur and jaggy to the input image as much as possible. An enlargement process can be performed. However, since processing takes time, it has been desired to reduce the processing load while maintaining high image quality and to shorten the processing time by high-speed processing.
[0011]
[Patent Document 1]
JP 2000-228723 A
[Patent Document 2]
JP 2001-188900 A
[Patent Document 3]
JP 2000-188681 A
[Patent Document 4]
JP 2002-165089 A
[0012]
[Problems to be solved by the invention]
The present invention has been made in consideration of the above-described problems of the prior art. The input image has high image quality without causing image quality defects such as blurring and jaggy as much as possible, and has a processing load. An object of the present invention is to provide an image processing apparatus and an image processing method that can perform enlargement processing lightly and at high speed. Another object of the present invention is to provide an image processing program for executing a function or an image processing method of such an image processing apparatus by a computer, and a computer-readable storage medium storing such an image processing program. Is.
[0013]
[Means for Solving the Problems]
The present invention provides an image processing apparatus and an image processing method for performing image enlargement processing, wherein a feature amount of an image region having a predetermined size including a target pixel is calculated by a region feature amount calculation unit, and the calculated feature amount is An enlarged image region corresponding to the image region that satisfies the condition is generated by the enlarged image region generating unit, and the input image is further enlarged by the enlarged image generating unit by an enlargement method different from the enlargement method of the image region. The enlarged image area is generated and arranged at a corresponding position on the enlarged image by the image arranging means.
[0017]
In this way, as a whole, the enlarged image generating means performs enlargement processing using an enlargement method with a light processing load, and the enlarged image area generating means performs only a high-quality enlarged image area for an important part of image quality such as an edge portion. Is generated and arranged. As a result, the processing load can be reduced as compared with the case where enlargement processing is performed on the entire image using a high-quality enlargement method, and enlargement processing can be performed at high speed while maintaining high image quality.
[0018]
As the feature amount calculated by the region feature amount calculation means, the degree of unevenness in the image region can be calculated from each pixel value in the image region, or the change direction in the image region can be calculated. For a color image, a feature amount is calculated for each color component in the color space, and data of one color component in the color space is selected based on the calculated one or more feature amounts. The feature amount of the image region in the data of one color component can be set as the feature amount of the image region in all the color components. The enlargement means provided in the enlargement image area generation means includes, for example, enlargement means for generating an enlargement image area using the feature quantity of the image area and the feature quantity of the neighborhood area of the image area and the pixel value in the neighborhood area. The enlargement means is selected for an image area in which the feature quantity calculated by the area feature quantity calculation means satisfies a predetermined condition, for example, an image area that requires high-quality enlargement processing including an edge or the like. The enlargement process can be performed. The enlarged image generating means for performing the enlargement process of the entire image can be configured to generate an enlarged image for each input image or for every several lines in the input image.
[0019]
The arrangement of the enlarged image area by the image arrangement means is such that the enlarged image is rewritten, the enlarged image is sequentially arranged so as to overlap with the enlarged image, and the sum of overlapping pixel values is calculated for the overlapping pixels and divided by the number of overlapping. can do.
[0020]
Furthermore, the present invention is an image processing program for causing a computer to execute an image enlargement process, wherein the function of the image processing apparatus according to any one of claims 1 to 10 or the image processing according to claim 11 is performed. The method is executed by a computer. As a result, the above-described enlargement processing function can be executed by a computer. Furthermore, the present invention can provide a computer-readable storage medium that stores such an image processing program.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram showing a first embodiment of an image processing apparatus and an image processing method according to the present invention. In the figure, 1 is an image processing unit, 2 is an image data storage unit, 11 is an image block setting unit, 12 is an image block feature amount calculation unit, 13 is an enlarged image block generation unit, 14 is an image block arrangement unit, and 21 is a first block. Reference numeral 1 denotes a second generator.
[0022]
The image data storage unit 2 temporarily stores the image data until it is enlarged by the image processing unit 1, or temporarily outputs the enlarged image data subjected to resolution conversion or enlargement processing to an output device (not shown). It has a function to memorize. Note that the image data is data described in an image format (for example, BMP, TIFF, PNG, etc.) that can be processed by the image processing apparatus, and is captured by a digital camera or a scanner (not shown) or created by a personal computer or the like. Image data created by an application program for processing editing and the like. The enlarged image data is also data in the same image format.
[0023]
The image processing unit 1 includes an image block setting unit 11, an image block feature amount calculation unit 12, an enlarged image block generation unit 13, and an image block arrangement unit 14. In the meantime, reading of image data to be subjected to enlargement processing, writing of enlarged image data generated by the enlargement processing, and the like are performed.
[0024]
The image block setting unit 11 sets predetermined block sizes required for processing in the image block feature amount calculation unit 12 and the enlarged image block generation unit 13, and input image data stored in the image data storage unit 2. Are sequentially cut out and transmitted to the image block feature quantity calculation unit 12 and the enlarged image block generation unit 13.
[0025]
The image block feature amount calculation unit 12 calculates the image feature amount in the attention area in the image block sequentially cut out by the image block setting section 11 from each pixel value in the image block including the attention area or the peripheral portion of the attention area. To do. As the image feature amount, for example, as described later, the edge strength and the edge angle of the attention area can be calculated. However, the present invention is not limited to this. For example, an average value of each pixel value of the attention area is obtained, and a value (for example, standard deviation or variance) representing variation of each pixel value of the attention area with respect to the average value is obtained. Various image feature amounts may be calculated.
[0026]
The enlarged image block generation unit 13 includes a plurality of enlargement units, here, a first generation unit 21 and a second generation unit 22, and a plurality of enlargements according to the image feature amount calculated by the image block feature amount calculation unit 12. The means is switched to generate an enlarged image block corresponding to the region of interest. For example, when the image block feature value calculation unit 12 calculates the edge strength as a numerical value, the feature value is compared with a predetermined value, and either the first generation unit 21 or the second generation unit 22 is compared according to the comparison result. The enlarged image block can be generated by switching to the above. Here, it is assumed that the enlargement process is performed by the first generation unit 21 when the feature amount is larger than the predetermined value, and the second generation unit 22 when the feature amount is less than the predetermined value. Of course, the feature quantity used for switching the enlargement means is not limited to the edge strength, and the above-described standard deviation and variance, or other various feature quantities can be used. Although the enlargement method in the first generation unit 21 and the second generation unit 22 is arbitrary, the first generation unit 21 that operates when the edge strength indicates a large numerical value as in the above-described example, the enlargement giving priority to image quality Method is desirable. In this case, the second generation unit 22 is preferably an enlargement method capable of processing at a higher speed than the first generation unit 21, thereby reducing the overall processing time.
[0027]
The image block arrangement unit 14 sequentially arranges the enlarged image blocks generated by the enlarged image block generation unit 13 and outputs the enlarged image data subjected to resolution conversion or enlargement to the image data storage unit 2. The arrangement method of the enlarged image blocks will be described later. For example, in addition to the method of sequentially arranging the enlarged image blocks, the enlarged image blocks are sequentially arranged so as to overlap each other, and the sum of the overlapping pixel values is divided by the number of overlapped pixels. It can also be configured to calculate a value.
[0028]
FIG. 2 is a flowchart showing an example of the operation in the embodiment of the image processing apparatus and the image processing method of the present invention. Here, a specific example will be described. In S41, each block required for the processing of the image block feature quantity calculation unit 12 and the enlarged image block generation unit 13 in the image block setting unit 11 with respect to the input image data stored in the image data storage unit 2 Set the size. Further, the image block having the set block size is cut out from the input image data. FIG. 3 is an explanatory diagram of an image block that is set and cut out by the image block setting unit 11. A pixel that has been subjected to fine right-upward hatching at the center is a region of interest, and a pixel that has been subjected to rough left-upward hatching around it is a peripheral region. Here, as an example, the attention area has a 2 × 2 pixel size, and the peripheral area including the attention area has a 4 × 4 pixel size. In this case, the set block size is a 6 × 6 pixel size block shown in FIG. 3A in the case of double enlargement, and the 8 × 8 pixel shown in FIG. 3B in the case of quadruple enlargement. A size image block is cut out.
[0029]
In S <b> 42, the image block feature quantity calculation unit 12 calculates the edge strength G of the attention area (a 2 × 2 pixel area with fine right-upward hatching in FIG. 3) in the clipped image block using the following formula ( Calculate in 1). Note that {a, b, c, d} are each pixel value in the attention area. If the input image data is not a grayscale image but a color image in the RGB color space, for example, the edge of each image block for each color component in the R, G, B color space with respect to the region of interest using the expression (1) Intensities Gr, Gg, and Gb are calculated, an image block having a color component having the maximum edge strength among Gr, Gg, and Gb is selected, and the edge strength is selected as the edge strength of the region of interest (common to all color components). And
gx = (a + c−b−d) / 2
gy = (a + b−c−d) / 2
G = gx × gx + gy × gy (1)
The edge strength is not limited to that calculated by the above formula (1), but may be calculated by the following formula (2).
G = | gx | + | gy | (2)
[0030]
In S43, the edge strength G of the attention area calculated in S42 is compared with a predetermined threshold Th. Here, when the edge strength G is larger than the threshold Th, the attention area is an edge portion or a portion having a large change in the input image, and therefore, an enlarged image block generation process for storing the image feature of the attention area is performed in S44. To S47. When the edge strength G of the attention area is smaller than the threshold Th, the enlarged image block generation process with a smaller processing load than the processes in S44 to S47 is performed in S48.
[0031]
In S <b> 44, the image block feature amount calculation unit 12 shows the edge angle Θ of the reference area in the attention area determined to have the edge strength G greater than the threshold Th and one or more peripheral areas including the attention area. Calculation is performed using Equation (3).
Θ = arctan (gy / gx) (3)
Note that gx and gy are values calculated in S42. Then, the edge direction θ of the region of interest is estimated from the obtained plurality of edge angles Θ. For example, the edge direction θ can be estimated by performing an operation such as taking an average value of the obtained plurality of edge angles Θ. Of course, the estimation method of the edge direction θ is arbitrary.
[0032]
In S45, the image block feature quantity calculation unit 12 selects the first and second edge patterns using the edge direction θ estimated in S44 and the pixel distribution pattern of the attention area. Here, as shown in FIG. 9 described later, the first and second edge patterns are prepared in advance for each edge direction and each pixel distribution pattern. For example, the storage unit or the image data storage unit 2 in the image processing unit 1 (not shown). It can be stored as table information in a part of the table. Details will be described later.
[0033]
In S <b> 46, the first generation unit 21 of the enlarged image block generation unit 13 uses the predetermined enhancement pattern (hereinafter referred to as enhancement kernel) having a size and an element value corresponding to the enlargement ratio, in the image block setting unit 11. The image data of the attention area and the surrounding area in the cut out image block are emphasized. Note that the enhancement kernel and enhancement processing using the enhancement kernel will be described later.
[0034]
In S47, the first generation unit 21 of the enlarged image block generation unit 13 determines the edge direction θ of the region of interest estimated by the image block feature amount calculation unit 12, the selected edge pattern, and the attention calculated in S46. An enlarged image block for the region of interest is generated using the enhanced pixel values of the region and the peripheral region.
[0035]
In this way, when the edge strength G of the region of interest is high in S43, an enlarged image block is generated that preserves such an edge portion or a feature that the change is large. As a result, it is possible to generate a high-quality enlarged image block with less blur and jaggy for the edge portion and the like.
[0036]
On the other hand, in S <b> 48, the second generation unit 22 of the enlarged image block generation unit 13 generates an enlarged image block for the attention area determined in S <b> 43 that the edge strength G is smaller than the threshold Th in the image block feature amount calculation unit 12. . Unlike the enlarged image block generation process in S44 to S47, the enlarged image block generation process in the second generation unit 22 may be an enlarged process with a small processing load such as nearest neighbor interpolation. That is, when the edge strength G is small, it is possible to obtain sufficient image quality even when the enlarged image block is generated with a smaller processing load without performing the complicated and time-consuming processing described above. . Therefore, when the edge strength G is low, the second generation unit 22 of the enlarged image block generation unit 13 is selected to generate an enlarged image block with a small processing load, thereby reducing the overall processing time. .
[0037]
In S49, the image block arrangement unit 14 enlarges the image block (the enlarged image block generated by the processing of S44 to S47 and the enlarged image generated by the processing of S48) with respect to the region of interest generated by the enlarged image block generating unit 13. Blocks) are sequentially arranged by a predetermined method described later, and the arranged image blocks are stored in the image data storage unit 2 as a part of the enlarged image data to be output.
[0038]
In S50, it is determined whether the generation of the enlarged image data to be output with respect to the input image data is completed. If not, the process returns to S41, the next image block is cut out, and the above process is repeated. . If completed, the enlarged image data is output and the enlargement process ends.
[0039]
Heretofore, an example of the operation in the embodiment of the image processing apparatus and the image processing method of the present invention has been described. Next, details of the image block feature quantity calculation unit 12, the enlarged image block generation unit 13, and the image block arrangement unit 15 which are main parts will be described.
[0040]
First, details of the image block feature quantity calculation unit 12 will be described. Here, as shown in FIG. 3 described above, the attention area is a 2 × 2 pixel size block, and the peripheral area including the attention area is a 4 × 4 pixel size block. FIG. 4 is a block diagram illustrating a configuration example of the image block feature amount calculation unit 12. In the figure, 31 is an edge strength calculation unit, 32 is an edge direction estimation unit, and 33 is an edge pattern selection unit. In the example illustrated in FIG. 4, the image block feature quantity calculation unit 12 includes an edge strength calculation unit 31, an edge direction estimation unit 32, and an edge pattern selection unit 33.
[0041]
As described above, the edge strength calculation unit 31 calculates the edge strength G of the region of interest in the image block cut out by the image block setting unit 11 by the above equation (1), and calculates the calculated edge strength G and a predetermined value. Is compared with the threshold value Th, and a method for enlarging the attention area is selected. When the edge strength G of the attention area is smaller than the threshold value Th, the enlargement process in the second generation unit 22 of the enlarged image block generation unit 13 without performing the processes in the edge direction estimation unit 32 and the edge pattern selection unit 33. Is done.
[0042]
Details of the processing of the edge direction estimation unit 32 and the edge pattern selection unit 33 will be described below. FIG. 5 is an explanatory diagram of a specific example of the attention area and the peripheral area and an example of the edge direction of the attention area. FIG. 5A shows an example of the attention area and the peripheral area. Each rectangle is a pixel, and each number indicates a pixel value. The attention area is a pixel {a, b, c, d} = {15, 104, 86, 203} surrounded by a thick line frame. The flow of edge direction estimation processing in the edge direction estimation unit 32 will be described using the example shown in FIG.
[0043]
FIG. 6 is a flowchart illustrating an example of edge direction estimation processing in the edge direction estimation unit 32. In S61, the edge angle Θ of the region of interest surrounded by the thick line frame in FIG. 5A is calculated by the above-described equation (3). For example, in the case of the attention area {a, b, c, d} = {15, 104, 86, 203} as specifically shown in FIG. 5A, gx and gy are gx = − from Equation (1), respectively. 103, gy = −85. Therefore, the edge angle Θ in the region of interest shown in FIG. 5A is Θ = −140.5 °. The direction of the edge angle Θ is indicated by a broken arrow line in FIG.
[0044]
Further, as shown in FIG. 5B, the angle direction is set, and it is examined whether the obtained edge angle Θ is included in the angle range of 22.5 ° (eight directions). In this case, the edge angle Θ is 0 ° or ± 180 ° in the direction 0, 22.5 ° or -157.5 °, the direction 1, 45 ° or -135 ° in the direction 2, 67.5 ° or Direction of −112.5 ° is direction 3, 90 ° or −90 ° is direction 4, direction of 112.5 ° or −67.5 ° is direction 5, direction of 135 ° or −45 ° is direction 6 The direction of 157.5 ° or −22.5 ° is the direction 7, and the range of ± 11.25 ° of these angles is the respective direction. Since the edge angle Θ (= −140.5 °) in the above specific example is included in the range of −135 ° ± 11.25 °, the edge angle is the direction 2.
[0045]
In S61, the angle reference number which is a variable for counting the reference number of the edge angle used for the edge direction estimation of the attention area in S66 which will be described later is set to 1.
[0046]
In S62, a reference area used for estimation of the edge direction is selected from the peripheral area (area outside the thick line frame) shown in FIG. 5A according to the edge angle Θ of the attention area calculated in S61. FIG. 7 is an explanatory diagram of an example of a reference area used for edge direction estimation. A 2 × 2 pixel indicated by a bold frame in the drawing is a reference area. FIG. 7A shows a case where the direction of the edge angle obtained in S61 is 0, FIG. 7B shows a case where the direction is 4, and FIG. 7C shows a case where the direction is other than that. Note that the number of reference areas in the direction 0 and the direction 4 shown in FIGS. 7A and 7B is 2, and the number of reference areas in the directions other than the directions 0 and 4 shown in FIG. The number is four. In the specific example shown in FIG. 5, since the direction of the edge angle is the direction 2, the four reference regions shown in FIG. 7C are candidates for selection. The selection of the reference area is not limited to that shown in FIG. 7. For example, in the case of FIG. 7C, the number of reference areas is set to 8, or the reference area is set according to each direction. May be.
[0047]
In S63, the edge angle Θ is calculated for one of the reference regions selected in S62 according to the equation (3) as in S61. In S64, the edge angle of the reference area calculated in S63 is compared with the edge angle of the attention area calculated in S61. If the difference between the two edge angles is smaller than the preset threshold value Θth, the angle reference number is incremented by 1 in S65, and the process proceeds to S66. If the difference between the two edge directions is larger than the preset threshold value Θth, it is determined that the reference area is not suitable for the edge direction estimation, and the process proceeds to S66 as it is. In S66, it is determined whether or not the edge angle calculation of all selectable reference areas has been completed. If completed, the process proceeds to S67. If there is a reference area that has not been completed, the process from S63 to S65 is repeated.
[0048]
In the specific example shown in FIG. 5, the edge angle ΘU = -149.4 ° from the upper reference area {86, 203, 171, 211}, and the edge angle from the left reference area {10, 15, 20, 86}. ΘL = −131.2 °, edge angle ΘD = −175.2 ° from lower reference area {1,102,15,104}, edge angle ΘR from right reference area {104,215,203,219} = −141.0 °. The edge angle Θ = −140.5 ° of the attention area is compared with the edge angle of each reference area, and the number of reference areas whose difference is smaller than the threshold Θth is counted as the angle reference number.
[0049]
In S67, the sum of the edge angle of the attention area and the edge angle of the reference area determined to be suitable for edge direction estimation in S64 is calculated, and the average edge angle obtained by dividing the sum of the edge angles by the number of angle references is noted. The estimated edge direction of the region. FIG. 8 is an explanatory diagram of an example of the estimated edge direction in the region of interest shown in FIG. For example, in the above specific example, if the difference between the edge angle of the attention area for all the reference areas is smaller than the threshold value Θth, the sum of the edge angles obtained from the attention area and the four reference areas is −737.3 °. By dividing by the angle reference number 5, the average edge angle can be obtained as -147.5 °. Also in this case, as in the edge direction of the region of interest described above, for example, if normalized to any of the eight directions, -147.5 ° becomes the direction 1. This is the estimated edge direction.
[0050]
In the above description, the case where the input image data is a grayscale image has been described. However, the present invention is not limited to this. For example, in the case of a color image in the RGB color space, the color space data selected by the strength of the edge angles Gr, Gg, and Gb in the data of each color component as described in S32 of the flowchart of FIG. The above processing may be performed. By doing so, it is possible to suppress deterioration in image quality such as color shift at the edge portion of the enlarged image data in the color image.
[0051]
In the above description, the edge angle is calculated to any one of the eight directions after calculating the edge angle using the expression (1) in the attention area and the reference area, but of course, the present invention is not limited to this, and the edge direction with higher accuracy is used. May be normalized in more directions such as 12 directions (every 15.0 °) and 16 directions (every 12.25 °).
[0052]
Next, details of the operation of the edge pattern selection unit 33 will be described. FIG. 9 is an explanatory diagram of an example of an edge pattern table. The edge pattern selection unit 33 performs edge pattern conversion using, for example, an edge pattern table as shown in FIG. As shown in FIG. 9, in the edge pattern table, one or several first edge patterns corresponding to the pattern size of the region of interest are registered for each edge direction (eight directions here). Corresponding to the pattern, a pattern having a pattern size larger than the pattern size of the first edge pattern is registered as the second edge pattern.
[0053]
The edge pattern selection unit 33 selects, for example, the first edge pattern corresponding to the edge direction of the attention area estimated by the edge direction estimation unit 32 using the edge pattern table as shown in FIG. A second edge pattern corresponding to one edge pattern is determined.
[0054]
Specifically, in the case of the attention area and its surrounding area surrounded by the thick frame shown in FIG. 5A, the estimated edge direction for the attention area is noticed for all reference areas by the edge direction estimation unit 11 as described above. When the difference from the edge angle of the region is smaller than the threshold value Θth, the direction 1 is obtained. According to the estimated edge direction (direction 1) of the attention area, a pattern candidate corresponding to the edge pattern of the attention area is selected from the edge pattern table shown in FIG. In this case, four patterns, pattern 0 to pattern 3, which are the first edge patterns in direction 1, are selected and become candidates for the first edge pattern for the region of interest shown in FIG.
[0055]
Next, the edge pattern selection unit 33 selects any one of the patterns 0 to 3 as the first edge pattern for the region of interest as described below. FIG. 10 is an explanatory diagram of a specific example of a method for selecting the first edge pattern corresponding to the region of interest shown in FIG. In this specific example, since the estimated edge direction is the direction 1, four edge pattern candidates in the first edge pattern from the edge pattern table shown in FIG. 9 are obtained as edge patterns for the attention area shown in FIG. chosen. The selected edge pattern candidates are shown in FIG.
[0056]
Each of these edge pattern candidates is formed into a bit pattern as shown in FIG. Here, a bit pattern is formed with 0 for the white portion and 1 for the other portions. However, the edge pattern table shown in FIG. 9 may be registered as a bit table in advance, and in this case, the bit patterning process can be omitted.
[0057]
Next, the average pixel value in the attention area is calculated according to the equation (4), the average value is subtracted from each pixel value in the attention area, and the sign is used as the pixel value pattern of the attention area.
Mean = (a + b + c + d) / 4
a_sign = a-Mean
b_sign = b-Mean
c_sign = c-Mean
d_sign = d-Mean (4)
In the case of the example shown in FIG. 5A, Mean = (15 + 104 + 86 + 203) / 4 = 102, a_sign = −87, b_sign = 2, c_sign = −16, and d_sign = 101. Then, as shown in FIG. Further, the pixel value pattern is converted into a bit pattern as shown in FIG.
[0058]
Next, pattern matching between the bit pattern of each edge pattern candidate shown in FIG. 10 (B) and the bit pattern of the attention area shown in FIG. 10 (D) is performed, and the edge in the first edge pattern for the attention area Select one pattern. In this case, pattern 2 is selected as the first edge pattern for the region of interest (FIG. 10E).
[0059]
Finally, when the first edge pattern is selected, a second edge pattern prepared in advance so as to correspond to the first edge pattern is determined. In this case, the second edge pattern (direction 1, pattern 2) corresponding to pattern 2 in direction 1 in the first edge pattern is selected from the edge pattern table shown in FIG. 9 (FIG. 10F). The second edge pattern is used when an enlarged image block is generated for a region of interest in the enlarged image block generation unit 2 described later.
[0060]
The first and second edge patterns are not limited to those shown in FIG. 9. For example, an edge pattern different from that shown in FIG. 9 may be used depending on the type of input image data. The number of first and second edge pattern candidates in the angle may be increased or decreased. Of course, it is not necessary to configure as a table, as long as the second edge pattern can be derived from the identified first edge pattern.
[0061]
Next, the enlarged image block generation unit 13 will be described in detail. First, details of the enlarged image region generation processing in the first generation unit 21 of the enlarged image block generation unit 13 will be described. In the first generation unit 21 of the enlarged image block generation unit 13, first, an image as shown in FIG. 3 described above is used by using an enhancement kernel of a size and elements corresponding to the enlargement magnification set by the image block setting unit 11. The contrast of the image data of the attention area and the surrounding area in the image block cut out by the block setting unit 11 is enhanced.
[0062]
FIG. 11 is an explanatory diagram of a specific example of the enhancement kernel used in the first generation unit 21 of the enlarged image block generation unit 13. FIG. 12 is an explanatory diagram when the pixel P is emphasized by the enhancement kernel shown in FIG. The enhancement kernel (kernel 0) shown in FIG. 11 (A) is shown in FIG. 11 (C) when the magnification is 2 times, and the enhancement kernel (kernel 1) shown in FIG. 11 (B) is when the magnification is 4 times. The kernel (kernel 2) is used when the magnification is 8 times. In the drawing, the center pixel value and hatched pixels arranged on the top, bottom, left, and right of the pixel are used, and the emphasis processing is performed using the weight described in the lower part.
[0063]
When the enlargement process is performed, if the process is performed 4 times or 8 times, the pixels having the characteristics of the original image are 2 pixels, and the pixels are separated by 4 images. Therefore, as shown in FIG. 11, the higher the magnification, the more distant pixels are selected and used for the enhancement process. Of course, the same applies to a magnification of 16 times or more. Further, the position of the pixel to be referred to is not limited to the vertical and horizontal directions as shown in FIG. For example, kernel elements (referenced pixels) and elements, such as including a pixel in an oblique direction, a configuration to refer to a further distant pixel, or changing a kernel to be used depending on the type and size of input image data, etc. The distance between them may be different from the enhancement kernel shown in FIG.
[0064]
For example, when an enhancement kernel as shown in FIG. 11A is used, as shown in FIG. 12A, for example, when enhancement processing of the central reference pixel P is performed, the pixels a, Reference is made to b, c, and d, and 1.6 is used for the center pixel of interest and 0.15 is used for the surrounding reference pixels as weights. Thus, the pixel value P ′ of the pixel P can be calculated according to the following equation (5).
Pixel value of interest P ′ = 1.60 × P−0.15 × (a + b + c + d) (5)
[0065]
For example, even when an enhancement kernel as shown in FIG. 11B is used, when the enhancement processing of the reference pixel P is similarly performed as shown in FIG. And the existing pixels a, b, c, and d are referred to, and 1.2 is used for the center pixel of interest and 0.05 is used for the surrounding reference pixels, respectively, as in Equation (5). Thus, the pixel value P ′ of the pixel P may be calculated.
[0066]
FIG. 13 is an explanatory diagram of the contrast enhancement processing by the enhancement kernel when the input image data is enlarged 8 times. As will be described later, the enlargement process performed by the first generation unit 21 is performed every 2 times. Therefore, when 8 times enlargement is performed, the enlargement is first performed 2 times, and the image data that has been doubled is processed. Then, the image data is further magnified by 2 times to generate image data that has been magnified by 4 times, and the image data that has been magnified by 4 times is further magnified by 2 times to be finally magnified by 8 times. Get the image data. The above-described enhancement processing by the enhancement kernel is performed before each double enlargement.
[0067]
That is, when the input image data shown in FIG. 13A is enlarged twice, the contrast of the input image data is enhanced using the kernel 0 shown in FIG. Thus, the double enlarged data shown in FIG. 13B is generated. Next, when the image data enlarged twice as shown in FIG. 13B is enlarged twice, contrast enhancement is performed on the twice enlarged image data using the kernel 1 shown in FIG. Thereafter, the data is enlarged by a factor of 2 to generate 4 times enlarged data as shown in FIG. Further, contrast enhancement is performed on the 4-times enlarged data shown in FIG. 13C by using the kernel 2 shown in FIG. 11C, and then enlarged twice to 8-times enlarged as shown in FIG. 13D. Generate data. The enhancement kernel shown in FIG. 11 is used in this manner, and performs enhancement processing on the data at each expansion stage.
[0068]
Next, the first generation unit 21 of the enlarged image block generation unit 13 actually generates an enlarged image block. Details of the enlarged image block generation process will be described. In the first generation unit 21 of the enlarged image block generation unit 13, the second edge pattern obtained by the edge pattern selection unit 33 of the image block feature amount calculation unit 12 and the pixel value subjected to contrast enhancement in the image enhancement process described above are used. Use to generate an enlarged image block for the region of interest.
[0069]
FIG. 14 is a flowchart illustrating an example of the enlarged image block generation process in the first generation unit 21 of the enlarged image block generation unit 13. In S71, using the region of interest whose contrast has been enhanced by the image enhancement processing and the second edge pattern selected by the edge pattern selection unit 33 of the image block feature quantity calculation unit 12, first, an enlarged image block of 3 × 3 pixels. Is generated. FIG. 15 is an explanatory diagram of a specific example of generation processing of an enlarged image block of 3 × 3 pixels. FIG. 15A shows an example of the attention area and the peripheral area shown in FIG. FIG. 15B shows a second edge pattern (pattern 2 in direction 1 in FIG. 9) corresponding to this attention area, for example, obtained as described in FIG. In FIG. 15B, each pixel is set to p0 to p8. Based on the attention area {a, b, c, d} shown in FIG. 15A, the pixel values of the pixels p0 to p8 are calculated by the following formula.
p0 = a
p1 = (a + c) / 2
p2 = b
p3 = (a + c) / 2
p4 = (b + c) / 2
p5 = (b + d) / 2
p6 = c
p7 = (b + d) / 2
p8 = d
By performing such calculation, an enlarged image block of 3 × 3 pixels can be generated as shown in FIG.
[0070]
FIG. 16 is an explanatory diagram of an example of a calculation formula used when generating the second edge pattern and the 3 × 3 pixel enlarged image block. As described above, when the second edge pattern as shown in FIG. 15B is selected, an enlarged image block of 3 × 3 pixels can be generated by the above formula. The calculation formula is determined for each selected second edge pattern. The second edge pattern shown in FIG. 16A is the pattern 0 in the direction 1 shown in FIG.
p0 = a
p2 = b
p3 = (a + c) / 2
p4 = (b + c) / 2
p5 = (b + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d
p1 = 2 × p4-p7
Thus, an enlarged image block of 3 × 3 pixels can be generated.
[0071]
The second edge pattern shown in FIG. 16B is the pattern 1 in the direction 5 shown in FIG.
p0 = a
p1 = (a + c) / 2
p2 = b
p3 = (c + d) / 2
p4 = (a + d) / 2
p5 = (a + b) / 2
p6 = c
p7 = (c + d) / 2
p8 = d
Thus, an enlarged image block of 3 × 3 pixels can be generated.
[0072]
The second edge pattern shown in FIG. 16C is the pattern 0 in the direction 2 shown in FIG.
p0 = a
p1 = a
p2 = b
p3 = a
p4 = (b + c) / 2
p5 = (b + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d
Thus, an enlarged image block of 3 × 3 pixels can be generated.
[0073]
The second edge pattern shown in FIG. 16D is the pattern 0 in the direction 0 shown in FIG.
p0 = a
p1 = (a + b) / 2
p2 = b
p3 = (a + c) / 2
p5 = (b + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d
p4 = (p1 + p7) / 2
Thus, an enlarged image block of 3 × 3 pixels can be generated. In the case of other second edge patterns as well, an enlarged image block of 3 × 3 pixels can be generated by performing calculation according to the calculation formula corresponding to each second edge pattern.
[0074]
Returning to FIG. 14, in S <b> 72, the estimated edge direction of the region of interest estimated by the edge direction estimating unit 32 of the image block feature value calculating unit 12 is determined, and the estimated edge directions are directions 1 to 3 and directions 5 to 7. If the estimated edge direction is direction 0 and direction 4 (that is, the edge direction is vertical or horizontal), the process proceeds to S74.
[0075]
In S73, when the estimated edge direction of the attention area is direction 1 to direction 3 and direction 5 to direction 7, that is, when the edge direction is other than the vertical or horizontal direction, the 3 × 3 pixel enlarged image block generated in S71 To generate an enlarged image block of 4 × 4 pixels. Here, a 3 × 4 pixel enlarged image block is first generated from the 3 × 3 pixel enlarged image block, the contrast-enhanced attention region and its peripheral region, and then the generated 3 × 4 pixel enlarged image block is generated. A 4 × 4 pixel enlarged image block is generated from the region of interest and its peripheral region with contrast enhanced.
[0076]
FIG. 17 is an explanatory diagram of a specific example of generation processing of a 3 × 4 pixel enlarged image block. FIG. 17A shows an example of the attention area and the peripheral area shown in FIG. 5A as an example. Further, p0 to p8 in FIG. 17B show the 3 × 3 pixel enlarged image block shown in FIG. 15C in the center.
[0077]
First, in addition to the 3 × 3 pixel enlarged image block shown in the center of FIG. 17B, the reference pixels (r0 to r5) in the peripheral region with contrast enhancement shown by the thick line frame in FIG. 17A are used. Thus, an enlarged image block (q0 to q11) of 3 × 4 pixels shown in FIG. The pixel values q0 to q11 of the 3 × 4 pixel enlarged image block are determined by the following calculation formula.
q0 = 0.2 × r0 + 0.8 × p0
q1 = 0.4 × p0 + 0.6 × p1
q2 = 0.6 × p1 + 0.4 × p2
q3 = 0.8 × p2 + 0.2 × r1
q4 = 0.2 × r2 + 0.8 × p3
q5 = 0.4 × p3 + 0.6 × p4
q6 = 0.6 × p4 + 0.4 × p5
q7 = 0.8 × p5 + 0.2 × r3
q8 = 0.2 × r4 + 0.8 × p6
q9 = 0.4 × p6 + 0.6 × p7
q10 = 0.6 × p7 + 0.4 × p8
q11 = 0.8 × p8 + 0.2 × r5
[0078]
FIG. 18 is an explanatory diagram of a reference pixel selection method based on the estimated edge direction. In the example shown in FIG. 17, assuming that the estimated edge direction obtained by the image block feature quantity calculation unit 12 from the attention area and the peripheral area shown in FIG. The positions are 3 pixels from the upper left to the lower and 3 pixels from the lower right to the upper as surrounded by a thick line frame in FIG. An example of this reference pixel is shown in FIG. 18A. The reason why the pixel at such a position is used as the reference pixel is that the estimated edge direction of the attention area is from direction 1 (22.5 °) to direction 3 ( 67.5 °). When the estimated edge direction of the region of interest is from direction 5 (112.5 °) to direction 7 (157.5 °), as shown in FIG. And 3 pixels from the upper right to the lower. Thus, the reference pixel is selected according to the estimated edge direction in the attention area. Of course, the selection of the reference pixels is not limited to the selection from the two patterns as shown in FIG. 18, and more reference pixel selection patterns may be prepared according to the estimated edge direction. Also, the reference pixel to be selected may be changed according to the estimated edge direction.
[0079]
FIG. 19 is an explanatory diagram of a specific example of generation processing of a 4 × 4 pixel enlarged image block. A 4 × 4 pixel enlarged image block is generated using the 3 × 4 pixel enlarged image block generated as described above and the contrast-enhanced peripheral pixels (r0 to r7). FIG. 19A shows the attention region and the reference region with contrast enhancement, and the generated 3 × 4 pixel enlarged image block is shown in the center of FIG. 19B. Here, as the reference pixels r0 to r7, the lower four pixels and the upper four pixels of the reference region in which the contrast is enhanced are used as shown by the thick line frame in FIG. Then, 4 × 4 pixel enlarged image blocks (s0 to s15) shown in FIG. 19C are generated according to the following calculation formula.
s0 = 0.2 × r0 + 0.8 × q0
s1 = 0.2 × r1 + 0.8 × q1
s2 = 0.2 × r2 + 0.8 × q2
s3 = 0.2 × r3 + 0.8 × q3
s4 = 0.4 × q0 + 0.6 × q4
s5 = 0.4 × q1 + 0.6 × q5
s6 = 0.4 × q2 + 0.6 × q6
s7 = 0.4 × q3 + 0.6 × q7
s8 = 0.6 × q4 + 0.4 × q8
s9 = 0.6 × q5 + 0.4 × q9
s10 = 0.6 × q6 + 0.4 × q10
s11 = 0.6 × q7 + 0.4 × q11
s12 = 0.8 × q8 + 0.2 × r4
s13 = 0.8 × q9 + 0.2 × r5
s14 = 0.8 × q10 + 0.2 × r6
s15 = 0.8 × q11 + 0.2 × r7
[0080]
In the generation processing of the 4 × 4 pixel enlarged image block in S73 of FIG. 14 described above, the enlargement processing is performed according to the processing flow of 3 × 3 pixel block → 3 × 4 pixel block → 4 × 4 pixel block here. However, the processing flow may be 3 × 3 pixel block → 4 × 3 pixel block → 4 × 4 pixel block, or a 4 × 4 pixel block may be generated from the 3 × 3 pixel block. . Of course, the selection of the reference pixel in these cases is changed as appropriate.
[0081]
Returning to FIG. 14, in S74, when the estimated edge direction of the attention area is the direction 0 and the direction 4 (that is, in the case of the vertical direction or the horizontal direction), 4 × from the 3 × 3 pixel enlarged image block generated in S71. A 4-pixel enlarged image block is generated. FIG. 20 is an explanatory diagram of an example of a process of generating an enlarged image block of 4 × 4 pixels when the estimated edge directions are direction 0 and direction 4. When the estimated edge directions of the attention area are direction 0 and direction 4, the pixels (A, B, C, D) in the peripheral area with contrast enhancement shown in FIG. Reference pixels r0 to r5 shown on the left and right are calculated using the following equations.
r0 = A
r1 = B
r2 = 0.5 × A + 0.5 × C
r3 = 0.5 × B + 0.5 × D
r4 = C
r5 = D
In the center of FIG. 20B, the 3 × 3 pixel enlarged image blocks p0 to p8 generated in S71 of FIG. 14 are shown.
[0082]
When the 3 × 3 pixel enlarged image block and the reference pixels r0 to r5 are obtained in this way, the 3 × 4 pixel enlarged image blocks q0 to q11 are obtained by the calculation method described above with reference to FIG. Generate. This is shown in FIG. Furthermore, the 3 × 4 pixel enlarged image blocks q0 to q11 generated in this way and the four pixels above and below the contrast-enhanced peripheral region shown in FIG. 20A are used as reference pixels, and are shown in FIG. The enlarged image blocks (s0 to s15) of 4 × 4 pixels shown in FIG.
[0083]
As described above, by performing the processing from S71 to S74 shown in FIG. 14, the enlarged image of 4 × 4 pixels with respect to the region of interest for which the edge strength G is determined to be larger than the threshold Th in the image block feature quantity calculation unit 12 Blocks (for example, s0 to s15 shown in FIG. 19C or FIG. 20D) are generated.
[0084]
Next, for the attention area for which the edge strength G is determined to be smaller than the threshold Th by the image block feature quantity calculation unit 12, the second generation unit 22 of the enlarged image block generation unit 13 performs the attention area as described above. Instead of the enlargement process in the first generation unit 21 of the enlargement image block generation unit 13 that stores the image feature, a simpler enlargement image block generation process with reduced processing load is performed. For example, as an example, an enlarged image block of 4 × 4 pixels can be generated from the attention area of 2 × 2 pixels by nearest neighbor interpolation. Of course, the enlargement method used in the second generation unit 22 is arbitrary, and any method may be used as long as the method has a lighter processing load than the first generation unit 21.
[0085]
As described above, the input image data can be enlarged with high image quality by selecting the enlargement process performed in the enlarged image block generation unit 13 according to the image feature quantity calculated by the image block feature quantity calculation unit 12, and further, The processing load can be reduced. Specifically, the second generation unit 22 uses an enlargement method with a lighter processing load than the first generation unit 21, thereby reducing the processing load of the entire enlargement process, shortening the processing time, and performing a high-speed enlargement process. Can be realized. Here, it is assumed that the enlarged image block generation unit 13 has two enlargement methods, and one of them is selectively used. However, a plurality of enlargement methods are provided to calculate the image block feature amount. According to various image feature amounts calculated by the unit 12, it is possible to select one of a plurality of enlargement methods and perform enlargement processing.
[0086]
Next, the image block arrangement unit 14 will be described. The image block placement unit 14 sequentially places enlarged image blocks for the attention area generated by the enlarged image block generation unit 13 by a predetermined method. FIG. 21 is an explanatory diagram of a specific example in which the 4 × 4 pixel enlarged image blocks generated by the enlarged image block generation unit 13 are arranged. In the example shown in FIG. 21, the sequentially generated enlarged image block 0 and enlarged image block 1 are arranged to overlap. The overlapping pixels are arranged so as to average each of the previous pixel values. Alternatively, the sum of overlapping pixels may be calculated, and each pixel value may be calculated by dividing the sum of the pixel values by the number of overlaps. In this case, for example, the target pixel is selected while being shifted one pixel at a time, and the enlargement process is performed. Alternatively, they can be arranged without overlapping. In this case, the attention area may be selected so as not to overlap.
[0087]
In addition, since the 4 × 4 pixel enlarged image block is generated by either the first generation unit 21 or the second generation unit 22 in the enlarged image block generation unit 13, there is a concern that the image quality is deteriorated due to the difference in the enlargement method. However, it is possible to suppress the occurrence of such image quality degradation by performing the averaging by overlapping as described above.
[0088]
FIG. 22 is a block diagram showing a second embodiment of the image processing apparatus and the image processing method of the present invention. In the figure, the same parts as those in FIG. Reference numeral 13 'denotes an enlarged image block generation unit, 14' denotes an image block arrangement unit, and 15 denotes an enlarged image generation unit. In the second embodiment, the image processing unit 1 includes an enlarged image generation unit 11, an image block feature amount calculation unit 12, an enlarged image block generation unit 13 ′, and an image block arrangement unit 14 ′. 15 is comprised. Note that the image block setting unit 11 and the image block feature amount calculation unit 12 have the same functions as those in the first embodiment described above. Further, the enlarged image block generating unit 13 ′ and the image block arranging unit 14 ′ have a configuration corresponding to the enlarged image block generating unit 13 and the image block arranging unit 14 in the first embodiment described above. Among these, the enlarged image block generation unit 13 ′ is the same as the function of the first generation unit 21 of the enlarged image block generation unit 13 in the first embodiment described above, and a description thereof is omitted here.
[0089]
The image block arrangement unit 14 ′ applies an enlarged image block that has been subjected to enlargement processing by the enlarged image block generation unit 13 ′ to a region of interest for which the edge strength G is determined to be larger than the threshold Th by the image block feature amount calculation unit 12. The image data are sequentially arranged at corresponding positions on the enlarged image output from the enlarged image generation unit 15 described later, and the resolution-converted or enlarged image data is output to the image data storage unit 2. When the enlarged image block is sequentially arranged at a corresponding position on the enlarged image output from the enlarged image generating unit 15, the enlarged image block may be replaced with each pixel value of the enlarged image block, or the enlarged image generation may be performed. You may arrange | position so that it may overlap with each pixel value of the position corresponding to the enlarged image output from the part 15. FIG. When the enlarged image blocks are arranged so as to overlap each other, the sum of the overlapping pixels is calculated, and each pixel value is calculated by dividing the sum of the pixel values by the number of overlaps.
[0090]
The enlarged image generation unit 15 enlarges the input image data stored in the image data storage unit 2 and outputs the enlarged image to the image block arrangement unit 14 ′. Unlike the enlargement process in the enlargement image block generation unit 13 ′, the enlargement process in the enlargement image generation unit 15 can perform an enlargement process with a smaller processing load, for example, nearest neighbor interpolation enlargement or linear interpolation enlargement process. Furthermore, processing can be performed in units of input images or in units of lines of the number of input images, rather than processing for each image block.
[0091]
FIG. 23 is a flowchart showing an example of the operation in the second embodiment of the image processing apparatus and the image processing method of the present invention. The processes from S81, S82, and S84 to S87 are the same as the processes from S41, S42, and S44 to S47 in the example of the process of the first embodiment shown in FIG.
[0092]
In S83, the image block feature value calculation unit 12 calculates the feature value of the attention area calculated in S82. Here, as in the above example, the edge strength G is calculated and compared with a predetermined threshold Th. Of course, also in the second embodiment, the feature amount calculated by the image block feature amount calculation unit 12 is not limited to the edge strength, as in the first embodiment described above.
[0093]
Here, when the edge strength G is larger than the threshold Th, the region of interest is an edge portion or a portion with a large change in the input image. Therefore, enlargement processing for preserving the image feature of the region of interest is performed in S84 to S87. Generate an enlarged image block. Note that the description of the enlargement process in S84 to S87 is omitted as described above.
[0094]
When the edge strength G of the attention area is smaller than the threshold value Th, the processing of S84 to S87 is not performed, the processing is shifted to S81, and the next image block is set. That is, the enlarged image block is not generated by the enlarged image block generation unit 13 ′ for the attention area.
[0095]
On the other hand, the enlarged image generation unit 15 performs enlarged image generation processing in parallel with or before or after such processing. That is, in S88, the enlarged image generation unit 15 inputs the input image data stored in the image data storage unit 2 for each image or every several lines, performs nearest neighbor enlargement processing, and sends it to the image block arrangement unit 14 ′. Output. Of course, the enlargement process performed in S88 is not limited to the nearest neighbor enlargement process, and various methods having a lighter processing load than the enlargement method in the enlarged image block generation unit 13 ′, such as the linear interpolation enlargement process, can be performed. It can also be applied in consideration of requirements and image quality required for output image data.
[0096]
In S89, the image block arrangement unit 14 ′ sequentially arranges the enlarged image blocks for the attention area generated by the enlarged image block generation unit 13 ′ at corresponding positions on the enlarged image generated by the enlarged image generation unit 15. When the enlarged image blocks are arranged so as to overlap, the averaging process as described above is performed. The enlarged image block or the enlarged image in units of lines after completing all of these processes is output to the image data storage unit 2 and stored.
[0097]
In S90, it is determined whether or not generation of the enlarged image data to be output with respect to the input image data is completed. If not, the process returns to S81, and the next image block is cut out from S81 described above. The process up to S90 is repeated. If completed, the enlarged image data is output to a predetermined output destination, and the enlargement process ends.
[0098]
By such processing, the input image data is subjected to enlargement processing at a high speed by the enlarged image generation unit 15 by an enlargement method with a light processing load. However, if this is the case, blurring or jaggy may occur at the edge portion. On the other hand, in the second embodiment of the present invention, the edge portion or the portion having a large change is partially subjected to an enlargement process for storing image features by the enlarged image block generation unit 13 ′, thereby achieving high image quality. An enlarged image is obtained. Therefore, it is possible to obtain an enlarged image with high speed and high image quality as a whole.
[0099]
FIG. 24 is an explanatory diagram of an example of a computer program and a storage medium storing the computer program when the function of the image processing apparatus or the image processing method of the present invention is realized by the computer program. In the figure, 101 is a program, 102 is a computer, 111 is a magneto-optical disk, 112 is an optical disk, 113 is a magnetic disk, 114 is a memory, 121 is a magneto-optical disk apparatus, 122 is an optical disk apparatus, and 123 is a magnetic disk apparatus.
[0100]
The functions of the image processing unit 1 described in the above embodiments of the present invention can also be realized by a program 101 that can be executed by a computer. In that case, the program 101 and data used by the program can be stored in a computer-readable storage medium. A storage medium is a signal format that causes a state of change in energy such as magnetism, light, electricity, etc. according to the description of a program to a reader provided in the hardware resources of a computer. Thus, the description content of the program can be transmitted to the reading device. For example, a magneto-optical disk 111, an optical disk 112 (including a CD and a DVD), a magnetic disk 113, a memory 114 (including an IC card and a memory card), and the like. Of course, these storage media are not limited to portable types.
[0101]
By storing the program 101 in these storage media and mounting these storage media in, for example, the magneto-optical disk device 121, the optical disk device 122, the magnetic disk device 123, or a memory slot (not shown) of the computer 102, The program 101 can be read to execute the function of the image processing apparatus or the image processing method of the present invention. Alternatively, a storage medium may be attached to the computer 102 in advance, and the program 101 may be transferred to the computer 102 via a network, for example, and the program 101 may be stored and executed on the storage medium. The image data storage unit 2 may be a memory in the computer 102 or an attached magnetic disk device or other storage medium. Of course, some of the functions of the present invention may be configured by hardware, or all may be configured by hardware.
[0102]
【The invention's effect】
As is clear from the above description, according to the present invention, a feature amount of an image area having a predetermined size including the target pixel is calculated, and an image region having a predetermined size including the target pixel is calculated according to the calculated feature amount. The enlarged image area is generated by switching a plurality of enlargement methods for enlarging the image, and the obtained enlarged image area is arranged by a predetermined method to generate an enlarged output image. By such enlargement processing, for example, for a characteristic part in the input image, an enlargement method that preserves the feature amount is applied, and a flat part (image part such as sky or skin) in the input image is applied. For non-characteristic parts, an enlargement method with low processing load is applied to perform high-quality enlargement processing that suppresses blurring of characteristic parts and image quality defects such as jaggy, and at the same time, enlarges processing at low speed and with low processing load be able to.
[0103]
Further, a feature amount of an image region having a predetermined size including the target pixel is calculated, and an enlarged image region is generated by enlarging the image region having the predetermined size including the specific target pixel according to the calculated feature amount. Further, regardless of the feature amount, the input image is enlarged by an enlargement method different from the enlargement image region generation process to generate an enlarged image, and the enlarged image region is arranged at a corresponding position on the enlarged image by a predetermined method. Thus, an enlarged output image can be generated. With such enlargement processing, it is possible to limit enlargement processing for each image area with a heavy processing load to a characteristic part, and to obtain a high-quality enlarged image and realize high-speed enlargement processing with low processing load. There is an effect that can be done.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a first embodiment of an image processing apparatus and an image processing method according to the present invention.
FIG. 2 is a flowchart showing an example of an operation in the embodiment of the image processing apparatus and the image processing method of the present invention.
FIG. 3 is an explanatory diagram of an image block that is set and cut out by an image block setting unit 11;
FIG. 4 is a block diagram illustrating a configuration example of an image block feature quantity calculation unit 12;
FIG. 5 is an explanatory diagram of a specific example of an attention area and a peripheral area and an example of an edge direction of the attention area.
6 is a flowchart illustrating an example of edge direction estimation processing in an edge direction estimation unit 32. FIG.
FIG. 7 is an explanatory diagram of an example of a reference region used for estimating an edge direction.
8 is an explanatory diagram of an example of an estimated edge direction in the region of interest shown in FIG.
FIG. 9 is an explanatory diagram of an example of an edge pattern table.
10 is an explanatory diagram of a specific example of a method for selecting a first edge pattern corresponding to the region of interest shown in FIG.
11 is an explanatory diagram of a specific example of an emphasis kernel used in the first generation unit 21 of the enlarged image block generation unit 13. FIG.
12 is an explanatory diagram in a case where a pixel P is emphasized by the enhancement kernel shown in FIG.
FIG. 13 is an explanatory diagram of contrast enhancement processing by an enhancement kernel when input image data is enlarged by 8 times.
FIG. 14 is a flowchart illustrating an example of an enlarged image block generation process in the first generation unit 21 of the enlarged image block generation unit 13;
FIG. 15 is an explanatory diagram of a specific example of generation processing of an enlarged image block of 3 × 3 pixels.
FIG. 16 is an explanatory diagram illustrating an example of a calculation formula used when generating a second edge pattern and a 3 × 3 pixel enlarged image block;
FIG. 17 is an explanatory diagram of a specific example of generation processing of an enlarged image block of 3 × 4 pixels.
FIG. 18 is an explanatory diagram of a reference pixel selection method based on an estimated edge direction;
FIG. 19 is an explanatory diagram of a specific example of generation processing of an enlarged image block of 4 × 4 pixels.
FIG. 20 is an explanatory diagram illustrating an example of a process of generating an enlarged image block of 4 × 4 pixels when the estimated edge directions are direction 0 and direction 4;
FIG. 21 is an explanatory diagram of a specific example in which an enlarged image block of 4 × 4 pixels generated by the enlarged image block generation unit 13 is arranged.
FIG. 22 is a block diagram illustrating a second embodiment of an image processing apparatus and an image processing method according to the present invention.
FIG. 23 is a flowchart illustrating an example of an operation in the second embodiment of the image processing apparatus and the image processing method of the present invention;
FIG. 24 is an explanatory diagram of an example of a computer program and a storage medium storing the computer program when the function of the image processing apparatus or the image processing method of the present invention is realized by the computer program.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Image processing part, 2 ... Image data storage part, 11 ... Image block setting part, 12 ... Image block feature-value calculation part, 13, 13 '... Enlarged image block generation part, 14, 14' ... Image block arrangement | positioning part, DESCRIPTION OF SYMBOLS 15 ... Enlarged image production | generation part, 21 ... 1st production | generation part, 22 ... 2nd production | generation part, 31 ... Edge strength calculation part, 32 ... Edge direction estimation part, 33 ... Edge pattern selection part, 101 ... Program, 102 ... Computer, DESCRIPTION OF SYMBOLS 111 ... Magneto-optical disk, 112 ... Optical disk, 113 ... Magnetic disk, 114 ... Memory, 121 ... Magneto-optical disk apparatus, 122 ... Optical disk apparatus, 123 ... Magnetic disk apparatus.

Claims (13)

画像の拡大処理を行う画像処理装置において、注目画素を含む所定の大きさの画像領域の特徴量を算出する領域特徴量算出手段と、前記領域特徴量算出手段により算出された前記特徴量が所定の条件を満たす前記画像領域に対して拡大画像領域を生成する拡大画像領域生成手段と、入力画像を前記拡大画像領域生成手段とは異なる拡大手法で拡大して拡大画像を生成する拡大画像生成手段と、前記拡大画像領域生成手段で得られた前記拡大画像領域を前記拡大画像生成手段で得られた前記拡大画像上の対応する位置に配置する画像配置手段を有することを特徴とする画像処理装置。  In an image processing apparatus that performs image enlargement processing, a region feature amount calculating unit that calculates a feature amount of an image region having a predetermined size including a target pixel, and the feature amount calculated by the region feature amount calculating unit is a predetermined amount. An enlarged image region generating unit that generates an enlarged image region for the image region that satisfies the condition: and an enlarged image generating unit that generates an enlarged image by enlarging the input image by an enlargement method different from the enlarged image region generating unit And an image arrangement unit that arranges the enlarged image region obtained by the enlarged image region generation unit at a corresponding position on the enlarged image obtained by the enlarged image generation unit. . 前記領域特徴量算出手段は、前記画像領域内の各画素値から前記画像領域内の凹凸度合いを前記特徴量として算出することを特徴とする請求項1に記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the region feature amount calculating unit calculates a degree of unevenness in the image region as the feature amount from each pixel value in the image region. 前記領域特徴量算出手段は、前記画像領域内の各画素値から前記画像領域内の変化方向を前記特徴量として算出することを特徴とする請求項1に記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the region feature amount calculating unit calculates a change direction in the image region as the feature amount from each pixel value in the image region. 前記領域特徴量算出手段は、色空間におけるそれぞれの色成分毎に前記特徴量を算出し、算出した1つあるいは複数の前記特徴量をもとに前記色空間における1つの色成分のデータを選択し、該色成分のデータにおける前記画像領域の特徴量を前記画像領域の特徴量とすることを特徴とする請求項1に記載の画像処理装置。  The area feature value calculating means calculates the feature value for each color component in the color space, and selects data of one color component in the color space based on the calculated one or more feature values. The image processing apparatus according to claim 1, wherein a feature amount of the image area in the color component data is used as a feature amount of the image area. 前記拡大画像領域生成手段は、前記領域特徴量算出手段で算出された前記特徴量が所定の条件を満たす画像領域に対して前記画像領域の特徴量とともに該画像領域の近傍領域の特徴量および近傍領域内の画素値を用いて前記拡大画像領域を生成することを特徴とする請求項1ないし請求項4のいずれか1項に記載の画像処理装置。  The enlarged image area generation means includes the feature quantity of the neighborhood area of the image area together with the feature quantity of the image area with respect to the image area where the feature quantity calculated by the area feature quantity calculation means satisfies a predetermined condition. The image processing apparatus according to claim 1, wherein the enlarged image area is generated using a pixel value in the area. 前記拡大画像生成手段は、前記拡大画像領域生成手段における拡大手法に比べて処理負荷が軽い拡大手法により前記拡大画像を生成することを特徴とする請求項1ないし請求項5のいずれか1項に記載の画像処理装置。  6. The enlarged image generation unit according to claim 1, wherein the enlarged image generation unit generates the enlarged image by an enlargement method having a lighter processing load than the enlargement method in the enlarged image region generation unit. The image processing apparatus described. 前記拡大画像生成手段は、入力画像毎あるいは入力画像中の数ライン毎に拡大画像を生成することを特徴とする請求項1ないし請求項6のいずれか1項に記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the enlarged image generating unit generates an enlarged image for each input image or for every several lines in the input image. 前記画像配置手段は、前記拡大画像領域生成手段で順次生成される拡大画像領域をそれぞれが重なり合うように順次配置してゆくことを特徴とする請求項1ないし請求項7のいずれか1項に記載の画像処理装置。  The said image arrangement | positioning means arrange | positions sequentially the enlarged image area | region produced | generated sequentially by the said enlarged image area | region production | generation means so that each may overlap, The one of Claim 1 thru | or 7 characterized by the above-mentioned. Image processing apparatus. 前記画像配置手段は、順次生成される前記拡大画像領域の重なり合う画素に対して、重なる画素値の総和を算出し、前記画素値の総和を重なった数で割ることにより前記拡大画像領域の画素値を算出することを特徴とする請求項8に記載の画像処理装置。  The image arrangement means calculates the sum of the overlapping pixel values for the overlapping pixels of the enlarged image region that are sequentially generated, and divides the sum of the pixel values by the number of overlaps to obtain the pixel value of the enlarged image region The image processing apparatus according to claim 8, wherein: 前記画像配置手段は、前記拡大画像領域生成手段で生成された前記拡大画像領域を、前記拡大画像生成手段で得られた拡大画像上の対応する位置に配置する際に、前記拡大画像上の各画素値を前記拡大画像領域の各画素値で置き換えることを特徴とする請求項1ないし請求項7のいずれか1項に記載の画像処理装置。  The image placement unit is configured to place each of the enlarged image regions generated by the enlarged image region generation unit at a corresponding position on the enlarged image obtained by the enlarged image generation unit. The image processing apparatus according to claim 1, wherein a pixel value is replaced with each pixel value of the enlarged image area. 画像の拡大処理を行う画像処理方法において、注目画素を含む所定の大きさの画像領域の特徴量を算出し、算出された前記特徴量が所定の条件を満たす前記画像領域に対応する拡大画像領域を生成し、さらに入力画像を前記画像領域の拡大手法とは異なる拡大手法で拡大して拡大画像を生成し、前記拡大画像領域を前記拡大画像上の対応する位置に配置することを特徴とする画像処理方法。  In an image processing method for performing image enlargement processing, a feature amount of an image region having a predetermined size including a pixel of interest is calculated, and the calculated feature amount corresponds to the image region that satisfies a predetermined condition And generating an enlarged image by enlarging the input image by an enlargement method different from the enlargement method of the image region, and arranging the enlarged image region at a corresponding position on the enlarged image. Image processing method. 画像の拡大処理をコンピュータに実行させる画像処理プログラムであって、請求項1ないし請求項10のいずれか1項に記載の画像処理装置の機能あるいは請求項11に記載の画像処理方法をコンピュータに実行させることを特徴とする画像処理プログラム。  An image processing program for causing a computer to execute image enlargement processing, wherein the computer executes the function of the image processing apparatus according to any one of claims 1 to 10 or the image processing method according to claim 11. An image processing program characterized in that 画像の拡大処理をコンピュータに実行させるプログラムを格納したコンピュータ読取可能な記憶媒体において、請求項1ないし請求項10のいずれか1項に記載の画像処理装置の機能あるいは請求項11に記載の画像処理方法をコンピュータに実行させるプログラムを格納したことを特徴とするコンピュータが読取可能な記憶媒体。  The function of the image processing apparatus according to any one of claims 1 to 10, or the image processing according to claim 11, in a computer-readable storage medium storing a program for causing a computer to execute image enlargement processing. A computer-readable storage medium storing a program for causing a computer to execute the method.
JP2002346561A 2002-11-28 2002-11-28 Image processing apparatus, image processing method, image processing program, and storage medium Expired - Fee Related JP4126541B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002346561A JP4126541B2 (en) 2002-11-28 2002-11-28 Image processing apparatus, image processing method, image processing program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002346561A JP4126541B2 (en) 2002-11-28 2002-11-28 Image processing apparatus, image processing method, image processing program, and storage medium

Publications (2)

Publication Number Publication Date
JP2004180171A JP2004180171A (en) 2004-06-24
JP4126541B2 true JP4126541B2 (en) 2008-07-30

Family

ID=32707393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002346561A Expired - Fee Related JP4126541B2 (en) 2002-11-28 2002-11-28 Image processing apparatus, image processing method, image processing program, and storage medium

Country Status (1)

Country Link
JP (1) JP4126541B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100648308B1 (en) 2004-08-12 2006-11-23 삼성전자주식회사 Resolution conversion method and apparatus
JP4517288B2 (en) * 2004-12-17 2010-08-04 富士ゼロックス株式会社 Image processing apparatus, image processing method, and program thereof
JP4517287B2 (en) * 2004-12-17 2010-08-04 富士ゼロックス株式会社 Image processing apparatus, image processing method, and program thereof
JP2006252107A (en) * 2005-03-10 2006-09-21 Fuji Xerox Co Ltd Image processing device, image processing method, and its program
JP2006252108A (en) * 2005-03-10 2006-09-21 Fuji Xerox Co Ltd Image processing device, image processing method, and its program
JP4730525B2 (en) * 2005-06-13 2011-07-20 富士ゼロックス株式会社 Image processing apparatus and program thereof
JP4736121B2 (en) * 2005-11-21 2011-07-27 富士ゼロックス株式会社 Image analysis apparatus, image processing apparatus, image analysis method, image analysis program, and recording medium recording the same
WO2013005357A1 (en) * 2011-07-06 2013-01-10 パナソニック株式会社 Edge direction detection device, edge correction device, edge direction detection method and edge correction method
CN107330439B (en) * 2017-07-14 2022-11-04 腾讯科技(深圳)有限公司 Method for determining posture of object in image, client and server
JP6884403B2 (en) * 2018-10-17 2021-06-09 株式会社アクセル Image processing equipment, image processing method, and image processing program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10178539A (en) * 1996-12-17 1998-06-30 Fuji Xerox Co Ltd Image processing unit and image processing method
JP2000059606A (en) * 1998-08-12 2000-02-25 Minolta Co Ltd High definition image preparation system
JP3578921B2 (en) * 1998-09-18 2004-10-20 シャープ株式会社 Image magnifier

Also Published As

Publication number Publication date
JP2004180171A (en) 2004-06-24

Similar Documents

Publication Publication Date Title
JP3915563B2 (en) Image processing apparatus and image processing program
EP2138975B1 (en) Apparatus, method and computer-readable recording medium for pixel interpolation
JP4126541B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
JP3167120B2 (en) Image processing apparatus and method
JP2004166007A (en) Device, method and program for image processing, and storage medium
JP4623290B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
JP4716255B2 (en) Image processing apparatus, image processing method, and program thereof
US20210192688A1 (en) Signal processing device and signal processing method
JP4857975B2 (en) Image processing system and image processing program
KR100587979B1 (en) Interpolation method for image enlargement based on edge and corner
JP4265363B2 (en) Image processing device
JP4730525B2 (en) Image processing apparatus and program thereof
JP2006050481A (en) Image processing apparatus, image processing method and program thereof
JP4265362B2 (en) Image processing device
JP4736121B2 (en) Image analysis apparatus, image processing apparatus, image analysis method, image analysis program, and recording medium recording the same
JP3972625B2 (en) Image processing apparatus and image processing method
US10275854B2 (en) Signal processing device, signal processing method, solid-state image sensor, imaging device, and electronic device
JP5013243B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium recording the same
JP2006050480A (en) Image processing apparatus, image processing method and program thereof
CN111626935B (en) Pixel map scaling method, game content generation method and device
JP2006252108A (en) Image processing device, image processing method, and its program
JP4517288B2 (en) Image processing apparatus, image processing method, and program thereof
JP4517287B2 (en) Image processing apparatus, image processing method, and program thereof
JP2006252107A (en) Image processing device, image processing method, and its program
JP2004096715A (en) Image data interpolation apparatus, computer for image data interpolation processing, image data interpolation method and medium with image data interpolation program recorded thereon

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080416

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080429

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110523

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110523

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120523

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130523

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140523

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees