JP2010134700A - 画像評価装置および画像評価方法 - Google Patents

画像評価装置および画像評価方法 Download PDF

Info

Publication number
JP2010134700A
JP2010134700A JP2008310010A JP2008310010A JP2010134700A JP 2010134700 A JP2010134700 A JP 2010134700A JP 2008310010 A JP2008310010 A JP 2008310010A JP 2008310010 A JP2008310010 A JP 2008310010A JP 2010134700 A JP2010134700 A JP 2010134700A
Authority
JP
Japan
Prior art keywords
image
value
unit
autocorrelation
evaluation apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008310010A
Other languages
English (en)
Inventor
Tomohisa Suzuki
智久 鈴木
Hiroyuki Mizutani
博之 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Solutions Corp filed Critical Toshiba Corp
Priority to JP2008310010A priority Critical patent/JP2010134700A/ja
Priority to US12/630,314 priority patent/US8897593B2/en
Publication of JP2010134700A publication Critical patent/JP2010134700A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/431Frequency domain transformation; Autocorrelation

Abstract

【課題】勾配方向の推定を要しない画像評価装置および画像評価方法を提供する。
【解決手段】画像評価装置が,原画像から,複数の部分領域を抽出する部分領域抽出部と,前記複数の部分領域に対応する,前記画像での画素値の勾配に対応する画素値の画素を有する,複数の抽出画像を生成する抽出画像生成部と,前記複数の抽出画像に対応する,複数の自己相関係数を算出する自己相関算出部と,前記複数の自己相関係数の代表係数値を導出する代表係数値導出部と,前記代表係数値の分布に基づいて,前記画像の良否を判定する判定部と,を具備する。
【選択図】図1

Description

本発明は,画像の良否を評価する画像評価装置および画像評価方法に関する。
画像の良否(例えば,カメラ等の撮像系により撮像した画像でのピンボケや手ぶれ等の有無)を評価するために,種々の技術が開発されている。ここで,画像のエッジに基づいて,画像の良否を評価する技術が開示されている(特許文献1〜3参照)。特許文献1は,方向別にエッジ幅の推定値のヒストグラムを作成して,ヒストグラムが方向によって違っている場合はぶれていると判定する技術を開示する。特許文献2は,原画像のエッジ幅の平均値を推定してピンボケの評価値とする技術と,エッジ強度が最大の方向と垂直な方向として手ぶれ方向を推定し,前記手ぶれ方向に沿って自己相関を算出し,自己相関の値が最小の変位を手ぶれの幅として求める技術を開示する。特許文献3は,エッジの幅の平均値を方向毎に求め,全てしきい値以下ならぼけていないと判定する技術と,DCTの係数のパターンマッチングでエッジパターンを分類し,分類毎にあらかじめ求めてあるエッジ幅の代表値でエッジ幅を推定し,推定したエッジ幅が広い部分としてボケ領域を絞り込む技術を開示する。
特開2006−19874号公報 特開2006−172417号公報 特開2008−123346号公報
特許文献1〜3の技術ではエッジ方向を推定し,エッジ方向に沿ったエッジ幅を算出する。エッジ幅の算出に基づいた手法は単純なピンボケの評価には有効である。しかし,手ブレが生じている場合はエッジ方向の推定に誤りが生じる場合があるため,これらの方法では画質を正しく評価できない場合がある。また,これらの方法では,多重結像が生じており,前記多重結像のみが顕著な画質不良である場合はエッジの鮮鋭さが保たれているため,画質の不良が検知できない場合がある。
本発明は,勾配方向の推定を要しない画像評価装置および画像評価方法を提供することを目的とする。
本発明の一態様に係る画像評価装置は,画像から,複数の部分領域を抽出する部分領域抽出部と,前記画像から前記複数の部分領域に対応する複数の抽出画像を抽出する抽出画像生成部と,前記複数の抽出画像に対応する,複数の自己相関係数を算出する自己相関算出部と,前記複数の自己相関係数の代表係数値を導出する代表係数値導出部と,前記代表係数値の分布に基づいて,前記画像の良否を判定する判定部と,を具備することを特徴とする。
本発明の一態様に係る画像評価方法は,画像から,複数の部分領域を抽出するステップと,前記複数の部分領域に対応する,前記画像での画素値の勾配に対応する画素値の画素を有する,複数の抽出画像を生成するステップと,前記複数の抽出画像に対応する,複数の自己相関係数を算出するステップと,前記複数の自己相関係数の代表係数値を導出するステップと,前記代表係数値の分布に基づいて,前記画像の良否を判定するステップと,を具備することを特徴とする。
後述の本発明の実施形態では,原画像から前記撮像系における画像劣化を表す劣化関数を算出するが,この劣化関数としては,例えば前記撮像系のインパルス応答の自己相関を用いる。インパルス応答の自己相関を前記劣化関数として推定するのは以下の理由からである。
前記撮像系における画像劣化の多くは,画像劣化がない理想的な撮像系により撮像された画像を入力,前記撮像系で撮像された画像劣化を伴った画像を出力とした,二次元の線形システムでモデル化できる。そして,前記線形システムのインパルス応答にはピンボケや手ブレ,多重結像,残像などの画像劣化に応じた拡がりが見られる。たとえば,ピンボケが生じている場合は,前記インパルス応答にガウシアンの様な等法的な拡がりが見られ,手ブレが生じている場合は線状の拡がり見られる。また,多重結像や残像が生じている場合は前記インパルス応答の原点以外にピークが見られる。また,インパルス応答の自己相関の拡がりにはインパルス応答の拡がりが反映されるため,インパルス応答の自己相関の拡がりにも画像劣化に応じた拡がりが見られる。従って,インパルス応答の自己相関を前記劣化関数として推定し,その拡がりを評価することで画像劣化の有無を判定することができる。
以下の説明では,エッジ画像の抽出に線形なオペレータを用いることとし,画像劣化がない理想的な画像のエッジ画像を「理想エッジ画像」,画像劣化を伴った前記原画像から抽出したエッジ画像を単に「エッジ画像」と呼ぶ。
本発明では原画像の代わりに前記エッジ画像を基に前記劣化関数を推定する。エッジ画像の抽出に線形なオペレータを用いるという仮定下においては,理想エッジ画像をエッジ画像に変換する線形システムが画像劣化をモデル化した線形システムと一致するため,上述のように原画像の代わりに前記エッジ画像を基に前記劣化関数を推定しても問題がない。
部分領域におけるエッジ画像の自己相関係数の拡がりは,各部分領域における理想エッジ画像の幾何学的構造による拡がりに,画像劣化による拡がりを加えたものとみなすことができる。そして,前記幾何学的構造に応じた拡がりは,理想エッジ画像における画素値が非ゼロの画素同士の位置関係の傾向を反映している。例えば,エッジが水平方向の線状になっている箇所では前記エッジ画像の自己相関係数に水平線状の拡がりが見られ,エッジが垂直方向の線状になっている箇所では垂直線状の拡がりが見られる。
前記幾何学的構造の傾向は部分領域各々で異なり,部分領域各々について前記理想エッジ画像に対して自己相関係数を算出すると,部分領域各々の構造に応じた拡がりが見られ,部分領域毎の構造によらず前記自己相関係数が常に正の値をとるのは原点のみである。従って,部分領域各々について算出した理想エッジ画像の自己相関は,常に正となる原点の部分と,幾何学的構造に依存する部分の和に分解することができる。
従って,理想エッジ画像を前記線形システムで劣化させたエッジ画像の部分領域毎の自己相関も画像劣化による成分と幾何学的構造に依存した成分の和に分解することができる。よって,幾何学的構造に依存した成分が正であると仮定すると,前記エッジ画像の部分領域毎に算出した自己相関の座標毎の最小値を計算することによって,構造に依存した成分を排除して画像劣化による成分を求めることが出来ると考えられる。そこで本発明では,前述のとおり,自己相関の座標毎の最小値などの代表係数値を計算することによってインパルス応答の自己相関すなわち劣化関数を推定することとした。
前記エッジ画像の画素値は,原画像の勾配ベクトルを複素数で表現した値とする。こうすると,前記エッジ画像の抽出が原画像の線形変換となるため,前記仮定と一致し都合がよい。
本発明によれば,勾配方向の推定を要しない画像評価装置および画像評価方法を提供できる。
以下,図面を参照して,本発明の実施の形態を詳細に説明する。
図1は本発明の一実施形態に係る画像評価装置100を表すブロック図である。画像評価装置100は,原画像入力手段110,画像評価手段120,表示手段130,入力手段140を有する。
画像評価装置100は,コンピュータに画像評価用ソフトウェアを組み込むことによって構成できるため,以下ではそのような構成を仮定して説明を行う。ただし,専用ハードウェアや,その集合体,または分散処理用のコンピュータネットワークによって,画像評価装置100を構成しても良い。画像評価装置100は,ここで挙げた構成に関わらず,種々の構成を採用できる。
原画像入力手段110は,原画像のデータを入力する入力装置である。画像評価手段120は,原画像の良否(例えば,カメラ等の撮像系により撮像した画像でのピンボケや手ぶれ等の有無)を評価するものであり,グレースケール化手段121,エッジ画像生成手段122,自己相関算出手段123,劣化関数推定手段124,拡がり幅算出手段125,良否判定手段126を有する。なお,画像評価手段120は,CPU(Central Processing Unit)とソフトウェアの組み合わせにより構成できる。表示手段130は,画像等を表示する表示装置,例えば,CRT,LCDである。入力手段140は,情報を入力するための入力装置,例えば,キーボード,マウスである。
本実施形態における原画像は,横方向および縦方向それぞれの画素数w,hの,カラー画像またはグレースケール画像とする。カラー画像は,赤色成分,緑色成分,青色成分の輝度値の二次元配列R(x,y),G(x,y),B(x,y)の組み合わせとして,表現できる。グレースケール画像は,輝度値の二次元配列I(x,y)として表現できる。
ここで,x,yはそれぞれ,水平方向および垂直方向の座標である。座標x,yはそれぞれ,右方向,下方向を正とする。なお,座標x,yは,画素を単位として表現する。
本実施形態では輝度値R(x,y),G(x,y),B(x,y),I(x,y)は0から255までの整数で表現する事とする。例えば,図2に示すグレースケール画像は図3に示す二次元配列として表現される。
グレースケール化手段121は,原画像がカラー画像の場合に,原画像(カラー画像)をグレースケール化する。その結果,原画像がグレースケールである場合と同様な輝度値の二次元配列I(x,y)が生成される。例えば,以下の式(1)によって,グレースケール化がなされる。
I(x,y)=max(0,min(Imax,WR(x,y)+WG(x,y)+WB(x,y))) ……式(1)
ただし,W,W,Wは赤成分,緑成分,青成分を重みづけする正の定数であり,min(x,…x),はx,…xの最小値を,max(x,…x)はx,…xの最大値を表す。Imaxは,輝度の上限値である。
この式(1)は,次の式(2)のように,二次元配列I(x,y)が二次元配列R(x,y),G(x,y),B(x,y)の重み付け和によって表されることを意味する。min,maxはそれぞれ,算出された二次元配列I(x,y)の値が上限(Imax)と下限(0)との間であることを保証するためのものである。
I(x,y)=W・R(x,y)+W・G(x,y)+W・B(x,y)
……式(2)
エッジ画像生成手段122は,グレースケール画像からエッジ画像を生成する。エッジ画像生成手段122と,後述の抽出画像抽出手段156の組み合わせは,複数の部分領域に対応する,複数の,抽出画像を生成する抽出画像生成部として機能する。このグレースケール画像は,原画像そのもの,原画像(カラー画像)から生成されたグレースケール画像の何れでも良い。
エッジ画像は,例えば,原画像(グレースケール画像)での画素値の勾配に対応する画素値の画素を有する画像である。ここでのエッジ画像の画素値はグレースケール画像の画素値の勾配を表す。ここでは,エッジ画像の画素値(勾配の値)は複素数とする。即ち,エッジ画像生成手段122は,グレースケール画像の画素各の,勾配ベクトルを算出し,その水平成分および垂直成分をそれぞれ,画素の実成分および虚成分とするエッジ画像を生成する。
座標(x,y)での勾配ベクトルg(x,y)は以下の式(3)で定義できる。
g(x,y)=(I(x+1,y)−I(x−1,y),I(x,y+1)−I(x,y−1) ……式(3)
従って,座標(x,y)でのエッジ画像の画素値E(x,y)は以下の式(4)に従って算出できる。
E(x,y)=(I(x+1,y)−I(x−1,y)+j・(I(x,y+1)−I(x,y−1)) ……式(4)
ただし,「j」は虚数単位を表わすものとする。
ここで,画素値E(x,y)の計算において,座標(x+1,y)が画像の右端より右側である場合,すなわち,x+1>wの場合は,I(x+1,y)=I(w−1,y)とする。同様に,x−1<0の場合はI(x−1,y)=I(0,y)とする。また,y+1>hの場合はI(x,y+1)=I(x,h−1)とする。y−1<0の場合はI(x,y−1)=I(x,0)とする。
グレースケール画像の外側では,その画素値が定義されていないため,画像の端では勾配を計算できない。画像の外側での画素値を画像の辺での画素値と同様の値とすることで,画像の端での勾配の計算を可能としている。
図2および図3に示した画像からエッジ画像生成手段122でエッジ画像を導出した結果の実成分を図4および図5に,虚成分を図6および図7に示す。図4及び図6では各成分の大小を濃淡で示す。各成分が0近くの画素を灰色で,各成分が大きな画素をより明るい色で,各成分が小さな画素をより暗い色で示す。
式(4)は,2方向(横方向および縦方向)での勾配を実成分および虚成分とする拡張された勾配係数(エッジ画像)を表す。
このように,エッジの明確性と対応する量(特に,絶対値の大きさがエッジの明確性と対応する量)であれば,式(4)で表される画素値に換えて用いることができる。例えば,次の式(4a),(4b),(4c)のように,一方向(横方向,縦方向,斜め方向)での勾配そのものを画素値とする画像によってエッジ画像を定義することができる。
E(x,y)=I(x+1,y)−I(x−1,y) ……式(4a)
E(x,y)=I(x,y+1)−I(x,y−1) ……式(4b)
E(x,y)=I(x+1,y+1)−I(x−1,y−1) ……式(4c)
式(4)で表されるエッジ画像は,座標(x,y)の画素に隣接する画素間での輝度の差分に対応する,線形量である。これに対して,非線形量(例えば,輝度の差を非線形変換した量)によって,エッジ画像を定義することも可能である。例えば,勾配ベクトルg(x,y)のノルムをE(x,y)とするなどして,非線形なエッジ画像を導出できる。
以上のように,絶対値の大きさがエッジの明確性と対応する量(言い換えれば,原画像のエッジ周辺に,絶対値の大きな値が集中して出現する量)であれば,エッジ画像の定義に利用することが可能である。
自己相関算出手段123は,n個の部分領域R,…Rの各々での,エッジ画像の2次以上の自己相関係数を算出する。図8は,自己相関算出手段123の構成の一例を表すブロック図である。自己相関算出手段123は,部分領域列挙手段151,領域内自己相関算出手段152を有する。
部分領域列挙手段151は,原画像から,代表画素値との差が大きな画素が一定値以上の,n個の部分領域R,…Rを列挙(抽出)する。部分領域列挙手段151は,原画像から,複数の部分領域を抽出する部分領域抽出部として機能する。図9に部分領域列挙手段151で列挙された部分領域R,…Rの例を示す。領域内自己相関算出手段152は,部分領域R各々について,エッジ画像の画素値E(x,y)の自己相関係数C(p,q)を算出する。
なお,部分領域R各々は横幅a,高さbの四角形であり,第k番目の四角形Rの左上の角の座標を(x,y)とする。また,p,qはそれぞれ,水平方向および垂直方向の座標であり,画素を単位とする,以下の範囲の整数値をとる。
min≦p≦pmax
min≦q≦qmax
min=−Floor(a/2),pmax=pmin+a−1
min=−Floor(b/2),qmax=qmin+b−1
ただし,Floor(x)はx以下の整数の内で最大の値を表すものとする。
最小値pmin,最大値pmaxは,部分領域Rの略中心がそれぞれ原点(0,0)となるように設定される。横幅a,高さbが奇数の場合,部分領域Rの中心と原点(0,0)が一致する。横幅a,高さbが偶数の場合,部分領域Rの中心が画素と対応しないことから(中心が画素の間に配置される),原点(0,0)が画素に対応するように,中心から原点(0,0)をずらしている。
部分領域列挙手段151は,ブロック列挙手段153,部分領域選別手段154,部分領域選別手段155を有する。ブロック列挙手段153は,t個のブロックB,…Bを列挙する。部分領域選別手段154は,ブロックB,…Bの内で原画像から,代表画素値との差が大きな画素が一定値以上のm個の部分領域候補D,…Dを選別する。部分領域選別手段155は,部分領域候補D,…Dからn個の部分領域R,…Rをさらに選別する。
ブロック列挙手段153は,画像からt個のブロックB,…Bを列挙する。図10にブロック列挙手段153により列挙された部分領域候補の一例を示す。
ブロック列挙手段153では,横幅a,高さbのブロックB,…Bの個数tと左上の角の座標(xB,1,yB,1),…(xB,t,yB,t)を以下の方法で算出する。
A.次の式でthorz,tvertを算出する。
horz=Floor(w/a)
vert=Floor(h/b)
t=thorz・tvert
即ち,基本的には,原画像(横:w,縦:h)が横方向にthorz個,縦方向にtvert個のブロックB,…Bに区分される。Floorは,(w/a),(h/b)が割り切れない場合に,小数点以下の値を切り捨てて整数値とするために用いられる。
B.kを1に初期化する。
C.次のようにして,ブロックBの左上の角の座標(xB,k,yB,k)が算出される。
(1)ivertの値を0から(tvert−1)まで変えながら以下を繰り返す。
(2)ihorzの値を0から(thorz−1)まで変えながら以下を繰り返す。
1)xB,kを算出する: xB,k=a・ihorz
2)yB,kを算出する: yB,k=b・ivert
2)kを1増やす。
vertおよびihorzを変化させることで,kは1〜tの間で変化する。この結果,ブロックB,…Bの全てについて,左上の角の座標(xB,1,yB,1),…(xB,t,yB,t)が算出される。
部分領域選別手段154は,横幅a,高さbの部分領域D,…Dの個数mと左上の角の座標(xD,1,yD,1),…(xD,m,yD,m)を以下の方法で選別する。
A.m=0とする。
B.kの値を1からtまで変えながら以下を繰り返す。
(1) ブロックBにおける原画像の画素値I(x,y)の中央値を算出し,原画像の代表画素値Gとする。中央値は,データを順に並べたときの中央のデータの値である。データの個数nnが奇数のとき,小さい方から[(nn+1)/2]番目(略中央)のデータの値が中央値である。また,データの個数nnが偶数のとき,小さい方からFloor[nn/2]番目(中央)のデータとFloor[[nn/2+1]番目(中央)のデータの平均値が中央値である。この中央値はブロックBにおける代表画素値とみなせる。
(2)以下の計算式で,しきい値θ1,kおよびθ2,kを算出する。
θ1,k=α・G
θ2,k=α・G
ただし,α,αは予め定めた定数であり,0<α<1<αである。
(3)ブロックBにおける原画像の画素値I(x,y)が以下の条件を満たす,代表画素値に基づく,画素値の範囲から外れる画素値を有する画素の数eを数える。
I(x,y)≦θ1,kまたはθ2,k≦I(x,y)
(4)e≧β・a・bが成り立つ場合は以下の処理を行う。ただし,βは予め定めた定数であり,1<β<1である。
1)mを1増やす。
2)xD,m=xB,k,yD,m=yB,kとする。
以上のようにして,部分領域選別手段154は,ブロックB,…Bから原画像から,代表画素値との差が大きな画素が一定値以上の部分領域候補D,…Dを選別する。即ち,しきい値θ1,k〜θ2,kの範囲外の画素の個数eが所定の割合βを超える部分領域候補Dを選別する。図11は,部分領域選別手段154によって選別された領域候補の一例を示す。
部分領域選別手段155は,部分領域候補D,…Dからn個の横幅a,高さbの部分領域R,…Rおよびその左上角の座標(x,y),…(x,y)を選択する。この選択は,ランダムとすることができる。この場合,次の式(11)で表される疑似乱数k1を用いて,部分領域R,…Rを選択できる。部分領域Rとして,部分領域候補Dk1が選択される。
k1={[N(k−1)] mod m}+1 ……式(11)
ただし,nは予め定められた個数である。また,Nは素数であり,例えばN=9973とすればよい。「x mod y」は,xをyで割った剰余を意味する。
部分領域候補D,…Dから部分領域R,…Rを規則的に選択してもよい。例えば,次の式(11a)で表される整数k1を用いて,部分領域R,…Rを選択できる。部分領域Rとして,部分領域候補Dk1が選択される。
k1=Floor[(m−1)(k−1)/(n−1)]+1 ……式(11a)
選択された部分領域Dの左上角の座標(x,y)は次のように表される。
(x,y)=(xD,k1,yD,k1
部分領域選別手段155による選別は,部分領域R,…Rの個数nを揃えるために行われる。部分領域選別手段154で選択される部分領域候補D,…Dの個数mは原画像に依存する。即ち,原画像から,代表画素値との差が大きな画素が一定値以上の領域を原画像が含む割合に依存する。部分領域選別手段154での選別を途中で中断することで,部分領域R,…Rの個数nを揃えることも可能である。本実施形態では,部分領域選別手段154による選別の終了後に,部分領域選別手段155によって,部分領域R,…Rの個数nを調整している。
既述のように,部分領域選別手段155による部分領域R,…Rの選別には,ランダム,規則的を問わず種々の方法を適用できる。部分領域列挙手段151の全体としても,原画像から,代表画素値との差が大きな画素が一定値以上の部分領域R,…Rを列挙するのに,種々の方法を適用できる。
領域内自己相関算出手段152は,部分領域Rそれぞれについてエッジ画像の画素値E(x,y)の自己相関係数C(p,q)を算出する。領域内自己相関算出手段152は,抽出画像抽出手段156,抽出画像自己相関算出手段157を有する。
抽出画像抽出手段156は,エッジ画像から部分領域R,…Rそれぞれに対応する部分エッジ画像U,…Uを抽出する。領域内自己相関算出手段152は,前記抽出画像の各々に対応する自己相関係数を算出する。前述の通り,部分領域Rは,横幅a,高さb,左上の角の座標(x,y)の領域である。抽出画像抽出手段156は,次の式に示すように,抽出画像の左上の角から右にx画素,下にy画素の位置の画素値F(x,y)として,エッジ画像の画素値E(x+x,y+y)を代入する。
(x,y)=E(x+x,y+y)
図12A〜図12Cにそれぞれ,部分領域の原画像,この原画像から生成したエッジ画像の実成分および虚成分を表す二次元ベクトルの一例を示す。図13A〜図13Cにそれぞれ,部分領域の原画像,この原画像から生成したエッジ画像の実成分および虚成分を表す濃淡パターンの一例を示す。原画像では画素値0を黒で,画素値255を白で示す。エッジ画像においては,前記抽出画像の各成分が0近くの画素を灰色で,各成分が大きな画素をより明るい色で,各成分が小さな画素をより暗い色で示す。
抽出画像自己相関算出手段157は,抽出画像の2次以上の自己相関係数C(p,q)を算出する。抽出画像自己相関算出手段157は,部分領域R,…Rの各々について自己相関係数を算出する自己相関算出部として機能する。抽出画像自己相関算出手段157はpmin<p<pmax,qmin<q<qmaxなる整数p,qの各々について,例えば以下の式(21)により自己相関係数C(p,q)を算出する。
(p,q)=η・Σy=0 Σx=0 (x,y)・CJ(F((p+x) mod a,(q+y) mod b))/Σy=0 Σx=0 (x,y)・CJ(F(x,y))
……式(21)
ここで,ηはあらかじめ定めた定数(例えば,255)である。また,CJ(x)はxの共役複素数を表す。
式(21)は,基本的に次の式(22)で表される。
(p,q)=η・Σy=0 Σx=0 (x,y)・CJ(F(p+x,q+y)/Σy=0 Σx=0 (x,y)・CJ(F(x,y)) ……式(22)
式(21)において,「(p+x) mod a」,「(q+y) mod b」としているのは,本来の抽出画像の領域外について,E(x,y)を定義することで,自己相関係数C(p,q)の算出を容易とするためである。即ち,抽出画像が縦横に並んで配置されているとして,自己相関係数C(p,q)を算出する。
図14A〜図14Dに抽出画像自己相関算出手段157で算出した自己相関係数の濃淡パターンの一例を示す(図14A〜図14Dがそれぞれ部分領域R〜Rに対応)。図15A〜図15Dに自己相関係数を表す二次元配列の一例を示す(図15A〜図15Dがそれぞれ部分領域R〜Rに対応)。自己相関係数の濃淡パターンにおいては,0以下の値を黒で,0より大きな値を大きさに応じた明るさで示す。
式(21),(22)は,抽出画像の画素値F(x,y)が複素数であることを考慮している。画素値F(x,y)が実数の場合には(例えば,エッジ画像の画素値E(x,y)が式(4a)〜(4c)で表される場合),自己相関係数C(p,q)の算出式は簡略化される。例えば,式(22)は,次の式(23)のようになる。
(p,q)=η・Σy=0 Σx=0 (x,y)・F(p+x,q+y)/Σy=0 Σx=0 (x,y)・F(x,y) ……式(23)
抽出画像自己相関算出手段157における自己相関係数の算出方法としては,前述の方法に限らず,部分領域におけるエッジ画像の自己相関係数C(p,q)を算出できれば,種々の方法を採用できる。例えば,画素値F(p,q)をフーリエ変換して,画素値F(p,q)のスペクトルを算出した後(空間周波数分解),このスペクトルの絶対値の自乗を逆フーリエ変換することで,自己相関係数C(p,q)を算出できる。
劣化関数推定手段124は,自己相関係数C(p,q)の座標(p,q)毎(画素毎)に代表係数値を導出することで劣化関数T(p,q)を推定する。劣化関数推定手段124は,対応する複数の画素それぞれでの,前記複数の自己相関係数の代表係数値を導出する代表係数値導出部として機能する。劣化関数T(p,q)は,原画像の撮像に用いた撮像系による画像の劣化の程度を表す関数である。劣化関数推定手段124は,座標(p,q)における劣化関数T(p,q)を以下の式により算出する。
T(p,q)=min(C(p,q),…C(p,q))
ただし,min(x,…x)はx,…xの最小値を表す。図16A,図16Bに,図14及び図15で示した自己相関係数から算出した劣化関数T(p,q)の濃淡パターンおよび二次元配列を示す。
自己相関係数C(p,q)は,画素値F(p,q)の相関の程度に対応した分布を有する。原点(0,0)では,同一の画素間での相関が算出され,最大(η)となる。原点以外では,横方向および縦方向のオフセット量p,qでの相関に対応した値となる。例えば,原画像でエッジ(明暗の境界)が明瞭なら,そのエッジの方向に沿って,大きな画素値F(p,q)が線状に並ぶ。また,原画像でエッジ(明暗の境界)が不明瞭なら,そのエッジの方向に沿って,比較的大きな画素値F(p,q)が幅を有して並ぶ。
即ち,自己相関係数C(p,q)の幅に基づいて,原画像の良否を判定できる。一般に,この幅を求めるためには,エッジの方向の判定が必要となる。この実施形態では,エッジの方向の判定を不要とするため,原画像から複数の自己相関係数C(p,q)を導出し,座標(p,q)毎に複数の自己相関係数C(p,q)の代表係数値を求めることで,劣化関数T(p,q)を導出する。このように,自己相関係数C(p,q)の代表係数値を求めることで,エッジの方向による影響を緩和し(画像の幾何構造に依存した自己相関の排除),エッジの方向の判定が不要となる。
座標(p,q)毎での自己相関係数C(p,q)の最小値を劣化関数T(p,q)とすることで,画像の幾何構造に起因する成分を除外できるのは,自己相関係数C(p,q)が画像劣化による成分と幾何学的構造に依存した成分の和に分解することができ,幾何学的構造に依存した成分が正であると仮定すると,前記エッジ画像の部分領域毎に算出した自己相関の座標毎の最小値を計算することで構造に依存した成分を排除することができるからである。
次の式により,劣化関数T(p,q)を算出しても良い。
T(p,q)=max(0,min(C(p,q),…C(p,q)))
この式は,劣化関数T(p,q)の値が0より小さくなることを防止している。
劣化関数T(p,q)は以下の式で表す順序統計量として算出してもよい。
T(p,q)=odr(C(p,q),…C(p,q);r)
r=Floor(γ・(n−1))+1
ただし,odr(x,…x;r)はx,…xの内でr番目に小さな値を,γはあらかじめ定められた0以上1以下の実定数を表わす。例えば,γ=0.05とすることで,最小の値から個数で5%の自己相関係数C(p,q)を代表係数値として,劣化関数T(p,q)を定義できる。Floor(x)はx以下の整数の内で最大の値を表すものとする。
劣化関数推定手段124における劣化関数T(p,q)は,以下の式で表すように自己相関係数の順序統計量odr(C(p,q),…C(p,q);r)と0のいずれか大きな方の値として算出してもよい。順序統計量odr(C(p,q),…C(p,q);r)が0未満である場合に前記順序統計量を0に置き換える.。
T(p,q)=max(0,odr(C(p,q),…C(p,q);r))
r=Floor(γ・(n−1))+1
以上のように,自己相関係数C(p,q),…C(p,q)の代表係数値を用いることで,幾何構造(例えば,エッジの配置)に依存した自己相関が排除された劣化関数T(p,q)が算出される。このため,劣化関数T(p,q)は,画像劣化に起因する自己相関の成分を多く含むようになり,劣化関数T(p,q)からの画像劣化の程度の算出が容易になる。
自己相関係数C(p,q),…C(p,q)からの劣化関数T(p,q)の算出は,幾何構造に依存した自己相関を排除して画像劣化による自己相関を求めることができるなら,ここで挙げた例に限らずどのような方法を用いてもよい。
拡がり幅算出手段125は,劣化関数T(p,q)の拡がり幅を算出する。拡がり幅算出手段125は,代表係数値の分布の拡がり幅を算出する拡がり幅算出部として機能する。図17は拡がり幅算出手段125の構成の一例を示したブロック図である。拡がり幅算出手段125は,距離別和算出手段161,距離別和評価手段162を有する。
距離別和算出手段161は,原点(0,0)からの距離νの区間毎に劣化関数の距離別和を算出する。前記区間は,[0,1),[1,2),…[ν,ν+1),[νmax,νmax+1),とする。ここで,[x,y)はx以上y未満の実数値の区間を,νは整数値を表し,νmaxは以下の式で定義されるものとする。
νmax=Ceil((max(−pmin,pmax+max(−qmin,qmax1/2)−1
ただし,Ceil(x)はx以上の整数の内で最小の値を表すものとする。
距離の区間[ν,ν+1)での劣化関数の距離別和をS(ν)と表記する。
νmaxは,原点(0,0)から抽出画像の辺までの距離の最大を表し,基本的には次の式で表される。
νmax=(pmax +qmax 1/2−1
「pmin」の絶対値が「pmax」より大きい場合に対応し,またνmaxを整数とするために,式が複雑になっている。
距離別和算出手段161では劣化関数の距離別和S(ν)を以下の方法で算出する。
A.0≦ν≦νmaxなる整数νの各々について,S(ν)=0とする。
B.qmin≦q≦qmaxなる整数qの各々について以下を繰り返す。
(1)pmin≦p≦pmaxなる整数pの各々について以下を繰り返す。
1)νを計算する: ν=Floor((p+q1/2
2)S(ν)にT(p,q)を加算する。
図18に距離別和算出手段161によって算出した劣化関数の距離別和S(ν)の一例を示す。距離νが0〜2のとき距離別和S(ν)は255,480,0の値を取る。距離νが2以上のとき,距離別和S(ν)は0である。
距離別和評価手段162では劣化関数の距離別和を基に劣化関数の拡がり幅λを算出する。距離別和評価手段162では拡がり幅λを以下の方法で算出する。
A.S=0とする。
B.λ=νmaxとする。
C.λ=0かS≧θとなるまで以下を繰り返す。
(1)SにS(λ)を加算する: S=S+S(λ)
これは,劣化関数の距離別和S(ν)の関数の面積を求めることと同じである。
(2)λから1を減算する。
ただし,θ はあらかじめ定めた実定数値である。
拡がり幅算出手段125において,劣化関数の拡がり幅Sは以下の式により算出してもよい。
S={Σq=qmin qmaxΣp=pmin pmaxT(p,q)・(p+q
/Σq=qmin qmaxΣp=pmin pmaxT(p,q)}1/2
拡がり幅算出手段125における劣化関数の拡がり幅の算出方法としては,劣化関数の拡がりの大小を反映した値を算出できる方法であれば,以上で述べた方法に限らずどのような方法を用いてもよい。
良否判定手段126は,前記拡がり幅λとあらかじめ定めたしきい値Λを比較して前記原画像の良否を判定する。良否判定手段126は,代表係数値の分布に基づいて,前記画像の良否を判定する判定部として機能する。良否判定手段126では,前記拡がり幅λが前記しきい値Λ以下なら前記原画像が良,前記拡がり幅λが前記しきい値Λより大きいなら前記原画像が不良であると判定する。
本実施形態は,範囲pmin≦p≦pmax,qmin≦q≦qmax内の座標(p,q)の全てについて,劣化関数推定手段124で劣化関数T(p,q)を算出し,拡がり幅算出手段125で劣化関数の拡がり幅を算出している。但し,前記範囲の一部の座標(p,q)のみについて劣化関数T(p,q)を算出し,それを基に前記拡がり幅を算出しても差し支えない。
以上のように,本実施形態では,ピンボケや手ブレ等の不良による画像劣化を反映した劣化関数T(p,q)を推定し,前記劣化関数T(p,q)の拡がり幅を不良の有無の判定に用いている。本実施形態では,以下のような利点を享受できる。
(1)劣化関数T(p,q)の拡がり幅は画像のコントラストに影響されないため,画像のコントラストが変動しても画質を正しく評価することができる。
(2)エッジ方向の推定が不要なため,エッジ方向推定の誤りによる問題が生じない。
(3)多重結像が生じている場合においても,多重結像による劣化関数の拡がりを画質の不良として検知する事ができる。例えば,図19で示した画像においては二重結像が生じているが,この画像から図20で示したような劣化関数が算出される。この例では原点付近のほか,右下と左上に劣化関数のピークが見られ,劣化関数の拡がりとして画像の異常を検出できる。
(4)空間周波数の大小を鮮鋭度の評価に用いないため,画素値の量子化方法に問題がある場合や,撮像の際に高周波成分を含んだ雑音が生じている場合においても,ピンボケ等が生じた画像で鮮鋭度を過大に評価することが無い。
(その他の実施形態)
本発明の実施形態は上記の実施形態に限られず拡張,変更可能であり,拡張,変更した実施形態も本発明の技術的範囲に含まれる。
本発明の一実施形態に係る画像評価装置100を表すブロック図である。 グレースケール画像の一例を示す図である。 グレースケール画像に対応する二次元配列を示す図である。 エッジ画像の実成分の一例を示す図である。 エッジ画像の実成分の一例を示す図である。 エッジ画像の虚成分の一例を示す図である。 エッジ画像の虚成分の一例を示す図である。 自己相関算出手段123の構成の一例を表すブロック図である。 部分領域列挙手段151で列挙された部分領域の例を示す図である。 ブロック列挙手段153により列挙された部分領域候補の一例を示す図である。 部分領域選別手段154によって選別された領域候補の一例を示す図である。 部分領域の原画像を表す二次元ベクトルの一例を示す図である。 エッジ画像の実成分を表す二次元ベクトルの一例を示す図である。 エッジ画像の虚成分を表す二次元ベクトルの一例を示す図である。 部分領域の原画像を表す濃淡パターンの一例を示す図である。 エッジ画像の実成分を表す濃淡パターンの一例を示す図である。 エッジ画像の虚成分を表す濃淡パターンの一例を示す図である。 自己相関係数の濃淡パターンの一例を示す図である。 自己相関係数の濃淡パターンの一例を示す図である。 自己相関係数の濃淡パターンの一例を示す図である。 自己相関係数の濃淡パターンの一例を示す図である。 自己相関係数を表す二次元配列の一例を示す図である。 自己相関係数を表す二次元配列の一例を示す図である。 自己相関係数を表す二次元配列の一例を示す図である。 自己相関係数を表す二次元配列の一例を示す図である。 自己相関係数から算出した劣化関数T(p,q)の濃淡パターンを示す図である。 自己相関係数から算出した劣化関数T(p,q)を表す二次元配列を示す図である。 拡がり幅算出手段125の構成の一例を示したブロック図である。 距離別和算出手段161によって算出した劣化関数の距離別和S(ν)の一例を示す図である。 グレースケール画像の一例を示す図である。 劣化関数の一例を示す図である。
符号の説明
100…画像評価装置,110…原画像入力手段,120…画像評価手段,121…グレースケール化手段,122…エッジ画像生成手段,123…自己相関算出手段,124…劣化関数推定手段,125…拡がり幅算出手段,126…良否判定手段,130…表示部,140…入力部,151…部分領域列挙手段,152…領域内自己相関算出手段,153…ブロック列挙手段,154…部分領域選別手段,155…部分領域選別手段,156…抽出画像抽出手段,157…抽出画像自己相関算出手段,161…距離別和算出手段,162…距離別和評価手段

Claims (11)

  1. 画像から,複数の部分領域を抽出する部分領域抽出部と,
    前記画像から前記複数の部分領域に対応する複数の抽出画像を抽出する抽出画像生成部と,
    前記複数の抽出画像に対応する,複数の自己相関係数を算出する自己相関算出部と,
    前記複数の自己相関係数の代表係数値を導出する代表係数値導出部と,
    前記代表係数値の分布に基づいて,前記画像の良否を判定する判定部と,
    を具備することを特徴とする画像評価装置。
  2. 前記代表係数値の分布の拡がり幅を算出する拡がり幅算出部をさらに具備し,
    前記拡がり幅に基づいて,前記判定部が前記画像の良否を判定する
    ことを特徴とする請求項1記載の画像評価装置。
  3. 前記判定部が,前記拡がり幅と所定のしきい値を比較して前記画像の良否を判定する
    ことを特徴とする請求項2記載の画像評価装置。
  4. 前記複数の自己相関係数の代表係数値が,前記複数の自己相関係数の最小値またはこの最小値から数えて所定番目の値である
    ことを特徴とする請求項1乃至3のいずれか1項に記載の画像評価装置。
  5. 前記複数の自己相関係数の代表係数値が,0未満ならば0以上の値で置き換える
    ことを特徴とする請求項4に記載の画像評価装置。
  6. 前記画像から当該部分領域におけるエッジ画像を抽出することで,前記抽出画像を抽出することを特徴とする請求項1乃至5のいずれか1項に記載の画像評価装置。
  7. 前記エッジ画像の画素値が,前記画像の当該位置における所定の1方向または2方向での画素値の勾配を表す
    ことを特徴とする請求項6記載の画像評価装置。
  8. 前記抽出画像生成部が,
    前記画像での画素値の勾配に対応する画素値の画素を有する,画像を生成する画像生成部と,
    前記生成された画像から前記複数の部分領域に対応する抽出画像を抽出する抽出画像抽出部と,を有する,
    ことを特徴とする請求項1乃至7のいずれか1項に記載の画像評価装置。
  9. 前記部分領域抽出部が,
    前記画像を複数の部分領域に区分する区分部と,
    前記区分される複数の部分領域毎に代表画素値を決定する第1の決定部と,
    前記決定される代表画素値に基づき,画素値の範囲を決定する第2の決定部と,
    前記複数の部分領域から,前記決定された画素値の範囲から外れる画素値の個数が所定数以上の部分領域を抽出する抽出部と,を有する
    ことを特徴とする請求項1乃至8のいずれか1項に記載の画像評価装置。
  10. 画像をグレースケール化するグレースケール化部をさらに具備し,
    前記抽出画像生成部が,前記グレースケール化された画像から抽出画像を生成する
    ことを特徴とする請求項1乃至9のいずれか1項に記載の画像評価装置。
  11. 画像から,複数の部分領域を抽出するステップと,
    前記複数の部分領域に対応する,複数の,抽出画像を生成するステップと,
    前記複数の抽出画像に対応する,複数の自己相関係数を算出するステップと,
    前記複数の自己相関係数の代表係数値を導出するステップと,
    前記代表係数値の分布に基づいて,前記画像の良否を判定するステップと,
    を具備することを特徴とする画像評価方法。
JP2008310010A 2008-12-04 2008-12-04 画像評価装置および画像評価方法 Pending JP2010134700A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008310010A JP2010134700A (ja) 2008-12-04 2008-12-04 画像評価装置および画像評価方法
US12/630,314 US8897593B2 (en) 2008-12-04 2009-12-03 Determining image quality based on distribution of representative autocorrelation coefficients

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008310010A JP2010134700A (ja) 2008-12-04 2008-12-04 画像評価装置および画像評価方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010247998A Division JP4729127B2 (ja) 2010-11-05 2010-11-05 画像評価装置

Publications (1)

Publication Number Publication Date
JP2010134700A true JP2010134700A (ja) 2010-06-17

Family

ID=42231127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008310010A Pending JP2010134700A (ja) 2008-12-04 2008-12-04 画像評価装置および画像評価方法

Country Status (2)

Country Link
US (1) US8897593B2 (ja)
JP (1) JP2010134700A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048856A (ja) * 2010-11-05 2011-03-10 Toshiba Corp 画像評価装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9299132B2 (en) * 2013-10-23 2016-03-29 Adobe Systems Incorporated Automatically determining the size of a blur kernel
US9727949B1 (en) * 2014-11-19 2017-08-08 Google Inc. Providing secure digital images
WO2017070923A1 (zh) * 2015-10-30 2017-05-04 厦门中控生物识别信息技术有限公司 一种人脸识别方法和装置
CN108961210B (zh) * 2018-05-24 2021-08-31 上海集成电路研发中心有限公司 一种判断图像是否经过算法处理的方法
CN109146971B (zh) * 2018-08-13 2021-08-31 济南大学 一种判定摄像头异常移动和场景内异物入侵的检测方法
CN110852997B (zh) * 2019-10-24 2022-07-05 成都市联洲国际技术有限公司 动态图像清晰度检测方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157427A (ja) * 2004-11-29 2006-06-15 Seiko Epson Corp 画像情報の評価方法、画像情報の評価プログラム及び画像情報評価装置
JP2009181024A (ja) * 2008-01-31 2009-08-13 Nikon Corp 合焦装置、光学機器

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3320759B2 (ja) * 1991-12-26 2002-09-03 株式会社東芝 文書画像傾き検出装置およびその方法
JPH08116447A (ja) * 1994-10-18 1996-05-07 Fuji Xerox Co Ltd 画像信号の符号化装置
US6836558B2 (en) * 2000-03-28 2004-12-28 Arch Development Corporation Method, system and computer readable medium for identifying chest radiographs using image mapping and template matching techniques
US6996291B2 (en) * 2001-08-06 2006-02-07 Mitutoyo Corporation Systems and methods for correlating images in an image correlation system with reduced computational loads
US6990254B2 (en) * 2001-08-06 2006-01-24 Mitutoyo Corporation Systems and methods for correlating images in an image correlation system with reduced computational loads
US7263242B2 (en) * 2003-01-23 2007-08-28 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Method for detecting repetitive surfaces in an optical mouse
JP3815689B2 (ja) * 2003-11-20 2006-08-30 松下電器産業株式会社 移動物体検出装置及び移動物体検出方法
US7475061B2 (en) * 2004-01-15 2009-01-06 Microsoft Corporation Image-based document indexing and retrieval
JP2006019874A (ja) 2004-06-30 2006-01-19 Fuji Photo Film Co Ltd 手ぶれ・ピンボケレベル報知方法および撮像装置
US7283677B2 (en) * 2004-08-31 2007-10-16 Hewlett-Packard Development Company, L.P. Measuring sub-wavelength displacements
JP4487805B2 (ja) 2004-11-16 2010-06-23 セイコーエプソン株式会社 画像評価方法、画像評価装置、及び印刷装置
JP4475143B2 (ja) * 2004-11-29 2010-06-09 セイコーエプソン株式会社 画像補正装置
US7885480B2 (en) * 2006-10-31 2011-02-08 Mitutoyo Corporation Correlation peak finding method for image correlation displacement sensing
JP2008123346A (ja) 2006-11-14 2008-05-29 Seiko Epson Corp ぼやけ判定装置、ぼやけ判定方法および印刷装置
JP2009134357A (ja) * 2007-11-28 2009-06-18 Olympus Corp 画像処理装置、撮像装置、画像処理プログラム及び画像処理方法
JP5061883B2 (ja) * 2007-12-21 2012-10-31 ソニー株式会社 画像処理装置、画像処理方法、プログラム、および学習装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157427A (ja) * 2004-11-29 2006-06-15 Seiko Epson Corp 画像情報の評価方法、画像情報の評価プログラム及び画像情報評価装置
JP2009181024A (ja) * 2008-01-31 2009-08-13 Nikon Corp 合焦装置、光学機器

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048856A (ja) * 2010-11-05 2011-03-10 Toshiba Corp 画像評価装置

Also Published As

Publication number Publication date
US8897593B2 (en) 2014-11-25
US20100142819A1 (en) 2010-06-10

Similar Documents

Publication Publication Date Title
Ciancio et al. No-reference blur assessment of digital pictures based on multifeature classifiers
Thakur et al. A new method for color image quality assessment
EP2352301A1 (en) Image processing device, image processing method, and program
US20060291741A1 (en) Image processing apparatus, image processing method, program, and recording medium therefor
US8750638B2 (en) Image processing apparatus, image processing method, and computer program
JP2010134700A (ja) 画像評価装置および画像評価方法
CA2702165C (en) Image generation method and apparatus, program therefor, and storage medium which stores the program
Ferzli et al. A no-reference objective image sharpness metric based on just-noticeable blur and probability summation
KR101761928B1 (ko) 블록 기반 압축 이미지 내의 블러 측정
JP2012208553A (ja) 画像処理装置、および画像処理方法、並びにプログラム
EP2221763A1 (en) Image generation method, device, its program and recording medium stored with program
US11145032B2 (en) Image processing apparatus, method and storage medium for reducing color noise and false color
KR101874738B1 (ko) 영상처리를 이용하여 ldr 영상으로부터 hdr 영상을 생성하는 장치 및 방법
US20100040304A1 (en) Image quality improvement processing apparatus, image quality improvement processing method and computer-readable recording medium storing image quality improvement processing computer program
US9092854B2 (en) Metrics to identify image smoothness
Bouma et al. Precise local blur estimation based on the first-order derivative
Shoham et al. A novel perceptual image quality measure for block based image compression
JP4729127B2 (ja) 画像評価装置
WO2016051716A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラムを記憶する記録媒体
Sonawane et al. Image quality assessment techniques: An overview
JP5084755B2 (ja) ノイズ低減装置及びそのプログラム
KR102470242B1 (ko) 영상 처리 장치, 영상 처리 방법, 및 프로그램
US9008463B2 (en) Image expansion apparatus for performing interpolation processing on input image data, and image expansion method thereof
CN113506212A (zh) 一种改进的基于pocs的高光谱图像超分辨率重建方法
KR100612667B1 (ko) 예측치 보정을 이용한 동영상 화질 평가장치 및 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101105

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20101105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110315