JP2014056442A - 画質推定装置、画質推定方法および画質推定プログラム - Google Patents

画質推定装置、画質推定方法および画質推定プログラム Download PDF

Info

Publication number
JP2014056442A
JP2014056442A JP2012200966A JP2012200966A JP2014056442A JP 2014056442 A JP2014056442 A JP 2014056442A JP 2012200966 A JP2012200966 A JP 2012200966A JP 2012200966 A JP2012200966 A JP 2012200966A JP 2014056442 A JP2014056442 A JP 2014056442A
Authority
JP
Japan
Prior art keywords
region
image quality
learning
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012200966A
Other languages
English (en)
Inventor
Tadashi Wada
直史 和田
Jiro Katto
二郎 甲藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waseda University
Samsung R&D Institute Japan Co Ltd
Original Assignee
Waseda University
Samsung R&D Institute Japan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waseda University, Samsung R&D Institute Japan Co Ltd filed Critical Waseda University
Priority to JP2012200966A priority Critical patent/JP2014056442A/ja
Publication of JP2014056442A publication Critical patent/JP2014056442A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】画像に固有の空間周波数分布の影響を考慮して、より良い精度で画質推定できる画質推定装置を提供する。
【解決手段】本発明に係る画質推定装置は、画像内の領域を識別するための領域特徴に基づいて、学習用に予め劣化させた学習用画像から局所領域を少なくとも一つ抽出する第1領域抽出部20と、第1領域抽出部20により抽出された局所領域と、劣化前後の学習用画像の比較により局所領域に与えられる画質評価値とを関連付け、当該関連付けを異なる学習用画像を用いて繰り返し、画質劣化を学習する学習部40と、領域特徴に基づいて、検査画像から局所領域を抽出する第2領域抽出部60と、学習部40による学習結果に基づいて、第2領域抽出部60により抽出された局所領域の画質劣化を推定する推定部70と、を有する。
【選択図】図1

Description

本発明は、画像信号を圧縮した際に生じる画質劣化の度合を推定する画質推定装置、画質推定方法および画質推定プログラムに関する。
画像信号の情報量は極めて多く、伝送や蓄積を効率的に行うため、これらを符号化(圧縮)する技術が用いられている。これに伴い、画像の符号化により画質が劣化する場合の画質評価技術も多数研究されている。
画質推定方式の一つとして、非特許文献1および2に開示されているようなNR(No Reference)方式という手法がある。
非特許文献1の推定方法では、学習画像データベースにある学習用画像を全体範囲で周波数変換して、得られた変換係数の分布形状をパラメータ化して特徴ベクトルとする。そして、学習用画像に対して主観的に判断した画質劣化の評価値(以下、主観評価値という)を正解データとして、特徴ベクトルとの確率的な対応関係を学習する。ここでの学習の識別器には、たとえば、SVM(Support Vector Machine)が用いられる。そして、SVMにより学習された結果は、学習結果パラメータとして記憶される。また、検査画像に対して同様に特徴ベクトルを算出し、SVR(Support Vector Regression)により、画質を推定できる。
非特許文献2の推定方法では、非特許文献1と異なり、学習用画像の全体範囲、すなわち、画像単位では周波数変換しない。非特許文献2の推定方法では、学習用画像を所定のサイズの矩形ブロックに分割し、各ブロック画像のブロック全体、すなわち、ブロック単位で周波数変換している。
A.K.Moorthy and A.C.Bovik、‘‘A Two−stage Framework for Blind Image Quality Assessment’’、ICIP2010、pp.2481−2484、Sept.2010。 M.A.Saad、A.C.Bovik and C.Charrier、‘‘DCT Statistics Model−based Blind Image Quality Assessment’’、ICIP2011、pp.3093−3096、Sept.2011。
非特許文献1および2に記載の発明では、周波数変換する範囲を、画像単位とするか、学習用画像を機械的に小さく分割したブロック単位とするかで異なる。しかし、画像に固有の空間周波数成分を考慮せずに、単に画像(ブロック)を周波数変換して得られた変換係数の分布形状を特徴ベクトルとして用いる点では共通する。
ここで、高い空間周波数の成分を間引きする符号化方式を適用した画像の画質推定について考える。この場合、符号化前から高い空間周波数成分を含まない画像と、符号化により高い空間周波数成分が失われた画像とで、変換係数の分布形状に差がない可能性が十分に有り得る。
たとえば、SVMの学習結果として、符号化により高い空間周波数成分が失われた学習用画像の特徴ベクトルと主観評価値とを記憶しているとする。このような場合、符号化前から高周波成分を含まない検査画像をSVRにより画質推定すると、画質劣化を過大に推定してしまう恐れがある。これでは、画質推定誤差が大きい。
本発明は、上記従来技術の課題を解決するためになされたものであり、画像に固有の空間周波数分布の影響を考慮して、より良い精度で画質推定できる画質推定装置、画質推定方法および画質推定プログラムを提供することを目的とする。
上記の目的を達成するための本発明に係る画質推定装置は、第1領域抽出部、学習部、第2領域抽出部、推定部を有する。第1領域抽出部は、画像内の領域を識別するための領域特徴に基づいて、学習用に予め劣化させた学習用画像から局所領域を少なくとも一つ抽出する。学習部は、第1領域抽出部により抽出された局所領域と、劣化前後の学習用画像の比較により局所領域に与えられる画質評価値とを関連付け、当該関連付けを異なる学習用画像を用いて繰り返し、画質劣化を学習する。第2領域抽出部は、上記領域特徴に基づいて、検査用画像から局所領域を抽出する。推定部は、学習部による学習結果に基づいて、第2領域抽出部により抽出された局所領域の画質劣化を推定する。
上記の目的を達成するための本発明に係る画質推定方法は、第1領域抽出ステップ、学習ステップ、第2領域抽出ステップ、推定ステップを有する。第1領域抽出ステップは、画像内の領域を識別するための領域特徴に基づいて、学習用に予め劣化させた学習用画像から局所領域を少なくとも一つ抽出する。学習ステップは、第1領域抽出ステップにより抽出された局所領域と、劣化前後の学習用画像の比較により局所領域に与えられる画質評価値とを関連付け、当該関連付けを異なる学習用画像を用いて繰り返し、画質劣化を学習する。第2領域抽出ステップは、上記領域特徴に基づいて、検査画像から局所領域を抽出する。推定ステップは、学習ステップによる学習結果に基づいて、第2領域抽出ステップにより抽出された局所領域の画質劣化を推定する。
上記の目的を達成するための本発明に係る画質推定プログラムは、上記画質推定方法を、コンピュータに実行させる。
本発明に係る画質推定装置、画質推定方法および画質推定プログラムによれば、画像中の領域特徴に基づいて抽出された局所領域別に画質劣化の学習および推定を行うことにより、画像に固有の空間周波数分布の影響を考慮して、画質推定精度を向上できる。
本発明に係る画質推定装置の構成を示すブロック図である。 図1の画質推定装置の学習部の構成を示すブロック図である。 図1の画質推定装置の推定部の構成を示すブロック図である。 本発明に係る画質推定装置の動作フローチャートである。 図4の学習プロセスのサブルーチンフローチャートである。 図4の推定プロセスのサブルーチンフローチャートである。 実施形態1に係る画質推定装置の構成を示すブロック図である。 局所領域を抽出するための画像の一部を拡大し、基準ブロックでブロック分割した様子を示す図である。 図8の基準ブロックを示す図である。 図8の分割されたブロック単位の輝度分散値算出結果を示す図である。 図10の輝度分散値算出結果に基づいて、分割されたブロックを2分類して、局所領域を抽出するイメージ図である。 実施形態2に係る画質推定装置の構成を示すブロック図である。 局所領域を抽出するための画像の一例を示す図である。 図13の対象画像に対して、Saliency Map手法により注視しやすい特徴領域を特定した画像である。 図14の特徴領域特定結果に基づいて、局所領域を抽出するイメージ図である。
本発明に係る画質推定装置、画質推定方法および画質推定プログラムは、画像中の領域特徴に基づいて抽出された局所領域別に画質劣化の学習および推定を行う。画像単位またはブロック単位において異なる空間周波数成分が含まれている画像であっても、空間周波数特性が類似する局所領域単位で画質劣化の学習および推定を行う。
以下、添付した図面を参照しながら、本発明の画質推定装置、画質推定方法および画質推定プログラムの実施形態を説明する。
(画質推定装置の構成)
図1は、本発明に係る画質推定装置の構成を示すブロック図である。図2は、図1の画質推定装置の学習部の構成を示すブロック図である。図3は、図1の画質推定装置の推定部の構成を示すブロック図である。
本発明に係る画質推定装置は、図1に示すように、学習用画像データベース10、第1領域抽出部20、客観画質評価値算出部30、学習部40、学習結果記憶部50、第2領域抽出部60、推定部70、画質統合部80を有する。学習用画像データベース10および学習結果記憶部50は、メモリやハードディスク等の記録装置によって達成される。また、第1領域抽出部20、客観画質評価値算出部30、学習部40、第2領域抽出部60、推定部70、画質統合部80は、図示しないCPU(Central−Processing Unit)が、各種プログラムを読み込んで実行することにより達成される。ここで、プログラムとは、たとえば、画像データの画質を推定するための画質推定プログラムである。
学習用画像データベース10は、複数組の学習用画像を予め格納している。一組の学習用画像は、オリジナルのまま劣化していない無劣化画像と、予め学習用に無劣化画像を符号化により画質劣化させた劣化画像と、を含む。
第1領域抽出部20は、画像内の所定の領域を識別するための領域特徴に基づいて、学習データベース10の一組の学習用画像のうち、劣化画像から局所領域を少なくとも一つ抽出する。
領域特徴は、たとえば、画像の空間周波数特性により決定でき、類似する空間周波数特性を有する領域が局所領域として抽出される。任意の範囲内の空間周波数特性値を有する領域が、空間周波数特性が類似すると見なされる。領域特徴、および、当該領域特徴に基づく局所領域の抽出動作の詳細については、後述する。
客観画質評価値算出部30は、劣化前後の学習用画像の比較により局所領域に与えられる画質評価値を算出する。すなわち、客観画質評価値算出部30は、第1領域抽出部20により劣化画像から抽出された局所領域を、無劣化画像の対応する領域と比較し、当該局所領域における客観画質評価値(以下、客観評価値という)を算出する。
客観評価値は、画質評価指標として一般的なPSNR(Peak Signal−to−Noise Ratio)やSSIM(Structural SIMilarity)などを用いて算出できる。
学習部40は、第1領域抽出部20により抽出された局所領域と、当該局所領域における上記客観評価値とを関連付ける。当該関連付けを、学習部40は、異なる学習用画像を用いて繰り返し、画質劣化を学習する。すなわち、学習部40は、上記局所領域における学習用画像として用意された劣化画像の特徴を表す特徴ベクトルを算出する。そして、学習部40は、特徴ベクトルから上記局所領域における劣化画像の画質劣化度を判定するための学習モデルを生成する。なお、学習モデルは、特徴ベクトルと、客観評価値(すなわち、上記局所領域における劣化画像の画質劣化度)と、についての確率的な対応関係を決定する数理モデルであり、たとえば、教師あり学習の一つであるSVMを用いてもよい。もちろん、これに限らず、回帰関数や、ニューラルネットワーク等を用いてもよい。学習部40は、第1領域抽出部20により抽出された局所領域と、同数用意される。すなわち、同じ領域特徴を有する局所領域を学習単位として、画質劣化の学習を行う。
学習部40は、図2に示すように、周波数変換部41、変換係数パラメータ化部42、画質学習部43を含む。
周波数変換部41は、第1領域抽出部20により抽出された一局所領域の劣化画像に対して周波数変換する。周波数変換は、ウェーブレット変換、離散コサイン変換、またはフーリエ変換などを用いることができる。
変換係数パラメータ化部42は、周波数変換部41で得られた周波数変換に用いた変換係数の分布形状をパラメータ化して、特徴ベクトルとする。
画質学習部43は、変換係数パラメータ化部42で得られた特徴ベクトルと、客観画質評価値算出部30で算出された一局所領域の客観評価値と、を関連付ける学習を行う。具体的には、画質学習部43は、変換係数パラメータ化部42で得られた特徴ベクトルから上記局所領域における劣化画像の画質劣化度を判定するための学習モデルを生成する。たとえば、画質学習部43は、学習モデルとして、少なくとも一つ以上のパラメータ(変数)を持つ数理モデルを採用し、各特徴ベクトルを入力したときに正解値の客観評価値を出力するように数理モデルのパラメータ値を決定する。ここで決定されたパラメータ値は、学習結果パラメータとして学習結果記憶部50に記憶される。
学習結果記憶部50は、画質学習部43の学習結果、すなわち、上記一局所領域の特徴ベクトルと客観評価値との関連付けを、学習パラメータとして記憶する。学習結果記憶部50は、学習部40と同数用意される。すなわち、同じ領域特徴を有する局所領域単位の学習結果を別々に記憶する。
第2領域抽出部60は、第1領域抽出部20と同一の領域特徴に基づいて、検査画像から局所領域を抽出する。第2領域抽出部60に入力される検査画像は、画像劣化の検査対象となる画像である。したがって、検査画像は、学習用画像とは異なり、無劣化画像および劣化画像の対ではない。領域特徴、および、当該領域特徴に基づく局所領域の抽出動作の詳細については、後述する。
推定部70は、学習結果記憶部50に記憶されている学習結果に基づいて、第2領域抽出部60により抽出された局所領域の画質劣化を推定する。すなわち、推定部70は、学習部40によって生成された学習モデルに、上記抽出された局所領域の検査画像を入力し、得られた出力値を抽出された局所領域の検査画像の画質劣化度とする。なお、学習モデルに含まれるパラメータには、学習結果記憶部60に記憶された学習結果パラメータが用いられる。推定部70は、学習結果記憶部50と同数用意される。すなわち、推定部70は、同じ領域特徴を有する局所領域別に、学習結果記憶部50に記憶されている学習結果を用いて、画像劣化を推定する。このため、第2領域抽出部60により抽出された局所領域は、その領域特徴により、適切な推定部70に割り当てられる。
推定部70は、図3に示すように、周波数変換部71、変換係数パラメータ化部72、画質推定部73を含む。
周波数変換部71は、第2領域抽出部60により抽出された一局所領域の検査画像に対して周波数変換する。周波数変換は、ウェーブレット変換、離散コサイン変換、またはフーリエ変換などを用いることができる。周波数変換部71は、周波数変換部41と同一処理を行うため、周波数変換部41により代替処理することもできる。
変換係数パラメータ化部72は、周波数変換部71で得られた周波数変換に用いた変換係数の分布形状をパラメータ化して、特徴ベクトルとする。変換係数パラメータ化部72は、変換係数パラメータ化部42と同一処理を行うため、変換係数パラメータ化部42により代替処理することもできる。
画質推定部73は、変換係数パラメータ化部72で得られた特徴ベクトルと、学習結果記憶部50に記憶された学習パラメータとを用いて、一局所領域の画質劣化を推定する。例えば、SVR手法を用いることができる。
画質統合部80は、一つの検査画像から抽出された複数の局所領域ごとの推定部70による画質推定結果を統合して、一つの検査画像の画質推定結果として出力する。複数の画質推定結果に対して、それぞれ重みをつけて統合することができる。なお、推定部70が一つしかない場合、すなわち、抽出される局所領域が一つに限っている場合、画質統合部80は無くても良い。
(画質推定装置の動作)
次に、本発明に係る画質推定装置の動作について説明する。画質推定装置の動作は、CPUが画質推定プログラムを実行することで達成できる。
図4は、本発明に係る画質推定装置の動作フローチャートである。図4に示す動作は、画質推定プログラムのトップクラスに位置するメインプログラムの処理手順を示している。
(ステップS100)
モード読取ステップとして、メインプログラムを実行するCPUは、画質推定プログラムの実行モードを読み取る。実行モードは、ユーザーがキーボード、マウス、タッチパネル等の入力装置を使って設定できる。実行モードには、学習モード、推定モードを含むが、必要に応じて他のモードを含むこともできる。
(ステップS200)
学習モード判断ステップとして、CPUにより、実行モードが学習モードであるか否かについて判断する。学習モードである場合は、ステップ300に移行する。学習モードではない場合は、ステップ400に移行する。
(ステップS300)
学習プロセスステップとして、第1領域抽出部20、客観画質評価値算出部30、学習部40により、学習用画像に対する画質劣化の学習を行う。学習プロセスステップS300の詳細な処理は、図5のフローチャートを用いて後述する。
(ステップS400)
推定モード判断ステップとして、CPUにより、実行モードが推定モードであるか否かについて判断する。推定モードである場合は、ステップ500に移行する。推定モードではない場合は、ステップ600に移行する。
(ステップS500)
推定プロセスステップとして、第2領域抽出部60、推定部70、画質統合部80により、検査画像に対する画質劣化の推定を行う。推定プロセスステップS500の処理は、図7のフローチャートを用いて後述する。
(ステップS600)
メインプログラム終了判断ステップとして、CPUにより、画質推定プログラムを終了させるか否かについて判断する。画質推定プログラムを終了させる場合は、ステップ700に移行する。画質推定プログラムを終了させない場合は、最初に戻って次の画質劣化の学習または推定を行う。
(ステップS700)
終了ステップとして、CPUにより、画質推定プログラムの終了処理を実行する。学習モードまたは推定モードにおいて、プログラム実行の中で使用された変数のアドレス空間の開放や、外部とのアクセスの切断などの処理を行うことができる。
以上において、一つのCPUですべての処理を行う態様を想定して説明したが、実行モード毎に別のCPUで処理することもできる。この場合、CPU間の相互アクセス処理が必要となる。ただし、機能ごとに別のチップに搭載されるCPUを使用することにより、組合せの自由や機能のバージョンアップのし易さ、画質推定を必要とする終端機器で学習結果のみを利用して、学習プロセス自体は必要としないなどといった対応が柔軟にできる。
次に、学習プロセスステップS300、推定プロセスステップS500の詳細の処理を示すサブルーチンフローチャートについて説明する。
図5は、図4の学習プロセスのサブルーチンフローチャートである。
(ステップS310)
CPUは、学習用画像データベース10に予め格納されている複数組の学習用画像から、学習させる学習用画像の組数Lを取得する。画質劣化を学習させる学習用画像の母数の数とジャンルが多いほど、より良い推定精度が得られるが、予め検査画像のジャンルが分かる場合や、必要な推定精度などに応じて、適宜選択しながら決めることができる。
(ステップS320)
CPUは、L組の学習用画像のうち、一組の学習用画像を選択して、選択された学習用画像に対して第1領域抽出部20により領域抽出処理を行う。領域抽出は、画像内の領域を識別するための領域特徴に基づいて行う。
領域特徴は、既存の画像領域分類方法として、LBP(Local Binary Pattern)、VQ(Vector Quantization)、k−means、領域成長法、watershedなどの手法において用いる輝度値、カラー値、濃度勾配などの特徴量と、予め定められた基準量との関係により定める。
また、領域特徴は、既存の画像領域特定手法であるSaliency Mapにおいては、人間が注目しやすい主要オブジェクトの領域を識別するための基準として、画像のエッジ、色、テクスチャなどの画像特徴により定めることもできる。
後述の(実施形態1)では、輝度分散値に基づいて領域を分類することで局所領域を抽出する方法を、(実施形態2)では、Saliency Map手法を用いて領域を特定することで局所領域を抽出する方法を、それぞれ詳細に説明する。
領域特徴に基づいて抽出された局所領域の数をKとする。
(ステップS330)
CPUは、K個の局所領域のうち、任意の局所領域を選択して、選択された一局所領域の学習用画像に対して学習部40により画質劣化の学習を行う。周波数変換部41により、一局所領域に対する劣化画像に対して周波数変換し、得られた周波数変換に用いた変換係数の分布形状を変換係数パラメータ化部42によりパラメータ化して、特徴ベクトルとする。当該特徴ベクトルと、客観画質評価値算出部30で算出された一局所領域の客観評価値との関連付けを、画質学習部43によりSVMを用いて学習する。具体的には、変換係数パラメータ化部42で得られた特徴ベクトルから一局所領域の劣化画像の画質劣化度を判定するための学習モデルを生成する。例えば、画質学習部43は、学習モデルとして、少なくとも一つ以上のパラメータ(変数)を持つ数理モデルを採用し、各特徴ベクトルを入力したときに正解値の客観評価値を出力するように数理モデルのパラメータ値を決定する。
(ステップS340)
CPUは、一局所領域の学習結果、すなわち上記関連付けを学習パラメータとして、学習結果記憶部50に記憶させる。
(ステップS350)
CPUは、ステップS320で領域抽出されたK個のすべての局所領域の画質劣化の学習が終えたか否かについて判断する。すべての局所領域の画質劣化の学習が終えた場合、次のステップS360に移行する。継続して画質劣化の学習をすべき局所領域がある場合、ステップS330に移行して、他の局所領域の画質劣化の学習を行う。
(ステップS360)
CPUは、ステップS310で取得されたL個のすべての組の学習用画像の画質劣化の学習が終えたか否かについて判断する。すべての組の画質劣化の学習が終えた場合、メインプログラムに移行する。継続して画質劣化の学習をすべき組がある場合、ステップS320に移行して、他の組の学習用画像の画質劣化の学習を行う。
図6は、図4の推定プロセスのサブルーチンフローチャートである。
(ステップS510)
CPUは、画質推定の対象である検査画像の入力検知を行う。検査画像は、主として符号化された画像である。
(ステップS520)
CPUは、検査画像に対して第2領域抽出部60により領域抽出処理を行う。領域抽出は、第1領域抽出部20と同一の領域特徴に基づいて行う。抽出された局所領域の数をK’とする。
(ステップS530)
CPUは、K’個の局所領域のうち、任意の局所領域を選択して、選択された一局所領域の検査画像に対して推定部70により画質劣化の推定を行う。周波数変換部71により、一局所領域に対する検査画像に対して周波数変換し、得られた周波数変換に用いた変換係数の分布形状を変換係数パラメータ化部72によりパラメータ化して、特徴ベクトルとする。当該特徴ベクトルを、学習結果記憶部50に記憶された学習パラメータによって決定される学習モデルに入力して一局所領域の画質劣化度を推定する。
(ステップS540)
CPUは、一局所領域の推定結果を画質統合部80に格納する。
(ステップS550)
CPUは、ステップS520で領域抽出されたK’個のすべての局所領域の画質劣化の推定が終えたか否かについて判断する。すべての局所領域の画質劣化の推定が終えた場合、次のステップS560に移行する。継続して画質劣化の推定をすべき局所領域がある場合、ステップS530に移行して、他の局所領域の画質劣化の推定を行う。
(ステップS560)
CPUは、すべての抽出された局所領域の画質劣化の推定が終えると、画質統合部80によりそれぞれの一局所領域の推定結果に重みを付加してこれらを統合し、一つの検査画像の画質推定結果として、出力機器を通じて出力する。重みは、たとえば、検査画像全体における一局所領域が占める面積、すなわち、全画素数に対する一局所領域の画素数のパーセンテージとすることができる。
(ステップS570)
画質推定処理を終了させるか否かについて判断する。処理を終了させる場合、メインプログラムに移行する。継続して画質劣化の推定を実行する場合、ステップS510に移行して、次の検査画像の入力検知を行う。
なお、上記した各フローチャートの各処理単位は、画質推定装置の理解を容易にするために、主な処理内容に応じて分割したものである。処理ステップの分類の仕方やその名称によって、本願発明が制限されることはない。画質推定装置で行われる処理は、さらに多くの処理ステップに分割することもできる。また、1つの処理ステップが、さらに多くの処理を実行してもよい。
次に、本発明に係る画質推定装置、画質推定方法および画質推定プログラムを(実施形態1)と(実施形態2)に分けてさらに詳細に説明する。
(実施形態1)
実施形態1は、輝度分散値に基づいて学習用画像または検査画像から局所領域を抽出する方法を利用した画質推定装置である。
(実施形態1の画質推定装置の構成)
図7は、実施形態1に係る画質推定装置の構成を示すブロック図である。図7において、図1と同一の構成要素には図1と同一の符号を付している。
本実施形態では、図1の画質推定装置が、学習部40、学習結果記憶部50、推定部70をそれぞれ二つ有している場合を一例として説明する。
ただし、これは本実施形態の局所領域抽出方法の説明を分かりやすく説明するために例示したものだけであって、学習部40、学習結果記憶部50、推定部70が二つ以上の場合も、当然本願発明の技術的範囲に属する。
本実施形態において、第1領域抽出部20は、上記領域特徴に基づいて学習用画像を二つの局所領域に分類して抽出する。
客観画質評価値算出部30は、第1領域抽出部20により抽出された二つの局所領域について、それぞれ客観評価値を算出する。
学習部40Aは、第1領域抽出部20により抽出された一方の局所領域と、当該一方の局所領域に対する客観画質評価値とを関連付け、当該関連付けを異なる学習用画像を用いて繰り返し、画質劣化を学習する。
学習部40Bは、第1領域抽出部20により抽出された他方の局所領域と、当該他方の局所領域に対する客観画質評価値とを関連付け、当該関連付けを異なる学習用画像を用いて繰り返し、画質劣化を学習する。
学習結果記憶部50Aは、学習部40AのSVMにより学習した結果を一つの学習パラメータとして記憶する。
学習結果記憶部50Bは、学習部40BのSVMにより学習した結果を他の一つの学習パラメータとして記憶する。
同様に、第2領域抽出部60は、上述領域特徴に基づいて検査画像から二つの局所領域を抽出する。
推定部70Aは、学習部40Aによる学習結果に基づいて、第2領域抽出部60により抽出された一つの局所領域の画質劣化を推定する。
推定部70Bは、学習部40Bよる学習結果に基づいて、第2領域抽出部60により抽出された他の一つの局所領域の画質劣化を推定する。
(実施形態1の画質推定装置の動作)
次に、実施形態1の画質推定装置の動作について説明する。図4〜6における処理フローのうち、ステップS320およびステップS520における領域抽出方法について主に説明する。他の処理ステップについては、図4〜6の処理フローと同様な動作を行う。
図8は、局所領域を抽出するための画像の一部を拡大し、基準ブロックBijでブロック分割した様子を示す図である。図9は、図8の基準ブロックBijを示す図である。
本実施形態の領域抽出方法の理解を容易にするために、局所領域を抽出する対象である学習用画像または検査画像において、X×Yピクセルサイズの画像領域部分を切出して説明する。
図8に示す例では、40×40サイズの画像を用いる。拡大された図8でわかるように、左上の領域と右下の領域では、隣接する画素間の輝度変化が激しく、高い空間周波数成分を含んでいる。
一方、左下から右上に係る領域では、比較的に隣接する画素間の輝度変化が緩く、低い空間周波数成分を含んでいる。
このように、領域毎に空間周波数成分が異なる画像に対して、効率的に画質劣化を学習または推定させるための方法を開示する。
まず、図8に示すように、40×40サイズの画像領域を基準ブロックBij(N×N)で機械的なブロック分割を行う。
ここで、基準ブロックBijは、図9に示すような(N=8ピクセル)の矩形ブロックである。そのため、領域抽出対象画像はB11〜B55の25個のブロック単位に画像領域が分割される。
次に、基準ブロックBijにより分割された画像領域毎に、当該分割された画像領域内の平均輝度分散値VBij(i=1〜5、j=1〜5)を求める。画像内座標(x、y)における画素の輝度値をI(x、y)とした場合、平均輝度分散値VBijは下記数式1により求められる。
図10は、図8の分割されたブロック単位の輝度分散値算出結果を示す図である。B11〜B55の25個のブロック単位に、それぞれの平均輝度分散値VB11〜VB55を表示している。
さらに、上記平均輝度分散値VBijは、下記数式2により正規化され、V’Bijと表すことができる。
ここで、VupperはVBijの上限値を決める閾値である。
この正規化されたVBij’に基づいて、予め定められた領域分類閾値Vthにより、VBij’とVthの数値の大小関係で上記分割されたブロックを2分類できる。
図11は、図10の輝度分散値算出結果に基づいて、分割されたブロックを2分類して、局所領域を抽出するイメージ図である。
Bij’がVthより大きい場合(例えば、VBij’=0.7、Vth=0.5)、該当するブロックを第0局所領域として、VBij’がVthより大きくない場合(例えば、VBij’=0.3、Vth=0.5)、該当するブロックを第1局所領域として、分類できる。
すなわち、本実施形態においては、機械的に分割された矩形ブロック単位の画像を、さらにブロック集合である第0局所領域と第1局所領域に分類した。領域分類には、正規化された輝度分散値VBij’と領域分類閾値Vthの大小関係を領域特徴として用いた。
このように、画像中の領域特徴に基づいて抽出された局所領域別に画質劣化の学習または推定を行うことにより、画像に固有の空間周波数分布の影響を考慮して、画質推定精度を向上させている。
(実施形態2)
実施形態2は、Saliency Map手法を用いて領域を特定することで局所領域を抽出する方法を利用した画質推定装置である。
(実施形態2の画質推定装置の構成)
図12は、実施形態2に係る画質推定装置の構成を示すブロック図である。図12において、図1と同一の構成要素には図1と同一の符号を付している。
実施形態2では、図1の画質推定装置が、学習部40、学習結果記憶部50、推定部70をそれぞれ一つだけ有し、画質統合部80を有していない場合を一例として説明する。
本実施形態において、第1領域抽出部20は、領域特徴に基づいて学習用画像または検査画像から一つの局所領域を特定して抽出する。
客観画質評価値算出部30は、第1領域抽出部20により抽出された一つの局所領域について、客観評価値を算出する。
学習部40は、第1領域抽出部20により抽出された一つの局所領域と、当該一つの局所領域の上記一つの客観画質評価値とを関連付ける。当該関連付けを、学習部40は、異なる学習用画像を用いて繰り返し、画質劣化を学習する。
学習結果記憶部50は、学習部40のSVMにより学習した結果を一つの学習パラメータとして記憶する。
同様に、第2領域抽出部60は、上述領域特徴に基づいて検査画像から一つの局所領域を抽出する。
推定部70は、学習部40による学習結果に基づいて、第2領域抽出部60により抽出された一つの局所領域の画質劣化を推定する。
(実施形態2の画質推定装置の動作)
次に、実施形態2の画質推定装置の動作について説明する。図4〜6における処理フローのうち、ステップS320およびステップS520における領域抽出方法について主に説明する。他の処理ステップについては、図4〜6の処理フローと同様な動作を行う。
図13は、局所領域を抽出するための画像の一例を示す図である。
本実施形態の領域抽出方法を説明するため、領域抽出対象画像として、図13に示すような蝶の写真をパソコンに取り込んだ画像を用いる。
本実施形態の領域抽出対象画像は、さらに原画像をサブサンプリングした縮小画像を用いてもよい。領域抽出のための演算コスト削減や、微小なノイズ、テクスチャ変化に影響を受けないロバストな領域抽出を行うことができる。
図14は、図13の領域抽出対象画像に対して、Saliency Map手法により注視しやすい特徴領域を特定した画像である。図でわかるように、当該手法により、画像における主要オブジェクトの蝶とバックグランドを分離することができる。
図15は、図14の特徴領域特定結果に基づいて、局所領域を抽出するイメージ図である。図面中の白枠で囲まれた局所領域の画像のみを抽出して、画質劣化を学習または推定させる。
このように、人間が画質劣化を知覚する際には画像内の特徴的な領域である注視領域が大きな影響を与えるという前提に基づいて、注視領域の空間周波数特性に適した画質劣化推定モデルを用いることによって、画質推定精度を向上できる。
なお、上記実施形態においては、静止画像における画質劣化の学習または推定を行う場合を開示した。
ただし、本発明に係る画質推定装置、画質推定方法および画質推定プログラムによれば、動画像に対する画質劣化の学習または推定を行うこともできる。動画像は静止画像が時間的に連続したフレームの集合と考えられるため、学習または推定の画像をフレーム画像とみなすことができる。
また、画質推定装置を動作させるプログラムは、USBメモリ、フロッピー(登録商標)ディスク、CD−ROM等のコンピュータ読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピュータ読み取り可能な記録媒体に記録されたプログラムは、通常、メモリやストレージ等に転送され記憶される。また、このプログラムは、たとえば、単独のアプリケーションソフトとして提供されてもよいし、画質推定装置の一機能としてその装置のソフトウェアに組み込んでもよい。
10 学習用画像データベース、
20 第1領域抽出部、
30 客観画質評価値算出部、
40 学習部、
50 学習結果記憶部、
60 第2領域抽出部、
70 推定部、
80 画質統合部、
41 周波数変換部、
42 変換係数パラメータ化部、
43 画質学習部、
71 周波数変換部、
72 変換係数パラメータ化部、
73 画質推定部、
40A 第1学習部、
40B 第2学習部、
40A 第1学習結果記憶部、
40B 第2学習結果記憶部、
70A 第1推定部、
70B 第2推定部。

Claims (13)

  1. 画像内の領域を識別するための領域特徴に基づいて、学習用に予め劣化させた学習用画像から局所領域を少なくとも一つ抽出する第1領域抽出部と、
    前記第1領域抽出部により抽出された前記局所領域と、劣化前後の学習用画像の比較により前記局所領域に与えられる画質評価値とを関連付け、当該関連付けを異なる学習用画像を用いて繰り返し、画質劣化を学習する学習部と、
    前記領域特徴に基づいて、検査画像から局所領域を抽出する第2領域抽出部と、
    前記学習部による学習結果に基づいて、前記第2領域抽出部により抽出された局所領域の画質劣化を推定する推定部と、
    を有する画質推定装置。
  2. 前記領域特徴は複数に分類可能であり、
    前記第1領域抽出部は、前記領域特徴毎に、前記学習用画像から複数の局所領域を分類して抽出し、
    前記学習部は、前記領域特徴の分類別に、前記局所領域と前記画質評価値とを関連付けて、前記領域特徴の分類毎の画質劣化を学習し、
    前記第2領域抽出部は、前記領域特徴毎に、前記検査用画像から複数の局所領域を分類して抽出し、
    前記推定部は、前記学習部による学習結果に基づいて、前記第2領域抽出部により抽出された局所領域の画質劣化を前記領域特徴ごとに推定する請求項1に記載の画質推定装置。
  3. 複数の局所領域のそれぞれの画質劣化の推定結果を統合して、前記検査用画像全体の画質劣化を算出する統合部をさらに有する請求項2に記載の画質推定装置。
  4. 前記領域特徴は、前記学習用画像および前記検査用画像の画素の輝度分散値の所定範囲として領域を識別するための基準である請求項1〜3のいずれか一項に記載の画質推定装置。
  5. 前記領域特徴は、前記画像に含まれる主要オブジェクトとして領域を識別するための基準である請求項1〜3のいずれか一項に記載の画質推定装置。
  6. 前記画質評価値は、劣化前後の学習用画像に基づき、差分を算出することによって客観値として得られる請求項1〜5のいずれか一項に記載の画質推定装置。
  7. 画像内の領域を識別するための領域特徴に基づいて、学習用に予め劣化させた学習用画像から局所領域を少なくとも一つ抽出する第1領域抽出ステップと、
    前記第1領域抽出ステップにより抽出された前記局所領域と、劣化前後の学習用画像の比較により前記局所領域に与えられる画質評価値とを関連付け、当該関連付けを異なる学習用画像を用いて繰り返し、画質劣化を学習する学習ステップと、
    前記領域特徴に基づいて、検査画像から局所領域を抽出する第2領域抽出ステップと、
    前記学習ステップによる学習結果に基づいて、前記第2領域抽出ステップにより抽出された局所領域の画質劣化を推定する推定ステップと、
    を有する画質推定方法。
  8. 前記領域特徴は複数に分類可能であり、
    前記第1領域抽出ステップは、前記領域特徴毎に、前記学習用画像から複数の局所領域を分類して抽出し、
    前記学習ステップは、前記領域特徴の分類別に、前記局所領域と前記画質評価値とを関連付けて、前記領域特徴の分類毎の画質劣化を学習し、
    前記第2領域抽出ステップは、前記領域特徴毎に、前記検査用画像から複数の局所領域を分類して抽出し、
    前記推定ステップは、前記学習部による学習結果に基づいて、前記第2領域抽出ステップにより抽出された局所領域の画質劣化を前記領域特徴ごとに推定する請求項7に記載の画質推定方法。
  9. 複数の局所領域のそれぞれの画質劣化の推定結果を統合して、前記検査用画像全体の画質劣化を算出する統合ステップをさらに有する請求項8に記載の画質推定装置。
  10. 前記領域特徴は、前記学習用画像および前記検査用画像の画素の輝度分散値の所定範囲として領域を識別するための基準である請求項7〜9のいずれか一項に記載の画質推定方法。
  11. 前記領域特徴は、前記画像に含まれる主要オブジェクトとして領域を識別するための基準である請求項7〜9のいずれか一項に記載の画質推定方法。
  12. 前記画質評価値は、劣化前後の学習用画像に基づき、差分を算出することによって客観値として得られる請求項7〜11のいずれか一項に記載の画質推定方法。
  13. 請求項7〜12のいずれか一項に記載の画質推定方法を、コンピュータに実行させるためのプログラム。
JP2012200966A 2012-09-12 2012-09-12 画質推定装置、画質推定方法および画質推定プログラム Pending JP2014056442A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012200966A JP2014056442A (ja) 2012-09-12 2012-09-12 画質推定装置、画質推定方法および画質推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012200966A JP2014056442A (ja) 2012-09-12 2012-09-12 画質推定装置、画質推定方法および画質推定プログラム

Publications (1)

Publication Number Publication Date
JP2014056442A true JP2014056442A (ja) 2014-03-27

Family

ID=50613701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012200966A Pending JP2014056442A (ja) 2012-09-12 2012-09-12 画質推定装置、画質推定方法および画質推定プログラム

Country Status (1)

Country Link
JP (1) JP2014056442A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101836096B1 (ko) 2016-12-02 2018-03-12 주식회사 수아랩 이미지 데이터의 상태 판단 방법, 장치 및 컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램
JP2019145974A (ja) * 2018-02-20 2019-08-29 日本放送協会 超高精細映像に適した画質評価装置
JP2020014042A (ja) * 2018-07-13 2020-01-23 日本放送協会 画質評価装置、学習装置及びプログラム
KR20200062705A (ko) * 2018-11-27 2020-06-04 에스케이텔레콤 주식회사 무기준 화질 평가 방법 및 장치
JP2021174532A (ja) * 2020-04-23 2021-11-01 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 画像を処理するための方法および装置、電子機器、記憶媒体並びにコンピュータプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11341526A (ja) * 1998-05-22 1999-12-10 Matsushita Electric Ind Co Ltd 画質測定装置
JP2005129070A (ja) * 2003-10-27 2005-05-19 Hewlett-Packard Development Co Lp 画質を評価するシステム及び方法
JP2011250013A (ja) * 2010-05-25 2011-12-08 Nippon Telegr & Teleph Corp <Ntt> 画質評価方法、画質評価装置、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11341526A (ja) * 1998-05-22 1999-12-10 Matsushita Electric Ind Co Ltd 画質測定装置
JP2005129070A (ja) * 2003-10-27 2005-05-19 Hewlett-Packard Development Co Lp 画質を評価するシステム及び方法
JP2011250013A (ja) * 2010-05-25 2011-12-08 Nippon Telegr & Teleph Corp <Ntt> 画質評価方法、画質評価装置、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
寺田 孝則、外2名: ""フラクタル次元を用いた反復変換符号化の高速化"", 画像符号化シンポジウム 平成7年10月2日・3日・4日 第10回シンポジウム資料, JPN6016028775, 4 October 1995 (1995-10-04), JP, pages 73 - 74, ISSN: 0003366660 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101836096B1 (ko) 2016-12-02 2018-03-12 주식회사 수아랩 이미지 데이터의 상태 판단 방법, 장치 및 컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램
JP2019145974A (ja) * 2018-02-20 2019-08-29 日本放送協会 超高精細映像に適した画質評価装置
JP2020014042A (ja) * 2018-07-13 2020-01-23 日本放送協会 画質評価装置、学習装置及びプログラム
KR20200062705A (ko) * 2018-11-27 2020-06-04 에스케이텔레콤 주식회사 무기준 화질 평가 방법 및 장치
KR102257016B1 (ko) 2018-11-27 2021-05-26 에스케이텔레콤 주식회사 무기준 화질 평가 방법 및 장치
JP2021174532A (ja) * 2020-04-23 2021-11-01 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 画像を処理するための方法および装置、電子機器、記憶媒体並びにコンピュータプログラム
KR20210131221A (ko) * 2020-04-23 2021-11-02 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. 이미지를 처리하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램
US11734809B2 (en) 2020-04-23 2023-08-22 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for processing image
KR102583112B1 (ko) * 2020-04-23 2023-09-27 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. 이미지를 처리하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램

Similar Documents

Publication Publication Date Title
Tu et al. UGC-VQA: Benchmarking blind video quality assessment for user generated content
Hosu et al. KonIQ-10k: An ecologically valid database for deep learning of blind image quality assessment
Li et al. Blind image quality assessment using statistical structural and luminance features
Venkatanath et al. Blind image quality evaluation using perception based features
Zhang et al. Opinion-unaware blind quality assessment of multiply and singly distorted images via distortion parameter estimation
EP3333768A1 (en) Method and apparatus for detecting target
Wu et al. Blind image quality assessment based on rank-order regularized regression
JP6547386B2 (ja) 画像処理装置及び方法
US20070189586A1 (en) Finger/palm print image processing system and finger/palm print image processing method
Zhang et al. Blind image quality assessment with improved natural scene statistics model
US9305359B2 (en) Image processing method, image processing apparatus, and computer program product
CN104969240B (zh) 用于图像处理的方法和系统
JP2014056442A (ja) 画質推定装置、画質推定方法および画質推定プログラム
Ahmed et al. PIQI: perceptual image quality index based on ensemble of Gaussian process regression
CN111881920A (zh) 一种大分辨率图像的网络适配方法及神经网络训练装置
CN107944497A (zh) 基于主成分分析的图像块相似性度量方法
JP2014130427A (ja) 画質推定装置、画質推定方法および画質推定プログラム
Heydari et al. A low complexity wavelet-based blind image quality evaluator
Tang et al. Blind quality index for camera images with natural scene statistics and patch-based sharpness assessment
CN114444565A (zh) 一种图像篡改检测方法、终端设备及存储介质
JP2014131128A (ja) 画質推定装置、画質推定方法および画質推定プログラム
Yang et al. No-reference image quality assessment based on sparse representation
Satapathy et al. A combination of variational mode decomposition and histogram equalization for image enhancement
Yu et al. A hybrid indicator for realistic blurred image quality assessment
Al-Bandawi et al. Classification of image distortion based on the generalized Benford’s law

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150410

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160802

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170221