JP6018492B2 - 画質評価装置及びその制御方法、プログラム - Google Patents

画質評価装置及びその制御方法、プログラム Download PDF

Info

Publication number
JP6018492B2
JP6018492B2 JP2012265668A JP2012265668A JP6018492B2 JP 6018492 B2 JP6018492 B2 JP 6018492B2 JP 2012265668 A JP2012265668 A JP 2012265668A JP 2012265668 A JP2012265668 A JP 2012265668A JP 6018492 B2 JP6018492 B2 JP 6018492B2
Authority
JP
Japan
Prior art keywords
noise
moving image
image
calculated
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012265668A
Other languages
English (en)
Other versions
JP2013146052A5 (ja
JP2013146052A (ja
Inventor
智志 池田
智志 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012265668A priority Critical patent/JP6018492B2/ja
Priority to US13/708,506 priority patent/US20130155193A1/en
Publication of JP2013146052A publication Critical patent/JP2013146052A/ja
Publication of JP2013146052A5 publication Critical patent/JP2013146052A5/ja
Application granted granted Critical
Publication of JP6018492B2 publication Critical patent/JP6018492B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/02Diagnosis, testing or measuring for television systems or their details for colour television signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Picture Signal Circuits (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Description

本発明は、動画像のノイズ特性を評価する画質評価装置、及びその制御方法、プログラムに関するものである。
従来、デジタルカメラやイメージスキャナ等の撮像装置や画像入力装置が生成する静止画像のノイズを評価する様々な手法が開発されている。
例えば、特許文献1では、静止画に関してノイズを評価する手法を開発している。特許文献1では、明度情報及び知覚色度情報を周波数変換してパワースペクトルを算出し、網点周波数成分を除去したのち、視覚特性を乗算することで、ノイズの評価値を算出している。
他方、デジタルビデオカメラ等の動画撮像装置が生成する画像のノイズ評価手法は、静止画ノイズ評価手法の延長として開発されてきている。例えば、特許文献2では、フレーム毎に交流成分のパワー量を算出し、その平均値に対して空間視覚特性を重みづけすることでノイズの評価値を算出している。
これに対して、空間視覚特性のみではなく、時間視覚特性も考慮してノイズを評価する手法もある。特許文献3では、動画の3次元データに対して空間視覚周波数特性及び時間視覚周波数特性を有するフィルタを施したのち、ノイズ量を積算することで、ノイズ評価値を算出している。
特開2004−064689号公報 特開2003−189337号公報 特開2000−036971号公報
特許文献1及び特許文献2には、ノイズの時間周波数特性を考慮しておらず、主観評価値との相関が低いという課題がある。
特許文献1及び特許文献2は、動画像のノイズに対しても、静止画と同様に空間的なノイズ量のみを考慮しており、時間的な変化を考慮していない。例えば、24fpsのノイズ動画像と、それを静止画像として見た場合とを見比べると、動画像として見た方がノイズのちらつきが目につき、ノイズ感を強く感じる。このように、同じノイズがのった画像でも、フレームレートを変えて表示した場合に、知覚されるノイズ量も異なる。しかしながら、特許文献1及び特許文献2の手法では、ノイズ評価値は同じになる。
他方、特許文献3による手法では、ノイズの時空間の周波数特性を考慮できるため、主観との相関が高いが、計算量が膨大になるという課題がある。これは、特許文献3による手法では、3次元の画像データに対して、空間周波数フィルタを施したのち、さらに時間周波数フィルタを施す必要があるからである。また、周波数解析に基づき、同様の処理を行う際にも、3次元フーリエ変換処理を施したのち、時空間の視覚周波数特性を乗算する必要があるため、膨大な計算量が必要となる。
本発明は上記の課題を解決するためになされたものであり、主観との相関が高い評価値を効率的に算出することができる画質評価装置及びその制御方法、プログラムを提供することを目的とする。
上記の目的を達成するための本発明による画質評価装置は以下の構成を備える。即ち、
動画像のノイズ特性を評価する画質評価装置であって、
評価対象の動画像の空間方向の自己相関係数及び時間方向の自己相関係数を取得する取得手段と、
前記取得手段で取得した前記空間方向の自己相関係数に対して周波数解析を実行し、その周波数解析結果に空間周波数の視覚特性を示す視覚応答関数を乗算することで空間方向のノイズ量を計算すると共に、前記時間方向の自己相関係数に対して周波数解析を実行し、その周波数解析結果に時間周波数の視覚特性を示す視覚応答関数を乗算することで時間方向のノイズ量を計算する計算手段と、
前記計算手段で計算した複数のノイズ量の積を、前記評価対象の動画像の動画ノイズ評価値として算出する評価値算出手段と
を備える。
本発明は、ノイズ特性としてノイズの自己相関係数に着目し、それを空間、時間方向にて独立に視覚特性を乗算することで、評価値を算出する。具体的には、まず、時空間3次元の自己相関係数からパワースペクトルを算出し、それぞれに視覚周波数特性を乗算し、その積分値を算出する。さらに、各積分値の積をとることで、動画ノイズ評価値を算出する。
本発明によれば、空間方向の視覚特性だけでなく、時間方向の視覚特性も考慮できるため、ノイズの時間的な変化も考慮したノイズ評価値を算出できる。このため、再生時の再生フレームレート等の影響を反映でき、主観との相関が高い評価値を算出できる。
さらに、空間、時間方向のノイズ特性を独立に扱い評価値を算出することで、フーリエ変換の次元数を減らすことができ、特許文献3の手法より計算量を大幅に削減できる。また、予め独立とみなせる次元毎にノイズの自己相関係数を算出しておくため、画像処理等によりノイズの特性が変わった場合にも評価値の再計算の演算量が少ないという効果もある。例えば、時間方向のみのNR係数が変わった場合は、時間方向のみの自己相関係数を再計算するだけでよい。
実施形態1のチャート画像の一例を表す模式図である。 実施形態1の画質評価装置の構成を示すブロック図である。 実施形態1のアプリケーションウィンドウを表す模式図である。 実施形態1の画像条件を設定するダイアログウィンドウを表す模式図である。 実施形態1の画質評価処理の動作を表すフローチャートである。 実施形態1の自己相関係数と画像信号との関係を表す模式図である。 実施形態1の水平方向ノイズ量算出処理の動作を表すフローチャートである。 実施形態1の視覚特性の模式図である。 実施形態1の垂直方向ノイズ量算出処理の動作を表すフローチャートである。 実施形態1の時間方向ノイズ量算出処理の動作を表すフローチャートである。 実施形態2の画質評価処理の動作を表すフローチャートである。 実施形態2の自己相関係数と画像信号との関係を表す模式図である。 実施形態2の空間方向2次元のノイズ量算出処理の動作を表すフローチャートである。 実施形態3のアプリケーションウィンドウを表す模式図である。 実施形態3のノイズ評価値計算の情報設定ダイアログを表す模式図である。 実施形態3の評価値計算処理の動作を表すフローチャートである。 実施形態3のディスプレイの時間応答特性を考慮する場合の構成図である。 実施形態5のノイズマッチング装置の構成図である。 実施形態5のアプリケーションウィンドウを表す模式図である。 実施形態5のディスプレイのステップ応答を取得するための再生画像の模式図である。 実施形態5のノイズ量補正処理の動作を表すフローチャートである。 実施形態5のディスプレイ時間応答特性取得処理の動作を表すフローチャートである。 実施形態5のディスプレイのステップ応答の模式図である。 実施形態5のディスプレイのインパルス応答の模式図である。 実施形態5の最適パラメータ選択処理の動作を表すフローチャートである。 実施形態5のディスプレイのインパルス応答を取得するための再生画像の模式図である。 実施形態6のノイズマッチング装置の構成図である。 実施形態6のアプリケーションウィンドウを表す模式図である。 実施形態6の評価条件を設定するダイアログウィンドウを表す模式図である。 実施形態6のノイズ量補正処理の動作を表すフローチャートである。 実施形態7のノイズ量補正処理の動作を表すフローチャートである。 実施形態7の撮像装置時間応答特性取得処理の動作を表すフローチャートである。
以下、本発明の実施の形態について図面を用いて詳細に説明する。
<実施形態1>
実施形態1は、動画像の動画ノイズの特性が水平方向、垂直方向、時間方向に対して独立であると仮定し、少ない計算量で主観との相関が高い動画ノイズ定量評価値を算出する。具体的には、水平、垂直、時間の3次元それぞれに対して自己相関関数(自己相関係数)をあらかじめ算出しておき、視覚特性を乗算することで3つの次元それぞれに対してノイズ量を算出する。さらに、算出された次元毎のノイズ量を乗算により統合することで、動画ノイズの評価値(ノイズの知覚量)を出力する。
実施形態1では、図1に示すチャート画像を撮像装置にて撮影し、その動画ノイズの知覚量を画質評価装置にて評価する。以下では、まず、画質評価装置の構成について説明し、画質評価処理の1つとして、具体的な動画ノイズ評価処理(あるいは動画ノイズ評価プログラム)について述べる。
図2は、撮像装置により撮影されたチャート画像の動画ノイズ知覚量を評価する画質評価装置の構成を示すブロック図である。
CPU201は、RAM203をワークメモリとして、ROM202及びハードディスクドライブ(HDD)205に格納されたオペレーティングシステム(OS)や各種プログラムを実行する。そして、CPU201は、PCI(peripheral component interconnect)バス等のシステムバス213を介して各種構成要素を制御する。さらに、CPU201は、後述する動画ノイズ評価プログラム、メディアリーダドライバを含む各種プログラムを実行する。CPU201は、システムバス213及びHDDインタフェイス(I/F)204を介してHDD205にアクセスする。
HDDインタフェイス(I/F)204は、HDD205や光ディスクドライブ等の二次記憶装置を接続する。これには、例えば、シリアルATA(SATA)等のインタフェイスがある。CPU201は、HDDインタフェイス(I/F)204を介して、HDD205からのデータ読出、及びHDD205へのデータ書込が可能である。また、CPU201は、後述する処理のユーザインタフェイスや処理結果をグラフィックアクセラレータ211を介してディスプレイ212に表示する。さらに、CPU201は、ユーザからの指示をUSBインタフェイス(I/F)208に接続されたキーボード209、マウス210を介して入力する。また、CPU201は、画像データをメディアインタフェイス(I/F)206を介してメディアリーダ207より入力する。
上記構成において、動画ノイズ評価プログラムは、次の様に動作する。まず、HDD205に格納されている動画ノイズ評価プログラムが、キーボード209及びマウス210を介したユーザの指示によりCPU201にて実行される。これにより、図3のアプリケーションウィンドウ301がディスプレイ212上に表示される。ユーザがアプリケーションウィンドウ301のメニューリスト302から「画像ファイルの読込」を選択し、処理対象の画像ファイルを設定する。これにより、プログラム処理に従い、メディアに格納されている画像ファイルはメディアリーダ207とメディアインタフェイス(I/F)206を介しRAM203に画像データとして転送される。また、HDD205に格納されている画像ファイルはHDDインタフェイス(I/F)204を介してRAM203に画像データとして転送される。読み込まれた画像データは、グラフィックアクセラレータ211を介して、ディスプレイ212上の画像表示領域303に表示される。
また、ユーザがメニューリスト302から「画像評価条件の設定」を選択すると、図4のダイアログウィンドウ401がディスプレイ212上に表示され、画像評価条件の設定を行う。ダイアログウィンドウ401に於いて、フレームレート設定エディタ402では読み込んだ画像データの表示フレームレートを設定する。また、ディスプレイ縦画素ピッチ設定エディタ403では読み込んだ画像データを表示するディスプレイの縦画素ピッチを設定する。また、ディスプレイ横画素ピッチ設定エディタ404では読み込んだ画像データを表示するディスプレイの横画素ピッチを設定する。最後に、観察者視距離設定エディタ405ではユーザがディスプレイを観察する際の視距離を設定する。ユーザが設定終了ボタン406を押下すると、各設定エディタ402、403、404に入力された値が、例えば、RAM203に記憶され、ダイアログウィンドウ401が非表示となる。
次に、ユーザは画像表示領域303上で、マウス210を介して評価領域304を指定する。ここで、評価領域304は、撮影画像のチャート画像領域をはみ出さないように設定される必要がある。そして、ユーザが評価値計算ボタン305を押下すると、後述する図5のフローチャートに従う画質評価処理がなされ、算出された動画ノイズ評価値が評価値表示エディタ306に表示される。
以下では、動画ノイズ評価プログラムで実行される画質評価処理について述べる。実施形態1では、画像データの水平方向、垂直方向、時間方向の3つの次元に対して、それぞれ予め自己相関関数を算出しておく。さらに、それぞれの自己相関関数と空間及び時間視覚特性を用いて3つの次元それぞれに対してノイズ量を計算する。さらに、計算された次元毎のノイズ量を乗算により統合することで、動画ノイズの評価値を出力する。以下では、図5のフローチャートを用いて、処理の内容を具体的に説明する。
ステップS501では、メニューリスト302によりRAM203上に読み込まれた評価対象の画像データ(動画像データ)に対して、後述する色空間変換処理を施し、均等色空間へと変換する。
ステップS502では、画像データから動画ノイズ成分のみを抽出する。具体的には、実施形態1がチャート画像等の静止物体を撮影しているという仮定に基づき、画像データを時間方向に平均することで時間的な直流成分を算出し、算出した直流成分をその画像データから減算することで、動画ノイズ成分のみを抽出する。
ステップS503では、抽出した動画ノイズ成分に対し、水平方向、垂直方向、時間方向それぞれにおける自己相関係数を算出する。尚、あらかじめRAM203等のメモリに保持している場合には、RAMから水平方向、垂直方向、時間方向に対するそれぞれ自己相関係数を取得する。
ステップS504では、水平方向のノイズの自己相関係数と水平方向周波数感度特性とから、水平方向のノイズ量(第1のノイズ量)を計算する。ここで、水平方向のノイズ量は、L*成分を用いて計算したHval_L、a*成分を用いて計算したHval_a、b*成分を用いて計算したHval_bである。
ステップS505では、垂直方向のノイズの自己相関係数と垂直方向周波数感度特性とから、垂直方向のノイズ量(第2のノイズ量)を計算する。ここで、垂直方向のノイズ量は、L*成分を用いて計算したVval_L、a*成分を用いて計算したVval_a、b*成分を用いて計算したVval_bである。
ステップS506では、時間方向のノイズの自己相関係数と時間方向周波数感度特性とから、時間方向のノイズ量(第3のノイズ量)を計算する。ここで、時間方向のノイズ量は、L*成分を用いて計算したTval_L、a*成分を用いて計算したTval_a、b*成分を用いて計算したTval_bである。
ステップS507では、ステップS504、ステップS505、ステップS506により計算されたノイズ量の積から、L*、a*、b*毎の動画ノイズ評価値を算出する。具体的には、L*成分の動画ノイズ評価値Nval_L、a*成分の動画ノイズ評価値Nval_a、b*成分の動画ノイズ評価値Nval_bは、以下の(1)式により与えられる。
Figure 0006018492
ステップS508では、動画ノイズの定量評価値を算出する。ノイズ評価値算出処理は、具体的に以下の様に行われる。ステップS507で算出したL*、a*、b*毎の動画ノイズ評価値を線形和することで、動画ノイズの定量評価値を算出する。具体的には、以下の式(2)により与えられる。
Figure 0006018492
ここで、a_weight及びb_weightは重み係数である。
以下では、ステップS501の色空間変換処理について詳しく述べる。まず、メニューリスト302によりRAM203上に読み込まれた画像データを、三次元のRGBデータへとデコードする。以下では、tフレーム目の画像における、左上から水平方向にx画素目、垂直方向にy画素目のRGB画素値を、それぞれR(x,y,t)、G(x,y,t)、B(x,y,t)として表現する。次に、RGBデータから三刺激値X、Y、Zを算出し、さらにL*、a*、b*値へと変換する。実施形態1では、RGBからXYZへの変換は、ITU−T BT.709に規定されるRGBからXYZへの変換式を用いて実行する。具体的には、8bitのR(x,y,t)、G(x,y,t)、B(x,y,t)のデータに対して、0以上1以下の値に正規化したのち、ディスプレイのγ特性をかけ、(3)式によりR’(x,y,t)、G’(x,y,t)、B’(x,y,t)を算出する。
Figure 0006018492
次に、以下の変換式((4)式)を用いて、三刺激値X、Y、Zへと変換する。
Figure 0006018492
さらに、以下の(5)式を用いて、三刺激値X、Y、ZからL*、a*、b*へと変換する。
Figure 0006018492
以下では、ステップS502のノイズ成分抽出処理について述べる。実施形態1では、チャート画像等の静止物体を撮影し動画ノイズを評価することを前提としている。そこで、時間的に固定なパターンをノイズ以外の成分として減算することで、動画ノイズ成分のみを抽出する。具体的には、以下の(6)式により、明度ノイズ成分NL、a*色差ノイズ成分Na、b*色差ノイズ成分Nbが抽出される。
Figure 0006018492
ここで、Tは画像のフレーム数を表す。
以下では、ステップS503の自己相関係数取得処理について、具体的に説明する。
まず、水平方向の自己相関係数の算出方法について、以下に述べる。ノイズ成分の水平方向の自己相関係数の代表値として、図6(a)に示すように、thフレーム目、yh行目の自己相関係数を算出する。L*、a*、b*に対する水平方向の自己相関係数Ch_L、Ch_a、Ch_bは、(7)式により、
Figure 0006018492
として算出される。ここで、Nは画像データの横画素数を表す。
次に、垂直方向の自己相関係数について、以下に述べる。ノイズの垂直方向の自己相関係数の代表値として、図6(b)に示すように、tvフレーム目、xvピクセル目を算出する。L*、a*、b*に対する垂直方向の自己相関係数Cv_L、Cv_a、Cv_bは、(8)式により、
Figure 0006018492
として算出される。ここで、Mは画像データの縦画素数を表す。
最後に、時間方向の自己相関係数の算出方法について述べる。
ノイズの時間方向の自己相関係数の代表値として、図6(c)に示すように、水平方向にxfピクセル目、垂直方向にyfピクセル目の自己相関係数を算出する。L*、a*、b*に対する時間方向の自己相関係数Ct_L、Ct_a、Ct_bは、(9)式により、
Figure 0006018492
として算出される。ここで、Tは画像データのフレーム数を表す。
尚、前記のようにLabデータのひとつの列に対する自己相関係数をそのままノイズの自己相関係数としてもよいし、複数の列に対して自己相関係数を計算し、その平均をとってもよい。画像データの全ての平均をとる場合には、Ch_Lを例にとると、以下の(10)式で計算される。
Figure 0006018492
以下では、ステップS504の水平方向のノイズ量Hvalの算出方法について、図7のフローチャートを用いて、具体的に説明する。
ステップS701では、ステップS503にて算出した自己相関係数に対する周波数解析として、一次元フーリエ変換を適用する。以下では、Ch_L(x)のフーリエ変換結果をFch_L(u)、Ch_a(x)のフーリエ変換結果をFch_a(u)、Ch_b(x)のフーリエ変換結果をFch_b(u)とする。ここで、uは水平方向の空間周波数(単位はcycles/degree)である。
ステップS702では、図8(a)に示す水平方向の視覚特性VTFs(u)を乗算する。ここで、Fch(u)に対して視覚特性を乗算するためには、空間周波数の単位を一致させる必要がある。ここで、ディスプレイ横画素ピッチ設定エディタ404で指定された縦画素ピッチをpx、観察者視距離設定エディタ405で指定された視距離をR、評価対象画像サイズをNxとする。この場合、Dooleyの空間VTFより、視覚応答関数VTFs(u)は以下の(11)式で与えられる。
Figure 0006018492
以上より、Fch_L(u)、Fch_a(u)、Fch_b(u)に対して視覚特性(視覚応答関数)を乗算したFch_L’(u)、Fch_a’(u)、Fch_b’(u)は、以下の(12)式で与えられる。
Figure 0006018492
ステップS703では、Fch_L’、Fch_a’、Fch_b’のスペクトルの積算値を計算し、水平方向のノイズ量を得る。具体的には、Hval_L、Hval_a、Hval_bは以下の(13)式で与えられる。
Figure 0006018492
以下では、ステップS504の垂直方向のノイズ量Vvalの算出方法について述べる。垂直方向のノイズ量Vvalは、ステップS504の水平方向のノイズ量Hvalと同様に算出できる。以下では、図9のフローチャートを用いて、具体的に説明する。
ステップS901では、算出した自己相関係数に対する周波数解析として、一次元フーリエ変換を適用する。以下では、Cv_L(x)のフーリエ変換結果をFcv_L(u)、Cv_a(x)のフーリエ変換結果をFcv_a(u)、Cv_b(x)のフーリエ変換結果をFcv_b(v)とする。ここで、vは垂直方向の空間周波数(単位はcycles/degree)である。
ステップS902では、図8(a)に示す垂直方向の視覚特性を乗算する。実施形態1では、ステップS603と同様に、垂直方向の視覚特性にも視覚応答関数VTFs(v)を用いる。ここで、Fcv(v)に対して視覚特性を乗算するためには、空間周波数の単位を一致させる必要がある。ここで、ディスプレイ縦画素ピッチ設定エディタ403により指定された縦画素ピッチをpy、観察者視距離設定エディタ405により指定された視距離をR、評価対象の縦画像サイズをNyとする。この場合、Dooleyの空間VTFより、視覚応答関数VTFs(v)は以下の(14)式で与えられる。
Figure 0006018492
よって、Fcv_L(v)、Fcv_a(v)、Fcv_b(v)に対して視覚特性(視覚応答関数)を乗算したFcv_L’(v)、Fcv_a’(v)、Fcv_b’(v)は、以下の(15)式で与えられる。
Figure 0006018492
ステップS903では、垂直方向のノイズ量Vval_L、Vval_a、Vval_bを以下の(16)式で算出する。
Figure 0006018492
以下では、ステップS505の時間方向のノイズ量Tvalの算出方法について述べる。時間方向のノイズ量Tvalは、ステップS504の水平方向のノイズ量Hvalと同様に算出できる。以下では、図10のフローチャートを用いて、具体的に説明する。
ステップS1001では、算出した自己相関係数に対する周波数解析として、一次元フーリエ変換を適用する。以下では、Ct_L(t)のフーリエ変換結果をFct_L(f)、Ct_a(t)のフーリエ変換結果をFct_a(f)、Ct_b(t)のフーリエ変換結果をFct_b(f)とする。ここで、fは時間方向の時間周波数(単位はHz)である。
ステップS1002では、図8(b)に示す時間方向の視覚特性を乗算する。ここで、Fct(f)に視覚特性を乗算するためには、時間周波数の単位を一致させる必要がある。撮影時のフレーム間隔をs[sec]とすると、乗算する視覚応答関数VTFt(f)の形状は、Kellyの時間VTFより、以下の(17)式で与えられる。
Figure 0006018492
また、撮影時のフレーム間隔をs[sec]とすると、VTFtの周波数単位は1/2s[Hz]として表わされる。よって、Fct_L(f)、Fct_a(f)、Fct_b(f)に対して視覚特性(視覚応答関数)を乗算したFct_L’(f)、Fct_a’(f)、Fct_b’(f)は、以下の(18)式で与えられる。
Figure 0006018492
ステップS1003では、時間方向のノイズ量Tval_L、Tval_a、Tval_bを以下の(19)式で算出する。
Figure 0006018492
以上説明したように、実施形態1では、水平、垂直、時間の3次元それぞれに対して自己相関関数の代表値を算出し、視覚特性(視覚応答関数)を乗算することで3つの次元それぞれに対してノイズ量を算出する。これにより、少ない計算量でノイズの空間特性及び時間特性を考慮でき、主観と相関の高い定量評価値を算出可能である。
尚、実施形態1では、動画ノイズ評価プログラムが図5の動画ノイズ評価処理を実行する構成としているが、これに限定されない。図5の動画ノイズ評価処理のステップのすべてあるいは一部が専用のハードウェアで実現されても良いし、ハードウェアとソフトウェア(プログラム)とを協働させて実現されても良い。
<実施形態2>
実施形態2は、実施形態1に対して、ノイズ特性が水平−垂直間で独立であるとはみなさずに評価値を計算する。これにより、空間方向2次元にノイズリダクションがかけられている場合等に対応できる。実施形態2では、空間2次元と時間1次元それぞれに対して自己相関係数の代表値を計算し、視覚特性を乗算する。以下では、実施形態1との差分について説明する。
動画ノイズ評価プログラムで実行される画質評価処理について、図11のフローチャートを用いて説明する。
ステップS1101では、メニューリスト302によりRAM203上に読み込まれた画像データに対して、後述する色空間変換処理を施し、均等色空間へと変換する。ここでの処理は、実施形態1と同様である。
ステップS1102では、画像データから動画ノイズ成分を抽出する。ここでの処理は、実施形態1と同様である。
ステップS1103では、抽出した動画ノイズ成分に対し、空間方向2次元における自己相関係数と、時間方向1次元における自己相関係数を算出する。ステップS1103における具体的な処理に関しては、後述する。
ステップS1104では、水平−垂直方向のノイズの自己相関係数と水平−垂直方向周波数感度特性とから、空間方向のノイズ量(第1のノイズ量)を計算する。ここで、空間方向のノイズ量は、L*成分を用いて計算したHVval_L、a*成分を用いて計算したHVval_a、b*成分を用いて計算したHVval_bである。ステップS1104における具体的な処理に関しては、後述する。
ステップS1105では、時間方向のノイズの自己相関係数と時間方向周波数感度特性とから、時間方向のノイズ量(第2のノイズ量)を計算する。ここで、時間方向のノイズ量は、L*成分を用いて計算したTval_L、a*成分を用いて計算したTval_a、b*成分を用いて計算したTval_bである。ここでの処理は、実施形態1と同様である。
ステップS1106では、ステップS1104、ステップS1105により計算されたノイズ量の積から、動画ノイズ評価値を算出する。具体的には、L*成分の動画ノイズ評価値Nval_L、a*成分の動画ノイズ評価値Nval_a、b*成分の動画ノイズ評価値Nval_bは、以下の(20)式により与えられる。
Figure 0006018492
ステップS1107では、ステップS1106で算出した値の線形和をとることで、動画ノイズの定量評価値を算出する。
以下では、ステップS1103の自己相関係数算出処理について述べる。尚、時間方向1次元の自己相関係数の算出方法は実施形態1と同様であるため、以下では空間方向2次元の自己相関係数の算出方法についてのみ述べる。
ノイズの空間2次元の自己相関係数は以下のように算出される。ノイズの空間2次元の自己相関係数の代表値として、図12に示すように、tフレーム目の画像に対する自己相関係数として算出される。L*、a*、b*に対する空間2次元の自己相関係数Chv_L、Chv_a、Chv_bは、(21)式により、
Figure 0006018492
として算出される。尚、前記のようにLabデータのひとつの行に対する自己相関係数をそのままノイズの自己相関係数としてもよいし、複数の行に対して自己相関係数を計算し、その平均をとってもよい。
以下では、ステップS1104の空間2次元のノイズ量の算出について、図13のフローチャートを用いて詳しく述べる。
ステップS1301では、算出した自己相関係数に対する周波数解析として、二次元フーリエ変換を適用する。以下では、Chv_L(x,y)のフーリエ変換結果をFchv_L(u,v)、Chv_a(x,y)のフーリエ変換結果をFchv_a(u,v)、Chv_b(x,y)のフーリエ変換結果をFchv_b(u,v)とする。ここで、uは水平方向の空間周波数(単位はcycles/degree)、vは垂直方向の空間周波数(単位はcycles/degree)である。
ステップS1302では、空間2次元の視覚特性(視覚応答関数)を乗算する。実施形態2で乗算する視覚特性VTFs(u,v)は、具体的に以下の(22)式で与えられる。
Figure 0006018492
ここで、px、pyはディスプレイの縦及び横画素ピッチを、Nx、Nyは評価画像の縦及び横画素サイズを、Rは観察者の視距離を表す。よって、Fchv_L(u,v)、Fchv_a(u,v)、Fchv_b(u,v)に対して視覚特性を乗算したFchv_L’(u)、Fchv_a’(u)、Fchv_b’(u)は、以下の(23)式で与えられる。
Figure 0006018492
ステップS1303では、Fchv_L’、Fchv_a’、Fchv_b’のスペクトルの積算値を計算し、空間2次元のノイズ量を得る。具体的には、空間2次元のノイズ量HVval_L、HVval_a、HVval_bは以下の(24)式で与えられる。
Figure 0006018492
以上説明したように、実施形態2によれば、実施形態2で説明した効果に加えて、空間2次元のノイズ量を加味してノイズの評価値を算出するので、空間方向2次元にノイズリダクションがかけられている場合等に対応できる。
尚、実施形態1では、動画ノイズ評価プログラムが図11の動画ノイズ評価処理を実行する構成としているが、これに限定されない。図11の動画ノイズ評価処理のステップのすべてあるいは一部が専用のハードウェアで実現されても良いし、ハードウェアとソフトウェア(プログラム)とを協働させて実現されても良い。
<実施形態3>
実施形態3では、一度評価値を算出した算出後のノイズ画像に対して、そのノイズ特性が変化した際に、ノイズ特性の差分のみに着目してインクリメンタルに評価値を計算する。実施形態1では、動画ノイズのノイズ特性を自己相関係数としてあらかじめ保持しておき、その自己相関係数をもとに動画ノイズ評価値を計算している。そのため、例えば、ノイズの時間特性のみが変化した場合には、水平方向及び垂直方向の周波数特性は再計算せずに、ノイズの評価値を算出できる。この場合、水平方向及び垂直方向の評価値は再利用でき、時間方向の評価値Tval_L、Tval_a、Tval_bのみを再計算するだけでよい。以下では、実施形態1との差分について説明する。
動画ノイズ評価プログラムにおいて、ノイズの特性が変化した際の評価値の再計算は、次の様に行われる。まず、ユーザは、キーボード209及びマウス210を介して、HDD205に格納されている動画ノイズ評価プログラムを起動する。これにより、図14のアプリケーションウィンドウ1401がディスプレイ212上に表示される。ユーザは、実施形態1に記述した手順のもと、動画ノイズの定量評価値を一旦計算する。
次に、ユーザはメニューリスト1402内の「評価値をインクリメンタルに計算する」をクリックする。これにより、図15の情報設定ダイアログ1501がディスプレイ212上に表示される。ユーザは、画像ファイル指定エディタ1502に動画ノイズ評価値を算出する画像ファイルのファイルパスを入力する。次に、ユーザは、水平方向、垂直方向及び時間方向のノイズ特性それぞれに対応するチェックボックス1503〜1505のうち、既に計算した画像データから変化したノイズの特性に対応するチェックボックスをマウス210を用いてチェック(指定)する。
例えば、評価値を算出した画像データから、時間ノイズリダクション処理のみを変更した画像データを評価する場合には、ユーザはチェックボックス1505のみをチェックすればよい。最後に、ユーザは計算ボタン1506を押下すると、後述するインクリメンタル評価値計算処理が実行され、動画ノイズ評価値の計算結果がエディタ1507に表示される。
以下では、実施形態3におけるインクリメンタルな評価値計算処理について、図16のフローチャートを用いて処理の内容を具体的に説明する。
ステップS1601では、画像ファイル指定エディタ1502により指定された画像ファイルをRAM203上に読み込み、色空間変換処理を施し、均等色空間へと変換する。本ステップにおける色変換処理は、実施形態1の図5のステップS501と同様である。
ステップS1602では、画像データから動画ノイズ成分のみを抽出する。本ステップは、実施形態1図5のステップS502と同様である。
ステップS1603では、水平方向のノイズ特性のチェックボックス1503がチェックされているか否かを判定する。チェックされている場合(ステップS1603でYES)、ステップS1604に進む。一方、チェックされていない場合(ステップS1603でNO)、ステップS1606に進む。
ステップS1604では、水平方向の自己相関係数を再計算する。水平方向の自己相関係数の再計算は、実施形態1の図5のステップS503と同様である。
ステップS1605では、水平方向のノイズ量を再計算する。本ステップにおける処理は、実施形態1の図5のステップS504と同様である。
ステップS1606では、チェックボックス1504がチェックされているか否かを判定する。チェックされている場合(ステップS1606でYES)、ステップS1607に進む。一方、チェックされていない場合(ステップS1606でNO)、ステップS1607に進む。
ステップS1607では、垂直方向の自己相関係数を再計算する。垂直方向の自己相関係数の再計算は、実施形態1の図5のステップS503と同様である。
ステップS1608では、垂直方向のノイズ量を再計算する。本ステップにおける処理は、実施形態1の図5のステップS505と同様である。
ステップS1609では、チェックボックス1505がチェックされているか否かを判定する。チェックされている場合(ステップS1609でYES)、ステップS1610に進む。一方、チェックされていない場合(ステップS1609でNO)、ステップS1612に進む。
ステップS1610では、時間方向の自己相関係数を再計算する。時間方向の自己相関係数の再計算は、実施形態1の図5のステップS503と同様である。
ステップS1611では、時間方向のノイズ量を再計算する。本ステップにおける処理は、実施形態1の図5のステップS506と同様である。
ステップS1612では、計算された/再計算されたノイズ量の積から、L*、a*、b*毎の動画ノイズ評価値を算出する。具体的には、L*成分の動画ノイズ評価値Nval_L、a*成分の動画ノイズ評価値Nval_a、b*成分の動画ノイズ評価値Nval_bは、以下の(25)式により与えられる。
Figure 0006018492
ステップS1613では、ステップS1612で算出した動画ノイズ評価値を線形和することで、動画ノイズの定量評価値を算出する。具体的には、以下の(26)式により与えられる。
Figure 0006018492
ここで、a_weight及びb_weightは重み係数である。
以上説明したように、実施形態3によれば、実施形態1で説明した効果に加えて、水平方向、垂直方向、時間方向の少なくとも1つのノイズ特性が変化した場合、その変化した次元のノイズ特性についての評価値を再計算する。そして、変化していない次元のノイズ特性と変化した次元のノイズ特性を用いることで、ノイズ特性の変化に対応した評価値計算を行うことができる。
<実施形態4>
以上の実施形態では、撮像装置により撮影された画像のデジタルデータを入力として、ノイズの定量評価値を算出している。しかしながら、実際には画像を表示するディスプレイによりノイズの知覚量は大きく異なり、液晶の応答速度等のディスプレイ特性は無視できない。そこで、図17に示す様に、実際にディスプレイを高速度カメラ(撮像装置)により撮影し、その撮影画像に対して動画ノイズ評価処理を適用すれば、ディスプレイの特性を考慮できる。
実施形態4の具体的な動作について、以下に述べる。画質評価装置は、まず、評価対象のノイズ画像をディスプレイに対して出力する。ディスプレイは、画像評価装置から評価対象のノイズ画像を受け取り、画像をパネル上に表示する。撮像装置は、ディスプレイの表示タイミングとの同期をとるための垂直同期信号や制御信号を画質評価装置から受け取り、ディスプレイ上に表示されたノイズ画像を撮影する。その撮影されたノイズ画像を入力として、以降の処理は、図5の動画ノイズ評価処理を適用すれば、動画ノイズ評価値が算出される。
実施形態4によれば、ディスプレイの動特性を考慮した動画ノイズ評価値が算出可能なため、例えば、CRTとLCD等の特性の異なるディスプレイ間のノイズの見えの違いを評価できる。
また、入力として画像データそのものを与えるのではなく、事前に算出したノイズの時空間自己相関係数をデータとして与え、評価値を計算することも可能である。本発明は、ノイズの時空間の自己相関係数を乗算することで評価値を算出するため、必ずしも画像データそのものが必要ではないからである。
そのため、例えば、CCDやCMOS等のイメージセンサの特性をもとに、あらかじめノイズの自己相関係数をプロファイルとして計算しておく。このプロファイル内の自己相関係数を図5のステップ504以降の処理に与え、評価値を算出することで、どの程度のノイズが知覚されるかを計算できる。
<実施形態5>
実施形態5では、ビデオカメラの時間応答特性が既知であるとの前提のもと、表示装置の特性を考慮して、ノイズの知覚量を目標値へとマッチングさせるための画像処理に関して説明する。
前述したように、一般に、動画ノイズの見えはディスプレイ等の表示装置の時間応答特性によって変化する。例えば、時間応答特性が低いディスプレイと時間応答特性が良いディスプレイで同一の画像を再生した場合、時間応答特性が低いディスプレイの方がノイズを知覚しにくい。このように、同一の画像でも表示するディスプレイが異なれば、知覚されるノイズ量にずれが生じる。このため、どのようなディスプレイで表示してもノイズ量を一定に保つためには、ディスプレイ上に表示された画像のノイズ知覚量を目標値へとマッチングさせる必要がある。
ノイズの見えを目標値と一致させるには、ディスプレイの時間応答特性に応じて、ノイズリダクションの強度を変更する必要がある。しかしながら、ディスプレイの時間応答特性を考慮した自動チューニング手法は提案されていない。
そこで、実施形態5では、時間応答特性が既知なカメラ(撮像装置)を用いてディスプレイの時間応答特性を算出し、時間応答特性を考慮したノイズ評価値が目標値と等しくなるように画像処理パラメータを変更する。
実施形態5の構成例を図18に示す。まず、時間応答特性が既知のビデオカメラを用いて、ディスプレイを撮影することで、ディスプレイの時間応答特性を取得する。次に、取得したディスプレイの時間応答特性とビデオカメラの時間応答特性を考慮して、各々のディスプレイに対するノイズ評価値を算出し、目標値と同等となるようにノイズリダクション強度を変更する。尚、図18の画像処理装置の構成は、実施形態1において記述した画像評価装置と同様のものでありうる。
以下では、図18の画像処理装置において実現される具体的な動画ノイズ量マッチング処理(あるいは動画ノイズ量マッチングプログラム)について説明する。動画ノイズ量マッチングプログラムは、具体的に以下の様に動作する。
まず、HDD205に格納されている動画ノイズ量マッチングプログラムが、キーボード209及びマウス210を介したユーザの指示によりCPU201にて実行される。これにより、図19のアプリケーションウィンドウ1901がディスプレイ212上に表示される。
次に、ユーザはノイズ量の目標値の設定を行うため、テキストエディタ1902にキーボード209を介して目標値を入力する。ここで、目標値とは実施形態1乃至4で述べたノイズ評価値に対応する値である。
さらに、ユーザは画像表示領域1904上で、マウス210を介して撮影領域1905を指定する。ここで、撮影領域1905は、ディスプレイAの画面をはみ出さないように設定される必要がある。さらに、ユーザは撮影開始ボタン1903を選択すると、プログラム処理に従い、ディスプレイAに対してテスト動画が出力される。ここで、例えば、図20に示したように、最初は全面「黒」を表示しておき、nフレーム以降は全面「白」を表示するステップ応答の画像等が出力される。但し、表示される画像はこれに限定されるものではなく、パッチ画像や水平方向のライン画像等であってもよい。また、画像処理装置は撮像装置を制御し、画像の撮影が開始され、撮影データVaが取得される。ここで、撮像装置の撮影フレームレートは、ディスプレイAのフレームレートより大きいものとする。
次に、ユーザは定量評価値算出のための評価条件を設定するため、評価条件設定ボタン1906を押下する。すると、図4のダイアログウィンドウ401がディスプレイ212上に表示される。ダイアログウィンドウ401において、フレームレート設定エディタ402では読み込んだ画像データの表示フレームレートを設定する。また、ディスプレイ縦画素ピッチ設定エディタ403では、読み込んだ画像データを表示するディスプレイの縦画素ピッチを設定する。また、ディスプレイ横画素ピッチ設定エディタ404では、読み込んだ画像データを表示するディスプレイの横画素ピッチを設定する。最後に、観察者視距離設定エディタ405では、ユーザがディスプレイを観察する際の視距離を設定する。ユーザが設定終了ボタン406を押下すると、各設定エディタ402、403、404に入力された値が、例えば、RAM203に記憶され、ダイアログウィンドウ401が非表示となる。
最後に、ユーザが補正開始ボタン1907を押下すると、後述する図21のフローチャートに従うノイズ量補正処理がなされ、ディスプレイAと目標値とのノイズ感マッチング処理が実行される。
以下では、ノイズ量マッチングプログラムで実行されるノイズ量補正処理について、図21のフローチャートを用いて処理の内容を説明する。
ステップS2101では、目標値取得処理を行う。具体的には、テキストエディタ1902からマッチングの目標値を取得する。以下では、目標値をDvalとする。
ステップS2102では、後述するディスプレイ時間応答特性取得処理を施し、撮影したディスプレイAの撮影画像Vaと、撮像装置の時間応答特性Rcから、ディスプレイAの時間応答特性Raを算出する。尚、Raが既知の場合は、本ステップを省略してもよい。
ステップS2103では、ノイズリダクションのパラメータを設定する。ここで、ノイズリダクションは、撮像装置にて行われてもよいし、ディスプレイAにて行われてもよいし、画像処理装置にて行われてもよい。
ステップS2104では、ノイズリダクションがかけられた画像に対して、時間応答特性Raを用いてディスプレイに対するノイズ評価値saを算出する。具体的な評価値算出処理の動作については、後述する。
ステップS2105では、全てのノイズリダクションパラメータに対して評価値の算出が完了したか否かを判定する。全てのノイズリダクションパラメータに対して評価値の算出が完了している場合(ステップS2105でYES)は、ステップS2106へ移行する。一方、全てのノイズリダクションパラメータに対して評価値の算出が完了していない場合(ステップS2105でNO)、ステップS2103へ処理を戻し、新たにノイズリダクションパラメータを設定する。
ステップS2106では、後述する最適パラメータ選択処理により、ディスプレイAのノイズ評価値が目標値と同等になるようにノイズリダクションのパラメータを最適化する。
以下では、ディスプレイ時間応答特性取得処理に関して、図22のフローチャートを用いて具体的に説明する。以下では、ディスプレイAの時間応答特性Raを得る方法について説明する。
ステップS2201では、撮影した画像のステップ画像を求める。ステップ応答Rsa_L、Rsa_a、Rsa_bは、撮影画像Vaの各フレームの平均値をとることで算出される。具体的には、以下の式で得られる。
Figure 0006018492
ここで、Va_L(x,y,z)は撮影画像Vaのtフレーム目の座標(x,y)のL*値を表す。同様に、Va_a(x,y,t)及びVa_b(x,y,t)は撮影画像Vaのtフレーム目の座標(x,y)のa*値及びb*を表す。撮影画像Va及びVbから、Va_L、Va_a及びVa_bへの変換は、実施形態1で述べたとおりである。また、図23は、得られたステップ応答の一例を示している。
ステップS2202では、画像Vaのインパルス応答Ria_L、Ria_a及びRia_bを求める。インパルス応答Ria_L、Ria_a及びRia_bは、下記の式を用いて、ステップS2201で得られたRsaを微分することで得られる。
Figure 0006018492
尚、上記式のhdは微分フィルタである。ここで、図23のデータに対して本ステップの処理を施した結果得られるインパルス応答の模式図を図24に示す。
ステップS2203では、Ria_L、Ria_a及びRia_bに対してノイズの影響を低減させる平滑化処理を行い、時間応答特性データRia_L’、Ria_a’及びRia_b’を算出する。平滑化処理は公知の方法で良い。ここでは5タップの平滑化フィルタ処理を下記の式を用いて、Riaの全てのデータに対して行うものとする。
Figure 0006018492
ステップS2204では、ステップS2203で得られたRia_L’、Ria_a’及びRia_b’に対して、撮像装置の特性を取り除き、ディスプレイ単体の時間応答特性Ra_L、Ra_a及びRa_bを得る。Ria_L’、Ria_a’及びRia_b’には、ディスプレイ単体の時間応答特性Ra_L、Ra_a及びRa_bだけでなく、撮像装置の時間応答特性Rc_L、Rc_a及びRc_bが含まれている。そこで、Ria_L’、Ria_a’及びRia_b’に対して、撮像装置の特性を取り除くため、デコンボリューション処理を行う。具体的には、以下の式によって実現される。
Figure 0006018492
ここで、fftはフーリエ変換を表し、ifftは逆フーリエ変換を表す。
以下では、評価値算出処理の動作について、実施形態1との差分について述べる。本実施形態では、ノイズの時間方向の相関を算出する際に、ディスプレイの時間応答特性を考慮する。具体的には、ノイズ画像の時間相関係数に、ディスプレイの時間応答特性を畳みこめばよい。そこで、ステップS503の時間方向の自己相関係数Ct_L、Ct_a及びCt_bを以下の式で表わされるCt_L’ 、Ct_a’及びCt_b’に置き換えればよい。
Figure 0006018492
以下では、最適パラメータ選択処理について述べる。最適パラメータ選択処理では、ディスプレイAに対する評価値と目標値Dvalに対して、両者の値が最も近くなるノイズリダクションパラメータの組み合わせを総当たり的に算出する。図25のフローチャートを用いて、具体的に説明する。
ステップS2501では、初期設定を行う。具体的には、i=0、diff=Inf、pa=Nullを代入する。ここで、iはディスプレイAに対する設定パラメータのインデックスを表す変数である。また、diffはディスプレイAの評価値と目標値Dvalとの差分絶対値の最小値を保存する変数であり、Infは正の無限大値を表す。paはディスプレイAに対する最適パラメータを表し、Nullは未定義値を表す。
ステップS2502では、ノイズリダクションパラメータp(i)に対するディスプレイAの評価値sa(i)を取得する。
ステップS2503では、sa(i)とDvalの差分絶対値がdiffより小さいか否かを判定する。sa(i)とDvalの差分絶対値がdiffより小さい場合(ステップS2503でYES)、ステップS2504に移行する。一方、sa(i)とDvalの差分絶対値がdiff以上である場合(ステップS2503でNO)、ステップS2505に移行する。
ステップS2504では、最適パラメータ及び評価値の誤差を更新する。具体的には、diff=|sa(i)−Dval|、pa=p(i)を代入する。
ステップS2505では、iがNより小さいか否かを判定する。ここで、Nは設定されたパラメータの総数である。iがNより小さい場合(ステップS2505でYES)、ステップS2506に移行する。一方、iがN以上である場合(ステップS2505でNO)、以上の処理で得られたpaを最適化パラメータとして出力し、処理を終了する。
ステップS2506では、iをインクリメントする。
尚、実施形態5では、ディスプレイのステップ応答を撮影することにより、ディスプレイの時間応答特性を求めていた。しかしながら、本発明はこれに限定されない。具体的には、図26に示した画像をディスプレイAに表示することで、インパルス応答を直接取得してもよい。
<実施形態6>
実施形態5では、目標値をユーザが直接与え、ノイズマッチング処理を行っていた。実施形態6では、複数のディスプレイ間のノイズ知覚量のマッチングを行う。具体的には、まず、複数のディスプレイを撮影し、各ディスプレイにおけるノイズ評価値を算出する。次に、一方のノイズ評価値を目標値として設定し、もう一方のディスプレイに対し、実施形態5と同様にノイズリダクションの最適パラメータを算出する。
以下では、図27に示す様に、2つのディスプレイのノイズの見えを一致させる場合を例にとり、実施形態6を具体的に説明する。尚、ノイズの見えを一致させるディスプレイは2つに限定されず、3つ以上でもよい。以下では、ディスプレイBに対して、ディスプレイAをマッチングさせるものとして、実施形態6を説明する。
以下では、図27の画像処理装置において実現される具体的な動画ノイズ量マッチング処理(あるいは動画ノイズ量マッチングプログラム)について述べる。動画ノイズ量マッチングプログラムは、具体的に以下の様に動作する。
まず、HDD205に格納されている動画ノイズ量マッチングプログラムが、キーボード209及びマウス210を介したユーザの指示によりCPU201にて実行される。これにより、図28のアプリケーションウィンドウ2801がディスプレイ212上に表示される。
次に、ユーザはディスプレイAの撮影を行うため、選択ボタン2802を押下する。すると画像表示領域2804には、撮像装置の録画している画像が表示される。ユーザは画像表示領域2804上で、マウス210を介して撮影領域2805を指定する。ここで、撮影領域2805は、ディスプレイAの画面をはみ出さないように設定される必要がある。さらに、ユーザは撮影開始ボタン2806を選択すると、プログラム処理に従い、ディスプレイAに対して画像信号が出力される。ここで出力される画像は、実施形態5と同様である。
さらに、ユーザはディスプレイBの撮影を行うため、選択ボタン2802を選択する。すると画像表示領域2804には、撮像装置の録画している画像が表示される。以下、ディスプレイAの撮影と同様の手順により、ディスプレイBの撮影データVbが取得される。
次に、ユーザは定量評価値算出のための評価条件を設定するため、評価条件設定ボタン2807を押下する。すると、図29のダイアログウィンドウ2901がディスプレイ212上に表示される。ダイアログウィンドウ2901に於いて、ディスプレイA縦画素ピッチ設定エディタ2902では、ディスプレイAの縦画素ピッチを、ディスプレイA横画素ピッチ設定エディタ2903では、ディスプレイAの横画素ピッチを設定する。また、同様に、ディスプレイB縦画素ピッチ設定エディタ2904では、ディスプレイBの縦画素ピッチを、ディスプレイB横画素ピッチ設定エディタ2905では、ディスプレイBの横画素ピッチを設定する。さらに、観察者視距離設定エディタ2906では、ユーザがディスプレイA及びBを観察する際の視距離を設定する。フレームレート設定エディタ2907では、ディスプレイA及びBの表示フレームレートを設定する。また、ユーザが設定終了ボタン2908を押下すると、各設定エディタに入力された値が、例えば、RAM203に記憶され、ダイアログウィンドウ2901が非表示となる。
最後に、ユーザが補正開始ボタン2808を押下すると、後述する図30のフローチャートに従うノイズ量補正処理がなされ、ディスプレイAとディスプレイBのノイズ感をマッチングさせる。
以下では、ノイズ量マッチングプログラムで実行されるノイズ量補正処理について、図30のフローチャートを用いて処理の内容を説明する。
ステップS3001では、ディスプレイ時間応答特性取得処理を施し、撮影したディスプレイA及びBの撮影画像Va及びVbと、撮像装置の時間応答特性Rcから、各ディスプレイの時間応答特性Ra及びRbを算出する。ここで、Ra及びRbの取得方法は、ステップS2101と同様である。
ステップS3002では、マッチング目標であるディスプレイBに対して、Rbを用いてノイズ評価値を算出することでマッチングの目標値を取得する。ここで、評価値の算出方法は、実施形態5と同様である。
ステップS3003では、ノイズリダクションのパラメータを設定する。ここで、ノイズリダクションは、撮像装置にて行われてもよいし、ディスプレイAにて行われてもよいし、画像処理装置にて行われてもよい。
ステップS3004では、ノイズリダクションがかけられた画像に対して、Raを用いてディスプレイに対するノイズ評価値saを算出する。
ステップS3005では、全てのノイズリダクションパラメータに対して評価値の算出が完了したか否かを判定する。全てのノイズリダクションパラメータに対して評価値の算出が完了している場合(ステップS3005でYES)、ステップS3006へ移行する。一方、全てのノイズリダクションパラメータに対して評価値の算出が完了していない場合(ステップS3005でNO)、ステップS3003へ処理を戻し、新たにノイズリダクションパラメータを設定する。
ステップS3006では、最適パラメータ選択処理により、ディスプレイAのノイズ評価値が目標値と同等になるようにノイズリダクションのパラメータを選択する。
<実施形態7>
実施形態5、6では、撮像装置の特性が既知であるという前提があったが、撮像装置の特性は撮影条件や気温、経年劣化などにより変化することがあり、必ずしも既知であるとは限らない。このため、ノイズのマッチングを行う際に、ディスプレイの時間応答特性を取得するために、撮像装置の時間応答特性の取得が必要な場合がある。
そこで、実施形態7では、撮影機器の時間応答特性を特性が既知のディスプレイで測定し、ノイズ感のマッチングを行う。以下では、ディスプレイBの時間応答特性が既知であるが、ディスプレイAの時間応答特性が未知である場合について説明するが、本発明はこれに限定されない。例えば、ディスプレイA及びBの両方の時間応答特性が未知の場合には、特性が既知の第三のディスプレイを用意して撮像装置の時間応答特性を取得すればよい。また、ノイズの見えを一致させるディスプレイは2つに限定されず、3つ以上でもよい。以下では、実施形態6との差分である、ノイズ量補正処理について説明する。
以下では、ノイズ量マッチングプログラムで実行されるノイズ量補正処理について、図31のフローチャートを用いて処理の内容を説明する。
ステップS3101では、後述する撮像装置時間応答特性取得処理を施し、既知のディスプレイBの時間応答特性を用いて撮像装置の時間応答特性Rcを算出する。
ステップS3102では、ディスプレイ時間応答特性取得処理を施し、撮影したディスプレイAの撮影画像Vaと、撮像装置の時間応答特性Rcから、各ディスプレイの時間応答特性Raを得る。ここで、Raの取得方法は、ステップS2101と同様である。
ステップS3103では、マッチング目標であるディスプレイBに対して、Rbを用いてノイズ評価値を算出することでマッチングの目標値を取得する。ここで、評価値の算出方法は、実施形態5と同様である。
ステップS3104では、ノイズリダクションのパラメータを設定する。ここで、ノイズリダクションは、撮像装置にて行われてもよいし、ディスプレイAにて行われてもよいし、画像処理装置にて行われてもよい。
ステップS3105では、ノイズリダクションがかけられた画像に対して、Raを用いてディスプレイに対するノイズ評価値saを算出する。
ステップS3106では、全てのノイズリダクションパラメータに対して評価値の算出が完了したか否かを判定する。全てのノイズリダクションパラメータに対して評価値の算出が完了している場合(ステップS3106でYES)、ステップS3107へ移行する。一方、全てのノイズリダクションパラメータに対して評価値の算出が完了していない場合(ステップS3106でNO)、ステップS3104へ処理を戻し、新たにノイズリダクションパラメータを設定する。
ステップS3107では、最適パラメータ選択処理により、ディスプレイAのノイズ評価値が目標値と同等になるようにノイズリダクションのパラメータを選択する。
以下では、撮像装置時間応答特性取得処理について、図32のフローチャートを用いて具体的に説明する。
ステップS3201では、撮影した画像のステップ画像を求める。ステップ応答Rsb_L、Rsb_a、Rsb_bは、撮影画像Vbの各フレームの平均値をとることで得られる。具体的には、以下の式で得られる。
Figure 0006018492
ここで、Vb_L(x,y,z)は撮影画像Vbのtフレーム目の座標(x,y)のL*値を表す。同様に、Vb_a(x,y,t)及びVb_b(x,y,t)は撮影画像Vbのtフレーム目の座標(x,y)のa*値及びb*を表す。撮影画像Vbから、Vb_L、Vb_a及びVb_bへの変換は、実施形態1で述べたとおりである。
ステップS3202では、画像Vbのインパルス応答Rib_L、Rib_a及びRib_bを求める。インパルス応答Rib_L、Rib_a及びRib_bは、下記の式を用いて、ステップS3201で得られたRsbを微分することで得られる。
Figure 0006018492
尚、上記式のhdは微分フィルタである。
ステップS3203では、Rib_L、Rib_a及びRib_bに対してノイズの影響を低減させる平滑化処理を行い、時間応答特性データRib_L’、Rib_a’及びRib_b’を算出する。平滑化処理は公知の方法で良い。ここでは5タップの平滑化フィルタ処理を下記の式を用いて、Ribの全てのデータに対して行うものとする。
Figure 0006018492
ステップS3204では、ステップS3203で得られたRib_L’、Rib_a’及びRib_b’に対して、ディスプレイBの特性を取り除き、撮像装置単体の時間応答特性Rc_L、Rc_a及びRc_bを得る。Rib_L’、Rib_a’及びRib_b’には、カメラ単体の時間応答特性Rc_L、Rc_a及びRc_bだけでなく、ディスプレイBの時間応答特性Rb_L、Rb_a及びRb_bが含まれている。そこで、Rib_L’、Rib_a’及びRib_b’に対して、撮像装置の特性をデコンボリューションにより取り除く。具体的には、以下の式によって実現される。
Figure 0006018492
ここで、fftはフーリエ変換を表し、ifftは逆フーリエ変換を表す。
尚、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (9)

  1. 動画像のノイズ特性を評価する画質評価装置であって、
    評価対象の動画像の空間方向の自己相関係数及び時間方向の自己相関係数を取得する取得手段と、
    前記取得手段で取得した前記空間方向の自己相関係数に対して周波数解析を実行し、その周波数解析結果に空間周波数の視覚特性を示す視覚応答関数を乗算することで空間方向のノイズ量を計算すると共に、前記時間方向の自己相関係数に対して周波数解析を実行し、その周波数解析結果に時間周波数の視覚特性を示す視覚応答関数を乗算することで時間方向のノイズ量を計算する計算手段と、
    前記計算手段で計算した複数のノイズ量の積を、前記評価対象の動画像の動画ノイズ評価値として算出する評価値算出手段と
    を備えることを特徴とする画質評価装置。
  2. 前記空間方向の自己相関係数には、前記動画像の水平方向の自己相関係数と前記動画像の垂直方向の自己相関係数が含まれることを特徴とする請求項1に記載の画質評価装置。
  3. 前記計算手段は、
    前記水平方向に対して計算される第1のノイズ量と、前記垂直方向に対して計算される第2のノイズ量と、前記時間方向に対して計算される第3のノイズ量の3つのノイズ量、および、
    前記水平方向と前記垂直方向で規定される空間2次元に対して計算される第1のノイズ量と、前記時間方向に対して計算される第2のノイズ量の2つのノイズ量
    のいずれかを計算する
    ことを特徴とする請求項2に記載の画質評価装置。
  4. 前記評価対象の動画像の色空間を変換する変換手段と、
    前記変換手段で変換された動画像から動画ノイズ成分のみを抽出する抽出手段とを更に備え、
    前記取得手段は、前記抽出手段で抽出した動画ノイズ成分に対し、空間方向及び時間方向の自己相関係数を取得する
    ことを特徴とする請求項1または請求項2に記載の画質評価装置。
  5. 前記抽出手段は、前記評価対象の動画像を時間方向に平均することで時間的な直流成分を算出し、算出した直流成分を前記動画像から減算することで、前記動画ノイズ成分を抽出する
    ことを特徴とする請求項4に記載の画質評価装置。
  6. 前記評価対象の動画像に対する前記評価値算出手段による前記動画ノイズ評価値の算出後、該評価対象の動画像の水平方向、垂直方向及び時間方向それぞれのノイズ特性の少なくとも1つが変化した場合、変化したノイズ特性の方向を指定する指定手段を更に備え、
    前記取得手段は、前記指定手段で指定された方向に対する自己相関係数を新たに取得し、
    前記計算手段は、前記取得手段で新たに取得した自己相関係数に対する前記ノイズ量を再計算し、
    前記評価値算出手段は、前記計算手段で再計算したノイズ量と、ノイズ特性が変化していない方向についてのノイズ量との積を、前記評価対象の動画像の新たな動画ノイズ評価値として算出する
    ことを特徴とする請求項1に記載の画質評価装置。
  7. 前記評価対象の動画像をディスプレイに出力する出力手段を更に備え、
    前記出力手段で前記ディスプレイに出力した評価対象の動画像の撮影画像について、前記取得手段、前記計算手段、及び前記評価値算出手段の各手段を実行することで、前記ディスプレイの動特性を考慮した前記動画ノイズ評価値を算出する
    ことを特徴とする請求項1に記載の画質評価装置。
  8. 動画像のノイズ特性を評価する画質評価装置の制御方法であって、
    取得手段が、評価対象の動画像の空間方向の自己相関係数及び時間方向の自己相関係数を取得する取得工程と、
    計算手段が、前記取得工程で取得した前記空間方向の自己相関係数に対して周波数解析を実行し、その周波数解析結果に空間周波数の視覚特性を示す視覚応答関数を乗算することで空間方向のノイズ量を計算すると共に、前記時間方向の自己相関係数に対して周波数解析を実行し、その周波数解析結果に時間周波数の視覚特性を示す視覚応答関数を乗算することで時間方向のノイズ量を計算する計算工程と、
    評価値算出手段が、前記計算工程で計算した複数のノイズ量の積を、前記評価対象の動画像データの動画ノイズ評価値として算出する評価値算出工程と
    を備えることを特徴とする画質評価装置の制御方法。
  9. 請求項1乃至7のうち、何れか1項に記載の画質評価装置の各手段としてコンピュータを動作させるためのプログラム。
JP2012265668A 2011-12-15 2012-12-04 画質評価装置及びその制御方法、プログラム Active JP6018492B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012265668A JP6018492B2 (ja) 2011-12-15 2012-12-04 画質評価装置及びその制御方法、プログラム
US13/708,506 US20130155193A1 (en) 2011-12-15 2012-12-07 Image quality evaluation apparatus and method of controlling the same

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011275089 2011-12-15
JP2011275089 2011-12-15
JP2012265668A JP6018492B2 (ja) 2011-12-15 2012-12-04 画質評価装置及びその制御方法、プログラム

Publications (3)

Publication Number Publication Date
JP2013146052A JP2013146052A (ja) 2013-07-25
JP2013146052A5 JP2013146052A5 (ja) 2016-01-28
JP6018492B2 true JP6018492B2 (ja) 2016-11-02

Family

ID=48609736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012265668A Active JP6018492B2 (ja) 2011-12-15 2012-12-04 画質評価装置及びその制御方法、プログラム

Country Status (2)

Country Link
US (1) US20130155193A1 (ja)
JP (1) JP6018492B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6369019B2 (ja) * 2013-12-12 2018-08-08 セイコーエプソン株式会社 画像評価装置および画像評価プログラム
US9906782B2 (en) * 2015-01-14 2018-02-27 Cinder LLC Source agnostic audio/visual analysis framework
US10630953B2 (en) * 2018-07-12 2020-04-21 Sharp Kabushiki Kaisha Characterization system for evaluating characteristics of display device
CN110602484B (zh) * 2019-08-29 2021-07-27 海南电网有限责任公司海口供电局 一种输电线路设备拍摄质量在线检核方法
CN116055710B (zh) * 2022-08-10 2023-10-20 荣耀终端有限公司 一种视频时域噪声的评估方法、装置及系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3501954B2 (ja) * 1998-07-21 2004-03-02 日本放送協会 画質評価装置
JP2001326869A (ja) * 2000-05-15 2001-11-22 Kdd Media Will Corp 映像信号・映像信号解析結果同時表示装置
JP3862613B2 (ja) * 2002-06-05 2006-12-27 キヤノン株式会社 画像処理装置及び画像処理方法並びにコンピュータプログラム
WO2005050565A1 (ja) * 2003-11-20 2005-06-02 Matsushita Electric Industrial Co., Ltd. 移動物体検出装置及び移動物体検出方法
JP4250583B2 (ja) * 2004-09-30 2009-04-08 三菱電機株式会社 画像撮像装置及び画像復元方法

Also Published As

Publication number Publication date
JP2013146052A (ja) 2013-07-25
US20130155193A1 (en) 2013-06-20

Similar Documents

Publication Publication Date Title
JP6018492B2 (ja) 画質評価装置及びその制御方法、プログラム
Winkler Perceptual video quality metrics—A review
WO2014049978A1 (en) Image processing apparatus, imaging system, and image processing system
EP3341913B1 (en) Inverse tone mapping based on luminance zones
WO2012132241A1 (en) Image processing apparatus, imaging system, and image processing system
JP2019048117A (ja) 医療用画像の画像処理回路、画像処理方法及びプログラム
JP5483819B2 (ja) 二次元停止画像に対して没入感を生成する方法およびシステム、または没入感を生成するためのファクタ調節方法、イメージコンテンツ分析方法およびスケーリングパラメータ予測方法
KR20160102524A (ko) 이미지의 역 톤 매핑을 위한 방법
KR20120123178A (ko) 화상 처리 장치, 신호 처리 방법 및 프로그램
Moss et al. On the optimal presentation duration for subjective video quality assessment
JP2009251839A (ja) 画像信号処理回路、画像表示装置、および画像信号処理方法
EP2709055B1 (en) Image processing apparatus, image processing method, and storage medium in which program is stored
EP2537138A1 (en) Parameters interpolation for high dynamic range video tone mapping
EP2709056B1 (en) Image processing device, image processing method, and recording medium that has recorded program
JP4937852B2 (ja) 画像処理装置、画像処理プログラム及び撮像装置
JP2011171807A (ja) 画像処理装置、およびプログラム
WO2021036662A1 (zh) 信号处理方法、装置及相关产品
JP2007208708A (ja) 分光反射率推定方法、分光反射率推定装置および分光反射率推定プログラム
JP5202190B2 (ja) 画像処理方法及び画像処理装置
JP6082304B2 (ja) 画像処理装置及びその処理方法
Chu et al. Saliency structure stereoscopic image quality assessment method
KR20140084044A (ko) 화상 처리 장치, 화상 처리 방법, 및 기록매체
JP6786273B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2013097463A (ja) 画像評価装置、画像評価方法、およびプログラム
US10249020B2 (en) Image processing unit, imaging device, computer-readable medium, and image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160930

R151 Written notification of patent or utility model registration

Ref document number: 6018492

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151