JP5097140B2 - 領域判別装置、ノイズ低減装置及びノイズ低減プログラム - Google Patents

領域判別装置、ノイズ低減装置及びノイズ低減プログラム Download PDF

Info

Publication number
JP5097140B2
JP5097140B2 JP2009011090A JP2009011090A JP5097140B2 JP 5097140 B2 JP5097140 B2 JP 5097140B2 JP 2009011090 A JP2009011090 A JP 2009011090A JP 2009011090 A JP2009011090 A JP 2009011090A JP 5097140 B2 JP5097140 B2 JP 5097140B2
Authority
JP
Japan
Prior art keywords
block
noise level
noise
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009011090A
Other languages
English (en)
Other versions
JP2010171614A (ja
Inventor
康孝 松尾
清一 合志
和久 井口
孝一 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2009011090A priority Critical patent/JP5097140B2/ja
Publication of JP2010171614A publication Critical patent/JP2010171614A/ja
Application granted granted Critical
Publication of JP5097140B2 publication Critical patent/JP5097140B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Picture Signal Circuits (AREA)

Description

本発明は、動画像を構成するフレーム画像内の領域が、動きのある動領域か動きのない静領域かを判別する領域判別装置、並びに領域判別装置を用いたノイズ低減装置及びノイズ低減プログラムに関する。
デジタル化された動画像を、例えば、符号化処理やノイズ低減処理を効率的にするための処理の一部として、動画像を構成するフレーム画像内の領域が、動きのある動領域か動きのない静領域かを判別する領域判別処理技術が利用されている。
このような領域判別処理として、主としてテレビ電話やテレビ会議システムなどの空間解像度や時間解像度の比較的低い動画像を対象として、動画像であるデジタル映像信号をブロックに分割し、ブロックごとに前フレームに対する動き補償予測によって動きベクトルを検出して、動きベクトルの大きいブロックを動領域と判別する方法がある(例えば、特許文献1(図1、段落0012〜段落0014)参照)。
特開平5−304662号公報
近年は、低解像度のテレビ電話などの他に、ハイビジョンやスーパーハイビジョンなどの空間解像度や時間解像度の高い動画像を対象として領域判別をする必要が増加してきた。また、スーパーハイビジョンのように、高精細度化した固体撮像素子(CCD、CMOSセンサ等)の小面積化により、単位受光体当たりに得られる光エネルギが低下するため、出力画像にノイズが混入してしまい、特に夜間に撮影された動画像には、多くのノイズが重畳されているのが現状である。
このため、従来の領域判別処理の手法では、高解像度の動画像に対しては、十分な精度で領域を判別することができなかった。
そこで、本発明は、フレーム画像内の領域が、動領域か静領域かを高精度に判別することができる領域判別装置及び領域判別プログラムを提供することを目的とする。
また、本発明の他の目的は、当該領域判別装置及び領域判別プログラムを用いて動画像に重畳されたノイズを、画像の劣化を抑制しつつ低減するノイズ低減装置及びノイズ低減プログラムを提供することである。
前記した目的を達成するために、請求項1に記載の領域判別装置は、動画像を構成するフレーム画像の画像平面内の領域が、時間軸方向に前後のフレーム画像に対して変化のある動領域か、変化のない静領域か、の2種類の領域の何れであるかを判別する領域判別装置であって、領域判別ブロック分割手段と、サブブロック分割手段と、差分平均算出手段と、ノイズレベル設定手段と、正規化手段と、最大値抽出手段と、領域判別手段とを備える構成とした。
かかる構成によれば、領域判別装置は、まず、領域判別ブロック分割手段によって、入力したフレーム画像を複数の画素からなる領域判別用のブロックである領域判別ブロックに分割する。次に、領域判別装置は、サブブロック分割手段によって、領域判別ブロック分割手段によって分割された領域判別ブロックを、更に、当該領域判別ブロック中の複数の画素から構成される複数のサブブロックに分割する。領域判別装置は、続いて、差分平均算出手段によって、サブブロック分割手段によって分割された複数のサブブロックごとに、サブブロックを構成する各画素の、フレーム間の差分の大きさの平均値である差分平均を算出する。一方、領域判別装置は、ノイズレベル設定手段によって、動画像に含まれる画像平面内のノイズレベルを検出して正規化処理のために設定しておく。そして、領域判別装置は、正規化手段によって、差分平均算出手段によって算出した差分平均を正規化するために、ノイズレベル設定手段によって設定しておいたノイズレベルで除することで正規化差分平均を算出する。領域判別装置は、最大値抽出手段によって、正規化手段によって算出した領域判別ブロックから分割した複数のサブブロックの正規化差分平均の内の最大値を抽出する。そして、領域判別装置は、領域判別手段によって、最大値抽出手段によって抽出した正規化差分平均の最大値を、予め定められた判別閾値と比較し、正規化差分平均の最大値が判別閾値よりも大きい場合に領域判別ブロックを動領域と判別し、正規化差分平均の最大値が判別閾値以下の場合に領域判別ブロックを静領域と判別する。
これによって、領域判別装置は、領域判別ブロックを複数通りに分割したサブブロックごとに算出したフレーム間の差分平均を、処理対象となる動画像の画像平面内におけるノイズレベルで正規化して、正規化した差分値の最大値と予め定めた判別閾値とを比較して、領域判別ブロックごとに静領域か動領域かを判別する。
請求項に記載の領域判別装置は、動画像を構成するフレーム画像の画像平面内の領域が、時間軸方向に前後のフレーム画像に対して変化のある動領域か、変化のない静領域か、の2種類の領域の何れであるかを判別する領域判別装置であって、領域判別ブロック分割手段とサブブロック分割手段と、差分平均算出手段と、ノイズレベル設定手段と、正規化手段と、最大値抽出手段と、領域判別手段とを備える構成とした。
かかる構成によれば、領域判別装置は、まず、領域判別ブロック分割手段によって、入力したフレーム画像から、領域判別の対象となる注目画素を含む複数の画素からなる領域判別用のブロックである領域判別ブロックを分割する。領域判別装置は、次に、サブブロック分割手段によって、領域判別ブロック分割手段によって分割された領域判別ブロックを、更に、領域判別ブロック中の複数の画素から構成される複数のサブブロックに分割する。領域判別装置は、続いて、差分平均算出手段によって、サブブロック分割手段によって分割された複数のサブブロックごとに、サブブロックを構成する各画素の、フレーム間の差分の大きさの平均値である差分平均を算出する。一方、領域判別装置は、ノイズレベル設定手段によって、動画像に含まれる画像平面内のノイズレベルを検出して正規化処理のために設定しておく。そして、領域判別装置は、正規化手段によって、差分平均算出手段によって算出した差分平均を正規化するために、ノイズレベル設定手段によって設定しておいたノイズレベルで除することで正規化差分平均を算出する。領域判別装置は、最大値抽出手段によって、正規化手段によって算出した前記領域判別ブロックから分割した複数のサブブロックの正規化差分平均の内の最大値を抽出する。そして、領域判別装置は、領域判別手段によって、最大値抽出手段によって抽出した正規化差分平均の最大値を、予め定められた判別閾値と比較し、正規化差分平均の最大値が判別閾値よりも大きい場合に注目画素を動領域と判別し、正規化差分平均の最大値が判別閾値以下の場合に注目画素を静領域と判別する。
これによって、領域判別装置は、注目画素を含む領域判別ブロックを複数通りに分割したサブブロックごとに算出したフレーム間の差分平均を、処理対象となる動画像の画像平面内におけるノイズレベルで正規化して、正規化した差分値の最大値と予め定めた判別閾値とを比較して、注目画素ごとに静領域か動領域かを判別する。
請求項に記載の領域判別装置は、請求項1又は請求項2に記載の領域判別装置において、更に領域判別ブロック輝度算出手段を備え、ノイズレベル設定手段は、輝度レベルに応じてノイズレベルが定められた輝度別ノイズレベルを設定することとした。
かかる構成によれば、領域判別装置は、領域判別ブロック輝度算出手段によって、領域判別ブロック分割手段によって分割された領域判別ブロック内の輝度レベルを算出する。一方、領域判別装置は、ノイズレベル設定手段によって、輝度レベルに応じてノイズレベルが定められた輝度別ノイズレベルを検出して、正規化処理のために設定しておく。そして、領域判別装置は、正規化手段によって、領域判別ブロック輝度算出手段によって算出した輝度レベルに対応するノイズレベル設定手段によって設定された輝度別ノイズレベルで、差分平均を除することによって正規化する。
これによって、領域判別装置は、輝度レベルに応じたノイズレベルで正規化した差分平均と判別閾値とを比較して領域判別する。
請求項に記載の領域判別装置は、請求項1又は請求項2の何れか一項に記載の領域判別装置において、ノイズレベル設定手段は、正規化手段による正規化のために用いられるノイズレベルを検出する正規化用ノイズレベル検出手段であって、ノイズ検出ブロック分割手段と直流成分除去画像算出手段と画素平均算出手段と最小値抽出手段とを備える正規化用ノイズレベル検出手段、を備える構成とした。
かかる構成によれば、領域判別装置のノイズレベル設定手段における正規化用ノイズレベル検出手段は、ノイズ検出ブロック分割手段によって、入力したフレーム画像を複数の画素からなるノイズレベル検出用のブロックであるノイズ検出ブロックに分割する。次に、正規化用ノイズレベル検出手段は、直流成分除去画像算出手段によって、ノイズ検出ブロック分割手段によって分割したノイズ検出ブロックから直流成分を除去した直流成分除去画像を算出する。正規化用ノイズレベル検出手段は、続いて、画素平均算出手段によって、直流成分除去画像算出手段によって算出された直流成分除去画像の、ノイズ検出ブロック内の画素値の大きさの平均値である画素平均を算出する。そして、正規化用ノイズレベル検出手段は、最小値抽出手段によって、フレーム画像中の複数のノイズ検出ブロックに対応する画素平均の内の最小値を抽出し、抽出した画素平均の最小値を正規化処理のためのノイズレベルとして出力する。
これによって、領域判別装置は、フレーム画像の複数の箇所から検出したノイズレベル候補である画素平均の中の最小値を画像平面内におけるノイズレベルとして抽出し、差分平均の正規化のために用いる。
請求項に記載の領域判別装置は、請求項に記載の領域判別装置において、ノイズレベル設定手段は、正規化手段による正規化のために用いられるノイズレベルを検出する正規化用ノイズレベル検出手段であって、ノイズ検出ブロック分割手段と直流成分除去画像算出手段と画素平均算出手段とノイズ検出ブロック輝度算出手段と最小値抽出手段とを備える正規化用ノイズレベル検出手段、を備える構成とした。
かかる構成によれば、領域判別装置のノイズレベル設定手段における正規化用ノイズレベル検出手段は、ノイズ検出ブロック分割手段によって、フレーム画像を複数の画素からなるノイズ検出ブロックに分割する。次に、正規化用ノイズレベル検出手段は、直流成分除去画像算出手段によって、ノイズ検出ブロック分割手段によって分割したノイズ検出ブロックから直流成分を除去した直流成分除去画像を算出する。正規化用ノイズレベル検出手段は、続いて、画素平均算出手段によって、直流成分除去画像算出手段によって算出された直流成分除去画像の、ノイズ検出ブロック内の画素値の大きさの平均値である画素平均を算出する。一方、正規化用ノイズレベル検出手段は、ノイズ検出ブロック輝度算出手段によって、ノイズ検出ブロック分割手段によって分割されたノイズ検出ブロック内の輝度レベルを算出する。そして、正規化用ノイズレベル検出手段は、最小値抽出手段によって、画素平均算出手段によって算出された画素平均を、ノイズ検出ブロック輝度算出手段によって算出された輝度レベルに応じて分類し、分類した輝度レベルごとにフレーム画像中の複数のノイズ検出ブロックに対応する画素平均から最小値をその輝度レベルにおけるノイズレベルとして抽出して、輝度レベルごとにノイズレベルを対応づけた輝度別ノイズレベルを出力する。
これによって、領域判別装置は、フレーム画像の複数の箇所から検出した輝度別に分類されたノイズレベル候補である画素平均の中の最小値を、それぞれの輝度レベルの画像平面内におけるノイズレベルとして抽出し、差分平均の正規化のために用いる。
請求項に記載の領域判別装置は、請求項に記載の領域判別装置において、ノイズレベル設定手段は、更に検証用ノイズレベル検出手段を備え、正規化用ノイズレベル検出手段はノイズレベル検証手段と補間処理手段とを備える構成とした。
かかる構成によれば、領域判別装置のノイズレベル設定手段は、検証用ノイズレベル検出手段によって、予め予備撮影(プリスキャン)して得られたフレーム画像から、正規化用ノイズレベル検出手段によって検出される輝度別ノイズレベルの有効性を検証するための検証用ノイズレベルを検出しておく。次に、ノイズレベル設定手段の正規化用ノイズレベル検出手段は、ノイズレベル検証手段によって、最小値抽出手段によって抽出された各輝度別ノイズレベルの値が、検証用ノイズレベル検出手段によって予め検出しておいた検証用ノイズレベルの値に対して、予め定めた範囲内にあるかどうかを検証し、範囲外にあるときに、当該輝度別ノイズレベルのデータを有効でないとして排除する。そして、正規化用ノイズレベル検出手段は、補間処理手段によって、ノイズレベル検証手段によって排除された輝度レベルに対応するノイズレベルのデータを、排除されなかった輝度レベルにおけるノイズレベルのデータから補間処理して算出し、1組の輝度別ノイズレベルを完成させる。
これによって、領域判別装置は、フレーム画像から一旦検出した輝度別ノイズレベルから有効でないデータを排除し、有効なデータから輝度別ノイズレベルを再構成する。そして、領域判別装置は、有効な輝度別のノイズレベルに基づいて設定した輝度別ノイズレベルを用いて差分平均の正規化のために用いる。
また、前記した他の目的を達成するために、請求項に記載のノイズ低減装置は、動画像に重畳されたノイズを低減させるノイズ低減装置であって、請求項1乃至請求項の何れか一項に記載の領域判別装置と、動領域処理手段と、静領域処理手段とを備える構成とした。
かかる構成によれば、ノイズ低減装置は、領域判別装置によって、動画像を構成するフレーム画像の画像平面内の領域が、時間軸方向に前後のフレーム画像に対して変化のある動領域か、変化のない静領域か、の2種類の領域の何れであるかを判別する。そして、ノイズ低減装置は、動領域処理手段によって、領域判別装置によって動領域と判別されたフレーム画像の領域に対して、画像平面内におけるノイズ低減処理をする。一方、ノイズ低減装置は、静領域処理手段によって、領域判別装置によって静領域と判別されたフレーム画像の領域に対して、フレーム間におけるノイズ低減処理をする。
これによって、ノイズ低減装置は、フレーム画像中の各領域が動領域か静領域かに応じて、それぞれの種別の領域に適したノイズ低減処理を施したフレーム画像を出力する。
請求項に記載のノイズ低減プログラムは、動画像に重畳されたノイズを低減させるために、コンピュータを、請求項1乃至請求項の何れか一項に記載の領域判別装置、動領域処理手段、静領域処理手段、として機能させることとした。
かかる構成によれば、ノイズ低減プログラムは、領域判別装置によって、動画像を構成するフレーム画像の画像平面内の領域が、時間軸方向に前後のフレーム画像に対して変化のある動領域か、変化のない静領域か、の2種類の領域の何れであるかを判別する。そして、ノイズ低減プログラムは、動領域処理手段によって、領域判別装置によって動領域と判別されたフレーム画像の領域に対して、画像平面内におけるノイズ低減処理をする。一方、ノイズ低減プログラムは、静領域処理手段によって、領域判別装置によって静領域と判別されたフレーム画像の領域に対して、フレーム間におけるノイズ低減処理をする。
これによって、ノイズ低減プログラムは、フレーム画像中の各領域が動領域か静領域かに応じて、それぞれの種別の領域に適したノイズ低減処理を施したフレーム画像を出力する。
請求項に記載の発明によれば、領域判別ブロックを複数通りに分割したサブブロックごとに算出したフレーム間の差分平均を、処理対象となる動画像における画像平面内のノイズレベルで正規化して、正規化した差分平均と予め定めた判別閾値と比較して行うため、動画像を撮影するカメラの違いなどによるノイズレベルの違いに関わらず、安定した精度で領域判別ブロックの領域を判別することができるとともに、画像のエッジなどの動きを何れかのサブブロックによって的確に検出できるため、高精度に領域判別することができる。
請求項に記載の発明によれば、注目画素を含む領域判別ブロックを複数通りに分割したサブブロックごとに算出したフレーム間の差分平均を、処理対象となる動画像における画像平面内のノイズレベルで正規化して、正規化した差分平均と予め定めた判別閾値と比較して行うため、動画像を撮影するカメラの違いなどによるノイズレベルの違いに関わらず、安定した精度で領域判別ブロックの領域を画素ごとに判別することができるとともに、画像のエッジなどの動きを何れかのサブブロックによって的確に検出できるため、高精度に領域判別することができる。
請求項に記載の発明によれば、輝度レベルに応じたノイズレベルで正規化した差分平均と判別閾値とを比較して領域判別するため、輝度レベルごとに信号対雑音比が異なる場合であっても、安定して領域判別することができる。
請求項に記載の発明によれば、フレーム画像の複数の箇所から検出したノイズレベル候補である画素平均の中の最小値を画像平面内におけるノイズレベルとして抽出するため、適切にノイズレベルを検出することができ、ノイズレベルを用いて正規化した差分平均に基づいて安定した精度で領域判別することができる。
請求項に記載の発明によれば、フレーム画像の複数の箇所から検出した輝度別に分類されたノイズレベル候補である画素平均の中の最小値を、それぞれの輝度レベルの画像平面内におけるノイズレベルとして抽出するため、適切にノイズレベルを検出することができ、ノイズレベルを用いて正規化した差分平均に基づいて安定した精度で領域判別することができる。
請求項に記載の発明によれば、フレーム画像から一旦検出した輝度別ノイズレベルから有効でないデータを排除し、有効なデータから輝度別ノイズレベルを再構成するため、適切に輝度別にノイズレベルを設定することができ、輝度別ノイズレベルを用いて正規化した差分平均に基づいて安定した精度で領域判別することができる。
請求項又は請求項に記載の発明によれば、請求項1乃至請求項に記載の発明における効果を有する領域判別処理の結果に基づいて、動画像を構成するフレーム画像から、動領域か静領域かに応じて適切にノイズを低減することができる。
本発明の第1実施形態における領域判別装置の構成を示すブロック図である。 本発明の第1実施形態の領域判別装置において、フレーム内でブロック分割の様子を説明するための模式図である。 本発明の第1実施形態の領域判別装置において、連続するフレーム間のブロックの関係を説明するための模式図である。 本発明の第1実施形態におけるノイズレベル設定手段の構成を示すブロック図である。 本発明の第1実施形態の領域判別装置において、ノイズレベル検出のためにフレーム画像をブロック分割する様子を示す模式図であり、(1)はブロック分割の一例を示す模式図であり、(2)はブロック分割の他の例を示す模式図である。 本発明の第1実施形態の領域判別装置において、離散コサイン変換を説明するための説明図であり、(1)はブロックの画素の配列を示す図であり、(2)は変換後のDCT係数の配列を示す図である。 本発明の第1実施形態の領域判別装置において、DCT係数から直流成分を除去する様子を説明するための説明図であり、(1)は直流成分除去前のDCT係数を示す図であり、(2)は直流成分除去後のDCT係数を示す図である。 本発明の第1実施形態の領域判別装置において、DCT係数から直流成分を含む成分を除去する他の例を説明するための説明図であり、(1)は直流近傍成分を除去後のDCT係数を示す図であり、(2)は高空間周波数成分以外を除去後のDCT係数を示す図である。 本発明の第1実施形態における領域判別装置の処理の流れを示すフロー図である。 本発明の第1実施形態におけるノイズレベル設定手段の処理の流れを示すフロー図である。 本発明の第1実施形態の変形例のノイズレベル設定手段の構成を示すブロック図である。 本発明の第1実施形態の変形例のノイズレベル設定手段におけるHPF処理を説明するための説明図であり、(1)は画像にHPFを適用する様子を示す説明図であり、(2)はHPF処理における演算を説明するための説明図であり、(3)はHPFの空間周波数に対する応答特性を示すグラフである。 本発明の第1実施形態の変形例のノイズレベル設定手段の処理の流れを示すフロー図である。 本発明の第2実施形態における領域判別装置の構成を示すブロック図である。 本発明の第2実施形態におけるノイズレベル設定手段の構成を示すブロック図である。 本発明の第2実施形態の領域判別装置において、補間処理を説明するための説明図である。 本発明の第2実施形態における領域判別装置の処理の流れを示すフロー図である。 本発明の第2実施形態のノイズレベル設定手段の処理の流れを示すフロー図である。 本発明の第2実施形態の変形例のノイズレベル設定手段の構成を示すブロック図である。 本発明の第2実施形態の変形例のノイズレベル設定手段の処理の流れを示すフロー図である。 本発明の第3実施形態における領域判別装置の構成を示すブロック図である。 本発明の第3実施形態の領域判別装置において、ブロックをサブブロックに分割する様子を説明するための説明図であり、(1)〜(18)は、それぞれサブブロックの例を示す図である。 本発明の第3実施形態における領域判別装置の処理の流れを示すフロー図である。 本発明の第4実施形態における領域判別装置の構成を示すブロック図である。 本発明の第4実施形態における領域判別装置の処理の流れを示すフロー図である。 本発明の第5実施形態におけるノイズ低減装置の構成を示すブロック図である。 本発明の第5実施形態におけるノイズ低減装置の処理の流れを示すフロー図である。 本発明の第5実施形態の変形例のノイズ低減装置において、画素ごとの領域判別処理を説明するための説明図である。 本発明の第5実施形態の変形例のノイズ低減装置の処理の流れを示すフロー図である。
以下、本発明の実施形態について適宜図面を参照して詳細に説明する。
[第1実施形態の領域判別装置の構成]
まず、図1を参照して、本発明の第1実施形態における領域判別装置の構成について説明する。
図1に示した第1実施形態の領域判別装置1は、動画像を構成するフレーム画像F(tn―2)、F(tn―1)、F(t)、F(tn+1)、F(tn+2)…、を順次に入力し、フレームごとに、フレーム画像F(t)などをブロック(領域判別ブロック)に分割して、各ブロックが動きのある動領域か、動きのない静領域かを判別し、各ブロックの判別結果rとフレーム画像F(t)の画像面内における当該ブロックの位置とを対応づけて構成した領域判別マップR(tn―1)を出力する。
なお、F(t)及びR(tn―1)は、それぞれ時間t及び時間tn―1おけるフレーム画像及び領域判別マップを示し、後記するように、フレーム画像F(t)の入力に対する領域判別マップR(t)は、1フレーム周期遅れて出力される。
図1に示した第1実施形態の領域判別装置1は、ブロック分割手段(領域判別ブロック分割手段)10と、ブロック画素記憶手段11と、差分平均算出手段12と、正規化手段13と、最大値抽出手段14と、領域判別手段15と、領域判別マップ記憶手段16と、差分計算設定手段17と、ノイズレベル設定手段18と、判別閾値設定手段19と、を備えて構成されている。
ブロック分割手段(領域判別ブロック分割手段)10は、フレーム順次で入力される動画像を構成するフレーム画像F(t)を、画像面内で5×5画素の形状のブロック(領域判別ブロック)Bに分割して、ブロックBごとに、ブロックBを構成する画素データをブロック画素記憶手段11に出力する。
ここで、図2及び図3を参照(適宜図1参照)して、ブロック分割手段10によってフレーム画像F(t)をブロック分割する様子を説明する。
図2に示したように、ブロック分割手段10は、フレーム画像F(t)内を、予め定めた形状として、5×5画素の形状のブロックBに分割し、順次に各ブロックBを構成する画素データをブロック画素記憶手段11の後フレーム画素記憶手段111に出力する。
また、ブロック分割手段10は、図3に示したように、時間軸方向に連続する各フレーム画像F(tn−1)、F(t)、F(tn+1)を順次にブロック分割する際に、それぞれ画像面内の同じ位置に対応するブロックBn−1、B、Bn+1が分割されるようにする。
ここで、ブロックBの形状(サイズ)は、画像信号の高空間周波数成分を十分に検出できる大きさが必要であり、3×3よりも大きいことが好ましい。一方、画像領域をきめ細かく領域判別するためにはブロックBのサイズは小さい方が好ましく、11×11より小さいことが好ましい。そこで、第1実施形態では、ブロックBの形状を5×5とした。
なお、ブロックBの形状は、5×5、4×4、7×7、8×8のように正方形に限定されず、例えば、8×4のように横方向(水平方向)と縦方向(垂直方向)とでサイズを異なるようにしてもよい。
図1に戻って(適宜図2及び図3参照)、ブロック画素記憶手段11は、直列に接続された後フレーム画素記憶手段111、注目フレーム画素記憶手段112及び前フレーム画素記憶手段113を備えて構成されている。ブロック画素記憶手段11は、ブロック分割手段10から順次に出力されるブロックBの画素データを記憶し、連続する3つのフレームにおいて、画像平面内の同じ位置に対応するブロックB、B、Bの画素データを読み出して、同時に参照できるようにするための記憶手段である。
なお、ブロックBは、時間軸方向に連続する3つのフレームの内の、時間軸上で前のフレーム(前フレーム)におけるブロックを示し、ブロックBは、時間軸上で中央のフレーム(処理対象となる注目フレーム)におけるブロックを示し、ブロックBは、時間軸上で後のフレーム(後フレーム)におけるブロックを示すものとする。
後フレーム画素記憶手段111は、ブロック分割手段10から入力して記憶したフレーム画像F(t)におけるブロックBの画素データを、後フレームのブロックBの画素データとして差分平均算出手段12の差分算出手段121に出力する。
また、後フレーム画素記憶手段111は、1フレームの処理が終了すると、不図示のフレーム同期信号に同期して、記憶している画素データを注目フレーム画素記憶手段112に出力する。そして、ブロック分割手段10から入力される次のフレーム画像、すなわち時間tn+1におけるフレーム画像F(tn+1)のブロックBn+1の画素データを、次の後フレームのブロックBの画素データとして記憶する。
一方、注目フレーム画素記憶手段112は、後フレーム画素記憶手段111がフレーム画像F(t)におけるブロックBの画素データを後フレームのブロックBの画素データとして出力している期間に、時間軸上で前のフレーム画像F(tn−1)におけるブロックBn―1の画素データを、注目フレームのブロックBの画素データとして差分算出手段121に出力する。1フレームの処理が終了すると、注目フレーム画素記憶手段112は、不図示のフレーム同期信号に同期して、記憶している画素データを前フレーム画素記憶手段113に出力するとともに、後フレーム画素記憶手段111から入力されるフレーム画像F(t)のブロックBの画素データを、次の注目フレームにおけるブロックBの画素データとして記憶する。
同様に、前フレーム画素記憶手段113は、注目フレーム画素記憶手段112がフレーム画像F(tn−1)におけるブロックBn―1の画素データを注目フレームのブロックBの画素データとして出力している期間に、時間軸上で更に前のフレーム画像F(tn−2)におけるブロックBn―2(不図示)画素データを、前フレームのブロックBの画素データとして差分算出手段121に出力する。1フレームの処理が終了すると、前フレーム画素記憶手段113は、不図示のフレーム同期信号に同期して、注目フレーム画素記憶手段112から入力されるフレーム画像F(tn―1)のブロックBn―1の画素データを、次の前フレームにおけるブロックBの画素データとして記憶する。
以上のようにして、ブロック画素記憶手段11は、ブロック分割手段10からフレームごとに入力したブロックBの画素データを、フレーム同期信号に同期して、後フレーム画素記憶手段111、注目フレーム画素記憶手段112及び前フレーム画素記憶手段113にシフトして記憶する。そして、後フレーム画素記憶手段111、注目フレーム画素記憶手段112及び前フレーム画素記憶手段113は、それぞれブロックB、B、Bの画素データとして記憶した連続する3つのフレームの画素データを差分算出手段121に出力することで、差分算出手段121は、注目フレームと前後のフレームの、画像平面内の同じ位置から分割された処理対象である注目ブロックBのデータを同時に参照することができる。
差分平均算出手段12は、差分算出手段121と、平均算出手段122と、を備えて構成されており、注目ブロックB内の画素のフレーム間の差分の大きさの平均である差分平均G、G、Gを、注目ブロックB内の画像の動きの大きさを示す量(動き成分量)として算出して、正規化手段13に出力するものである。
差分算出手段121は、ブロック画素記憶手段11の前フレーム画素記憶手段113、注目フレーム画素記憶手段112及び後フレーム画素記憶手段111から出力されるブロックB、B、Bの画素データを入力し、差分計算設定手段17から入力する設定値SELに従って、画素ごとにフレーム間の差分D、D、Dを算出して平均算出手段122に出力する。
ここで、ブロックB、差分Dなどのブロック内の位置(i,j)における画素値及び差分値を、それぞれB(i,j)、D(i,j)のように表すと、式(1−1)〜式(1−3)のような関係となる。
(i,j) = B(i,j) − B(i,j) …式(1−1)
(i,j) = B(i,j) − B(i,j) …式(1−2)
(i,j) = B(i,j) − B(i,j) …式(1−3)
なお、設定値SELは、前記した3種類の差分D、D、Dから、実際に算出する差分の種別を選択するための選択信号である。
例えば、“0”又は“1”の値をとるものであり、設定値SELが“1”の場合は、差分平均算出手段12におけるフレーム間の差分平均として、前フレームと注目フレームとの間、後フレームと注目フレームとの間、及び前フレームと後フレームとの間の3種類の組み合わせによる差分平均を算出する。また、設定値SELが“0”の場合は、差分平均算出手段12におけるフレーム間の差分平均として、前フレームと後フレームとの間の差分平均のみを算出し、計算の簡略化を選択できるようになっている。
平均算出手段122は、差分算出手段121から差分D、D、Dを入力し、当該3種類の差分D、D、Dごとに、差分の大きさの平均である差分平均G、G、Gを算出して正規化手段13に出力する。なお、差分計算設定手段17から入力した設定値SELが“0”の場合には、平均算出手段122は、差分平均Gのみを算出して正規化手段13に出力する。
ここで、差分平均Gは、式(2−1)及び式(2−2)に示したように、差分D(i,j)の絶対値の平均やRMS(Root Mean Square:二乗平均平方根)とすることができる。また、式(2−3)に示したように、RMSの平方根の計算を省略して二乗平均を差分平均Gとして用いるようにしてもよい。差分平均G、Gについても同様である。
= Σ|D(i,j)|/N …式(2−1)
= √{ΣD(i,j)/N} …式(2−2)
= ΣD(i,j)/N …式(2−3)
但し、式(2−1)〜式(2−3)において、NはブロックB内の画素数を示し、5×5サイズの場合はN=25である。また、i及びjは、それぞれ画素のブロックB内における水平方向及び垂直方向の位置を示すインデックスであり、Σは、ブロック内のすべての画素位置(i,j)についての和を表すものとする。
正規化手段13は、差分平均算出手段12から入力した差分平均G、G、Gを、ノイズレベル設定手段18から入力したノイズレベルEで除することにより正規化して、正規化差分平均G’、G’、G’を算出し、算出した正規化差分平均G’、G’、G’を最大値抽出手段14に出力する。
ここで、ノイズレベルか、あるいは誤判別を低減するためノイズレベルを少し超えたレベルかを予め判別閾値として設定しておき、画像の動き成分量として算出した差分平均G、G又はGの何れかが判別閾値を超えた場合に、当該ブロックを画像に動きがある動領域と判別することができる。しかし、一般的に、領域判別する動画像ごとにSNR(信号対雑音比)は異なるため、適切に領域判別を行うためには、動画像ごとに判別閾値をチューニングする必要が生じる。
そこで、本発明の第1実施形態では、当該動画像に重畳されているノイズレベルEを検出し、ノイズレベルEで差分平均G、G、Gを除して正規化した正規化差分平均G’、G’、G’と、予め定めた判別閾値THRを比較することで領域判別を行うものである。
これによって、動画像ごとに判別閾値THRをチューニングする必要がなくなる。また、判別処理対象の動画像に拘わらず、各動画像に共通の判別閾値THRを調整して動領域の抽出漏れを低減したり、逆に動領域の検出過多を低減したりすることも可能である。
最大値抽出手段14は、ブロックごとに、正規化手段13から入力した3つの正規化差分平均G’、G’、G’の内の最大値である最大正規化差分平均G’maxを抽出し、抽出した最大正規化差分平均G’maxを領域判別手段15に出力する。
本発明の第1実施形態では、画像が時々刻々変化する動画像において、注目フレーム及び前後フレームの相互間で最も変化量の大きいフレーム間の正規化差分平均である最大正規化差分平均G’maxを、注目フレームにおける画像の動き成分量とすることで、動き成分量をより適切に検出することができる。
なお、差分計算設定手段17によって設定値SETに“0”が設定されている場合は、最大値抽出手段14に、正規化手段13からは正規化差分平均G’のみが入力されるため、最大値の抽出処理をすることなく、正規化差分平均G’を最大正規化差分平均G’maxとして領域判別手段15に出力する。
また、差分平均算出手段12が、常に差分平均Gのみ算出するように構成する場合は、最大値抽出手段14は省略することができる。
領域判別手段15は、最大値抽出手段14から入力した正規化差分平均の最大正規化差分平均G’maxと、判別閾値設定手段19から入力した判別閾値THRとを比較し、最大正規化差分平均G’maxが判別閾値THRよりも大きいときに、注目ブロックBを動領域であると判別し、最大正規化差分平均G’maxが判別閾値THR以下の場合に、注目ブロックBを静領域と判別し、領域判別結果rを領域判別マップ記憶手段16に出力する。
なお、領域判別結果rは、例えば、動領域と判別したときは“1”の値をとり、静領域と判別したときは“0”の値をとるようにすることができる。
領域判別マップ記憶手段16は、領域判別手段15から入力した領域判別結果rを、当該判別対象となった注目ブロックBのフレーム画像F(t)の画像面内における位置に対応づけて領域判別マップR(t)として記憶する記憶手段である。領域判別マップ記憶手段16に記憶された領域判別マップR(t)は、不図示のノイズ低減装置などの領域判別マップR(t)を利用する装置によって読み出される。
ここで、注目フレーム画像F(t)に対する領域判別結果rは、1フレーム周期後に入力されるフレーム画像F(tn+1)を参照して出力されるため、フレーム画像F(t)を入力する期間に出力される領域判別マップは、1フレーム周期前の、時間tn−1におけるフレーム画像F(tn−1)に対する領域判別マップR(tn−1)である。
また、領域判別マップR(t)は、フレーム単位ではなく、領域判別結果rを処理対象となった注目フレームの時間tと、注目ブロックBのフレーム画像F(t)における位置とに対応づけて、動画像単位で作成するように構成してもよい。
更にまた、領域の判別結果を利用する装置が、領域判別装置1による領域判別結果rの算出に同期して並行して処理を行うような利用形態の場合は、領域判別装置1は、領域判別マップR(t)を作成せずに、領域判別手段15が判別した領域判別結果rを順次に当該領域の判別結果を利用する装置に出力するように構成してもよい。
差分計算設定手段17は、前記したように、差分平均算出手段12において3つの差分平均G、G、Gを算出するか、1つの差分平均Gを算出するかを選択する設定値SELを差分平均算出手段12に出力する。設定値SELは、不図示のスイッチやキーボード、マウスなどの入力手段を介して操作者が設定できるように構成されている。
ノイズレベル設定手段18は、フレーム画像F(t)を入力して、入力したフレーム画像F(t)からノイズレベルEを検出し、検出したノイズレベルEを正規化手段13に出力して差分平均G、G、Gの正規化のために設定する。
ノイズレベル設定手段18は、判別対象となる動画像の入力に先立って、当該動画像を生成するカメラを用いて、濃淡のある通常の風景などをプリスキャン(予備撮影)し、プリスキャンして得たフレーム画像F(t)から、前記したカメラで本スキャン(本番の撮影)したときに動画像に重畳されると推測される画像平面内のノイズレベルEを検出するものである。
ノイズレベル設定手段18の詳細な構成については後記する。
判別閾値設定手段19は、領域判別のために用いる判別閾値THRを設定し、領域判別手段15に出力する。判別閾値THRは、不図示の調整つまみやキーボード、マウスなどの入力手段を介して操作者が設定できるように構成されている。
次に、図4乃至図8を参照(適宜図1参照)して、実施形態1におけるノイズレベル設定手段18について詳細に説明する。
図4に示した第1実施形態におけるノイズレベル設定手段18は、フレーム画像F(t)を、予め定めた形状のブロックCに分割し、ブロックCごとに直流成分を除去した直流成分除去画像C’を算出して、この直流成分除去画像C’を構成する各画素データの大きさの平均である画素平均Hに基づいて画像面内のノイズレベルEを検出し、前記した正規化手段13による正規化処理に用いるために設定するものである。
ノイズレベル設定手段18は、ブロック分割手段(ノイズ検出ブロック分割手段)50と、直流成分除去画像算出手段51と、画素平均算出手段52と、最小値抽出手段53とを備えて構成されている。
ブロック分割手段(ノイズ検出ブロック分割手段)50は、プリスキャンして得たフレーム画像F(t)を、予め定められた形状のブロック(ノイズ検出ブロック)Cに分割し、分割したブロックCごとに、ブロックCを構成する画素データを交流成分抽出手段51に出力する。第1実施形態におけるノイズレベル設定手段18は、図5の(1)に点線で示したように、フレーム画像F(t)を、まず32×32のブロックに分割し、各32×32サイズのブロックの一部にハッチングを施して示した11×11のブロックCを構成する画素データを参照する。例えば、フレーム画像F(t)の画像サイズがフルハイビジョンサイズである1920×1080の場合には、水平方向に1920/32=60ブロック、垂直方向に1080/32≒33ブロックに分割し、フレーム画像F(t)内の60×33=1980箇所の11×11サイズのブロックCを構成する画素データを順次に直流成分除去画像算出手段51に出力する。
カメラ撮影において画像に重畳される粒状性ノイズは、主として高空間周波数成分を多く含むため、ノイズレベル検出のために用いる画像には、エッジや細密な模様などが含まれない平坦な画像領域、すなわち画像信号として高空間周波数成分を多く含まない画像領域が適している。このような画像領域の高空間周波数成分の大きさによってノイズレベルを評価することができる。そこで、分割した複数のブロックCの中の、少なくとも1個のブロックCが前記したような平坦画像領域に割り当てられればノイズレベルを適切に検出することができる。従って、第1実施形態のノイズレベル設定手段18は、フレーム画像F(t)の全領域を参照する必要はなく、全領域から一部の領域を間引いて参照するものである。
ここで、エッジなどの高空間周波数成分を多く含む画像が、1フレーム内に500箇所程度含まれることが実験的に分かっているため、少なくとも1個のブロックCが、エッジなどを含まない平坦な画像領域に割り当てられるように、ブロックCの参照箇所は500箇所以上とすることが望ましい。そこで、第1実施形態では、フルハイビジョンサイズの画像に適用した場合、前記したように1980箇所のブロックCを参照するように構成されている。
なお、プリスキャン時には、画像の高空間周波数成分を抑制するために、わざとフォーカスをぼかして撮影するようにしてもよい。
また、図5の(2)に点線で示したように、フレーム画像F(t)の全領域を11×
11の形状のブロックに分割し、これらのブロック中からハッチングを施して示したブロックCを選択して、ノイズレベル検出のために参照するようにしてもよい。図5の(2)に示した例では、水平方向、垂直方向ともに、3ブロックに1ブロックの割合で抽出しているため、フレーム画像F(t)が、フルハイビジョンサイズの画像の場合では、水平方向に1920/11/3≒58ブロック、垂直方向に1080/11/3≒32ブロックであり、合計で58×32=1856箇所のブロックCを参照することができる。
直流成分除去画像算出手段51は、直交変換手段であるDCT(離散コサイン変換)処理手段51aと、直流成分除去手段51bと、逆直交変換手段である逆DCT処理手段(逆離散コサイン変換)51cとを備えて構成されており、ブロック分割手段50から入力するブロックCごとに、少なくとも直流成分を除去した直流成分除去画像C’を算出して画素平均算出手段52に出力するものである。
なお、第1実施形態では、直交変換としてDCTを用いたが、離散フーリエ変換やアダマール変換など他の直交変換を用いるようにすることもできる。
DCT処理手段51aは、図6の(1)に示したように、ブロック分割手段50から入力するブロックCを構成する画素データp11〜p55からなる配列を、DCT処理して、図6の(2)に示しように、空間周波数成分x11〜x55からなるDCT係数KDCTに変換して、直流成分除去手段51bに出力する。なお、図6には、図面を簡略化するために、5×5画素サイズのブロックCをDCT処理した場合について説明したが、11×11サイズのブロックCの場合は、空間周波数成分x11〜空間周波数成分x11 11までの121個の要素からなるDCT係数KDCTに変換される。何れのサイズの場合でも、配列の左上の要素x11が直流成分であり、右側ほど水平方向の空間周波数が高く、下側ほど垂直方向の空間周波数の高い成分の係数を示す。
直流成分除去手段51bは、図7の(1)に示したDCT処理手段51aから入力するDCT係数KDCTから、図7の(2)に示したように、少なくとも直流成分を除去(係数値を“0”に置き換える)し、少なくとも直流成分を除去したDCT係数K’DCTを逆DCT処理手段52cに出力する。
図7の(2)に示した例では、直流成分x11のみを除去し、交流成分はすべて保存しているが、図8の(1)に示したように、直流成分x11及び直流成分近傍、すなわち低い空間周波数側の交流成分x12、x13,x14,x15,x21,x31,x41,x51も削除するようにしてもよい。更に、図8の(2)に示したように、より高い空間周波数の交流成分であるx25,x34,x43,x52,x35,x44,x53,x45,x54,x55のみを残して、他の交流成分及び直流成分x11を除去するようにしてもよい。これによって、画像信号に比べて高空間周波数成分を多く含む粒状性ノイズを主とするノイズレベルを、より的確に検出することができる。
逆DCT処理手段51cは、直流成分除去手段51bから入力した直流成分x11が除去されたDCT係数K’DCTを、逆DCT処理して画素データの配列からなる直流成分除去画像C’を算出し、画素平均算出手段52に出力する。
画素平均算出手段52は、逆DCT処理手段51cから入力した直流成分除去画像C’を構成する画素データの大きさの平均である画素平均Hを、ブロックごとに算出して、最小値抽出手段53に出力する。
ここで、元のブロックCの画像が濃淡変化の全くない平坦画像、すなわちブロックCを構成する画素データの値がすべて同値である場合は、DCT係数KDCTの交流成分はすべて“0”であるから、ブロックCの平均輝度(濃淡レベル)を示す直流成分x11を除去してから、逆DCT処理して算出した直流成分除去画像C’を構成する画素データはすべて“0”となる。そして、濃淡変化が大きいほど、直流成分除去画像C’を構成する画素データは、その大きさである画素データの絶対値が大きな値を持つようになる。
画素平均算出手段52は、各ブロックCに対応する直流成分除去画像C’の画素平均Hを算出し、フレーム画像F(t)におけるノイズレベルEの候補値として順次に最小値抽出手段53に出力する。
なお、第1実施形態におけるノイズレベル設定手段18の画素平均算出手段53は、画素平均Hの算出方法として、直流成分除去画像C’を構成する画素データのRMS(二乗平均平方根)を算出する。
また、画素平均Hは、画素データのRMSの他、画素データの絶対値の平均としてもよく、計算を簡略化するためにRMSの平方根算出を省略した画素データの二乗平均としてもよい。
最小値抽出手段53は、画素平均算出手段52からブロックごとに入力される画素平均Hの内の最小値を抽出し、抽出した最小値をフレーム画像F(t)から検出したノイズレベルEとして、正規化手段13に出力する。
以上、領域判別装置1の構成について説明したが、本発明はこれに限定されるものではない。例えば、領域判別装置1は、一般的なコンピュータにプログラムを実行させ、コンピュータ内の演算装置や記憶装置を動作させることにより実現することができる。このプログラム(領域判別プログラム)は、通信回線を介して配布することも可能であるし、CD−ROM等の記録媒体に書き込んで配布することも可能である。
[第1実施形態の領域判別装置の動作]
次に、図9を参照(適宜図1及び図4参照)して、本発明の第1実施形態における領域判別装置1の動作について説明する。
図9に示したように、領域判別装置1は、まず、不図示のカメラ(動画像撮影装置)で急激な濃淡変化の少ない画像をプリスキャンしたフレーム画像F(t)を入力し(ステップS11)、ノイズレベル設定手段18によってフレーム画像F(t)に重畳されたノイズレベルEを検出し、正規化処理に用いるために検出したノイズレベルEを正規化手段13に出力して設定する(ステップS12)。
不図示のカメラによって本スキャンが開始されると(ステップS13)、領域判別装置1は、順次に入力されるフレーム画像F(t)を(ステップS14)、ブロック分割手段10によって、5×5の形状のブロックBに分割し(ステップS15)、ブロックBごとに、分割したブロックBを構成する画素データをブロック画素記憶手段11の後フレーム画素記憶手段111に記憶する(ステップS16)。なお、このとき複数のフレーム画像F(tn−1)、F(tn−2)が領域判別装置1に入力されており、ブロック画素記憶手段11の注目フレーム画素記憶手段112にはフレーム画像F(tn−1)から分割した各ブロックBの画素データが記憶され、前フレーム画素記憶手段113にはフレーム画像F(tn−2)から分割した各ブロックBの画素データが記憶されているものとする。従って、フレーム画像F(t)を新しく入力する期間は、1フレーム前のフレーム画像F(tn−1)が判別処理の対象となる注目フレームとなる。
領域判別装置1は、ブロック画素記憶手段11の前フレーム画素記憶手段113、注目フレーム画素記憶手段112及び後フレーム画素記憶手段111に記憶されている、各フレームにおけるブロックBを構成する画素データを、それぞれブロックB、ブロックB及びブロックBを構成する画素データとして、ブロックBごとに順次に読み出し、差分平均算出手段12の差分算出手段121に出力して、注目フレーム及び前後フレームにおける各ブロックBの位置の画素データを同時に参照できるようにする(ステップS17)。
領域判別装置1は、差分算出手段121によってステップS17でブロック画素記憶手段11から入力したブロックB、B、Bを構成する各画素データの差分(フレーム間差分)D、D、Dを算出し、平均算出手段122によって各差分D、D、Dごとに、ブロックBにおける差分平均G、G、Gを算出して正規化手段13に出力する(ステップS18)。
なお、領域判別装置1は、差分計算設定手段17によって予め設定しておいた設定値SELが“0”の場合には、差分算出手段121によって差分Dのみを算出し、以降の処理においては差分D及び差分Dに関する処理は行わないように制御する。
領域判別装置1は、正規化手段13によって、ステップS18で差分平均算出手段12から入力した差分平均G、G、Gを、ステップS12でノイズレベル設定手段18によって設定されたノイズレベルEで除することによって正規化し、正規化した正規化差分平均G’、G’、G’を最大値抽出手段14に出力する(ステップS19)。
領域判別装置1は、最大値抽出手段14によって、ステップS19で正規化手段13から入力した3つの正規化差分平均G’、G’、G’から最大値である最大正規化差分平均G’maxを抽出し、領域判別手段15に出力する(ステップS20)。
領域判別装置1は、領域判別手段15によって、ステップS20で最大値抽出手段14から入力した最大正規化差分平均G’maxと、予め判別閾値設定手段19によって設定しておいた判別閾値THRとを比較する。そして、最大正規化差分平均G’maxが判別閾値THRよりも大きい場合は、領域判別処理の対象である注目ブロックBを動領域であると判別して領域判別結果rに“1”を設定し、最大正規化差分平均G’maxが判別閾値THR以下の場合は、領域判別処理の対象である注目ブロックBを静領域であると判別して領域判別結果rに“0”を設定し(ステップS21)、領域判別結果rを注目フレーム画像F(tn―1)における当該注目ブロックBの位置に対応づけて領域判別マップ記憶手段16に記憶する(ステップS22)。
領域判別装置1は、1つのブロックBの領域判別処理が終わると、注目フレーム画像F(tn―1)において未処理のブロックBがないかを確認し(ステップS23)、未処理のブロックBがある場合は(ステップS23でYes)、ステップS17に戻り、次のブロックBの一連の領域判別処理を行う。
また、未処理のブロックBがない場合は(ステップS23でNo)、領域判別装置1は、ブロック画素記憶手段11によって、注目フレーム画素記憶手段112に記憶されているフレーム画像F(tn−1)における各ブロックBの画素データを前フレーム画素記憶手段113にシフトするとともに、後フレーム画素記憶手段111に記憶されているフレーム画像F(t)における各ブロックBの画素データを注目フレーム画素記憶手段112にシフトする(ステップS24)。
領域判別装置1は、次のフレーム画像F(tn+1)の入力があるかどうかを確認し(ステップS25)、入力がある場合は(ステップS25でYes)、ステップS14に戻って、次のフレーム画像F(tn+1)を前フレームとして追加入力し、フレーム画像F(t)に対する領域判別処理を行う。
次のフレーム画像F(tn+1)の入力がない場合は(ステップS25でNo)、領域判別装置1は処理を終了する。
次に、図10を参照(適宜図4及び図1参照)して、第1実施形態におけるノイズレベル設定手段18の動作について説明する。なお、図10に示した処理は、図9に示した処理のステップS11〜ステップS12に相当する。
図10に示したように、ノイズレベル設定手段18は、プリスキャンして得たフレーム画像F(t)を入力すると(ステップS31)、当該フレーム画像F(t)をブロック分割手段50によって、全領域を32×32のブロックに分割し、更にブロックごとに11×11のブロックCをノイズレベル検出のための参照領域として分割して(ステップS32)、ブロックCごとに、各ブロックCを構成する画素データを直流成分除去画像算出手段51のDCT処理手段51aに出力する(ステップS33)。
ノイズレベル設定手段18は、DCT処理手段51aによって、ステップS33でブロック分割手段50から入力したブロックCの画素データをDCT処理し、空間周波数成分を示すDCT係数KDCTに変換して、直流成分除去手段51bに出力する(ステップS34)。続いて、ノイズレベル設定手段18は、直流成分除去手段51bによって、ステップS34でDCT処理手段51aから入力したDCT係数KDCTから直流成分を示す係数x11(図7参照)を除去し、係数x11を除去したDCT係数K’DCTを逆DCT処理手段51cに出力する(ステップS35)。そして、ノイズレベル設定手段18は、逆DCT処理手段によって、ステップS35で直流成分除去手段51bから入力した直流成分除去後のDCT係数K’DCTを、逆DCT処理して直流成分除去画像C’に変換し、変換した直流成分除去画像C’を構成する画素データを画素平均算出手段52に出力する(ステップS36)。
ノイズレベル設定手段18は、画素平均算出手段52によって、ステップS35で逆DCT処理手段51cから入力した直流成分除去画像C’を構成する画素データの平均である画素平均Hを算出し、算出した画素平均Hを最小値抽出手段53に出力する(ステップS37)。
ノイズレベル設定手段18は、一つのブロックCの画素平均Hの算出が終わると、未処理のブロックCが残ってないかを確認し(ステップS38)、未処理のブロックCが残っている場合は(ステップS38でYes)、ステップS33に戻って、次のブロックCについて画素平均Hを求める一連の処理を行う。
一方、未処理のブロックCがない場合は(ステップS38でNo)、ノイズレベル設定手段18は、最小値抽出手段53によって、画素平均算出手段52から入力した、フレーム画像F(t)内の各ブロックCにおける画素平均Hから最小値を抽出し、抽出した最小値をノイズレベルEとして正規化手段13に出力して正規化処理に用いるために設定する(ステップS39)。以上でノイズレベル設定手段18は動作を終了する。
以上、第1実施形態におけるノイズレベル設定手段18の動作について説明したが、ノイズレベル設定手段18は、プリスキャンして得たフレーム画像F(t)を解析してノイズレベルEを検出することに限定されるものではない。例えば、本スキャンして得た最初のフレーム画像F(t)を解析してノイズレベルEを検出するように構成してもよく、本スキャンして得たフレーム画像F(t)ごとにノイズレベルEを検出するように構成してもよい。
また、ノイズレベルEの検出は、1つのフレーム画像F(t)からだけではなく、複数のフレーム画像からブロックCを分割して、これらのブロックCの画素平均Hを求め、最小値を抽出してノイズレベルEを検出するようにしてもよい。
[第1実施形態の変形例のノイズレベル設定手段の構成]
次に、本発明の第1実施形態の領域判別装置におけるノイズレベル設定手段の変形例について、図11を参照(適宜図4参照)して説明する。
図11に示したように、第1実施形態の変形例のノイズレベル設定手段18Aは、図4に示した第1実施形態における領域判別装置1のノイズレベル設定手段18に対して、直流成分除去手段51の替わりに直流成分除去手段51Aを備えて構成されている。すなわち、第1実施形態のノイズレベル設定手段18とは直流成分除去の手法が異なる。
なお、図4に示した第1実施形態におけるノイズレベル設定手段18と同じ構成要素については、同じ符号を付して説明は適宜省略する。
第1実施形態の変形例におけるノイズレベル設定手段18Aの直流成分除去手段51Aは、HPF(ハイパスフィルタ)処理手段51dを備えて構成されている。
ここで、図12を参照(適宜図11参照)して、第1実施形態の変形例のノイズレベル設定手段18Aで用いるHPF処理について説明する。
図12の(1)に示したように、HPF処理手段51dは、ブロック分割手段50から入力したブロックCを構成する各画素C(i,j)に対して、縦方向(垂直方向)に隣接する画素C(i,j−1)及び画素C(i,j+1)を参照し、図12の(2)に示したHPFのフィルタ係数KHPFの各係数と空間的に対応する画素値との積和演算を式(3)のように行う。
C’(i,j) =
C(i,j−1)×(−1/2)
+ C(i,j)×1
+ C(i,j+1)×(−1/2) …式(3)
また、このHPFの垂直方向の空間周波数に対する応答特性は、図12の(3)に示したように低空間周波数成分ほど伝達率が低く、直流成分(空間周波数=0)に対する伝達率は0である。従って、図12の(2)に示したHPF処理を行うことによりブロックCの画像から直流成分を除去した画像を算出することができる。
なお、図12の(3)において、fNyはナイキスト周波数を示す。また、図12の(2)に示したHPFは、水平方向に関してはフィルタ処理をしないため、水平方向の空間周波数成分は変化しない。
また、ブロックCのサイズが11画素×11ラインの場合は、上端及び下端のラインの画素は、それぞれ上方に隣接する画素及び下方に隣接する画素を参照できない。そのため、上端及び下端のラインの画素についてはHPF処理をすることができないので、HPF処理後のブロックC’の有効なサイズは11画素×9ラインとなる。従って、直流成分除去画像算出手段51dは、この有効な11×9のサイズの直流成分除去画像C’を構成する画素データを画素平均算出手段52に出力する。
なお、ブロックCのサイズを11画素×13ラインとして、HPF処理後のブロックC’の有効なサイズが11画素×11ラインとなるように構成してもよい。
また、HPF処理手段51dで用いるHPFのフィルタ係数KHPFは、図12の(2)に示したものに限定されず、少なくとも直流成分を除去し、かつノイズ成分を多く含む高空間周波数の交流成分の少なくとも一部を保存又は強調するものであれば用いることができる。
画素平均算出手段52は、HPF処理手段51dから入力した直流成分除去画像C’を構成する11×9の画素データの平均である画素平均Hを算出し、最小値抽出手段53に出力する。
なお、最小値抽出手段53は、図4に示した第1実施形態におけるノイズレベル設定手段18の最小値抽出手段53と同様であるので、説明は省略する。
[第1実施形態の変形例のノイズレベル設定手段の動作]
次に、図13を参照(適宜図11参照)して、第1実施形態の変形例のノイズレベル設定手段18Aの動作について説明する。
図13に示した第1実施形態の変形例のノイズレベル設定手段18Aの動作は、図10に示した第1実施形態におけるノイズレベル設定手段18の動作における直流成分除去画像C’を算出するためのステップS34〜ステップS36に替えて、ステップS54の処理を行う。
図13に示したステップS51〜ステップS53は、それぞれ図10に示したステップS31〜ステップS33と同様であるので、共通するステップの説明は省略する。
第1実施形態の変形例のノイズレベル設定手段18Aは、直流成分除去画像算出手段51AのHPF処理手段51dによって、ステップS53でブロック分割手段50から入力したブロックCを構成する画素データにHPF処理を施し、直流成分を除去した直流成分除去画像C’を算出して、画素平均算出手段52に出力する(ステップS54)。
図13に示したステップS55〜ステップS57は、それぞれ図10に示したステップS37〜ステップS39と同様であるので、共通するステップの説明は省略する。
以上説明したように、第1実施形態の変形例のノイズレベル設定手段18Aは、HPF処理によってブロックCを構成する画像から直流成分を除去した直流成分除去画像を算出することができる。
[第2実施形態の領域判別装置の構成]
次に、図14を参照(適宜図1及び図4参照)して、第2実施形態における領域判別装置の構成について説明する。
図14に示した第2実施形態の領域判別装置1Aは、ブロック分割手段10と、ブロック画素記憶手段11と、差分平均算出手段12と、正規化手段13Aと、最大値抽出手段14と、領域判別手段15と、領域判別マップ記憶手段16と、差分計算設定手段17と、ノイズレベル設定手段18Bと、判別閾値設定手段19と、輝度算出手段(領域判別ブロック輝度算出手段)20とを備えて構成されている。
第2実施形態の領域判別装置1Aは、図1に示した第1実施形態の領域判別装置1とは、正規化手段13Aの構成と、ノイズレベル設定手段18Bの構成と、輝度算出手段20を備えたことと、が異なる。
第2実施形態の領域判別装置1Aは、ノイズレベル設定手段18Bによって、正規化手段13Aで差分平均G、G、Gを正規化するときに、差分平均G、G、Gを算出したブロックBの輝度レベルに応じて輝度別に設定したノイズレベルである輝度別ノイズレベルE0〜E7を用いる。
これは、画像によっては輝度レベルごとに信号対雑音比が異なるため、正規化処理においてノイズレベルを輝度別に設定して用いることにより、すべての輝度レベルにおいて差分平均G、G、Gを適切に正規化することができるようにするものである。そして、その結果として、領域判別をより高精度に行うことができるようになる。
以下、第2実施形態の領域判別装置1Aの各部の構成について説明する。ここで、図1に示した第1実施形態の領域判別装置1と同じ構成要素については、同じ符号を付して説明は適宜省略する。
正規化手段13Aは、差分平均算出手段12の平均算出手段122から入力したブロックBの差分平均G、G、Gを、ノイズレベル設定手段18Bから入力した輝度別ノイズレベルE0〜E7の何れかを用いて除することによって正規化し、正規化した差分平均である正規化差分平均G’、G’、G’を最大値抽出手段14に出力する。
ここで、ノイズレベル設定手段18Bから入力する輝度別ノイズレベルE0〜輝度別ノイズレベルE7は、それぞれ、輝度をL0(暗)〜L7(明)までの7つの輝度ランクに区分したときの輝度ランクL0〜輝度ランクL7に適用するノイズレベルである。
正規化手段13Aは、輝度算出手段20から入力したブロックBの輝度Lが属する輝度ランクL0〜L7に対応するノイズレベルを、輝度別ノイズレベルE0〜E7の中から選択して正規化処理に用いる。
ノイズレベル設定手段18Bは、フレーム画像F(t)を入力して、入力したフレーム画像F(t)からノイズレベルを輝度別に検出し、検出した輝度別ノイズレベルE0〜E7を正規化手段13Aに出力して差分平均G、G、Gの正規化のために設定する。
ノイズレベル設定手段18Bの詳細については後記する。
輝度算出手段(領域判別ブロック輝度算出手段)20は、ブロック画素記憶手段11の注目フレーム画素記憶手段112から注目フレームにおけるブロックBであるブロックBの画素データを入力して、ブロックBを構成する5×5=25個の画素データの平均を算出し、算出した当該平均を輝度Lとして正規化手段13Aに出力する。
なお、第2実施形態における輝度算出手段20は、輝度Lとして、ブロックBを構成する5×5=25個の画素データの単純平均を用いるが、これに限定されるものではない。例えば、5×5の中心に位置する画素データを用いてもよいし、5×5の中心ほど加重を大きくする加重平均を算出して用いてもよく、5×5の中央値を抽出して用いるようにしてもよい。
次に、図15を参照(適宜図14参照)して、第2実施形態におけるノイズレベル設定手段18Bの構成について詳細に説明する。
図15に示したように、第2実施形態におけるノイズレベル設定手段18Bは、正規化用ノイズレベル検出手段61と、検証用ノイズレベル検出手段62とを備えて構成されている。
ここで、正規化用ノイズレベル検出手段61は、本スキャンして順次入力されるフレーム画像F(t)から輝度別ノイズレベルE0〜E7を算出して正規化手段13Aに出力するものである。
また、検証用ノイズレベル検出手段62は、プリスキャンして得たフレーム画像F(t)からノイズレベルを予め検出し、当該ノイズレベルを、正規化用ノイズレベル検出手段61によって算出した輝度別ノイズレベルE0〜E7の有効性を検証するための検証値であるSIFT値(検証用ノイズレベル)として正規化用ノイズレベル検出手段61のノイズレベル検証手段55に出力するものである。
続いて、正規化用ノイズレベル検出手段61の構成について詳細に説明する。
正規化用ノイズレベル検出手段61は、ブロック分割手段(ノイズ検出ブロック分割手段)50Aと、HPF処理手段51dを備えた直流成分除去画像算出手段51Aと、画素平均算出手段52と、輝度別最小値抽出手段54と、ノイズレベル検証手段55と、補間処理手段56と、輝度算出手段(ノイズ検出ブロック輝度算出手段)57とを備えて構成されている。
正規化用ノイズレベル検出手段61は、図11に示したノイズレベル設定手段18Aと類似の構成であるが、ブロック分割手段50に替えてブロック分割手段50Aを、また最小値抽出手段53に替えて輝度別最小値抽出手段55を備え、ノイズレベル検証手段55と、補間処理手段56と、輝度算出手段57とを更に備えることが異なる。
なお、正規化用ノイズレベル検出手段61において、図11に示したノイズレベル設定手段18Aと同じ構成要素については、同じ符号を付して説明は適宜省略する。
正規化用ノイズレベル検出手段61のブロック分割手段(ノイズ検出ブロック分割手段)50Aは、本スキャンして順次入力されるフレーム画像F(t)を、11×11の形状のブロックCに分割し、分割した各ブロックCを構成する画素データをブロックごとに直流成分除去画像算出手段51AのHPF手段51dに出力する。
正規化用ノイズレベル検出手段61のブロック分割手段50Aは、図11に示した第1実施形態の変形例のノイズレベル設定手段18Aのブロック分割手段50と異なり、入力したフレーム画像F(t)の全領域を隈無く11×11の形状のブロックCに分割し、間引くことなく、すべてのブロックCについて、各ブロックCを構成する画素データをブロックCごとに直流成分除去画像算出手段51AのHPF手段51dに出力する。
これは、輝度別にノイズレベルを検出する際に、輝度ランクによってブロックCの割当数が不足するのを防止するためである。
正規化用ノイズレベル検出手段61の画素平均算出手段52は、本スキャンして順次入力されるフレーム画像F(t)から分割したブロックCごとに、画素平均Hを算出して輝度別最小値抽出手段54に出力する。
輝度別最小値抽出手段54は、画素平均算出手段52からブロックCごとに画素平均Hを入力するとともに、当該入力した画素平均Hを算出したブロックCの平均輝度LAVEを、輝度算出手段57から画素平均Hに対応づけて入力する。そして、輝度別最小値抽出手段54は、画素平均算出手段52からフレーム画像F(t)内のすべてのブロックCにおける画素平均Hを、各画素平均Hに対応づけられた平均輝度LAVEに基づいて、予め定めた輝度レンジごとに区分した8つの輝度ランクL0〜L7の何れかに分類し、輝度ランクL0〜L7ごとに、すなわち輝度別に画素平均Hの最小値を抽出する。輝度別最小値抽出手段54は、抽出した輝度ランクごとの画素平均Hの最小値を、輝度別ノイズレベルE0〜E7としてノイズレベル検証手段55に出力する。
なお、画素平均Hが1個も分類されなかった輝度ランクL0〜L7の輝度別ノイズレベルE0〜E7がある場合は、輝度別最小値抽出手段54は、その輝度ランクの輝度別ノイズレベルE0〜E7の値として“0”をノイズレベル検証手段55に出力する。
ノイズレベル検証手段55は、輝度別最小値抽出手段54から輝度別ノイズレベルE0〜E7を入力し、入力した輝度別ノイズレベルE0〜E7の有効性を検証するものである。
フレーム画像F(t)内から複数の輝度ランクL0〜L7に区分して輝度別ノイズレベルE0〜E7を検出する場合、入力したフレーム画像F(t)内に、すべての輝度ランクL0〜L7において、それぞれの輝度ランクL0〜L7に属する平均輝度LAVEを有するブロックCが、十分な数だけ割り当てられるとは限らない。例えば、フレーム画像F(t)がある輝度に偏った明るさの画像であった場合には、当該輝度が属する輝度ランクL0〜L7以外の輝度ランクL0〜L7に属する画素平均Hは、非常に少ない数しか分類されないことが生じる。そのとき、その非常に少ない画素平均Hから最小値を抽出しても、当該画素平均Hを算出した基のブロックCが、エッジや細密な模様を含む画像であった場合、当該画素平均Hは画像信号成分の影響を大きく受けているためノイズレベルとして採用するのは不適切である。
そこで、第2実施形態におけるノイズレベル設定手段18Bでは、検証用ノイズレベル検出手段62によって、プリスキャンして得たフレーム画像F(t)から、当該フレーム画像F(t)を生成したカメラによってフレーム画像F(t)に重畳される画像面内のノイズレベルを適切に検出しておき、当該ノイズレベルを検証値であるSIFT値(検証用ノイズレベル)として正規化用ノイズレベル検出手段61のノイズレベル検証手段55に出力する。そして、正規化用ノイズレベル検出手段61の輝度別最小値抽出手段54によって、本スキャンして得た各フレーム画像F(t)から算出した各輝度別ノイズレベルE0〜E7をSIFT値と比較して、所定の範囲内にある場合に、その輝度ランクの輝度別ノイズレベルE0〜E7を有効であると判断し、その輝度ランクの輝度別ノイズレベルE0〜E7の値をそのまま補間処理手段56に出力する。
また、各輝度別ノイズレベルE0〜E7をSIFT値と比較して、所定の範囲内にない場合には、その輝度ランクの輝度別ノイズレベルE0〜E7を有効でないと判断し、その輝度ランクの輝度別ノイズレベルE0〜E7の値に“0”又は有効でないことを示すデータを設定して補間処理手段56に出力する。これによって、輝度別ノイズレベルE0〜E7から不適切なノイズレベルデータを排除することができる。
輝度別最小値抽出手段54によって出力された輝度別ノイズレベルE0〜E7が、SIFT値と比較して有効であると判断する範囲としては、各輝度別ノイズレベルE0〜E7の値とSIFT値との比が−6(10log0.25)dB〜+3(10log2)dBとすることができる。すなわち、各輝度別ノイズレベルE0〜E7の値が、SIFT値の0.25倍〜2倍の範囲にあるときに、当該輝度ランクの輝度別ノイズレベルE0〜E7を有効であると判断する。
なお、有効範囲は、ここで示した範囲に限定されるものではなく、フレーム画像F(t)を生成するカメラなど、第2実施形態の領域判別装置1Aを適用するシステムによって適宜に変更してもよい。
補間処理手段56は、ノイズレベル検証手段55から輝度別ノイズレベルE0〜E7を入力し、未検出又はノイズレベル検証手段55で有効でないとして排除された輝度別ノイズレベルE0〜E7がある場合に、当該有効でない輝度別ノイズレベルE0〜E7の値を、近傍の輝度ランクL0〜L7の有効な輝度別ノイズレベルE0〜E7を参照して補間処理するものである。補間処理手段56は、有効でない輝度別ノイズレベルE0〜E7の値を、補間処理して算出した値で置き換えた輝度別ノイズレベルE0〜E7を正規化手段13Aに出力する。
ここで、図16を参照(適宜図15参照)して、補間処理手段56による補間処理の手法について説明する。
図16は、ノイズレベル検証手段55から補間処理手段56に出力された輝度別ノイズレベルE0〜E7の様子を模式的に示したものである。横軸は輝度Lを示し、縦軸はノイズレベルの大きさEを示す。
なお、輝度算出手段57から出力される輝度Lは、0〜255の256階調の値を取るものとし、輝度レンジを32階調ずつ均等に、輝度ランクL0(暗)から輝度ランクL7(明)の8ランクに区分している。また、各輝度ランクL0〜L7の輝度の代表値は、各輝度レンジの中央値としている。そして、図16において、●で示した輝度別ノイズレベルE1,E3,E4,E5,E6は、有効であると判断されたデータであり、○で示した輝度ランクL0,L2,L7は、そのデータが有効でないと判断された(又は未検出の)輝度ランクであり、補間処理によって輝度別ノイズレベルE0,E2,E7を算出する必要があるものとする。
そこで、まず高輝度側及び低輝度側に有効なデータがある輝度ランクL2における輝度別ノイズレベルE2の補間処理について説明する。
このように、両側に参照できる有効なデータがある場合は、有効なデータ間を直線補間して内挿によって輝度別ノイズレベルを算出する。すなわち、最寄りの有効なデータである輝度ランクL1及びL3の輝度別ノイズレベルE1及びE3を参照する。また、各輝度ランクL1及びL3における輝度Lは、それぞれの代表値48及び112とし、輝度ランクL2の代表値80におけるノイズレベルについて輝度別ノイズレベルE2の値を算出する。
図16に示した例では、2点(48,E1)及び(112,E3)を結ぶ線分A13の中点におけるノイズレベルEがE2の値であるから、式(4−1)で輝度別ノイズレベルE2を算出することができる。
E2 = (E1+E3)/2 …式(4−1)
次に、低輝度側に参照するデータがない輝度ランクL0における輝度別ノイズレベルE0の補間処理について説明する。
このように、低輝度側に参照できるデータがない場合は、高輝度側の有効な互いに隣接する2点のデータを参照し、外挿により輝度別ノイズレベルを算出する。なお、既に補間処理により輝度別ノイズレベルが算出されている輝度ランクのデータは、他の有効でない輝度別ノイズレベルを補間処理によって算出するときには、有効なデータとして参照することができる。すなわち、高輝度側の互いに隣接する有効なデータとして、輝度ランクL1及びL3を参照しても、輝度ランクL1及び既に補間処理によって輝度別ノイズレベルE2が算出された輝度ランクL2を参照するようにしてもよい。以降の説明は、輝度ランクL1及びL2を参照した場合について説明する。
輝度ランクL0における輝度別ノイズレベルE0は、点(48,E1)から低輝度側に延ばした半直線A01の、輝度ランクL0の代表値である輝度L=16におけるノイズレベルEを算出する。
この半直線A01は、点(48,E1)を通り、傾きの大きさが(Emax−Emin)/256であり、傾きの向きが参照する2点(48,E1)及び(80,E2)を結ぶ線分の傾きの向きと同じとする。なお、Emax及びEminは、それぞれ有効な輝度別ノイズレベルE1,E3,E4,E5,E6の内の、最大値及び最小値を示し、図16に示した例では、Emax=E4、Emin=E1である。そして、外挿する際の半直線の傾きの大きさを、有効な輝度別ノイズレベルE1,E3,E4,E5,E6から見積もることができる平均的な勾配とすることで、外挿による補間処理にありがちな異常値の算出を防止することができる。
以上より、輝度ランクL0における輝度別ノイズレベルE0は、式(4−2)のようにして算出することができる。
E0 =
E1−Sign(E2−E1)×(Emax−Emin)×(48−16)/256
…式(4−2)
なお、Sign( )は、( )内の値が正の場合は+1、負の場合は−1、0の場合は0を返す符号関数である。
次に、高輝度側に参照するデータがない輝度ランクL7における輝度別ノイズレベルE7の補間処理について説明する。
このように、高輝度側に参照できるデータがない場合は、前記した低輝度側に算出するデータがない場合と同様に、低輝度側の有効な互いに隣接する2点のデータを参照し、外挿により輝度別ノイズレベルを算出する。
図16に示した例では、輝度ランクL6及びL5における輝度別ノイズレベルE6及びE5を参照して、輝度ランクL7における輝度別ノイズレベルE7を算出する。
輝度ランクL7における輝度別ノイズレベルE7は、点(208,E6)から高輝度側にのばした半直線A67の、輝度ランクL7の代表値である輝度L=240におけるノイズレベルEを算出する。
この半直線A67は、点(208,E6)を通り、傾きの大きさが(Emax−Emin)/256であり、傾きの向きが参照する2点(176,E5)及び(208,E6)を結ぶ線分の傾きの向きと同じとする。
輝度ランクL7における輝度別ノイズレベルE7は、式(4−3)のようにして算出することができる。
E7 =
E6−Sign(E5−E6)×(Emax−Emin)×(240−208)/256
…式(4−3)
なお、補間処理手段56は、ノイズレベル検証手段55から入力した輝度別ノイズレベルE0〜E7の内で、有効なデータが1個のみであった場合は、その有効なデータを他の有効でない輝度ランクの輝度別ノイズレベルE0〜E7の値とする。また、ノイズレベル検証手段55から入力した輝度別ノイズレベルE0〜E7の内で、有効なデータがなかった場合は、正規化用ノイズレベル検出手段61から入力したSIFT値を輝度別ノイズレベルE0〜E7の値とするようにしてもよい。
図15に戻って、輝度算出手段(ノイズ検出ブロック輝度算出手段)57は、ブロック算出手段50からフレーム画像F(t)から分割したブロックCを構成する画素データを入力し、当該ブロックCを構成する画素データの平均である平均輝度LAVEを算出して輝度別最小値抽出手段54に出力する。
また、検証用ノイズレベル検出手段62は、図4に示した第1実施形態のノイズレベル設定手段18又は図11に示した第1実施形態の変形例のノイズレベル設定手段18Aと同様の構成とすることができるため、詳細な構成の説明は省略する。検証用ノイズレベル検出手段62は、プリスキャンして得たフレーム画像F(t)から画像平面内のノイズレベルを検出し、検出したノイズレベルをSIFT値(検証用ノイズレベル)として正規化用ノイズレベル検出手段61のノイズレベル検証手段55に出力する。
[第2実施形態の領域判別装置の動作]
次に、図17を参照(適宜図14及び図15参照)して、第2実施形態の領域判別装置1Aの動作について説明する。
図17に示したように、領域判別装置1Aは、まず、不図示のカメラで急激な濃淡変化の少ない画像をプリスキャンしたフレーム画像F(t)を入力し(ステップS81)、ノイズレベル設定手段18Bの検証用ノイズレベル検出手段62によってフレーム画像F(t)に重畳されたノイズレベルを検出して、ノイズレベル設定手段18Bの正規化用ノイズレベル検出手段61のノイズレベル検証手段55に、輝度別ノイズレベルE0〜E7の有効性の検証値であるSIFT値として出力する(ステップS82)。
不図示のカメラによって本スキャンが開始されると(ステップS83)、領域判別装置1は、順次に入力されるフレーム画像F(t)(ステップS84)から、ノイズレベル設定手段18Bの正規化用ノイズレベル検出手段61によって、輝度別ノイズレベルE0〜E7を検出し、正規化手段13Aに出力して正規化処理のために設定する(ステップS85)。ステップS85に続いて、又はステップ85と並行して、領域判別装置1Aは、ブロック分割手段10によって、ステップS84で入力したフレーム画像F(t)から、5×5の形状のブロックBに分割し(ステップS86)、ブロックBごとに、分割したブロックBを構成する画素データをブロック画素記憶手段11の後フレーム画素記憶手段111に記憶する(ステップS87)。このとき複数のフレーム画像F(tn−1)、F(tn−2)が既に領域判別装置1Aに入力されており、ブロック画素記憶手段11の注目フレーム画素記憶手段112にはフレーム画像F(tn−1)から分割した各ブロックBの画素データが記憶され、前フレーム画素記憶手段113にはフレーム画像F(tn−2)から分割した各ブロックBの画素データが記憶されているものとする。従って、フレーム画像F(t)を新しく入力する期間は、1フレーム前のフレーム画像F(tn−1)が判別処理の対象である注目フレームとなる。
なお、ステップS86及びステップS87は、それぞれ図9に示した第1実施形態の領域判別装置1の処理におけるステップS15及びステップS16と同様であるので、詳細な説明は省略する。
領域判別装置1Aは、輝度算出手段20によって、ステップS87でブロック画素記憶手段11の注目フレーム画素記憶手段112に既に記憶されている注目フレームにおけるブロックBであるブロックBを構成する画素データを参照し、画素データの平均を算出して当該ブロックBの輝度Lとして正規化手段13Aに出力する(ステップS88)。
領域判別装置1Aにおいて、注目フレーム及び前後フレームのブロックBを構成する画素データを参照するステップS89、及び画素のフレーム間の差分平均G,G,Gを算出するステップS90は、それぞれ図9に示した第1実施形態の領域判別装置1の処理におけるステップS17及びステップS18と同様であるので、詳細な説明は省略する。
領域判別装置1Aは、正規化手段13Aによって、ステップS85でノイズレベル設定手段18Bの正規化用ノイズレベル検出手段61から入力した輝度別ノイズレベルE0〜E7の中から、ステップS88で輝度算出手段20から入力した輝度Lに対応する輝度別ノイズレベルE0〜E7の何れかを選択する。そして、領域判別装置1Aは、正規化手段13Aによって、選択した輝度別ノイズレベルE0〜E7を用いて、ステップS90で差分平均算出手段12の平均算出手段122から入力した差分平均G,G,Gを正規化処理し、正規化差分平均G’,G’,G’を算出して最大値抽出手段14に出力する(ステップS91)。
領域判別装置1Aにおいて、ステップS92〜ステップS97の処理は、それぞれ図9に示した第1実施形態の領域判別装置1の処理におけるステップS20〜ステップS25と同様であるので、説明は省略する。
次に、図18を参照(適宜図15及び図14参照)して、第2実施形態のノイズレベル設定手段18Bの動作について説明する。
図18に示したように、ノイズレベル設定手段18Bは、プリスキャンして得たフレーム画像F(t)を入力して(ステップS101)、検証用ノイズレベル検出手段62によって、正規化用ノイズレベル検出手段61によって検出される輝度別ノイズレベルE0〜E7の検証のための検証値であるSIFT値を算出し、正規化用ノイズレベル検出手段61のノイズレベル検証手段55に出力する(ステップS102)。
本スキャンが開始され(ステップS103)、ノイズレベル設定手段18Bにフレーム画像F(t)が入力されると(ステップS104)、ノイズレベル設定手段18Bは、ステップS104で入力したフレーム画像F(t)をブロック分割手段50Aによって、全領域を11×11のブロックに分割し(ステップS105)、分割したすべてのブロックについて、ブロックごとに11×11のブロックCを構成する画素データを直流成分除去画像算出手段51AのHPF処理手段51d及び輝度算出手段57に出力する(ステップS106)。
ノイズレベル設定手段18Bは、ステップS106でブロック分割手段50Aから入力したブロックCを構成する画素データの平均を算出し、当該ブロックCの平均輝度LAVEとして、輝度別最小値抽出手段54に出力する(ステップS107)。
ノイズレベル設定手段18Bにおける、ステップS108〜ステップS110は、それぞれ図13に示した第1実施形態の変形例のノイズレベル設定手段18Aの処理におけるステップS54〜ステップS56と同様であるので、説明は省略する。
ノイズレベル設定手段18Bは、輝度別最小値抽出手段54によって、ステップS109で画素平均算出手段52から入力した画素平均Hを、ステップS107で輝度算出手段57から入力した当該画素平均Hを算出したブロックCの平均輝度LAVEを参照して、8つの輝度ランクL0〜L7の何れかに分類し、輝度ランクL0〜L7ごとに分類された画素平均Hの最小値を抽出し、輝度別ノイズレベルE0〜E7としてノイズレベル検証手段55に出力する(ステップS111)。
ノイズレベル設定手段18Bは、ノイズレベル検証手段55によって、ステップS102で検証用ノイズレベル検出手段62から入力したSIFT値と、ステップS111で輝度別最小値抽出手段54から入力した各輝度別ノイズレベルE0〜E7とを比較し、各輝度別ノイズレベルが有効かどうかを検証して、有効でないと判断した輝度ランクの輝度別ノイズレベルE0〜E7を排除し、有効でない輝度ランクの輝度別ノイズレベルE0〜E7を排除した後の輝度別ノイズレベルE0〜E7を補間処理手段56に出力する(ステップS112)。
ノイズレベル設定手段18Bは、補間処理手段56によって、ステップS112でノイズレベル検証手段55から入力した輝度別ノイズレベルE0〜E7において、有効でない輝度別ノイズレベルE0〜E7が含まれているかどうかを確認し、有効でない輝度別ノイズレベルが含まれている場合には、当該有効でない輝度ランクの輝度別ノイズレベルE0〜E7を、有効な輝度ランクの輝度別ノイズレベルE0〜E7のデータを参照して補間処理によって算出し、全輝度ランクについて有効な輝度別ノイズレベルE0〜E7として正規化手段13Aに出力する(ステップS113)。
以上でノイズレベル設定手段18Bは動作を終了する。
[第2実施形態の変形例]
次に、図19を参照して、第2実施形態の変形例のノイズレベル設定手段について説明する。
図19に示したように、第2実施形態の変形例のノイズレベル設定手段18Cは、正規化用ノイズレベル検出手段61Aと、検証用ノイズレベル検出手段62とを備えて構成されている。また、正規化用ノイズレベル検出手段61Aは、ブロック分割手段50Aと、DCT処理手段51aと直流成分除去手段51bと逆DCT処理手段51cとを備えた直流成分除去画像算出手段51と、画素平均算出手段52と、輝度別最小値抽出手段54と、ノイズレベル検証手段55と、補間処理手段56と、輝度算出手段57とを備えて構成されている。
第2実施形態の変形例のノイズレベル設定手段18Cは、図15に示した第2実施形態のノイズレベル設定手段18Bとは、正規化用ノイズレベル検出手段61に替えて正規化用ノイズレベル検出手段61Aを備えることが異なる。更に、正規化用ノイズレベル検出手段61Aは、正規化用ノイズレベル検出手段61とは、直流成分除去画像算出手段51Aに替えて直流成分除去画像算出手段51を備えることが異なる。
すなわち、第2実施形態のノイズレベル設定手段18Bにおける正規化用ノイズレベル検出手段61は、直流成分除去画像C’を算出するためにHPF処理を用いるのに対し、第2実施形態の変形例のノイズレベル設定手段18Cの正規化用ノイズレベル検出手段61Aは、直流成分除去画像C’を算出するために、DCT処理によって画像を空間周波数成分に変換し、空間周波数成分から少なくとも直流成分を除去した後に、逆DCT処理をすることが異なる。他の構成要素は第2実施形態のノイズレベル設定手段18Bと同じであるから、同じ符号を付して詳細な説明は省略する。
また、前記した第2実施形態の変形例のノイズレベル設定手段18Cの正規化用ノイズレベル検出手段61Aにおける直流成分除去画像算出手段51は、図4に示した第1実施形態のノイズレベル設定手段18における直流成分除去画像算出手段51と同じものを用いることができるため、同じ符号を付して詳細な説明は省略する。
ここで、正規化用ノイズレベル検出手段61AのDCT処理手段51aによって算出したDCT係数KDCTの直流成分は、当該ブロックCの画素データを単純平均した値と同じである。従って、輝度別最小値抽出手段54において、平均輝度LAVEとしてブロックCを構成する画素データの単純平均を用いる場合は、正規化用ノイズレベル検出手段61AのDCT処理手段51aが算出した直流成分を平均輝度LAVEとして輝度別最小値抽出手段54に入力するよう構成することで、輝度算出手段57を削除することができる。
次に、図20を参照(適宜図19参照)して、第2実施形態の変形例のノイズレベル設定手段18Cの動作について説明する。
図20に示した第2実施形態の変形例のノイズレベル設定手段18Cの処理におけるステップS121〜ステップS127、及びステップS131〜ステップS135は、それぞれ図18に示した第2実施形態のノイズレベル設定手段18Bの処理におけるステップS101〜ステップS107、及びステップS109〜ステップS113と同様であるので説明は省略する。
また、第2実施形態の変形例のノイズレベル設定手段18Cの処理におけるステップS128〜ステップS130は、それぞれ図10に示した第1実施形態のノイズレベル設定手段18の処理におけるステップS34〜ステップS36と同様であるので詳細な説明は省略する。
なお、ステップS127に替えて、ステップS128で正規化用ノイズレベル検出手段51のDCT処理手段51aによって算出したDCT係数KDCTの直流成分を、平均輝度LAVEとして輝度別最小値抽出手段54に出力するようにすることもできる。
[第3実施形態の領域判別装置の構成]
次に、図21を参照して、第3実施形態における領域判別装置の構成について説明する。
図21に示した第3実施形態の領域判別装置1Bは、ブロック分割手段10と、サブブロック分割手段21と、サブブロック画素記憶手段22と、差分平均算出手段12と、正規化手段13と、最大値抽出手段14と、領域判別手段15と、領域判別マップ記憶手段16と、差分計算設定手段17と、ノイズレベル設定手段18Bと、判別閾値設定手段19とを備えて構成されている。
第3実施形態の領域判別装置1Bは、図1に示した第1実施形態の領域判別装置1とは、サブブロック分割手段21を更に備えたことと、ブロック画素記憶手段11に替えてサブブロック画素記憶手段22を備えたこととが異なる。
第3実施形態の領域判別装置1Bは、第1実施形態の領域判別装置1と同様に、フレーム画像F(t)を5×5の形状の(基本)ブロック(領域判別ブロック)Bに分割する。そして、領域判別装置1Bは、当該5×5のブロックBを、更に予め定めた複数の形状のサブブロックに分割し、サブブロックごとに差分平均を算出して、その中の最大値に基づいて当該ブロックBに対する領域判別を行うものである。
なお、図1に示した第1実施形態の領域判別装置1と同じ構成要素については、同じ符号を付して適宜説明を省略する。
ここで、図22を参照して、ブロックBをサブブロックに分割する様子について説明する。
図22の(1)〜(18)に示したサブブロックB(k=1〜18)は、ブロックBの形状が5×5であり、各サブブロックBは、何れもハッチングを施して示した10個の画素で構成されている。なお、Bの上付きの添字kはサブブロックの種別を示し、kの値である1〜18は、それぞれ図22の(1)〜(18)に示したサブブロックを指すものとする。また、k=0、すなわちBは、5×5=25画素で構成される基本ブロックB全体を指すサブブロックの一つであるものとする。
第1実施形態では、5×5の形状のブロックBにおけるフレーム間の画素平均の大きさに基づいて領域判別をするようにしたが、ブロックBに画像のエッジなどが含まれる場合は、そのエッジの形状や向きによっては、十分な精度でその画像の動きを検出できないことがある。
そこで、第3実施形態では、5×5の形状の基本ブロックBに加えて、当該基本ブロックBを更に小さな形状の複数種類のサブブロックBに分割して、サブブロックBごとに画像の動き量を示すフレーム間の差分平均を算出する。そして、算出した複数のサブブロックBにおける画素平均の最大値に基づいて、当該基本ブロックBの領域判別を行うものである。
図22の(1)〜(4)に示したサブブロックB〜Bは、横方向のエッジの動き検出するのに有効であり、(5)〜(8)に示したサブブロックB〜Bは、縦方向のエッジの動きを検出するのに有効である。また、(9)〜(18)に示したサブブロックB〜B18は、斜め方向のエッジの動きを検出するのに有効である。
このように、種々の細かい画像形状に適合する複数種類のサブブロックBを用いることで、画像の動きをより的確に検出することができる。
また、サブブロックBのサイズは、粒状ノイズ成分を誤検出しない程度の大きさが好ましく、5画素より大きいことが好ましい。また、基本ブロックBのサイズを考慮して、基本ブロックBの2分の1より少ない画素数とすることが好ましい。
また、図22に示した例では、何れも10画素としたが、異なる画素数のサブブロックを用いるようにしてもよく、サブブロックBの種類は、これより少なくてもよく、更に多くしてもよい。
図21に戻って、第3実施形態の領域判別装置1Bの構成について説明を続ける。
サブブロック分割手段21は、ブロック分割手段10によってフレーム画像F(t)から分割された5×5の形状のブロックBを構成する画素データを、図22の(1)〜(18)に示した18種類のサブブロックB〜B18に分割するとともに、ブロックBの全体をサブブロックBとして、19種類のサブブロックB〜B18ごとに、各サブブロックB〜B18を構成する画素データを、サブブロック画素記憶手段22の後フレーム画素記憶手段221に出力する。
サブブロック画素記憶手段22は、図1に示した第1実施形態の領域判別装置1におけるブロック画素記憶手段11と同様の構成であり、ブロックBを構成する画素データに替えて、サブブロック分割手段21から入力した19種類のサブブロックB(B〜B18)の画素データを記憶するものである。
また、サブブロック画素記憶手段22を構成する後フレーム画素記憶手段221、注目フレーム画素記憶手段222及び前フレーム画素記憶手段223は、それぞれブロック画素記憶手段11における後フレーム画素記憶手段121、注目フレーム画素記憶手段122及び前フレーム画素記憶手段123に相当し、後フレーム、注目フレーム及び前フレームにおけるブロックB,B,Bを構成する画素データに替えて、それぞれ後フレーム、注目フレーム及び前フレームにおけるサブブロックB ,B ,B を構成する画素データを、サブブロックBごとに差分平均算出手段12の差分算出手段121に出力する。
差分平均算出手段12及び正規化手段13は、第1実施形態においてはブロックBごとに処理を行うのに対して、第3実施形態においてはサブブロックBごとに処理を行うこと以外は同様であるので、詳細な説明は省略する。
最大値抽出手段14は、正規化手段13からサブブロックBごとに、3種類の正規化した差分平均である正規化差分平均G’ ,G’ ,G’ を入力し、一つのブロックBから分割した19種類のサブブロックB〜B18についての19×3=57個の正規化差分平均G’ ,G’ ,G’ ,…,G’18 ,G’18 ,G’18 の内の最大値である最大正規化差分平均G’maxを抽出し、領域判別手段15に出力する。
領域判別手段15は、最大値抽出手段14から入力した最大正規化差分平均G’maxを、判別閾値設定手段19から入力した判別閾値THRと比較し、最大正規化差分平均G’maxが判別閾値THRより大きい場合に、当該注目ブロックBを分割した領域を動領域と判別し、最大正規化差分平均G’maxが判別閾値THR以下の場合に、当該注目ブロックBを分割した領域を静領域と判別して、判別結果を領域判別結果rとして領域判別マップ記憶手段16に出力する。
他の構成要素については、第1実施形態の領域判別装置1における同符号の構成要素と同様であるので説明は省略する。
また、図21に示した第3実施形態の領域判別装置1Bは、ノイズレベル設定手段18に替えて、図11に示した第1実施形態の変形例のノイズレベル設定手段18Aを用いて構成するようにしてもよい。
以上説明したように、第3実施形態の領域判別装置1Bは、各ブロックBにおける動き成分量の検出を、当該ブロックBを複数種類のサブブロックBに分割してサブブロックBごとに行うこととしたため、種々の形状のエッジや細かい模様などを含む画像領域であっても高精度に領域判別を行うことができる。
[第3実施形態の領域判別装置の動作]
次に、図23を参照(適宜図21参照)して、第3実施形態の領域判別装置1Bの動作について説明する。
図23に示した第3実施形態の領域判別装置1Bの処理におけるステップS141〜ステップS144は、それぞれ図9に示した第1実施形態の領域判別装置1の処理におけるステップS11〜ステップS14と同様であるので、説明は適宜省略する。
不図示のカメラによって本スキャンを開始されると(ステップS143)、領域判別装置1Bは、順次に入力するフレーム画像F(t)を(ステップS144)、ブロック分割手段10によって、5×5の形状のブロックBに分割し、ブロックごとに分割したブロックBを構成する画素データをサブブロック分割手段21に出力する(ステップS145)。
領域判別装置1Bは、サブブロック分割手段21によって、ステップS145でブロック分割手段10から入力したブロックBを構成する画素データから、19種類のサブブロックBを構成する画素データを分割し、サブブロックBごとに、サブブロックBを構成する画素データをサブブロック画素記憶手段22の後フレーム画素記憶手段221に記憶する(ステップS147)。なお、このとき複数のフレーム画像F(tn−1)、F(tn−2)が領域判別装置1Bに入力されており、サブブロック画素記憶手段22の注目フレーム画素記憶手段222にはフレーム画像F(tn−1)から分割した各ブロックBを更に分割した各サブブロックBの画素データが記憶され、前フレーム画素記憶手段223にはフレーム画像F(tn−2)から分割した各ブロックBを更に分割したサブブロックBの画素データが記憶されているものとする。従って、フレーム画像F(t)を新しく入力する期間は、1フレーム前のフレーム画像F(tn−1)が判別処理の対象である注目フレームとなる。
領域判別装置1Bは、サブブロック画素記憶手段22の前フレーム画素記憶手段223、注目フレーム画素記憶手段222及び後フレーム画素記憶手段221に記憶されているサブブロックBを構成する画素データを、それぞれブロックB 、ブロックB 及びブロックB を構成する画素データとしてブロックごとに順次に読み出し、差分平均算出手段12の差分算出手段121に出力し、注目フレーム及び前後フレームにおけるブロックBの位置の画素データを同時に参照できるようにする(ステップS148)。
領域判別装置1Bは、差分算出手段121によってステップS148でサブブロック画素記憶手段22から入力したサブブロックB 、B 、B を構成する画素データの差分(フレーム間差分)D 、D 、D を算出し、平均算出手段122によって各差分D 、D 、D ごとに、サブブロックBにおける差分平均G 、G 、G を算出して正規化手段13に出力する(ステップS149)。
なお、領域判別装置1Bは、差分計算設定手段17によって予め設定しておいた設定値SELが“0”の場合には、差分算出手段121によって差分D のみを算出し、以降の処理においては差分D 及び差分D に関する処理は行わないように制御する。
領域判別装置1Bは、正規化手段13によって、ステップS149で差分平均算出手段12から入力した差分平均G 、G 、G を、ステップS142でノイズレベル設定手段18によって設定されたノイズレベルEで除することによって正規化処理を行って得た正規化差分平均G’ 、G’ 、G’ を最大値抽出手段14に出力する(ステップS150)。
領域判別装置1Bは、1つのサブブロックBの正規化までの処理が終わると、注目ブロックBにおいて未処理のサブブロックBがないかを確認し(ステップS151)、未処理のサブブロックBがある場合は(ステップS151でYes)、ステップS148に戻り、次のサブブロックBの正規化までの一連の処理を行う。
また、未処理のサブブロックBがない場合は(ステップS151でNo)、領域判別装置1Bは、注目ブロックBから分割された19種類のサブブロックBにおける全部で57個の正規化差分平均G’ 、G’ 、G’ 、…、G’18 、G’18 、G’18 の内の最大値を抽出し、最大正規化差分平均G’maxとして領域判別手段15に出力する(ステップS152)。
領域判別装置1Bは、領域判別手段15によって、ステップS152で最大値抽出手段14から入力した最大正規化差分平均G’maxと、予め判別閾値設定手段19によって設定しておいた判別閾値THRとを比較する。そして、最大正規化差分平均G’maxが判別閾値THRよりも大きい場合は、領域判別処理の対象である注目ブロックBを動領域であると判別して領域判別結果rに“1”を設定し、最大正規化差分平均G’maxが判別閾値THR以下の場合は、領域判別処理の対象である注目ブロックBを静領域であると判別して領域判別結果rに“0”を設定し(ステップS153)、領域判別結果rを注目フレーム画像F(tn―1)における当該注目ブロックBの位置に対応づけて領域判別マップ記憶手段16に記憶する(ステップS154)。
領域判別装置1Bは、1つのブロックBの領域判別処理が終わると、注目フレーム画像F(tn―1)において未処理のブロックBがないかを確認し(ステップS155)、未処理のブロックBがある場合は(ステップS155でYes)、ステップS148に戻り、次のブロックBの一連の領域判別処理を行う。
また、未処理のブロックBがない場合は(ステップS155でNo)、領域判別装置1Bは、サブブロック画素記憶手段22によって、注目フレーム画素記憶手段222に記憶されているフレーム画像F(tn−1)における各ブロックBから分割した各サブブロックBの画素データを前フレーム画素記憶手段223にシフトするとともに、後フレーム画素記憶手段111に記憶されているフレーム画像F(tn−2)における各ブロックBから分割した各サブブロックBの画素データを注目フレーム画素記憶手段222にシフトする(ステップS156)。
領域判別装置1Bは、次のフレーム画像F(tn+1)の入力があるかどうかを確認し(ステップS157)、入力がある場合は(ステップS157でYes)、ステップS144に戻って、次のフレーム画像F(tn+1)を前フレームとして追加入力し、フレーム画像F(t)の一連の領域判別処理を行う。
次のフレーム画像F(tn+1)の入力がない場合は(ステップS157でNo)、領域判別装置1Bは処理を終了する。
[第4実施形態の領域判別装置の構成]
次に、図24を参照して、第4実施形態における領域判別装置の構成について説明する。
図24に示した第4実施形態の領域判別装置1Cは、ブロック分割手段10と、サブブロック分割手段21と、サブブロック画素記憶手段22と、差分平均算出手段12と、正規化手段13Aと、最大値抽出手段14と、領域判別手段15と、領域判別マップ記憶手段16と、差分計算設定手段17と、ノイズレベル設定手段18Bと、判別閾値設定手段19とを備えて構成されている。
第4実施形態の領域判別装置1Cは、図22に示した第3実施形態の領域判別装置1Bとは、正規化手段13に替えて正規化手段13Aを備えたことと、ノイズレベル設定手段18に替えてノイズレベル設定手段18Bを備えたことと、輝度算出手段20を更に備えたこととが異なる。
ここで、第4実施形態の領域判別装置1Cと第3実施形態の領域判別装置1Bとの相違点は、第2実施形態の領域判別装置1Aと第1実施形態の領域判別装置1との相違点と同様である。
すなわち、第4実施形態の領域判別装置1Cは、図21に示した第3実施形態の領域判別装置1Bと同様に、フレーム画像F(t)を5×5の形状の(基本)ブロックBに分割し、当該基本ブロックBを更に複数種類のサブブロックBに分割してサブブロックBごとに差分平均G 、G 、G を算出して正規化し、その中の最大値に基づいて当該基本ブロックに対する領域判別を行うものである。
更に、第4実施形態の領域判別装置1Cは、基本ブロックBを更に分割したサブブロックBから差分平均を算出することで動き成分量の検出をするとともに、輝度別ノイズレベルE0〜E7を用いて、サブブロックBごとに算出した差分平均G 、G 、G を正規化するものである。
図24に示した第4実施形態の領域判別装置1Cは、図14に示した第2実施形態の領域判別装置1A及び図21に示した第3実施形態の領域判別装置1Bと同じ構成要素については、同じ符号を付して詳細な説明は省略する。
また、第4実施形態の領域判別装置1Cは、ノイズレベル設定手段18Bの替わりに、図19に示した第2実施形態の変形例のノイズレベル設定手段18Cを用いるように構成してもよい。
以上説明したように、第4実施形態の領域判別装置1Cは、複数種類のサブブロックBに分割して動き成分量を示す差分平均G 、G 、G を算出する。また、第4実施形態の領域判別装置1Cは、輝度別ノイズレベルE0〜E7を用いて当該差分平均G 、G 、G を正規化することにより、画像の輝度Lに拘わらず、種々の細かな画像の動きを精度よく検出して、正確な領域の判別をすることができる。
[第4実施形態の領域判別装置の動作]
次に、図25を参照(適宜図24参照)して、第4実施形態の領域判別装置1Cの動作について説明する。
図25に示した第4実施形態の領域判別装置1Cの処理におけるステップS161〜ステップS164、ステップS166〜ステップS168、ステップS170〜ステップS171、及びステップS173〜ステップS179は、それぞれ図23に示した第3実施形態の領域判別装置1Bの処理におけるステップS141〜ステップS144、ステップS145〜ステップS147、ステップS148〜ステップS149,及びステップS151〜ステップS157と同様であるので、詳細な説明は省略する。
また、第4実施形態の領域判別装置1Cの処理におけるステップS165及びステップS169は、それぞれ図17に示した第2実施形態の領域判別装置1Aの処理におけるステップS85及びステップS88と同様であるので、詳細な説明は省略する。
更に、第4実施形態の領域判別装置1Cの処理におけるステップS172は、ブロックBごとに差分平均G、G、Gを正規化するのに替えてサブブロックBごとに差分平均G 、G 、G を正規化するほかは、図17に示した第2実施形態の領域判別装置1Aの処理におけるステップS91と同様であるので、詳細な説明は省略する。
[第5実施形態のノイズ低減装置の構成]
次に、図26を参照(適宜図1参照)して、第5実施形態におけるノイズ低減装置の構成について説明する。
図26に示した第5実施形態のノイズ低減装置2は、領域判別装置1と、フレームメモリ31,32,33と、動領域処理手段40と、静領域処理手段41と、処理選択手段42と、フレームメモリ43とを備えて構成されている。
第5実施形態のノイズ低減装置2は、第1実施形態の領域判別装置1によって、動画像Fを構成する各フレーム画像F(t)を、予め定めた形状のブロックBごとに動領域か静領域かを判別し、フレーム画像F(t)に重畳されているノイズを、当該判別結果に応じて動領域と静領域とでそれぞれ異なる処理を施して、ノイズ低減した動画像F’を生成するものである。
以下、ノイズ低減装置2の各部の構成について説明する。
前記したように領域判別装置1は、図1に示した第1実施形態の領域判別装置1を用いる。領域判別装置1は、ノイズ低減装置2に入力される動画像Fを構成するフレーム画像F(t)を順次に入力し、入力したフレーム画像F(t)を予め定めた形状である5×5のサイズのブロックBごとに、当該ブロックが動領域か静領域かを判別し、その領域判別結果と当該ブロックのフレーム画像F(t)の画像平面における位置とを対応づけて記憶した領域判別マップR(t)を作成する。そして、領域判別装置1は、作成した領域判別マップR(t)を動領域処理手段40、静領域処理手段41及び処理選択手段42に出力する。
フレームメモリ31,32,33は、ノイズ低減装置2に入力される動画像を構成する時間軸方向に連続する3つのフレーム画像F(tn−1)、F(t)、F(tn+1)を一時的に記憶する記憶手段である。
フレームメモリ31は、ノイズ低減装置2にフレーム画像F(t)が入力されると、既に記憶していた時間軸上で前のフレーム画像(tn−1)をフレームメモリ32に出力するとともに、新しく入力されたフレーム画像F(t)を記憶する。そして、フレームメモリ31は、次のフレーム画像F(tn+1)が入力されるまで、フレーム画像F(t)を記憶保持するとともに、適宜に記憶しているフレーム画像F(t)を静領域処理手段41に出力する。
ノイズ低減装置2にフレーム画像F(t)が入力され、フレームメモリ31からフレーム画像F(tn−1)が出力されると、フレームメモリ32は、既に記憶していた時間軸上で更に前のフレーム画像(tn−2)をフレームメモリ33に出力するとともに、フレームメモリ31から入力したフレーム画像F(tn−1)を記憶する。そして、ノイズ低減装置2に、更に次のフレーム画像F(tn+1)が入力されるまで、フレーム画像F(tn−1)を保持するとともに、適宜に記憶しているフレーム画像F(tn−1)を静領域処理手段41及び動領域処理手段40に出力する。
ノイズ低減装置2にフレーム画像F(t)が入力され、フレームメモリ32からフレーム画像F(tn−2)が出力されると、フレームメモリ33は、フレーム画像F(tn−2)を入力して記憶する。そして、ノイズ低減装置2に、更に次のフレーム画像F(tn+1)が入力されるまで、フレーム画像F(tn−2)を保持するとともに、適宜に記憶しているフレーム画像F(tn−2)を静領域処理手段41に出力する。
以上説明したように、フレームメモリ31,32,33は、それぞれ時間軸上で連続する3つのフレーム画像F(t),F(tn−1),F(tn−2)を記憶している状態において、ノイズ低減装置2に、次のフレーム画像F(tn+1)が入力されると、フレームメモリ31,32,33に記憶されているフレーム画像F(t),F(tn−1),F(tn−2)は順次隣接するフレームメモリにシフトする。その結果、図26に示したように、フレームメモリ31,32,33は、それぞれフレーム画像F(tn+1),F(t),F(tn−1)を記憶した状態となり、静領域処理手段41は、時間軸上で連続する3つのフレーム画像F(tn+1),F(t),F(tn−1)を参照することができるようになる。
動領域処理手段40は、フレームメモリ32からフレーム画像F(t)を入力し、領域判別装置1から入力した領域判別マップR(t)において動領域であることを示す領域(ブロックB)に対して、画像平面内における高空間周波数成分を低減した処理を施して、動領域フレーム画像Fd(t)として処理選択手段42に出力する。
画像平面内における高空間周波数成分を低減する処理法としては、コアリング処理や平均化フィルタ処理(ローパスフィルタ処理)を用いることができる。
コアリング処理とは、まず、処理対象となる、例えば5×5のサイズの注目ブロックの画像をDCT処理して空間周波数成分を示すDCT係数に変換する。次に、ノイズのRMS値に相当する振幅分をコアリングレベルとして予め設定しておき、交流成分を示す各DCT係数からコアリングレベルを減じることで、交流成分を一律に低減させる。そして、直流成分とコアリング処理を施した交流成分からなるDCT係数を逆DCT処理することにより、高空間周波数成分を低減した画像に変換することができる。
コアリング処理では、一般的に、高空間周波数成分の低減率が高くなるため、特に粒状性ノイズのような高空間周波数成分を多く含むノイズを効果的に低減できる。また、高空間周波数成分が低減されることにより画像がボケてくるが、空間周波数における高周波領域にある動領域においては、視覚特性上、経験的に画質劣化が認識されにくいことが知られている。そのため、総合的に見ると、ノイズが低減して画質が向上する動領域に適したノイズ低減処理である。
なお、コアリングレベルの設定において、ノイズのRMS値に相当する振幅の検出方法としては、例えば、図4に示したノイズレベル設定手段18を用い、プリスキャンして得たフレーム画像を解析して、ノイズレベルEとして求めることができる。
また、外部からの調整信号(不図示)を入力し、検出したノイズレベルEに調整量(例えば、0.7)を乗じて、コアリングレベルを調整できるように構成してもよい。
平均化フィルタ処理とは、例えば、処理対象となる注目画素に対して、注目画素と、当該注目画素に空間的に上下左右に隣接する4隣接画素又は斜め方向も含めた8隣接画素との平均を求め、平均値を当該注目画素の値とするものである。F(t)(i,j)を、フレーム画像F(t)の画像平面における位置(i,j)における画素値を示すものとすると、4隣接による平均化フィルタ処理は、式(5)のようにして表すことができる。平均化フィルタ処理によって、相対的に空間周波数の高い成分ほど抑制される。
Fd(t)(i,j)=
{ F(t)(i,j−1) + F(t)(i−1,j)
+ F(t)(i,j) + F(t)(i+1,j)
+ F(t)(i,j+1) } / 5 …式(5)
この平均化フィルタ処理を注目ブロックを構成するすべての画素に施すことにより、高空間周波数成分を低減した画像に変換することができる。その結果、粒状性ノイズなどを効果的に低減することができる。
なお、平均化フィルタ処理は、前記した4隣接画素や8隣接画素との単純平均に限定されず、5×5や、更に大きなサイズの画素との平均を算出するようにしてもよく、注目画素に近いほど平均への寄与を大きくした加重平均を算出するようにしてもよい。
静領域処理手段41は、フレームメモリ31,32及び33から、それぞれフレーム画像F(tn+1)、F(t)及びF(tn−1)を入力し、領域判別装置1から入力した領域判別マップR(t)において静領域であることを示す領域(ブロックB)に対して、時間軸方向における画素の平均化フィルタ処理又はメディアンフィルタ処理を施して、静領域フレーム画像Fs(t)として処理選択手段42に出力する。
時間軸方向における画素の平均化フィルタ処理とは、時間軸方向に連続するフレーム画像F(tn+1)、F(t)及びF(tn−1)などの画像平面内の同じ位置の画素の平均を算出し、処理対象である注目フレームの注目画素の値とするものである。連続する3つのフレームを参照する場合は、式(6−1)のようにして時間軸方向における平均化フィルタ処理を行うことができる。
Fs(t)(i,j)=
{ F(tn−1)(i,j)
+ F(t)(i,j)
+ F(tn+1)(i,j) } / 3 …式(6−1)
時間軸方向における平均化フィルタ処理では、時間軸方向の画像の変化が抑圧される。すなわち、激しい動きを鈍くするものである。ここで、時間軸方向に変化する粒状ノイズ、例えば、フレームごとにノイズが出現したり消滅したりするノイズは、画像のちらつきとして認識される。時間軸方向に平均化フィルタ処理することにより、このようなちらつきとして認識されるノイズを効果的に低減することができる。一方、静領域とは、画像信号の変化のない領域のことであるから、時間軸方向において平均化フィルタ処理を施しても本来の画質が劣化することはない。そのため、総合的に見ると、ノイズが低減して画質が向上する静領域に適したノイズ低減処理である。
また、時間軸方向におけるメディアンフィルタ処理とは、時間軸方向に連続するフレーム画像F(tn+1)、F(t)及びF(tn−1)などの画像平面内の同じ位置の画素の中央値を算出し、処理対象である注目フレームの注目画素の値とするものである。連続する3つのフレームを参照する場合は、式(6−2)のようにして時間軸方向におけるメディアンフィルタ処理を行うことができる。
Fs(t)(i,j)=
median(
F(tn−1)(i,j),F(t)(i,j),F(tn+1)(i,j))
…式(6−2)
但し、median(a,b,c)は、a,b,cの内の中央値を出力する関数である。
なお、時間軸方向における平均化フィルタ処理やメディアンフィルタ処理において、参照するフレームは3フレームに限定されず、2フレームや5フレームなどとすることもできる。また、例えば、平均化フィルタ処理において、3フレームの平均化処理の場合で5dB、5フレームの平均化処理では7dBのノイズレベルの低減効果を得ることができる。
処理選択手段42は、動領域処理手段40及び静領域処理手段41から、それぞれ動領域フレーム画像Fd(t)及び静領域フレーム画像Fs(t)を入力し、領域判別装置から入力した領域判別マップR(t)に従って、動領域であることを示す領域に対しては、動領域フレーム画像Fd(t)をフレームメモリ43に出力し、静領域であることを示す領域に対しては、静領域フレーム画像Fs(t)をフレームメモリ43に出力する。
フレームメモリ43は、処理選択手段42から領域判別マップR(t)に従って、ブロックごと動領域フレーム画像Fd(t)又は静領域フレーム画像Fs(t)が選択されたノイズ低減処理されたフレーム画像F’(t)を記憶し、1フレーム分蓄積すると、外部に出力する記憶手段である。
なお、第5実施形態のノイズ低減装置2では、動領域処理手段40及び静領域処理手段41が、領域判別装置1から入力した領域判別マップに従って、択一的に処理を行う。更に、動領域処理手段40及び静領域処理手段41は、領域判別マップR(t)拘わらず、フレーム画像F(t)の全領域に対して、それぞれ並行して処理を行い、処理選択手段42によって、動領域処理手段40又は静領域処理手段41の処理結果である動領域フレーム画像Fd(t)又は静領域フレーム画像Fs(t)を択一的に選択し、この選択画像をフレームメモリ43に出力するようにしてもよい。
また、第5実施形態では第1実施形態の領域判別装置1を用いるように構成したが、替わりに第2実施形態の領域判別装置1A、第3実施形態の領域判別装置1B又は第4実施形態の領域判別装置1Cを用いるようにしてもよく、変形例であるノイズレベル設定手段18Aなどを組み合わせて用いるようにしてもよい。
[第5実施形態のノイズ低減装置の動作]
次に、図27を参照(適宜図26及び図1参照)して、第5実施形態のノイズ低減装置2の動作について説明する。
図27に示した第5実施形態のノイズ低減装置2は、不図示のカメラでプリスキャンして得たフレーム画像F(t)を入力し(ステップS181)、領域判別装置1のノイズレベル設定手段18によって、フレーム画像F(t)からノイズレベルEを検出し、正規化処理のために当該ノイズレベル設定手段18の正規化手段13に出力して設定する(ステップS182)。
次に、不図示のカメラによって本スキャンが開始され(ステップS183)、フレーム画像F(t)を入力すると(ステップS184)、ノイズ低減装置2は、領域判別装置1によって、フレーム画像F(t)をブロックBに分割し(ステップS185)、ブロックBごとに動領域か静領域かを示す領域判別マップR(t)を作成する(ステップS186)。
ノイズ低減装置2は、領域判別装置1によって、ステップS186で領域判別装置1が作成した領域判別マップR(t)を参照してブロックBごとに領域判別結果rを確認し(ステップS187)、注目ブロックBが動領域である場合は(ステップS187でYes)、動領域処理手段40によって、ステップS184で入力したフレーム画像F(t)の注目ブロックBに対して動領域処理を施し、動領域フレーム画像Fd(t)を算出して処理結果選択手段42に出力する(ステップS188)。一方、注目ブロックBが静領域である場合は(ステップS187でNo)、静領域処理手段41によって、ステップS184で入力したフレーム画像F(t)の注目ブロックBに対して動領域処理を施し、動領域フレーム画像Fd(t)を算出して処理結果選択手段42に出力する(ステップS189)。
ノイズ低減装置2は、処理選択手段42によって、ステップS186で領域判別装置1が作成した領域判別マップR(t)を参照して注目ブロックが動領域である場合はステップS188で動領域処理手段40から入力した動領域フレーム画像Fd(t)を選択してフレームメモリ43に記憶し、注目ブロックが静領域である場合はステップS189で静領域処理手段41から入力した静領域フレーム画像Fs(t)を選択してフレームメモリ43に記憶する(ステップS190)。
ノイズ除去装置2は、領域判別装置1によって、注目フレームにおいて未処理のブロックBがあるか確認し(ステップS191),未処理のブロックBがある場合は(ステップS191でYes)、ステップS187に戻って、次の注目ブロック対する一連のノイズ低減処理を続ける。一方、未処理のブロックBがない場合は(ステップS191でNo)、ノイズ低減装置2は、フレームメモリ43に蓄積されたノイズ低減したフレーム画像F’(t)を読み出して、外部に出力する(ステップS192)。
ノイズ低減装置2は、次のフレーム画像F(tn+1)の入力があるか確認し(ステップS193)、次のフレーム画像F(tn+1)の入力がある場合は(ステップS193でYes)、ステップS184に戻って、次のフレーム画像F(tn+1)に対する一連のノイズ低減処理を続ける。一方、次のフレーム画像F(tn+1)の入力がない場合は(ステップS193でNo)、ノイズ低減装置2は処理を終了する。
[第5実施形態のノイズ低減装置の変形例]
次に、第5実施形態のノイズ低減装置2の変形例について説明する。
第5実施形態では、フレーム画像における領域判別は、5×5の形状のブロックごとに行い、領域判別結果に従って、当該5×5の形状のブロックごとに動領域処理と静領域処理とを適応的に選択するようにした。
これに対して、第5実施形態の変形例では、フレーム画像における領域判別を画素ごとに行い、画素ごとの領域判別結果に従って、画素ごとに動領域処理と静領域処理とを適応的に選択することとした。
図28を参照して、画素ごとの領域判別処理について説明する。
図28は、領域判別の処理対象となる注目画素Bxと、当該注目画素Bxの領域判別を行うために参照するブロックBとの関係を示している。すなわち、ハッチングを施して示した注目画素Bxに対して、注目画素Bxを中心とする5×5の画素からなる領域を参照するブロックBとする。このブロックBに対しては、第1実施形態の領域判別装置1、第2実施形態の領域判別装置1A、第3実施形態の領域判別装置1B、第4実施形態の領域判別装置1Cなどによって領域判別することができる。第5実施形態の変形例では、このブロックBを参照して算出した領域判別結果を、当該ブロックB全体の画素ではなく、注目画素Bxのみに対応づけるものである。そして、例えば、当該注目画素Bxの隣接画素に対する領域判別は、当該隣接画素を新たな注目画素Bxとする5×5のブロックBを参照して、行うことができる。
このような画素ごとの領域判別処理は、例えば、図1に示した第1実施形態の領域判別装置1又は図14に示した第2実施形態の領域判別装置1Aにおいて、ブロック分割手段10によって、1画素ごとに分割位置をシフトしたブロックBを順次分割し、分割した各ブロックBを構成する画素データをブロック画素記憶手段分割手段11に記憶するようにする。そして、1画素ごとに分割位置をシフトして分割したブロックBごとに、前記した手順で領域判別を行い、領域判別結果rを当該ブロックBの注目画素のフレーム画像F(t)の画像面内における位置に対応づけて領域判別マップR(t)を作成することができる。
また、図21に示した第3実施形態の領域判別装置1B又は図24に示した第4実施形態の領域判別装置1Cにおいて、ブロック分割手段10によって、1画素ごとに分割位置をシフトしたブロックBを順次分割し、分割した各ブロックBを構成する画素データをサブブロック分割手段21に出力する。次に、サブブロック分割手段21によって、ブロックBごとに更にサブブロックBkに分割し、分割したサブブロックBkを構成する画素データをサブブロック画素記憶手段22に記憶するようにする。そして、1画素ごとに分割位置をシフトして分割したブロックBごとに、前記した手順で領域判別を行い、領域判別結果rを当該ブロックBの注目画素のフレーム画像F(t)の画像面内における位置に対応づけて領域判別マップR(t)を作成することができる。
次に、図29を参照(適宜図26及び図1参照)して、第5実施形態の変形例のノイズ低減装置2の動作について説明する。
図29に示した第5実施形態の変形例のノイズ低減装置2の処理におけるステップS201〜ステップS204は、図27に示した第5実施形態のノイズ低減装置2の処理におけるステップS181〜ステップS184と同様であるから、説明は省略する。
次に、第5実施形態の変形例のノイズ低減装置2は、領域判別装置1によって、ステップS204で入力したフレーム画像F(t)を1画素ごとに中心位置をシフトしたブロックBに分割し(ステップS205)、各ブロックBに対して算出した領域判別結果rを当該ブロックBの中心画素のフレーム画像F(t)の画像面内の位置に対応づけた、画素ごと動領域か静領域かを示す領域判別マップR(t)を作成する(ステップS206)。
ノイズ低減装置2は、領域判別装置1によって、ステップS206で領域判別装置1が作成した領域判別マップR(t)を参照して画素ごとに領域判別結果rを確認し(ステップS207)、注目画素が動領域である場合は(ステップS207でYes)、動領域処理手段40によって、ステップS204で入力したフレーム画像F(t)の注目画素に対して動領域処理を施し、動領域フレーム画像Fd(t)を算出して処理結果選択手段42に出力する(ステップS208)。一方、注目画素が静領域である場合は(ステップS207でNo)、静領域処理手段41によって、ステップS204で入力したフレーム画像F(t)の注目画素に対して動領域処理を施し、動領域フレーム画像Fd(t)を算出して処理結果選択手段42に出力する(ステップS209)。
ノイズ低減装置2は、処理選択手段42によって、ステップS206で領域判別装置1が作成した領域判別マップR(t)を参照して注目画素が動領域である場合はステップS208で動領域処理手段40から入力した動領域フレーム画像Fd(t)を選択してフレームメモリ43に記憶し、注目画素が静領域である場合はステップS209で静領域処理手段41から入力した静領域フレーム画像Fs(t)を選択してフレームメモリ43に記憶する(ステップS210)。
ノイズ除去装置2は、領域判別装置1によって、注目フレームにおいて未処理の画素があるか確認し(ステップS211),未処理の画素がある場合は(ステップS211でYes)、ステップS207に戻って、次の注目画素に対する一連のノイズ低減処理を続ける。一方、未処理の画素がない場合は(ステップS211でNo)、ノイズ低減装置2は、フレームメモリ43に蓄積されたノイズ低減したフレーム画像F’(t)を読み出して、外部に出力する(ステップS212)。
ノイズ低減装置2は、次のフレーム画像F(tn+1)の入力があるか確認し(ステップS213)、次のフレーム画像F(tn+1)の入力がある場合は(ステップS213でYes)、ステップS204に戻って、次のフレーム画像F(tn+1)に対する一連のノイズ低減処理を続ける。一方、次のフレーム画像F(tn+1)の入力がない場合は(ステップS213でNo)、ノイズ低減装置2は処理を終了する。
以上説明したように、第5実施形態の変形例のノイズ低減装置2は、領域判別装置1によって、フレーム画像F(t)を画素ごとに領域判別を行い、当該領域判別結果の従って、画素ごとに動領域処理と静領域処理とを適応的に選択してノイズ低減処理を行う。また、ノイズ低減処理の選択が画素ごとにきめ細かく行えるため、ノイズ低減処理した動画像に選択する2種類の処理の差によるブロックノイズの発生を防止することができる。
1、1A、1B、1C、1D 領域判別装置
2 ノイズ低減装置
10 ブロック分割手段(領域判別ブロック分割手段)
11 ブロック画素記憶手段
12 差分平均算出手段
13、13A 正規化手段
14 最大値抽出手段
15 領域判別手段
16 領域判別マップ記憶手段
17 差分計算設定手段
18、18A、18B、18C ノイズレベル設定手段
19 判別閾値設定手段
20 輝度算出手段(領域判別ブロック輝度算出手段)
21 サブブロック分割手段
22 差分算出手段
31、32、33 フレームメモリ
40 動領域処理手段
41 静領域処理手段
42 処理選択手段
43 フレームメモリ
50、50A ブロック分割手段(ノイズ検出ブロック分割手段)
51、51A 直流成分除去画像算出手段
51a DCT処理手段
51b 直流成分除去手段
51c 逆DCT処理手段
51d HPF処理手段
52 画素平均算出手段
53 最小値抽出手段
54 輝度別最小値抽出手段
55 ノイズレベル検証手段
56 補間処理手段
57 輝度算出手段(ノイズ検出ブロック輝度算出手段)
61、61A 正規化用ノイズレベル検出手段
62 検証用ノイズレベル検出手段
111 後フレーム画素記憶手段
112 注目フレーム画素記憶手段
113 前フレーム画素記憶手段
121 差分算出手段
122 平均算出手段
221 後フレーム画素記憶手段
222 注目フレーム画素記憶手段
223 前フレーム画素記憶手段
B ブロック(領域判別ブロック)
〜B18、B サブブロック
Bx 注目画素
C ブロック(ノイズ検出ブロック)
F(t) フレーム画像

Claims (8)

  1. 動画像を構成するフレーム画像の画像平面内の領域が、時間軸方向に前後のフレーム画像に対して変化のある動領域か、変化のない静領域か、の2種類の領域の何れであるかを判別する領域判別装置であって、
    前記フレーム画像を複数の画素からなる領域判別用のブロックである領域判別ブロックに分割する領域判別ブロック分割手段と、
    前記領域判別ブロック分割手段によって分割された領域判別ブロックを、当該領域判別ブロック中の複数の画素から構成される複数のサブブロックに分割するサブブロック分割手段と、
    前記サブブロック分割手段によって分割された複数のサブブロックごとに、前記サブブロックを構成する画素の、フレーム間の差分の大きさの平均値である差分平均を算出する差分平均算出手段と、
    前記動画像に含まれる画像平面内のノイズレベルを設定するノイズレベル設定手段と、
    前記差分平均算出手段によって算出した差分平均を前記ノイズレベル設定手段によって設定したノイズレベルで除することによって正規化される正規化差分平均を算出する正規化手段と、
    前記正規化手段によって算出した前記領域判別ブロックから分割した複数のサブブロックの正規化差分平均の内の最大値を抽出する最大値抽出手段と、
    前記最大値抽出手段によって抽出した正規化差分平均の最大値を、予め定められた判別閾値と比較し、前記正規化差分平均の最大値が前記判別閾値よりも大きい場合に、前記領域判別ブロックを動領域と判別し、前記正規化差分平均の最大値が前記判別閾値以下の場合に、前記領域判別ブロックを静領域と判別する領域判別手段と、
    を備えることを特徴とする領域判別装置。
  2. 動画像を構成するフレーム画像の画像平面内の領域が、時間軸方向に前後のフレーム画像に対して変化のある動領域か、変化のない静領域か、の2種類の領域の何れであるかを判別する領域判別装置であって、
    前記フレーム画像から、領域判別の対象となる注目画素を含む複数の画素からなる領域判別用のブロックである領域判別ブロックを分割する領域判別ブロック分割手段と、
    前記領域判別ブロック分割手段によって分割された領域判別ブロックを、当該領域判別ブロック中の複数の画素から構成される複数のサブブロックに分割するサブブロック分割手段と、
    前記サブブロック分割手段によって分割された複数のサブブロックごとに、前記サブブロックを構成する画素の、フレーム間の差分の大きさの平均値である差分平均を算出する差分平均算出手段と、
    前記動画像に含まれる画像平面内のノイズレベルを設定するノイズレベル設定手段と、
    前記差分平均算出手段によって算出した差分平均を前記ノイズレベル設定手段によって設定したノイズレベルで除することによって正規化される正規化差分平均を算出する正規化手段と、
    前記正規化手段によって算出した前記領域判別ブロックから分割した複数のサブブロックの正規化差分平均の内の最大値を抽出する最大値抽出手段と、
    前記最大値抽出手段によって抽出した正規化差分平均の最大値を、予め定められた判別閾値と比較し、前記正規化差分平均の最大値が前記判別閾値よりも大きい場合に、前記注目画素を動領域と判別し、前記正規化差分平均の最大値が前記判別閾値以下の場合に、前記注目画素を静領域と判別する領域判別手段と、
    を備えることを特徴とする領域判別装置。
  3. 更に、前記領域判別ブロック分割手段によって分割された領域判別ブロック内の輝度レベルを算出する領域判別ブロック輝度算出手段を備え、
    前記ノイズレベル設定手段は、輝度レベルに応じてノイズレベルが定められた輝度別ノイズレベルを設定するとともに、
    前記正規化手段は、前記領域判別ブロック輝度算出手段によって算出した輝度レベルに対応する前記ノイズレベル設定手段によって設定された輝度別ノイズレベルで前記差分平均を除することによって正規化することを特徴とする請求項1又は請求項2に記載の領域判別装置。
  4. 前記ノイズレベル設定手段は、前記正規化手段による正規化のために用いられるノイズレベルを検出する正規化用ノイズレベル検出手段であって、
    前記フレーム画像を複数の画素からなるノイズレベル検出用のブロックであるノイズ検出ブロックに分割するノイズ検出ブロック分割手段と、
    前記ノイズ検出ブロック分割手段によって分割したノイズ検出ブロックから直流成分を除去した直流成分除去画像を算出する直流成分除去画像算出手段と、
    前記直流成分除去画像算出手段によって算出された直流成分除去画像の、前記ノイズ検出ブロック内の画素値の大きさの平均値である画素平均を算出する画素平均算出手段と、
    前記フレーム画像中の複数のノイズ検出ブロックに対応する画素平均から最小値を抽出し、抽出した当該画素平均の最小値を前記ノイズレベルとして出力する最小値抽出手段と、
    を備えることを特徴とする請求項1又は請求項2に記載の領域判別装置。
  5. 前記ノイズレベル設定手段は、前記正規化手段による正規化のために用いられるノイズレベルを検出する正規化用ノイズレベル検出手段であって、
    前記フレーム画像を複数の画素からなるノイズ検出ブロックに分割するノイズ検出ブロック分割手段と、前記ノイズ検出ブロック分割手段によって分割したノイズ検出ブロックから直流成分を除去した直流成分除去画像を算出する直流成分除去画像算出手段と、
    前記直流成分除去画像算出手段によって算出された直流成分除去画像の、前記ノイズ検出ブロック内の画素値の大きさの平均値である画素平均を算出する画素平均算出手段と、
    前記ノイズ検出ブロック分割手段によって分割されたノイズ検出ブロック内の輝度レベルを算出するノイズ検出ブロック輝度算出手段と、
    前記画素平均算出手段によって算出された画素平均を、前記ノイズ検出ブロック輝度算出手段によって算出された輝度レベルごとに、フレーム画像中の複数のノイズ検出ブロックに対応する画素平均から最小値を抽出して各輝度レベルにおける前記輝度別ノイズレベルとして出力する最小値抽出手段と
    を備えることを特徴とする請求項に記載の領域判別装置。
  6. 前記ノイズレベル設定手段は、更に、前記正規化用ノイズレベル検出手段によって検出された輝度別ノイズレベルの有効性を検証するための検証用ノイズレベルを、予備撮影によって得られたフレーム画像から検出する検証用ノイズレベル検出手段を備え、
    前記正規化用ノイズレベル検出手段は、前記最小値抽出手段によって抽出された各輝度別ノイズレベルの値が前記検証用ノイズレベル検出手段によって検出された検証用ノイズレベルの値に対して、予め定められた所定の範囲内にあるかどうかを検証し、範囲外にあるときに、当該輝度別ノイズレベルのデータを排除するノイズレベル検証手段と、
    前記ノイズレベル検証手段によって排除された輝度レベルに対応するノイズレベルのデータを、排除されなかった輝度レベルにおけるノイズレベルのデータから補間処理して算出する補間処理手段と
    を備えることを特徴とする請求項に記載の領域判別装置。
  7. 動画像に重畳されたノイズを低減させるノイズ低減装置であって、
    前記動画像を構成するフレーム画像の画像平面内の領域が、時間軸方向に前後のフレーム画像に対して変化のある動領域か、変化のない静領域か、の2種類の領域の何れであるかを判別する請求項1乃至請求項の何れか一項に記載の領域判別装置と、
    前記領域判別装置によって動領域と判別された前記フレーム画像の領域に対して、画像平面内におけるノイズ低減処理をする動領域処理手段と、
    前記領域判別装置によって静領域と判別された前記フレーム画像の領域に対して、フレーム間におけるノイズ低減処理をする静領域処理手段と、
    を備えることを特徴とするノイズ低減装置。
  8. 動画像に重畳されたノイズを低減させるために、コンピュータを、
    前記動画像を構成するフレーム画像の画像平面内の領域が、時間軸方向に前後のフレーム画像に対して変化のある動領域か、変化のない静領域か、の2種類の領域の何れであるかを判別する請求項1乃至請求項の何れか一項に記載の領域判別装置、
    前記領域判別装置によって動領域と判別された前記フレーム画像の領域に対して、画像平面内におけるノイズ低減処理をする動領域処理手段、
    前記領域判別装置によって静領域と判別された前記フレーム画像の領域に対して、フレーム間におけるノイズ低減処理をする静領域処理手段、
    として機能させるためのノイズ低減プログラム。
JP2009011090A 2009-01-21 2009-01-21 領域判別装置、ノイズ低減装置及びノイズ低減プログラム Expired - Fee Related JP5097140B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009011090A JP5097140B2 (ja) 2009-01-21 2009-01-21 領域判別装置、ノイズ低減装置及びノイズ低減プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009011090A JP5097140B2 (ja) 2009-01-21 2009-01-21 領域判別装置、ノイズ低減装置及びノイズ低減プログラム

Publications (2)

Publication Number Publication Date
JP2010171614A JP2010171614A (ja) 2010-08-05
JP5097140B2 true JP5097140B2 (ja) 2012-12-12

Family

ID=42703323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009011090A Expired - Fee Related JP5097140B2 (ja) 2009-01-21 2009-01-21 領域判別装置、ノイズ低減装置及びノイズ低減プログラム

Country Status (1)

Country Link
JP (1) JP5097140B2 (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3098239B2 (ja) * 1987-11-30 2000-10-16 日本電気株式会社 画像信号の雑音除去方法
JPH05336497A (ja) * 1992-05-29 1993-12-17 Sanyo Electric Co Ltd 動き検出回路
JP3291597B2 (ja) * 1993-06-07 2002-06-10 日本テキサス・インスツルメンツ株式会社 動き検出回路及びノイズ低減回路
JPH0832839A (ja) * 1994-07-19 1996-02-02 Sharp Corp 雑音除去装置
JPH08130664A (ja) * 1994-10-31 1996-05-21 Nec Eng Ltd 画像符号化装置の雑音抑圧方式
JP4192493B2 (ja) * 2002-05-13 2008-12-10 株式会社豊田中央研究所 画像ノイズ検出方法及びそれを用いた画像処理装置
JP2007228432A (ja) * 2006-02-24 2007-09-06 Canon Inc 画像信号処理回路及び画像信号処理方法
JP2008017448A (ja) * 2006-06-06 2008-01-24 Sony Corp 映像信号処理方法、映像信号処理方法のプログラム、映像信号処理方法のプログラムを記録した記録媒体及び映像信号処理装置

Also Published As

Publication number Publication date
JP2010171614A (ja) 2010-08-05

Similar Documents

Publication Publication Date Title
JP5052301B2 (ja) 画像処理装置、画像処理方法
JP5908174B2 (ja) 画像処理装置及び画像処理方法
EP2413586B1 (en) Method and device for adaptive noise measurement of a video signal
JP5197414B2 (ja) 画像処理装置及び画像処理方法
JP2012523790A (ja) ビデオカメラ
Liu et al. Reducing location map in prediction-based difference expansion for reversible image data embedding
JPH11505357A (ja) ピクセルレベルの明度調整のための装置および方法
Coltuc et al. Context embedding for raster-scan rhombus based reversible watermarking
JP2010134700A (ja) 画像評価装置および画像評価方法
JP5183440B2 (ja) 階調補正装置および撮像装置
JP5097141B2 (ja) ノイズ低減装置及びノイズ低減プログラム
US20100238354A1 (en) Method and system for adaptive noise reduction filtering
JP5097140B2 (ja) 領域判別装置、ノイズ低減装置及びノイズ低減プログラム
JP5075804B2 (ja) ノイズ低減装置
JPH1141491A (ja) 2次元ノイズ低減回路
JP2002208006A (ja) 画像ノイズ減少方法
JP5039017B2 (ja) ノイズレベル検出装置
US8351729B2 (en) Apparatus, method, and program for image correction
JP5084755B2 (ja) ノイズ低減装置及びそのプログラム
JP3427354B2 (ja) 映像2値化法及び2値化画像生成法
KR101854611B1 (ko) 엔트로피를 이용한 가중치 할당에 기초한 이미지 처리 방법
WO2008023466A1 (en) Moving vector detecting bdevice
JP5091880B2 (ja) 動画像ノイズ除去装置および動画像ノイズ除去プログラム
JP5103436B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP4729127B2 (ja) 画像評価装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120828

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120921

R150 Certificate of patent or registration of utility model

Ref document number: 5097140

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees