JP6082304B2 - 画像処理装置及びその処理方法 - Google Patents

画像処理装置及びその処理方法 Download PDF

Info

Publication number
JP6082304B2
JP6082304B2 JP2013080843A JP2013080843A JP6082304B2 JP 6082304 B2 JP6082304 B2 JP 6082304B2 JP 2013080843 A JP2013080843 A JP 2013080843A JP 2013080843 A JP2013080843 A JP 2013080843A JP 6082304 B2 JP6082304 B2 JP 6082304B2
Authority
JP
Japan
Prior art keywords
noise
evaluation value
video
videos
spatial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013080843A
Other languages
English (en)
Other versions
JP2013240044A5 (ja
JP2013240044A (ja
Inventor
松岡 寛親
寛親 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013080843A priority Critical patent/JP6082304B2/ja
Priority to US13/861,647 priority patent/US9143658B2/en
Publication of JP2013240044A publication Critical patent/JP2013240044A/ja
Publication of JP2013240044A5 publication Critical patent/JP2013240044A5/ja
Application granted granted Critical
Publication of JP6082304B2 publication Critical patent/JP6082304B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Picture Signal Circuits (AREA)

Description

本発明は、映像のノイズ感を補正する技術に関する。
近年、映像のデジタル化が進展するのに伴い、デジタル映像でのノイズ感制御が課題となっている。ここで、映像のノイズ感を制御する技術として、例えば特許文献1のように、フィルムグレインに似たノイズを加算する技術や、特許文献2のように、解像感の向上を狙って主要被写体の位置にノイズを加算する技術が提案されている。
特開2007―174667号公報 特開2008―187260号公報
映像の合成編集や繋ぎ編集では、撮影機材や撮影条件の異なる複数の映像を1つの映像に編集する。しかしながら、編集後において、映像間のノイズ感の相違が際立ってしまい、違和感が残る場合がある。そこで、合成編集や繋ぎ編集する際、あらかじめ複数の映像間でノイズ感を整合させておく必要がある。
しかしながら、特許文献1は、映像に一律にグレインノイズのようなノイズを付加するだけの技術である。そのため、映像のノイズ感を一致させるには、本来映像に含まれるノイズが目立たなくなるだけのノイズを付加しなければならない場合があるほか、ノイズ量も編集者自らが調整する必要がある。
また、特許文献2によれば、映像に応じたノイズ付加を実現してはいるが、主要被写体の位置に応じたノイズ付加であるため、やはり複数映像でのノイズ感を整合させるためのノイズ量は編集者自らが調整する必要がある。
本発明は、複数映像のノイズ感を評価値として数値化し、この評価値に基づいてノイズ感を整合させた装置及び方法を提供する。
本発明は、画像処理装置であって、
数の映像それぞれについてノイズ評価値を算出する評価値算出手段と、
前記評価値算出手段により算出された前記複数の映像それぞれのノイズ評価値に基づいて、前記複数の映像それぞれに加算するノイズを決定する決定手段であって、前記ノイズの加算により前記複数の映像のノイズ評価値の差が小さくなるように、前記複数の映像それぞれに加算するノイズを決定する決定手段と、
前記複数の映像それぞれのノイズ評価値に基づいて前記決定手段により決定されたノイズを映像に加算するノイズ加算手段とを有する。
本発明によれば、映像編集者が調整の手間をかけることなく、ノイズ感が整合した映像を得ることができる。
画像処理装置全体のシステム構成を示すブロック図。 映像データのデータ構造を示す模式図。 ノイズ自己相関関数を示す模式図。 映像処理装置の構成を示すブロック図。 ノイズ評価値算出部の詳細な構成を示す図。 空間視覚特性を示す模式図。 加算ノイズ特性算出部の詳細な構成を示す図。 時間ノイズ評価値と空間ノイズ評価値とから算出した類似度を示す図。 ノイズ評価値関係の一例を示す図。 加算ノイズ算出部の詳細な構成を示す図。 第2の実施形態の加算ノイズ特性算出部の詳細な構成を示す図。 第2の実施形態の類似度を示す図。 第2の実施形態のノイズ評価値関係の一例を示す図。 加算ノイズの方向を余弦として距離に応じて算出する関数を示す図。
以下、図面を参照しながら発明を実施するための形態について詳細に説明する。
[第1の実施形態]
まず、画像処理装置全体のシステム構成を、図1に示すブロック図を用いて説明する。CPU101は、メインメモリ102のRAMをワークメモリとしてメインメモリ102のROMやハードディスクドライブ(HDD)103に格納されたオペレーティングシステム(OS)及び各種プログラムを実行する。また、CPU101はPCI(peripheral component interconnect)バスなどのシステムバス111を介して各構成を制御する。
HDD103は、各種プログラム及び映像データを格納し、映像処理装置104に映像データを転送すると共に、映像処理装置104の処理結果映像データを受信して格納する。映像処理装置104は、映像処理装置104から転送された2つの映像データを内部に一旦格納し、一方もしくは双方の映像にノイズ補正処理を施し、処理結果の映像データを映像処理装置104に転送する。CPU101は、グラフィックアクセラレータ107を介してユーザインタフェース画面をカラーモニタ108に表示する。また、ユーザ指示はキーボードコントローラ105に接続されたキーボード106を介して入力される。このユーザインタフェース画面とキーボード106とを用いて、処理対象とする映像データの指定や処理内部のパラメータの設定を行う。
メディアインタフェース109は、メディア110(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)に接続するためのインタフェースである。メディア110に格納された映像データは、このメディアインタフェース109を介してHDD103に転送される。また、HDD103に格納された処理結果映像データが、このメディアインタフェース109を介してメディア110に転送される。メディア110に格納された処理結果映像データは、図示しない別の映像編集機器を用いてカットつなぎや映像合成などの編集処理が施され、最終的な映像データへと加工される。
次に、映像データのデータ構造を、図2に示す模式図を用いて説明する。データはアドレス0x0000から0x00FFまでに映像の横方向(すなわちフレームの横方向)でのノイズ自己相関関数axが、アドレス0x0100から0x01FFまでに映像の縦方向(すなわちフレームの縦方向)でのノイズ自己相関関数ayが記述される。更に、アドレス0x0200から0x02FFまでに映像の時間方向(すなわちフレーム間)でのノイズ自己相関関数atが記述され、アドレス0x0300からは映像信号が記述される。各自己相関関数は、離散時間ディジタル信号で記述され、各サンプルポイントでの関数値が32bitで表現される。これらのノイズ自己相関関数は映像に含まれるノイズのノイズ特性として記述されるものであり、横方向でのノイズ自己相関関数と縦方向でのノイズ自己相関関数は空間ノイズ特性、時間方向でのノイズ自己相関関数は時間ノイズ特性である。ノイズ自己相関関数を模式図として表すと、例えば図3に示す(a)〜(c)のような関数形状となる。映像信号は、フレームすなわち静止画のビットマップ画像列が時間順に並んだ形式で記述される。以下、映像に含まれるノイズのノイズ特性を「映像ノイズ特性」と称す。
映像ノイズ特性は、例えば次のように算出できる。まず、一様なグレイチャートを撮影機器で撮影する。用いる撮影機器は、編集対象の映像を撮影した撮影機器である。続いて、撮影映像のグレイチャートの領域内で、ノイズ特性を算出する領域を決定する。この領域内の映像の画素(x,y,t)の輝度値a(x,y,t)から、ノイズn(x,y,t)は次のように算出する。
Figure 0006082304
ここでL,M,Nはそれぞれ、映像空間内におけるノイズ特性算出対象となる領域の各座標軸方向の最大値を示す。たとえばL,Mはそれぞれ1フレーム内においてノイズ特性の算出対象となる領域の横縦それぞれの画素数、Nはノイズ特性の算出対象となるフレーム数である。したがって右辺第2項は対象領域内の画素値の平均を示す。このように、撮影したグレイチャートの映像における着目画素の輝度値a(x,y,t)の偏差を着目画素のノイズと定義する。このノイズより、ノイズ自己相関関数を次のように算出する。
Figure 0006082304
すなわち、ノイズ特性ax,ay,atは、映像空間の各座標軸の方向(すなわち横、縦、時間)について互いに距離x,y,t離れた2つの画素のノイズの積の平均値で定義される。距離とはたとえばフレームのx,y方向については空間的な距離であり、t(時間)方向については時間あるいはフレーム数である。またたとえばフレームサイズが2L×2M、フレーム数が2Nの映像に対して、ノイズ特性の算出対象を各軸についてその中間までの領域とすれば、0≦x≦L、0≦y≦M、0≦t≦Nの範囲でノイズ自己相関関数を評価できる。
このような処理をアプリケーションソフトとして提供し、ユーザが撮影グレイチャートからノイズ特性を算出し、映像データにノイズ特性の情報を付加させてもよい。また、撮影機器の条件に応じたノイズ特性をメーカーがあらかじめ作成して撮影機器に記憶させておき、ユーザの撮影条件に応じて映像データに自動的に映像ノイズ特性の情報を付加する機構を設けておいてもよい。
ここで、映像処理装置104の構成を、図4に示すブロック図を用いて説明する。バスインタフェース401は、映像処理装置104から転送される2つの映像データを、システムバス111を介して受信し、フレームメモリ402とフレームメモリ403とに内部バス416を介してそれぞれを格納する。また、フレームメモリ412とフレームメモリ415とに格納された処理結果映像データを、システムバス111を介してHDD103に転送する。
ノイズ特性取得部417、418は、フレームメモリ402とフレームメモリ403とにそれぞれ格納された映像データから映像ノイズ特性の情報をそれぞれ取得する。このノイズ特性情報は、図2を用いて説明した特性情報である。ノイズ評価値算出部404は、取得した映像ノイズ特性からそれぞれの映像データに対するノイズ評価値を算出し、ノイズ評価値データとして加算ノイズ特性算出部405へ出力する。加算ノイズ特性算出部405は、2つの映像データに対するそれぞれのノイズ評価値からそれぞれの映像に加算するノイズのノイズ特性(加算ノイズ特性)を算出する。尚、映像データのどちらかにノイズの加算が必要ない場合、その加算ノイズ特性は"0"となる。
加算ノイズ算出部406は、算出された加算ノイズ特性に基づいて、実際に映像に加算するノイズ映像データを作成し、フレームメモリ407及びフレームメモリ408に転送する。ノイズ特性修正部409は、フレームメモリ402に格納された映像データの映像ノイズ特性の情報を加算ノイズ特性算出部405で算出された加算ノイズ特性に基づいて修正する。修正された映像ノイズ特性は、処理結果映像データのノイズ特性を表わすものとなる。ノイズ加算部410は、フレームメモリ407に格納されている加算ノイズ映像データをフレームメモリ402に格納された映像データに加算する。
また同様に、ノイズ特性修正部413は、フレームメモリ403に格納された映像データの映像ノイズ特性の情報を加算ノイズ特性算出部405で算出された加算ノイズ特性に基づいて修正する。ノイズ加算部414は、フレームメモリ408に格納されている加算ノイズ映像データをフレームメモリ403に格納された映像データに加算する。
以下、フレームメモリ403に格納された映像データを映像A、フレームメモリ402に格納された映像データを映像Bとする。
次に、ノイズ評価値算出部404の詳細な構成を、図5を用いて説明する。端子501からは映像Aに対する映像ノイズ特性が入力され、端子502からは映像Bに対する映像ノイズ特性が入力される。マルチプレクサ503は、入力された2つの映像ノイズ特性の一つを選択し、ノイズ特性分離回路504へ出力する。
ノイズ特性分離回路504は、映像ノイズ特性から空間ノイズ特性と時間ノイズ特性とを分離し、空間ノイズ特性を空間ノイズ評価値算出回路505へ出力し、時間ノイズ特性を時間ノイズ評価値算出回路506へ出力する。空間ノイズ評価値算出回路505は、フレームの横方向のノイズ自己相関関数とフレームの縦方向のノイズ自己相関関数とに対してそれぞれ離散フーリエ変換を施して空間周波数特性に変換した後、それぞれに空間視覚特性を周波数域で乗算し、乗算結果の総和をとる。更に、2つの総和値を乗算することで空間ノイズ評価値Esを算出する。式では下記のようになる。
Figure 0006082304
ここで、Ax(u)は横方向のノイズ自己相関関数ax(x)の離散フーリエ変換、Ay(v)は縦方向のノイズ自己相関関数ay(y)の離散フーリエ変換である。また、VTFsx(u)、VTFsy(v)はそれぞれ横方向の空間視覚特性と縦方向の空間視覚特性であり、それぞれ次のように定義される。
Figure 0006082304
ここでは、画素ピッチをp(mm)、視距離をR(mm)、映像の横画素数をNx、縦画素数をNyとしている。そして、VTFsx(u)、VTFsy(v)は、空間視覚特性、即ち
Figure 0006082304
を視距離と画素ピッチと画素数とに応じて周波数空間でサンプリングしたものであり、基本形は同じである。上記式による空間視覚特性の一例を図6(a)に示す。本例では横方向と縦方向の空間視覚特性は同一としているが、縦と横とで異なる視覚特性を採用してもよい。
ここで図5に戻り、時間ノイズ評価値算出回路506は、時間方向のノイズ自己相関関数に対して離散フーリエ変換を施した後、時間視覚特性を周波数域で乗算して時間ノイズ評価値Etを算出する。式では以下のようになる。
Figure 0006082304
ここで、At(w)は、時間方向のノイズ自己相関関数at(t)の離散フーリエ変換である。VTFt(w)は時間視覚特性であり、次のように定義される。また、Tはフレームレートf[Hz]の逆数すなわちフレーム間隔である。
Figure 0006082304
上記式による時間視覚特性の一例を図6Bに示す。
評価値合成回路507は、空間ノイズ評価値算出回路505からの空間ノイズ評価値と時間ノイズ評価値算出回路506からの時間ノイズ評価値とを合成し、一組のノイズ評価値データとしてデマルチプレクサ508へ出力する。合成とは、例えば分離可能な結合であってもよい。デマルチプレクサ508は、マルチプレクサ503と同期して動作することで、元の映像データにノイズ評価値データを対応して適切に振り分け、空間ノイズ特性と時間ノイズ特性と共に端子509と端子510とへ出力する。端子509からは、映像Aに対するノイズ評価値データと空間ノイズ特性と時間ノイズ特性が出力され、端子510からは映像Bに対するノイズ評価値データと空間ノイズ特性と時間ノイズ特性が出力される。
次に、図4に示す加算ノイズ特性算出部405の詳細な構成を、図7を用いて説明する。端子701からは映像Aに対するノイズ評価値データと空間ノイズ特性及び時間ノイズ特性が入力され、端子702からは映像Bに対するノイズ評価値データと空間ノイズ特性及び時間ノイズ特性が入力される。ノイズ評価値算出部703は、映像A及び映像Bそれぞれに対して、空間ノイズ評価値Esと時間ノイズ評価値Etとを乗じてノイズ評価値E=Es*Etを算出する。以下、映像Aに対応する空間ノイズ評価値、時間ノイズ評価値、ノイズ評価値をそれぞれEsA、EtA、EAとする。また同様に、映像Bに対応する空間ノイズ評価値、時間ノイズ評価値、ノイズ評価値をそれぞれEsB、EtB、EBとする。
ノイズ類似度算出部704は、映像Aと映像Bそれぞれの空間ノイズ評価値と時間ノイズ評価値とを要素とするベクトル(ノイズ評価値ベクトル)で定まる余弦eを類似度として算出する。
Figure 0006082304
時間ノイズ評価値と空間ノイズ評価値とを要素とする2次元評価値空間において、算出した類似度を表現すると、図8に示すようになる。ここで、NA並びにNBはノイズ評価値を2次元評価値空間でベクトル表記したものであり、NA=(EsA, EtA)、NB=(EsB, EtB)である。
ここで図7に戻り、ノイズ特性算出部705は、ノイズ評価値EAとEB、並びに余弦eに基づいて場合分けを行い、映像Aと映像Bへの加算ノイズ特性を空間ノイズ特性と時間ノイズ特性の形式で算出して出力する。以下、場合分け条件毎に動作を説明する。
尚、映像Bへの加算ノイズの評価値を2次元ベクトルでANB、映像Aへの加算ノイズの評価値を2次元ベクトルでANAと表記する。また、映像Aに対するノイズ自己相関関数は、インデックスAを振り付けてaxA(x)、ayA(y)、atA(t)で表し、映像Bに対するノイズ自己相関関数はインデックスBを振り付けてaxB(x)、ayB(y)、atB(t)で表す。
条件A)余弦eが所定値T1以上、且つノイズ評価値がEA>EB
条件Aは、映像A、映像Bそれぞれの時間ノイズ評価値と空間ノイズ評価値との比が近似しており、かつ映像Aのノイズ評価値が大きい場合を定量的に示した条件である。
この条件では、映像Aへの加算ノイズ特性は"0"に設定し、ノイズの加算を行わないようにする。また、映像Bへの加算ノイズ特性は、まず2次元評価値空間においてノイズの方向と大きさを求め、更に求めたノイズの大きさと映像Aのノイズの自己相関関数から算出する。
まず2次元評価値空間での映像Bへの加算ノイズANBの方向と大きさは、係数αを用いてANB=αNAとする。ここで係数αは、次の関係が成り立つように算出される。
Figure 0006082304
この係数αを用いて、映像Bへ加算するノイズの加算ノイズ特性を、横、縦、時間それぞれの方向についての自己相関関数が、√α・axA(x)、√α・ayA(y)、α・atA(t)となるように設定する。こうして映像Bに対して適用される加算ノイズ特性√α・axA(x)、√α・ayA(y)、α・atA(t)が得られ、出力される。なお映像Aに対して適用される加算ノイズ特性0は、映像Aに対してノイズの加算が不要であることを示す。また自己相関関数の値はそれぞれの編集対象の映像とともに媒体に記録されているため、出力する加算ノイズ特性は、係数αのみであってもよい。
この条件におけるノイズ評価値関係の一例を、2次元評価値空間で図9(a)に示す。この図から明らかなように、本条件ではノイズ加算後に映像Aと映像Bのノイズ評価値が同じになるように、映像Bにノイズを加算している。
条件B)余弦eが所定値T1以上、且つノイズ評価値がEB>EA
条件Bは、映像A、映像Bそれぞれの時間ノイズ評価値と空間ノイズ評価値との比が近似しており、かつ映像Bのノイズ評価値が大きい場合を定量的に示した条件である。
この条件では、映像Bへの加算ノイズ特性は"0"に設定し、ノイズの加算を行わないようにする。また、映像Aへの加算ノイズ特性は、まず2次元評価値空間においてノイズの方向と大きさを求め、更に求めたノイズの大きさと映像Aのノイズの自己相関関数から算出する。
まず2次元評価値空間での映像Aへの加算ノイズANAの方向と大きさは、係数αを用いてANA=αNBとする。ここで係数αは、次の関係が成り立つように算出される。
Figure 0006082304
この係数αを用いて、映像Aへの加算ノイズ特性は、自己相関関数がα・axB(x)、α・ayB(y)、α・atB(t)となるように設定する。こうして映像Aに対して適用される加算ノイズ特性√α・axB(x)、√α・ayB(y)、α・atB(t)が得られ、出力される。なお映像Bに対して適用される加算ノイズ特性0は、映像Bに対してノイズの加算が不要であることを示す。条件Aと同様、出力する加算ノイズ特性は、係数αのみであってもよい。
この条件におけるノイズ評価値関係の一例を、2次元評価値空間で図9Bに示す。この図から明らかなように、本条件では、ノイズ加算後に映像Aと映像Bのノイズ評価値が同じになるように、映像Aにノイズを加算している。
条件C)余弦eが所定値T1未満、且つノイズ評価値のEAもしくはEBの何れかがT2未満
条件Cは、映像A、映像Bそれぞれの時間ノイズ評価値と空間ノイズ評価値との比が近似しておらず、かついずれか一方の映像のノイズ評価値が非常に小さい場合を定量的に示した条件である。
この条件では、映像Aへの加算ノイズ特性は、自己相関関数がaxB(x)、ayB(y)、atB(t)となるように設定する。また、映像Bへの加算ノイズ特性は、自己相関関数がaxA(x)、ayA(y)、atA(t)となるように設定する。こうして得られた加算ノイズ特性が出力される。条件Aなどと同様、出力する加算ノイズ特性は、係数のみであってもよい。この場合係数は、映像A,Bとも1である。
この条件におけるノイズ評価値関係の一例を、2次元評価値空間で図9(c)に示す。この図から明らかなように、本条件では、映像Aと映像Bのノイズが2次元評価値空間上で同じになるように、映像Aへの加算ノイズ特性と映像Bへの加算ノイズ特性を設定している。
条件D)余弦eが所定値T1未満、且つノイズ評価値EAもしくはEBの両方がT2以上
条件Dは、映像A、映像Bそれぞれの時間ノイズ評価値と空間ノイズ評価値との比が近似しておらず、かついずれか双方の映像のノイズ評価値が一定値以上である場合を定量的に示した条件である。
この条件では、映像Aと映像Bへのそれぞれの加算ノイズ特性を、2次元評価値空間においてノイズの方向と大きさを求めた後に、更に求めたノイズの大きさと映像のノイズの自己相関関数から算出する。
2次元評価値空間での映像Aへの加算ノイズANAの方向と大きさを、係数αを用いてANA=αNBとする。ここで係数αは、次の関係が成り立つように算出される。
Figure 0006082304
2次元評価値空間での映像Bへの加算ノイズANBの方向と大きさを、係数βを用いてANB=βNAとする。ここで係数βは、次の関係が成り立つように算出される。
Figure 0006082304
尚、T3は所定のノイズ評価値を示す定数である。T3が大きすぎると映像Aと映像Bのノイズ感が一致するものの映像がノイジーとなり、一方でT3が小さすぎるとノイズ感が一致しなくなる。このバランスを取り、定数T3は適切に定められる。そのために例えば、加算ノイズ適用後の映像A、Bのサンプルを比較し、T3を実験的に決定しておくことができる。あるいは、例えば、映像A,Bに対して加算ノイズ適用後のノイズ評価値ベクトルで定まる余弦eがT1となるように決定する方法も考えられる。すなわち、(EsA+αEsB)*(EtA+αEtB) = (EsB+βEsA)*(EtB+βEtA) = T3かつe=((EsA+αEsB)*(EsB+βEsA)+(EtA+αEtB)*(EtB+βEtA))/(√((EsA+αEsB)2+(EtA+αEtB)2)*√((EsB+βEsA)2+(EtB+βEtA)2)) = T1となるよう、加算ノイズ特性を決定する。この場合には定数T3の値は特に定めなくとも係数αおよびβを決定することができる。条件Aなどと同様、出力する加算ノイズ特性は、係数α,βのみであってもよい。
映像Aへの加算ノイズ特性は、係数αを用いて自己相関関数が√α・axB(x)、√α・ayB (y)、α・atB (t)となるように設定する。また映像Bへの加算ノイズ特性は、係数βを用いて自己相関関数が√β・axA(x)、√β・ayA (y)、β・atA (t)となるように設定する。
この条件におけるノイズ評価値関係の一例を、2次元評価値空間で図9(d)に示す。この図から明らかなように本条件では、ノイズ加算後に映像Aと映像Bのノイズ評価値が同じになる様に、映像Aと映像Bの双方にノイズを加算している。
これまでの説明から明らかなように、条件Aから条件Dまでの何れに於いても、加算ノイズでの時間ノイズ評価値と空間ノイズ評価値との比を、映像ノイズでの時間ノイズ評価値と空間ノイズ評価値との比と同一に設定している。このように加算ノイズを設定することで、複数映像でのノイズ感を違和感なく整合させることが出来る。
ここで図7に戻り、ノイズ特性算出部705で算出された加算ノイズ特性は、映像Aへの加算ノイズ特性が端子706から出力され、映像Bへの加算ノイズ特性が端子707から出力される。尚、本実施形態では条件判定のために、2つの映像のノイズ評価値ベクトルで定まる余弦を用いているが、余弦の逆関数を取って角度に変換しても、同様の効果が得られる。
次に、図4に示す加算ノイズ算出部406の詳細な構成を、図10を用いて説明する。端子1001には映像Aへの加算ノイズ特性が入力され、端子1002には映像Bへの加算ノイズ特性が入力される。この端子1001に入力された映像Aへの加算ノイズ特性のうち、空間方向のノイズ自己相関関数が空間フィルタ回路1004に設定され、時間方向のノイズ自己相関関数が時間フィルタ回路1006に設定される。空間及び時間フィルタ回路への設定においては、ノイズ自己相関関数が、そのままフィルタのインパルス応答として設定される。つまり、自己相関関数がa(x)であると、フィルタ係数f(x)はf(x)=a(x)として設定される。たとえば、条件Dでは、空間フィルタ回路1004では、フレームの横方向については(βax(0),βax(1),...,βax(L))なるフィルタが、フレームの縦方向については(βay(0),βay(1),...,βay(M))なるフィルタが用いられる。また時間フィルタ回路1006では、(βat(0),βat(1),...,βat(N))なるフィルタが用いられる。
また、端子1002に入力された映像Bへの加算ノイズ特性のうち、空間方向のノイズ自己相関関数が空間フィルタ回路1005に設定され、時間方向のノイズ自己相関関数が時間フィルタ回路1007に設定される。たとえば、条件Dでは、空間フィルタ回路1005では、フレームの横方向については(αax(0),αax(1),...,αax(L))なるフィルタが、フレームの縦方向については(αay(0),αay(1),...,αay(M))なるフィルタが用いられる。また時間フィルタ回路1007では、(αat(0),αat(1),...,αat(N))なるフィルタが用いられる。
ランダムノイズ映像発生器1003は、時間方向、空間方向とも無相関な所定のパワーを持つランダムノイズ映像を発生する。発生したランダムノイズ映像は2つに分岐され、一方は空間フィルタ回路1004と時間フィルタ回路1006によりフィルタリングされ、端子1008から映像Aに対する加算ノイズ映像データとしてフレームメモリ408へ出力される。また、他方は空間フィルタ回路1005と時間フィルタ回路1007によりフィルタリングされ、端子1009より映像Bに対する加算ノイズ映像データとしてフレームメモリ407へ出力される。このフィルタ回路によりランダムノイズをフィルタリングすることで、加算ノイズの自己相関関数で表された特性を持つノイズを生成することができる。このため生成された加算ノイズ映像データを各映像に合成することで、図9(a)〜図9(d)に示した加算ノイズ合成後のノイズ特性を各映像に与えることができる。
本実施形態によれば、時間/空間のノイズ特性が異なる映像間でノイズ感を、評価値として数値化して整合させることができる。このため映像編集者は、ノイズを調整することなく複数映像のノイズ感を整合させることができ、合成や繋ぎなどの映像編集を施す際に、ノイズ感の相違に起因する違和感を抑制することが可能となる。
[第2の実施形態]
第1の実施形態では、加算するノイズの特性を入力された映像のノイズに基づいて決定していた。しかしながら、このような手法は簡便である一方、加算するノイズ量が大きくなり、結果映像がノイジーとなる場合がある。
そこで、第2の実施形態では、加算するノイズの特性を制御することにより、加算するノイズ量を低減させるものである。以下、第1の実施形態との差分である加算ノイズ特性算出部405について説明する。
本実施形態における加算ノイズ特性算出部405の詳細な構成を、図11を用いて説明する。端子1101には、映像Aに対するノイズ評価値データと空間ノイズ特性及び時間ノイズ特性が入力される。また、端子1102には映像Bに対するノイズ評価値データと空間ノイズ特性及び時間ノイズ特性が入力される。ノイズ評価値算出部1103は、映像Aと映像Bそれぞれに対して、空間ノイズ評価値と時間ノイズ評価値を乗じてノイズ評価値を算出する。
ノイズ類似度算出部1104は、類似度として、距離d、余弦eを算出する。まず2次元評価値空間上での映像Aと映像Bとの違いをベクトルNd=(Esd , Etd)として算出する。
EsA×EtA < EsB×EtB の場合、Nd=NB−NA
EsA×EtA ≧ EsB×EtB の場合、Nd=NA−NB
算出したベクトルNdより、距離dをd=|Nd|と算出する。また余弦eを、
EsA×EtA < EsB×EtB の場合、
Figure 0006082304
EsA×EtA ≧ EsB×EtB の場合、
Figure 0006082304
と算出する。ここで、例えばEsA×EtA < EsB×EtB の場合の2次元評価値空間での関係は、図12に示すようになる。
ここで図11に戻り、ノイズ特性算出部1105は、ノイズ評価値EAとEB並びに余弦eに基づいて場合分けを行う。更に、距離dに応じて映像Aと映像Bへの加算ノイズ特性を空間ノイズ特性と時間ノイズ特性の形式で算出して出力する。
但し、本実施形態でのノイズ特性算出部1105は、第1の実施形態のノイズ特性算出部705と異なり、2次元評価値空間でのノイズ特性の算出のみを行い、相関関数の算出までは行わない。以下、場合分け条件毎に動作を説明する。
条件A)余弦eが所定値未満、且つEsA <EsB、EtA<EtB
この条件では、映像Bへの加算ノイズ特性は"0"に設定し、ノイズの加算を行わないようにする。また、映像Aへの加算ノイズ特性は、2次元評価値空間において加算ノイズ(ANA=NB−NA)とする。この条件におけるノイズ評価値関係の一例を2次元評価値空間で図13(a)に示す。
条件B)余弦eが所定値未満、且つEsA ≧EsB、EtA≧EtB
この条件では、映像Aへの加算ノイズ特性は"0"に設定し、ノイズの加算を行わないようにする。また、映像Bへの加算ノイズ特性は、2次元評価値空間において加算ノイズ(ANB=NA−NB)とする。この条件におけるノイズ評価値関係の一例を2次元評価値空間で図13(b)に示す。
条件C)余弦eが所定値以上
この条件では、映像Aへの加算ノイズ特性と映像Bへの加算ノイズ特性の方向を定め、その次にノイズの大きさを定める。まず、ベクトルNA及びNBが空間ノイズ評価軸となす角fA及びfBを余弦として求める。
Figure 0006082304
続いて加算ノイズANAの方向を余弦gAとして距離dに応じて算出する。また、加算ノイズANBの方向を余弦gBとして距離dに応じ算出する。尚、算出には、距離dを入力とする関数が用いられる。
EsA <EsBの場合には、gAは例えば図14(a)のような関数により算出され、gBは例えば図14(b)のような関数により算出される。この図から明らかなように、加算ノイズANAは、距離dが小さい場合には、映像Bのノイズに近似し、距離dが大きくなるにつれ空間ノイズが支配的となっていく。他方、加算ノイズANBは、距離dが小さい場合には、映像Aのノイズに近似し、距離dが大きくなるにつれ時間ノイズが支配的となっていく。
EsA ≧EsBの場合には、gAは例えば図14(c)のような関数により算出され、gBは例えば図14(d)のような関数により算出される。この図から明らかなように、加算ノイズANAは、距離dが小さい場合には、映像Bのノイズに近似し、距離dが大きくなるにつれ時間ノイズが支配的となっていく。他方、加算ノイズANBは、距離dが小さい場合には、映像Aのノイズに近似し、距離dが大きくなるにつれ空間ノイズが支配的となっていく。なお図14に示した距離と余弦との関係は予め定めておくことができる。
ここで、映像Aに加算ノイズANAを加算した座標と、映像Bに加算ノイズANBを加算した座標が等しくなるように、加算ノイズANAと加算ノイズANBの大きさを補正する。補正後の模式図を図13(c)に示す。尚、映像がノイジーとなるのを防ぐため、算出した座標のノイズ評価値が所定値を超える場合、それぞれの映像のノイズ評価値が所定のノイズ評価値となるように加算ノイズANAと加算ノイズANBの大きさをクリップする。補正後の模式図を図13(d)に示す。
これまでの説明から明らかなように、本実施例は第一実施例と異なり算するノイズ量の低減を狙いとする。このため、加算ノイズでの時間ノイズ評価値と空間ノイズ評価値との比は、映像ノイズでの時間ノイズ評価値と空間ノイズ評価値との比と同一とならない場合がある。
ここで図11に戻り、相関関数読み出し部1106は、ノイズ特性算出部1105で算出した加算ノイズANAと加算ノイズANBの特性に基づいて、最も近い特性となる相関関数を、予め相関関数記憶部1107に用意された相関関数のなかからそれぞれ選択し、相関関数記憶部1107から読み出す。最も近い特性は、ノイズ評価値ベクトルにより比較することが望ましい。なおベクトルの大きさは係数を乗ずることで調整できるので、ノイズ特性の類似はノイズ評価値ベクトルの方向たとえばいずれかの座標軸との角度や余弦の類似で評価できる。したがって相関関数記憶部1107では、たとえば複数の余弦値それぞれに相関関数が関連付けられて記憶されていてもよく、その場合例えば図13(c)の余弦gA及びgBにそれぞれ最も近い余弦値に関連づけられた相関関数が選択される。なおベクトルの大きさが異なる場合には、選択した相関関数値に係数を乗じて調整できる。そして、それら選択された相関関数及び係数を端子1108、1109から出力する。
以上のようにして映像A,Bそれぞれのために得られたフィルタを用いてランダムノイズのフレームをフィルタリングし、得られたノイズ映像を、編集対象の映像A,Bそれぞれに合成する。このようにして合成した2つの映像は、ノイズの視覚特性が近似しており、つなぎ編集や合成をおこなっても、ノイズの見た目による違和感を緩和できる。
さらに本実施形態によれば、時間又は空間のノイズ特性が異なる複数の映像間でノイズ感を整合させる際に、映像のノイズの類似度に応じて加算するノイズの特性を制御することで、加算するノイズ量の低減が可能となる。したがって、複数映像間でノイズ感を整合させた際に、映像がノイジーとなることをできるだけ防ぐことが可能となる。
なお第1及び第2の実施形態において、ノイズ評価値は、空間及び時間の両方について評価したが、いずれか一方を評価するように構成してもよい。
[他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (10)

  1. 数の映像それぞれについてノイズ評価値を算出する評価値算出手段と、
    前記評価値算出手段により算出された前記複数の映像それぞれのノイズ評価値に基づいて、前記複数の映像それぞれに加算するノイズを決定する決定手段であって、前記ノイズの加算により前記複数の映像のノイズ評価値の差が小さくなるように、前記複数の映像それぞれに加算するノイズを決定する前記決定手段と、
    前記複数の映像それぞれのノイズ評価値に基づいて前記決定手段により決定されたノイズを映像に加算するノイズ加算手段と、
    を有することを特徴とする画像処理装置。
  2. 前記評価値算出手段は、前記複数の映像それぞれの空間方向のノイズ評価値を算出する空間ノイズ評価値算出手段と、前記複数の映像それぞれの時間方向のノイズ評価値を算出する時間ノイズ評価値算出手段との少なくとも何れかを有することを特徴とする請求項1に記載の画像処理装置。
  3. 前記複数の映像それぞれのノイズ特性を取得する取得手段をさらに有し、
    前記決定手段は、
    前記複数の映像それぞれのノイズの類似度を算出し、
    前記複数の映像それぞれについて算出された前記ノイズの類似度に従って加算すべきノイズ特性を算出し、
    当該算出した前記ノイズ特性を有するノイズを、前記映像それぞれに加算するノイズとして決定することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記決定手段は、前記加算するノイズに於ける時間方向の評価値である時間ノイズ評価値と、前記加算するノイズに於ける空間方向の評価値である空間ノイズ評価値の比、映像に於ける時間方向のノイズ評価値である時間ノイズ評価値と、映像における空間方向のノイズ評価値である空間ノイズ評価値の比と同一となる様に前記加算するノイズを決定することを特徴とする請求項3に記載の画像処理装置。
  5. 前記ノイズ評価値は、映像の空間方向のノイズ評価値と時間方向のノイズ評価値とを含み、
    前記加算すべきノイズ特性は、前記映像の空間方向のノイズ評価値である空間ノイズ評価値と、前記映像の時間方向のノイズ評価値である時間ノイズ評価値との関係に基づいて算出されることを特徴とする請求項3に記載の画像処理装置。
  6. 前記決定手段が決定するノイズの量は0以上であることを特徴とする請求項1乃至5のうち、何れか1項に記載の画像処理装置。

  7. 数の映像それぞれについてノイズ評価値を算出する評価値算出工程と、
    前記評価値算出工程により算出された複数の映像それぞれのノイズ評価値に基づいて、前記複数の映像それぞれに加算するノイズを決定する決定工程であって、前記ノイズの加算により前記複数の映像のノイズ評価値の差が小さくなるように、前記複数の映像それぞれに加算するノイズを決定する前記決定工程と、
    前記複数の映像それぞれのノイズ評価値に基づいて決定されたノイズを映像に加算するノイズ加算工程と
    を有することを特徴とする画像処理方法。
  8. 前記評価値算出工程は、前記複数の映像それぞれの空間方向のノイズ評価値を算出する空間ノイズ評価値算出工程と、前記複数の映像それぞれの時間方向のノイズ評価値を算出する時間ノイズ評価値算出工程との少なくとも何れかを有することを特徴とする請求項7に記載の画像処理方法。
  9. 前記複数の映像それぞれのノイズ特性を取得する取得工程をさらに有し、
    前記決定工程は、
    前記複数の映像それぞれのノイズの類似度を算出し、
    前記複数の映像それぞれについて算出された前記ノイズの類似度に従って加算すべきノイズ特性を算出し、
    当該算出した前記ノイズ特性を有するノイズを、前記映像それぞれに加算するノイズとして決定することを特徴とする請求項7又は8に記載の画像処理方法。
  10. コンピュータを請求項1乃至の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2013080843A 2012-04-17 2013-04-08 画像処理装置及びその処理方法 Active JP6082304B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013080843A JP6082304B2 (ja) 2012-04-17 2013-04-08 画像処理装置及びその処理方法
US13/861,647 US9143658B2 (en) 2012-04-17 2013-04-12 Image processing apparatus and processing method thereof

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012094177 2012-04-17
JP2012094177 2012-04-17
JP2013080843A JP6082304B2 (ja) 2012-04-17 2013-04-08 画像処理装置及びその処理方法

Publications (3)

Publication Number Publication Date
JP2013240044A JP2013240044A (ja) 2013-11-28
JP2013240044A5 JP2013240044A5 (ja) 2016-06-02
JP6082304B2 true JP6082304B2 (ja) 2017-02-15

Family

ID=49324750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013080843A Active JP6082304B2 (ja) 2012-04-17 2013-04-08 画像処理装置及びその処理方法

Country Status (2)

Country Link
US (1) US9143658B2 (ja)
JP (1) JP6082304B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5932485B2 (ja) * 2012-05-25 2016-06-08 キヤノン株式会社 ノイズリダクション装置及びノイズリダクション方法
CN105427349B (zh) * 2015-11-18 2018-05-25 国家海洋局第一海洋研究所 遥感图像条带噪声定量评价方法
US10674045B2 (en) * 2017-05-31 2020-06-02 Google Llc Mutual noise estimation for videos

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6330673B1 (en) * 1998-10-14 2001-12-11 Liquid Audio, Inc. Determination of a best offset to detect an embedded pattern
JP2000196905A (ja) * 1998-10-19 2000-07-14 Canon Inc 画像処理装置およびその方法
JP4144960B2 (ja) * 1999-03-18 2008-09-03 三洋電機株式会社 撮像装置及び画像合成装置並びに方法
KR100327385B1 (en) * 2000-07-18 2002-03-13 Lg Electronics Inc Spatio-temporal three-dimensional noise filter
JP4046044B2 (ja) * 2003-08-22 2008-02-13 松下電器産業株式会社 撮像装置
JP4696121B2 (ja) * 2004-10-18 2011-06-08 トムソン ライセンシング フィルム粒子のシミュレーション方法
CN101095356B (zh) * 2004-10-21 2013-06-19 汤姆森许可贸易公司 基于块的胶片颗粒图案的自适应解块技术
CN101057503A (zh) * 2004-11-12 2007-10-17 汤姆森特许公司 用于视频重放系统的正常播放和特技模式播放的胶片颗粒模拟
BRPI0518052B1 (pt) * 2004-11-23 2019-07-16 Thomson Licensing Método e aparelho para simular granulação de filme
EP1681849B1 (en) * 2005-01-18 2011-10-19 LG Electronics, Inc. Apparatus for removing noise from a video signal
US7664337B2 (en) 2005-12-20 2010-02-16 Marvell International Ltd. Film grain generation and addition
JP4245617B2 (ja) * 2006-04-06 2009-03-25 株式会社東芝 特徴量補正装置、特徴量補正方法および特徴量補正プログラム
KR101298642B1 (ko) * 2006-11-21 2013-08-21 삼성전자주식회사 영상 잡음 제거 방법 및 장치
TWI361618B (en) * 2006-12-26 2012-04-01 Realtek Semiconductor Corp Method and device for estimating noise
JP4848965B2 (ja) 2007-01-26 2011-12-28 株式会社ニコン 撮像装置
TW200906170A (en) * 2007-07-18 2009-02-01 Sunplus Technology Co Ltd Image noise estimation system and method
JP5460173B2 (ja) * 2009-08-13 2014-04-02 富士フイルム株式会社 画像処理方法、画像処理装置、画像処理プログラム、撮像装置
GB2483433A (en) * 2010-08-31 2012-03-14 Sony Corp 3D image adjustment based on differences in colour properties between stereo pair
GB2489929A (en) * 2011-04-08 2012-10-17 Sony Corp Generation of a Colour Difference Amount Between Pairs of Images

Also Published As

Publication number Publication date
US9143658B2 (en) 2015-09-22
JP2013240044A (ja) 2013-11-28
US20130271665A1 (en) 2013-10-17

Similar Documents

Publication Publication Date Title
US7511730B2 (en) Image processing apparatus and method and image pickup apparatus
JP5645450B2 (ja) 画像処理装置および方法
US20120274855A1 (en) Image processing apparatus and control method for the same
WO2012015020A1 (en) Method and device for image enhancement
JP2013247525A (ja) ノイズリダクション装置及びノイズリダクション方法
JP6082304B2 (ja) 画像処理装置及びその処理方法
JP6904842B2 (ja) 画像処理装置、画像処理方法
JP6017279B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7328096B2 (ja) 画像処理装置、画像処理方法、およびプログラム
KR101362183B1 (ko) 카메라 자세 기반의 깊이 영상 노이즈 제거 장치 및 방법
TWI559762B (zh) An image processing apparatus, an image processing method, and a recording medium
US7522189B2 (en) Automatic stabilization control apparatus, automatic stabilization control method, and computer readable recording medium having automatic stabilization control program recorded thereon
JP5654860B2 (ja) 画像処理装置及びその制御方法、プログラム
JP4272221B2 (ja) カラー画像動き検出回路、多重カラー画像統合装置およびカラー画像動き検出方法
JP6938282B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6786273B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2015177528A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2007179211A (ja) 画像処理装置、画像処理方法、およびそのプログラム
JP2005182232A (ja) 輝度補正装置および輝度補正方法
JP7005338B2 (ja) 情報処理装置及びその制御方法及びプログラム
JP2009273072A (ja) 高精細画像処理装置、高精細画像処理方法、およびプログラム
JP6854629B2 (ja) 画像処理装置、画像処理方法
JP5810593B2 (ja) 画像処理装置、撮像装置およびプログラム
JP4544064B2 (ja) 撮像装置、撮像方法及びプログラム
JP6202989B2 (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160404

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170120

R151 Written notification of patent or utility model registration

Ref document number: 6082304

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151