JP2013526138A - 時間ノイズフィルタリングにおけるゴーストアーチファクト低減 - Google Patents

時間ノイズフィルタリングにおけるゴーストアーチファクト低減 Download PDF

Info

Publication number
JP2013526138A
JP2013526138A JP2013503809A JP2013503809A JP2013526138A JP 2013526138 A JP2013526138 A JP 2013526138A JP 2013503809 A JP2013503809 A JP 2013503809A JP 2013503809 A JP2013503809 A JP 2013503809A JP 2013526138 A JP2013526138 A JP 2013526138A
Authority
JP
Japan
Prior art keywords
frame
pixel value
motion
value
filtered output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013503809A
Other languages
English (en)
Other versions
JP5826249B2 (ja
JP2013526138A5 (ja
Inventor
ホン ウェイ
シンハ ハーミート
Original Assignee
日本テキサス・インスツルメンツ株式会社
テキサス インスツルメンツ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本テキサス・インスツルメンツ株式会社, テキサス インスツルメンツ インコーポレイテッド filed Critical 日本テキサス・インスツルメンツ株式会社
Publication of JP2013526138A publication Critical patent/JP2013526138A/ja
Publication of JP2013526138A5 publication Critical patent/JP2013526138A5/ja
Application granted granted Critical
Publication of JP5826249B2 publication Critical patent/JP5826249B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/63Noise processing, e.g. detecting, correcting, reducing or removing noise applied to dark current

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Image Processing (AREA)

Abstract

ゴーストアーチファクトを低減するためのデジタルビデオシーケンスのノイズフィルタリングの方法が開示される。記載する方法の例が、参照フレームに基づきデジタルビデオシーケンスのフレーム内の画素について動き値を演算すること(302)、動き値に基づきこれらの画素について混合ファクタを演算すること(304)、参照フレーム及びこのフレーム内の対応する画素値に混合ファクタを適用することによりフィルタされた出力画素値を生成すること(306)であって、ゴーストアーチファクトを低減するよう、選択されるフィルタされた出力画素値がこのフレーム内の対応する画素値に向かって(例えば、段階的又は即座に)収束される(308)こと、およびフィルタされたフレームを出力すること(310)を含む。ゴーストアーチファクトを低減するようデジタルビデオシーケンスをフィルタリングするためのノイズフィルタ及びデジタルシステムも開示される。

Description

ビデオノイズフィルタが民生用ビデオ製品にとって重要な差別化要素になってきている。これは、ノイズレベルがビデオの質の主要な因子の1つだからである。撮像センサ(例えば、携帯電話のカメラ、ビデオカメラ)によって取得するか、またはアナログビデオ入力(例えば、テレビのケーブル、DVD/VCR)から受け取るビデオ画像には、かなりの量のランダムノイズが混入していることがよくある。ビデオノイズフィルタは、視覚的な質、符号化効率を改善することができ、強調、オブジェクト追跡、および認識などのさらなる処理や解析を容易にし得る。さらに、ビデオノイズフィルタは、携帯電話のカメラ、ビデオによる監視、およびDVRなど多くの応用例に適用し得る。
多くの応用例では、ビデオノイズフィルタは、空間ノイズフィルタ(SNF)および時間ノイズフィルタ(TNF)をともに含む。一般に、ビデオノイズフィルタリングでは、時間ノイズフィルタリングが空間ノイズフィルタリングよりも効果的である。時間ノイズフィルタリングは、複数のフレームからの情報を利用するからである。通常よく使用されるTNFの1つは、演算の複雑さが極めて小さく、すべての前のフレームからの情報を利用する時間無限インパルス応答(IIR)フィルタである。しかし、ビデオシーケンスに時間IIRノイズフィルタを用いると、ゴーストアーチファクトが生じることがあり、その場合、ビデオシーケンスの動領域で、特にフィルタの強度が強いと、輪郭がスムースに移動しない。輪郭がスムースに移動しないのは、ビデオシーケンスにおいてオブジェクトが動いており、このオブジェクトが動いたときこのオブジェクトの前の位置の輪郭、すなわち縁、が見えたままとなる場合に生じる。例えば、箱が左から右に動いている場合、この動いている箱の左に多くの縦線として、輪郭がスムースに移動しない状態が見えることがある。これらの目に見える輪郭をゴーストアーチファクトと称することがある。動き適応時間IIRノイズフィルタが、ビデオシーケンスの動きの振幅に従ってフィルタ強度を自動的に調整することによってこのゴーストアーチファクトを低減することができる。しかし、このような自動調整によっても、ある種のゴーストアーチファクトは時間とともに消えてはいかない。従って、時間ノイズフィルタリングにおける改善が望まれている。
本発明の原理の例示の実施形態を、添付の図面を参照しながら例として以下に記載する。
本発明の1つまたは複数の実施形態に従ったデジタルシステムのブロック図を示す。
本発明の1つまたは複数の実施形態に従った時間ノイズフィルタを含むノイズフィルタのブロック図を示す。
本発明の1つまたは複数の実施形態に従った動き−混合ファクタ関数を示す。 本発明の1つまたは複数の実施形態に従った動き−混合ファクタ関数を示す。 本発明の1つまたは複数の実施形態に従った動き−混合ファクタ関数を示す。
本発明の1つまたは複数の実施形態に従った方法のフローチャートを示す。 本発明の1つまたは複数の実施形態に従った方法のフローチャートを示す。 本発明の1つまたは複数の実施形態に従った方法のフローチャートを示す。 本発明の1つまたは複数の実施形態に従った方法のフローチャートを示す。
本発明の1つまたは複数の実施形態に従った例示のデジタルシステムを示す。 本発明の1つまたは複数の実施形態に従った例示のデジタルシステムを示す。 本発明の1つまたは複数の実施形態に従った例示のデジタルシステムを示す。
デジタルビデオシーケンスの時間ノイズフィルタリングにおいてゴーストアーチファクトを低減するための方法およびシステムを提供するように実施される本発明の原理を示す例示の実施形態を記載する。より具体的には、本明細書に記載する実施形態によれば、ビデオシーケンスのフレームに動き適応時間無限インパルス応答(IIR)ノイズフィルタを適用することによって生じることがあるゴーストアーチファクトが低減される。例えば、動き適応時間IIRフィルタでは、出力フレーム[Y(x,y,n),U(x,y,n),V(x,y,n)]は、入力フレーム[Y(x,y,n),U(x,y,n),V(x,y,n)]とそのフィルタの前の出力フレーム、すなわち、参照フレーム[Y(x,y,n−1),U(x,y,n−1),V(x,y,n−1)]との重み平均である。
(x,y,n)=a(x,y,n)Y(x,y,n)+(1−a(x,y,n))Y(x,y,n−1);
(x,y,n)=a(x,y,n)U(x,y,n)+(1−a(x,y,n))U(x,y,n−1);
(x,y,n) =a(x,y,n)V(x,y,n)+(1−a(x,y,n))V(x,y,n−1)
ここで、xおよびyは空間座標であり、nは時間座標、すなわちフレームインデックス、であり、Y、U、Vはビデオシーケンスの3つの色チャネルであり、a(x,y,n)は動き値m(x,y,n)によって制御される混合ファクタである。
ある画素についての動き値m(x,y,z)は、3つのすべての色チャネルについての現在の入力フレームと参照フレームの間の距離L1、すなわち絶対差の和である。
m(x,y,n)=|Y(x,y,n)−Y(x,y,n−1)|+|U(x,y,n)−U(x,y,n−1)|+|V(x,y,n)−V(x,y,n−1)|
動き値が小さく、画素がこの位置に良好に整合されることを示している場合、強い時間フィルタが適用される。動き値が大きく、画素がこの位置に良好に整合されないことを示している場合、弱い時間フィルタが適用される。そのため、各画素毎のx,yでの混合ファクタaは、その画素位置における動きmの関数である。
m(x,y,n)<Tの場合、a(x,y,n)=a+(1−a)m(x,y,n)/T
m(x,y,n)が他の値の場合、a(x,y,n)=1
ここで、Tおよびaは時間フィルタの入力パラメータである。これらのパラメータはこれ以降でより詳細に説明する。Tの値が大きいと、ゴーストアーチファクトを生じさせることがある。
理想的には、出力画素値[Y(x,y,n), U(x,y,n), V(x,y,n)]は、常に現在の入力値[Y(x,y,n), U(x,y,n), V(x,y,n)]に近づいている。しかし、通常の固定点実装形態では、入力および出力画素値は整数である。このような場合、次のような数値上の問題が生じ得る。ここではYチャネルを考える。画素値がすべて整数である場合、出力フレームのYチャネルは、重み付け平均を丸めた値である。
(x,y,n)=round(a(x,y,n)Y(x,y,n)+(1−a(x,y,n))Y(x,y,n−1));
=round(Y(x,y,n−1)+a(x,y,n)(Y(x,y,n)−Y(x,y,n−1)));
=Y(x,y,n−1)+round(a(x,y,n)(Y(x,y,n)−Y(x,y,n−1)))
|Y(x,y,n)−Y(x,y,n−1)|が小さく、a(x,y,n)も小さい場合、|a(x,y,n)(Y(x,y,n)−Y(x,y,n−1))|は1/2よりも小さくなり得る。このような場合、出力画素値Y(x,y,n)は、前の出力画素値Y(x,y,n−1)に等しい。これらの画素位置にゴーストアーチファクトが生じた場合、これらのアーチファクトは、この条件が継続して満たされる限りそのままになる。視覚的には、ビデオシーケンスの動領域で輪郭がスムースに移動しない状態が観察され得る。UおよびVチャネルにも同じ結論が適用される。
本発明の1つまたは複数の実施形態では、この条件が補償されるように、選択された混合ファクタを改変し、それによってゴーストアーチファクトの発生を低減する。本発明のいくつかの実施形態では、重み付け平均を行った後でこの条件が補償されるように後処理を実施し、それによってゴーストアーチファクトの発生を低減する。
図1は、本発明の1つまたは複数の実施形態に従ったデジタルシステムのブロック図を示す。このデジタルシステムは、デジタルビデオシーケンスに対して時間ノイズフィルタリングを実施するように構成される。このシステムは、通信チャネル118を介して送信先デジタルシステム102に符号化されたビデオシーケンスを送信するソースデジタルシステム100を含む。ソースデジタルシステム100は、ビデオ取得構成要素104、ビデオノイズフィルタ構成要素106、ビデオエンコーダ構成要素108、およびトランスミッタ構成要素110を含む。ビデオ取得構成要素104は、ビデオエンコーダ構成要素108による符号化の前にビデオノイズフィルタ構成要素106によってフィルタされるべきビデオシーケンスを提供するように構成される。ビデオ取得構成要素104は、例えば、撮像センサ、ビデオカメラ、ビデオアーカイブ、またはビデオコンテンツプロバイダからのビデオフィードとし得る。本発明のいくつかの実施形態では、ビデオ取得構成要素104は、ビデオシーケンスとしてのコンピュータグラフィックスや、ライブビデオとコンピュータ生成ビデオの組み合せを生成し得る。
ビデオノイズフィルタ構成要素106は、ビデオ取得構成要素からビデオシーケンスを受け取り、ビデオシーケンスのフレームに対して本明細書に記載するようなゴーストアーチファクトを低減する時間ノイズフィルタリングの方法の実施形態を含むノイズフィルタリングを実施して、ノイズがフィルタされたビデオシーケンスを生成する。本発明のいくつかの実施形態では、ビデオノイズフィルタ構成要素106は、以下で図2Aを参照して記載するような機能性/構成要素を含み得る。
ビデオエンコーダ構成要素108は、ビデオノイズフィルタ構成要素106からノイズがフィルタされたビデオシーケンスを受け取り、それをトランスミッタ構成要素110による送信のため符号化する。一般に、ビデオエンコーダ構成要素108は、ビデオ取得構成要素104からビデオノイズフィルタ構成要素106を介してノイズがフィルタされたビデオシーケンスを一連のフレームとして受け取り、フレーム全体またはフレームの一部であり得る符号化単位にフレームを分割し、これらの符号化単位を画素ブロックに分割し、これらのブロックに基づいて符号化単位でビデオデータを符号化する。
トランスミッタ構成要素110は、符号化されたビデオデータを通信チャネル118を介して送信先デジタルシステム102に送信する。通信チャネル118は、例えば、有線またはワイヤレス通信媒体、ローカルエリアネットワーク、またはワイドエリアネットワークなど、符号化されたビデオシーケンスの送信に適切な任意の通信媒体または通信媒体の組み合せとし得る。
送信先デジタルシステム102は、レシーバ構成要素112、ビデオデコーダ構成要素114、およびディスプレイ構成要素116を含む。レシーバ構成要素112は、ソースデジタルシステム100から通信チャネル118を介して符号化されたビデオデータを受け取り、符号化されたビデオデータを復号化のためビデオデコーダ構成要素114に提供する。一般に、ビデオデコーダ構成要素114は、ビデオエンコーダ構成要素108によって行われる符号化プロセスの逆を行って、ビデオシーケンスのフレームを再構築する。次いで、再構築されたビデオシーケンスは、ディスプレイ構成要素116に表示され得る。ディスプレイ構成要素116は、例えば、プラズマディスプレイ、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイなどの任意の適切なディスプレイデバイスとし得る。
本発明のいくつかの実施形態では、ビデオストリーミング、ビデオ放送、およびビデオ電話通信のためのビデオシーケンスの双方向送信のため、ソースデジタルシステム100は、レシーバ構成要素およびビデオデコーダ構成要素も含んでよく、かつ/または送信先デジタルシステム102は、トランスミッタ構成要素およびビデオエンコーダ構成要素を含んでもよい。また、ビデオエンコーダ構成要素108およびビデオデコーダ構成要素114は、例えば、MPEG−1、MPEG−2、およびMPEG−4などのMPEG(Moving Picture Experts Group)ビデオ圧縮規格、H.263およびH.264などのITU−Tビデオ圧縮規格、米国映画テレビ技術者協会(SMPTE)の421 Mビデオコーデック規格(通称「VC−1」)、中国視聴覚符号化規格ワークグループ(Audio Video Coding Standard Workgroup of China、通称「AVS」)によって定義されたビデオ圧縮規格など、1つまたは複数のビデオ圧縮規格に従って符号化および復号化を実施し得る。ビデオノイズフィルタ構成要素106、ビデオエンコーダ構成要素108、およびビデオデコーダ構成要素114は、例えば、1つまたは複数のデジタル信号プロセッサ(DSP)、マイクロプロセッサ、ディスクリートロジック、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)など、ソフトウェア、ファームウェア、およびハードウェアの任意の適切な組み合せで実装し得る。
図2Aは、本発明の1つまたは複数の実施形態に従ったノイズフィルタ200、例えば図1のビデオノイズフィルタ構成要素106、のブロック図を示す。ノイズフィルタ200は、ビデオシーケンスのフレームに対し空間フィルタリングおよび時間フィルタリングの両方を実施するように構成される。入力フレームおよびフィルタされた出力フレーム内の画素値は整数値である。時間フィルタリングは、本明細書に記載するようなゴーストアーチファクト低減を実施することを含む、動き適応時間IIRフィルタによって提供される。また、時間フィルタリングは、空間フィルタリングが実施された後で適用される。図2Aに示すように、ノイズフィルタ200は、ノイズレベル推定構成要素202、IIRフィルタ構成要素220、空間フィルタ構成要素204、および時間フィルタリングのための構成要素、すなわち、動き検出構成要素206、動き−混合ファクタ変換構成要素218、フレーム混合構成要素222、およびフレームバッファ208、を含む。
また、T、β、T、およびaは、ノイズフィルタ200の入力パラメータである。Tは、空間ノイズフィルタの強度を制御する空間フィルタ構成要素204のパラメータである。Tの値が大きいとより滑らかな結果が得られ、この値が小さいとより細かな部分が維持される。βは、フレームからフレームへノイズレベルが変化する速さを制御するIIRフィルタ220のパラメータである。Tおよびaは、時間フィルタリングのための入力パラメータである。Tの値は動き閾値であり、時間ノイズフィルタの強度を制御するために用いる。フレーム内の平坦領域、すなわちテクスチャがない領域、はTの値が大きくなるにつれより滑らかに見えるが、Tの値が増加すると、動領域でより強いゴーストアーチファクトが生じることがある。aの値も時間ノイズフィルタの強度の制御に用いられる。この値は0〜1の間の値を取り得、aが0に近づくとフィルタの強度が大きくなり、aが1に近づくとフィルタの強度が弱くなる。
ノイズレベル推定構成要素202は、入力フレームにおけるノイズのレベルを推定する。このノイズ推定は、各色チャネル、すなわち、入力フレームのY、U、V、毎に実施されるが、ブロック毎またはライン毎に入力フレームに対し実施されてもよい。ノイズレベル推定は、任意の適切なノイズ推定技術を用いて実施し得る。米国特許出願公開番号2009/0153739に、いくつかの適切な技術が記載されている。
IIRフィルタ構成要素220は、ノイズレベル推定構成要素202の出力にローパスIIRフィルタを適用して、フィルタされたノイズレベルを生成することによってノイズレベルの変化スピードを制御する。このローパスIIRフィルタは、各色チャネルのノイズレベルに適用される。次いで、フィルタされたノイズレベルは、入力として動き−混合ファクタ変換構成要素218に提供される。さらに、フィルタされたノイズレベルは、Tを用いてスケーリングされて、空間フィルタ構成要素204のための入力強度パラメータが生成される。
空間フィルタ構成要素204は、各色チャネル、すなわち、入力フレーム210のY、U、Vに対して空間フィルタリングを実施して、空間フィルタされたフレーム214を生成する。また、空間フィルタリングは、ブロック毎またはライン毎に適用してもよい。空間フィルタされたフレームは、入力として動き検出構成要素206およびフレーム混合構成要素222に提供される。空間フィルタリングは、任意の適切な空間フィルタリング技術に従って実施し得る。米国特許出願公開番号2009/0153739に、1つの適切な空間フィルタリング技術が記載されている。
フレームバッファ208は、ノイズフィルタ200の前の出力フレームをストアする。これらの出力フレームは、動き検出構成要素206およびフレーム混合構成要素222によって参照フレームとして用いられる。
動き検出構成要素206は、フレームバッファ208からの参照フレームと空間フィルタされたフレーム214との間の動きを演算する。各画素の動き値m(x,y,n)が、3つの色チャネルに基づいて、これら2つのフレーム内の対応する画素間の絶対差の和として演算される。
m(x,y,n)=|Y(x,y,n)−Y(x,y,n−1)|+|U(x,y,n)−U(x,y,n−1)|+|V(x,y,n)−V(x,y,n−1)|
ここで、[Y(x,y,n−1), U(x,y,n−1), V(x,y,n−1)]は参照フレームであり、[Y(x,y,n), U(x,y,n), V(x,y,n)]は空間フィルタされたフレーム(214)である。
動き−混合ファクタ変換構成要素218は、ノイズレベル推定構成要素202からのフィルタされたノイズ推定値および動き検出構成要素206からの動き値を用いて、各画素毎に混合ファクタa(x,y,n)を演算する。より具体的には、ある画素についての混合ファクタは、a、T、およびその画素についての動き値の関数として演算される。先に説明したように、aは、フィルタの強度を制御する時間ノイズフィルタへの入力パラメータである。動きが小さい場合、このパラメータの値を0に近く設定してフィルタの強度を増加させ、動きが大きい場合、このパラメータの値を1に近く設定してフィルタの強度を減少させる。本発明のいくつかの実施形態では、このパラメータの値はユーザによって設定される。本発明のいくつかの実施形態では、このパラメータの値は、ノイズレベル推定構成要素202により3つの色チャネルについて演算されるノイズレベルによって決定される。米国特許出願公開番号2009/0153739に、推定されたノイズレベルに基づいてこのパラメータの値を設定することが記載されている。本発明の様々な実施形態での混合ファクタa(x,y,n)の演算を以下でより詳細に記載する。
フレーム混合構成要素222は、動き−混合ファクタ変換構成要素218によって演算される混合ファクタa(x,y,n)、フレームバッファ208からの参照フレーム、および空間フィルタされたフレーム214を用いてフィルタされた出力フレーム212を生成する。より具体的には、3つの色チャネルにおける出力フレーム[Y(x,y,n), U(x,y,n), V(x,y,n)]212の画素値は、参照フレーム[Y(x,y,n−1), U(x,y,n−1), V(x,y,n−1)]および空間フィルタされたフレーム[Y(x,y,n), U(x,y,n), V(x,y,n)]内の画素の重み付け平均として演算される。
(x,y,n)=round(a(x,y,n)Y(x,y,n)+(1−a(x,y,n))Y(x,y,n−1));
(x,y,n)=round(a(x,y,n)U(x,y,n)+(1−a(x,y,n))U(x,y,n−1));
(x,y,n)=round(a(x,y,n)V(x,y,n)+(1−a(x,y,n))V(x,y,n−1))
本発明の1つまたは複数の実施形態では、動き−混合ファクタ変換構成要素218は、下記のように画素毎に混合ファクタを演算する。
m(x,y,n)<Tの場合、a(x,y,n)=a+(1−a)m(x,y,n)/T
m(x,y,n)が他の値の場合、a(x,y,n)=1
図2Bに示すように、位置x,yにおける画素についての混合ファクタaは、その画素位置での動きmの関数である。この動き−混合ファクタ関数a(m)は、各フレーム毎に更新されるルックアップテーブルとして実装され得、そのため、各画素毎の付加的な演算を必要としない。あるフレームについてのルックアップテーブルa(m)の生成を説明する疑似コードを表1に示す。この疑似コードでは、MAX_mは最大動き値である。混合ファクタが上記で示したように演算される本発明の実施形態では、フレーム混合構成要素(222)は、フィルタされた出力フレーム(212)に対し後処理を実施してゴーストアーチファクトを低減してもよい。
(表1)
for m=0 to MAX_m
if(m<T
a[m]=a+(1−a)m/T
else
a[m]=1
end if
end for
本発明のいくつかの実施形態において、出力画素値が、対応する前の出力画素値、すなわち対応する参照画素値、に等しい場合、後処理は、出力画素値を入力画素値に向かって1だけ動かすための、3つの色チャネルにおける出力画素値の段階的収束である。段階的収束を説明する疑似コードを表2に示す。
(表2)
if (Y(x,y,n)>Y(x,y,n)) and (Y(x,y,n)=Y(x,y,n−1))
(x,y,n)++;
if (Y(x,y,n)<Y(x,y,n)) and (Y(x,y,n)=Y(x,y,n−1))
(x,y,n)−−;
if (U(x,y,n)>U(x,y,n)) and (U(x,y,n)=U(x,y,n−1))
(x,y,n)++;
if (U(x,y,n)<U(x,y,n)) and (U(x,y,n)=U(x,y,n−1))
(x,y,n)−−;
if (V(x,y,n)>V(x,y,n)) and (V(x,y,n)=V(x,y,n−1))
(x,y,n)++;
if (V(x,y,n)<V(x,y,n)) and (V(x,y,n)=V(x,y,n−1))
(x,y,n)−−
本発明のいくつかの実施形態において、出力画素値が、対応する前の出力画素値、すなわち対応する参照画素値、に等しい場合、後処理は、出力画素値を入力画素値と同じとする、3つの色チャネルにおける出力画素値の即座収束である。この収束を説明する疑似コードを表3に示す。
(表3)
if(Y(x,y,n)=Y(x,y,n−1))
(x,y,n)=Y(x,y,n);
if(U(x,y,n)=U(x,y,n−1))
(x,y,n)=U(x,y,n);
if(V(x,y,n)=V(x,y,n−1))
(x,y,n)=V(x,y,n)
本発明の1つまたは複数の実施形態では、ゴーストアーチファクトを低減するために、動き−混合ファクタ変換構成要素218は図2Bの混合関数の変形を用いて、輪郭がスムースに移動しない状況となり得る出力画素値を生成する可能性を小さくする混合ファクタを演算する。先に述べたように、輪郭がスムースに移動しない問題は、Yチャネルにおいて|a(x,y,n)(Y(x,y,n)−Y(x,y,n−1))|<1/2であるときに生じる。他のチャネルについても同様である。
本発明のいくつかの実施形態では、条件|a(x,y,n)(Y(x,y,n)−Y(x,y,n−1))|<1/2(または他の色チャネルにおける同様の条件)が生じ得るとき、出力画素値を入力画素値に段階的に収束させるように混合ファクタを改変する。この改変の目標は、この条件が生じ得るとき、得られる出力画素値が入力画素値に向かって1だけずれるように、すなわち、round(a(x,y,n)m(x,y,n))=1またはa(x,y,n)m(x,y,n)=1/2になるように、混合ファクタを演算することである。a(x,y,n)=a+(1−a)m(x,y,n)/Tおよび|Y(x,y,n)−Y(x,y,n−1)|≒m(x,y,n)/3なので、上記の条件は下記のように近似し得る。
|a(x,y,n)(Y(x,y,n)−Y(x,y,n−1))|=(a+(1−a)m(x,y,n)/T)m(x,y,n)/3<1/2
段階的収束をもたらす混合ファクタを含むフレームについてのルックアップテーブルa(m)の生成を説明する疑似コードを表4に示す。改変された動き−混合ファクタ関数の例を図2Cに示す。
(表4)
for m=0 to MAX_m
if(m>=T or m=0)
a[m]=1
else if (2(a+(1−a)m/T)m>=3)
a[m]=a+(1−a)m/T
else
a[m]=3/(2×m)
end if
end for
本発明のいくつかの実施形態では、出力画素値の入力画素値への即座収束を生じさせるように混合関数を改変する。この改変の目標は、条件|a(x,y,n)(Y(x,y,n)−Y(x,y,n−1))|<1/2が生じ得るとき、得られる出力画素値が入力画素値と同じになるように混合ファクタを演算することである。即座収束をもたらす混合ファクタを含むフレームについてのルックアップテーブルa(m)の生成を説明する疑似コードを表5に示す。改変された動き−混合ファクタ関数の例を図2Dに示す。
(表5)
for m=0 to MAX_m
if (2(a+(1−a)m/T)m>=3 and (m<T
a[m]=a+(1−a)m/T
else
a[m]=1
end if
end for
ゴーストアーチファクトを低減するための上記種々の手法は同様の結果をもたらす。すなわち、時間ノイズフィルタを適用した後に少量のノイズが残る。段階的収束を用いる2つの手法では、ゴーストはゆっくりと除去されるが、残るノイズの量は少ない。即座収束を用いる2つの手法では、ゴーストは迅速に除去されるが、残るノイズの量は多い。本発明のいくつかの実施形態では、これら4つの手法すべてまたはこれらの何らかの組み合せが、どの手法を適用すべきるかをユーザが選択し得るようにノイズフィルタ200に実装され得る。
図3は、本発明の1つまたは複数の実施形態に従った、時間ノイズフィルタにおいてゴーストアーチファクトを低減するための方法のフローチャートである。図3に示すように、この方法はビデオシーケンスにおけるフレームに適用される。最初に、フレームを受け取る(300)。本発明の1つまたは複数の実施形態では、受け取ったフレームが空間フィルタされたフレームになるように、空間フィルタがビデオシーケンスのオリジナルフレームに適用される。任意の適切な空間フィルタを使用し得る。本発明のいくつかの実施形態では、受け取ったフレームはオリジナルフレームである。
参照フレームに基づいて、このフレーム内の各画素毎に動き値が演算される(302)。本発明の1つまたは複数の実施形態では、参照フレームは、ビデオシーケンスにおける処理中のフレームの直前のフレームに本方法を適用することによって生成される前のフィルタされたフレームである。本発明のいくつかの実施形態では、各画素毎の動き値m(x,y,n)が、3つの色チャネルに基づいて、これら2つのフレーム内の対応する画素間の絶対差の和として演算される。
m(x,y,n)=|Y(x,y,n)−Y(x,y,n−1)|+|U(x,y,n)−U(x,y,n−1)|+|V(x,y,n)−V(x,y,n−1)|
ここで、[Y(x,y,n−1), U(x,y,n−1), V(x,y,n−1)]は参照フレームであり、[Y(x,y,n), U(x,y,n), V(x,y,n)]は現在のフレームである。
次いで、各画素毎に、その画素について演算された動き値に基づいて混合ファクタが演算される(304)。ある画素についての混合ファクタは、a、T、およびその画素についての動き値の関数として演算される。本発明の1つまたは複数の実施形態では、各画素の混合ファクタは、次のように演算される。
m(x,y,n)<Tの場合、a(x,y,n)=a+(1−a)m(x,y,n)/T
m(x,y,n)が他の値の場合、a(x,y,n)=1
本発明のいくつかの実施形態では、混合ファクタの演算は、指標として動き値を用いるルックアップテーブルである。表1は、このようなテーブルの生成を説明する疑似コードを示す。
次いで、フィルタされた画素値が、混合ファクタ、フレーム、および参照フレームを用いて演算される(306)。より具体的には、出力フレーム[Y(x,y,n), U(x,y,n), V(x,y,n)]の画素値が、参照フレーム[Y(x,y,n−1), U(x,y,n−1), V(x,y,n−1)]内の画素および現在のフレーム[Y(x,y,n), U(x,y,n), V(x,y,n)]内の対応する画素の重み付け平均として演算される。
(x,y,n)=round(a(x,y,n)Y(x,y,n)+(1−a(x,y,n))Y(x,y,n−1));
(x,y,n)=round(a(x,y,n)U(x,y,n)+(1−a(x,y,n))U(x,y,n−1));
(x,y,n)=round(a(x,y,n)V(x,y,n)+(1−a(x,y,n))V(x,y,n−1))
次いで、出力フレーム内の選択されたフィルタされた画素値が、ゴーストアーチファクトを低減するように、現在のフレーム内の対応する画素値に向かって段階的に収束される(308)。より具体的には、フィルタされた画素値Y(x,y,n)、U(x,y,n)、V(x,y,n)が、参照フレームY(x,y,n−1)、U(x,y,n−1)、V(x,y,n−1)内の対応する画素値に等しい場合、フィルタされた画素値Y(x,y,n)、U(x,y,n)、V(x,y,n)を適宜1だけインクリメントまたはデクリメントして、フィルタされた画素値Y(x,y,n)、U(x,y,n)、V(x,y,n)を現在のフレームY(x,y,n)、U(x,y,n)、V(x,y,n)の対応する画素値に向かって動かす。表2は、この段階的収束を説明する疑似コードを示す。
次いで、得られたフィルタされたフレームが出力される(310)。ビデオシーケンス内の最後のフレームが処理されると(312)、この方法が終了する。そうでない場合、次のフレームが処理される。
図4は、本発明の1つまたは複数の実施形態に従った、時間ノイズフィルタにおいてゴーストアーチファクトを低減するための方法のフローチャートである。図4に示すように、この方法はビデオシーケンスにおけるフレームに適用される。ステップ400〜406は、図3のステップ300〜306と同じである。出力フレームのフィルタされた画素値が演算されると(400〜406)、出力フレーム内の選択されたフィルタされた画素値が、現在のフレーム内の対応する画素値に即座収束されて、ゴーストアーチファクトが低減される(408)。より具体的には、フィルタされた画素値Y(x,y,n)、U(x,y,n)、V(x,y,n)が、参照フレームY(x,y,n−1)、U(x,y,n−1)、V(x,y,n−1)内の対応する画素値に等しい場合、出力フレームにおいて、フィルタされた画素値Y(x,y,n)、U(x,y,n)、V(x,y,n)が、現在のフレームY(x,y,n)、U(x,y,n)、V(x,y,n)の対応する画素値で置き換えられる。表3は、この即座収束を説明する疑似コードを示す。次いで、得られたフィルタされたフレームが出力される(410)。ビデオシーケンスにおける最後のフレームが処理されると(412)、この方法が終了する。そうでない場合は、次のフレームが処理される。
図5は、本発明の1つまたは複数の実施形態に従った、時間ノイズフィルタにおいてゴーストアーチファクトを低減するための方法のフローチャートである。図5に示すように、この方法はビデオシーケンスにおけるフレームに適用される。ステップ500および502は、図3のステップ300〜302と同じである。動き値が演算されると、選択された混合ファクタa(x,y,n)によりこれらの混合ファクタを用いて演算されるフィルタされる出力画素値が現在のフレーム内の対応する画素値に向かって段階的に収束するように、画素について混合ファクタが演算される(506)。この収束はゴーストアーチファクトを低減する効果を有する。より具体的には、条件|a(x,y,n)(Y(x,y,n)−Y(x,y,n−1))|<1/2、または|a(x,y,n)(U(x,y,n)−U(x,y,n−1))|<1/2、または|a(x,y,n)(V(x,y,n)−V(x,y,n−1))|<1/2が生じ得る場合を除いて、a+(1−a)m(x,y,n)/Tとして混合ファクタが演算される。この条件が生じ得る場合、混合ファクタは、m(x,y,n)がT以上またはゼロに等しいときは1として演算され、そうでない場合は、条件が補償されるように3/(2×m(x,y,n))として演算される。条件を補償するように演算される混合ファクタの効果は、得られたフィルタされた出力画素値のほうが、混合ファクタがa+(1−a)m(x,y,n)/Tとして演算される場合よりも、入力画素値に1だけ近づくということである。本発明のいくつかの実施形態では、混合ファクタの演算は、指標として動き値を用いるルックアップテーブルである。このようなテーブルの生成を説明する疑似コードを表4に示す。
次いで、フィルタされた画素値が、混合ファクタ、フレーム、および参照フレームを用いて演算される(506)。フィルタされた画素値は、図3のステップ306を参照して前述のように演算される。次いで、得られたフィルタされたフレームが出力される(508)。ビデオシーケンスにおける最後のフレームが処理されると(510)、この方法が終了する。そうでない場合は、次のフレームが処理される。
図6は、本発明の1つまたは複数の実施形態に従った、時間ノイズフィルタにおいてゴーストアーチファクトを低減するための方法のフローチャートである。図6に示すように、この方法はビデオシーケンスにおけるフレームに適用される。ステップ600および602は、図3のステップ300〜302と同じである。動き値が演算されると、選択された混合ファクタa(x,y,n)によりこの混合ファクタを用いて演算されるフィルタされた出力画素値が現在のフレーム内の対応する画素値に即座収束するように、画素について混合ファクタが演算される(606)。この収束はゴーストアーチファクトを低減する効果を有する。より具体的には、条件|a(x,y,n)(Y(x,y,n)−Y(x,y,n−1))|<1/2、または|a(x,y,n)(U(x,y,n)−U(x,y,n−1))|<1/2、または|a(x,y,n)(V(x,y,n)−V(x,y,n−1))|<1/2が生じ得る場合を除いて、a+(1−a)m(x,y,n)/Tとして混合ファクタが演算される。この条件が生じ得る場合、条件が補償されるように混合ファクタは1として演算される。条件が補償されるように混合ファクタを演算することの効果は、得られたフィルタされた出力画素値が、現在のフレーム内の対応する画素値に等しくなるということである。本発明のいくつかの実施形態では、混合ファクタの演算は、指標として動き値を用いるルックアップテーブルである。表5に、このようなテーブルの生成を説明する疑似コードを示す。
次いで、フィルタされた画素値が、混合ファクタ、フレーム、および参照フレームを用いて演算される(606)。フィルタされた画素値は、図3のステップ306を参照して前述のように演算される。次いで、得られたフィルタされたフレームが出力される(608)。ビデオシーケンスにおける最後のフレームが処理されると(610)、この方法が終了する。そうでない場合は、次のフレームが処理される。
本明細書に記載した方法の実施形態は、デジタル信号プロセッサ(DSP)、汎用プログラマブルプロセッサ、特定用途向け回路、またはDSPと縮小命令セット(RISC)プロセッサを様々な特殊プログラマブルアクセラレータとともに組み合わせたものなどのシステムオンチップ(SoC)など、いくつかの種類のデジタルシステムのいずれにおいても提供し得る。オンボードまたは外部の(フラッシュEEP)ROMまたはFRAM内のストアされたプログラムを用いて、本明細書に記載したゴーストアーチファクトを低減する時間ノイズフィルタリングの方法の実施形態を含むビデオ信号処理を実施し得る。アナログデジタルコンバータおよびデジタルアナログコンバータにより現実の世界と結合され、変調器および復調器(さらにエア・インターフェース用のアンテナ)により送信波形と結合させることができ、パケット化装置によりインターネットなどのネットワークを介する送信用のフォーマットが得られる。
本明細書に記載した方法の実施形態は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの任意の組み合せで実装され得る。少なくとも部分的にソフトウェアで実装する場合、このソフトウェアは、マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、またはデジタル信号プロセッサ(DSP)などの1つまたは複数のプロセッサにおいて実行し得る。本方法を具現化するソフトウェアは、まず、コンピュータ可読媒体(例えば、メモリ、フラッシュメモリ、DVDなど)にストアされ、プロセッサによってロードおよび実行され得る。また、コンピュータ可読媒体には、ネットワーク、またはソフトウェアをダウンロードするための他の通信経路を介してアクセスしてもよい。場合によっては、ソフトウェアは、コンピュータ可読媒体およびこのコンピュータ可読媒体のためのパッケージ材料を含む、コンピュータプログラム製品内に提供することもできる。
本明細書に記載したような、時間ノイズフィルタリングにおいてゴーストアーチファクトを低減するための方法およびシステムの実施形態は、デジタルビデオシーケンスを取得するかまたは別の方法で生成する機能性、またはデジタルビデオシーケンスを表示する機能性を備えた、事実上いかなる種類のデジタルシステム(例えば、デスクトップコンピュータ、ラップトップコンピュータ、携帯電話(すなわちセルホン)などのハンドヘルドデバイス、携帯情報端末、デジタルカメラ、デジタルビデオレコーダなど)に対しても実装され得る。図7〜図9は、例示のデジタルシステムのブロック図である。
図7は、本発明の1つまたは複数の実施形態に従った、組み込みシステム(例えばデジタルカメラ)に適したデジタルシステムを示す。このデジタルシステムは、構成要素の中でも特に、DSPベースの画像コプロセッサ(ICP)702、RISCプロセッサ704、および本明細書に記載した方法の実施形態を実施するように構成し得るビデオ処理エンジン(VPE)706を含む。RISCプロセッサ704は、任意の適切に構成されるRISCプロセッサとし得る。VPE706は、イメージセンサ、ビデオデコーダなどの撮像周辺機器からのビデオ取得用に用いられる入力インターフェースを備えた構成可能なビデオ処理フロントエンド(ビデオFE)708と、SDTVディスプレイ、デジタルLCDパネル、HDTVビデオエンコーダなどのディスプレイデバイスに用いられる出力インターフェースを備えた構成可能なビデオ処理バックエンド(ビデオBE)710と、ビデオFE708およびビデオBE710に共有されるメモリインターフェース724とを含む。このデジタルシステムは更に、マルチメディアカード、オーディオシリアルポート、ユニバーサルシリアルバス(USB)コントローラ、シリアルポートインターフェースなどを含み得る様々な周辺機器用の周辺機器インターフェース712を含む。
ビデオVE708は、画像信号プロセッサ(ISP)716および3A統計生成器(3A)718を含む。ISP716は、イメージセンサおよびデジタルビデオソースにインターフェースを提供する。より具体的には、ISP716は、センサモジュール726(例えばCMOSまたはCCD)から未処理画像/ビデオデータを受け取ることができ、多数のフォーマットでYUVビデオデータを受け取ることもできる。ISP716は更に、未処理CCD/CMOSデータからカラーフォーマット(例えばRGB)の画像データを生成する機能性を備えたパラメータ化画像処理モジュールを含む。ISP716は、センサの種類毎にカスタム化可能であり、取得したデジタル画像のプレビューディスプレイ用およびビデオ記録モード用のビデオフレームレートをサポートする。ISP716は更に、機能性の中でも特に、イメージリサイザ、統計収集機能性、および境界信号計算機を含む。3Aモジュール718は、ISP716または外部メモリからの未処理画像データに関する計量値を収集することによって、オートフォーカス、オートホワイトバランス、および自動露出のための制御ループをサポートする機能性を含む。本発明の1つまたは複数の実施形態では、ビデオFE708は、本明細書に記載するようなゴーストアーチファクトを低減する時間ノイズフィルタリングを実施するように構成される。
ビデオBE710は、オンスクリーンディスプレイエンジン(OSD)720およびビデオアナログエンコーダ(VAC)722を含む。OSDエンジン720は、いくつかの異なる種類のハードウェアディスプレイウィンドウのための様々なフォーマットのディスプレイデータを管理する機能性を含み、ビデオデータおよびディスプレイ/ビットマップデータを収集し、単一のディスプレイウィンドウに合成した後、このデータを色空間フォーマット(例えば、RGB、YUV、YCbCr)でVAC722に提供する。VAC722は、OSDエンジン720からディスプレイフレームを取り込み、それを所望の出力フォーマットにフォーマットし、ディスプレイデバイスにインターフェースするのに必要とされる信号を出力する機能性を含む。VAC722は、コンポジットNTSC/PALビデオデバイス、Sビデオデバイス、デジタルLCDデバイス、高精細ビデオエンコーダ、DVI/HDMIデバイスなどにインターフェースし得る。
メモリインターフェース724は、外部メモリにデータを要求しかつ/または外部メモリからデータを送信している、ビデオFE708およびビデオBE710内のモジュールへのプライマリソースおよびシンクとして機能する。メモリインターフェース724は、読出しおよび書込みバッファおよびアービトレーションロジックを含む。
ICP702は、取得した画像の圧縮および他の処理に必要とされる計算演算を実施する機能性を含む。サポートされるビデオ圧縮規格は、例えば、JPEG規格、MPEG規格、およびH.26x規格の1つまたは複数を含み得る。本発明の1つまたは複数の実施形態では、ICP702は、本明細書に記載したような時間ノイズフィルタリング方法の計算演算を実施するように構成し得る。
動作において、写真またはビデオシーケンスを取得するために、ビデオ信号が、ビデオFE708によって受け取られ、ビデオ圧縮を実施するのに必要とされる入力フォーマットに変換される。圧縮の前に、本明細書に記載したようなゴーストアーチファクトを低減する時間ノイズフィルタリングを、取得したビデオデータの処理の一部として適用し得る。ビデオFE708によって生成されるビデオデータは、外部メモリにストアされる。次いで、このビデオデータは、符号化、すなわち圧縮される。圧縮プロセスの間、ビデオデータが外部メモリから読み込まれ、このビデオデータに対する圧縮演算がICP702によって実施される。得られた圧縮されたビデオデータが外部メモリにストアされる。次いで、圧縮されたビデオデータは、ビデオBE710によって、外部メモリから読み出し、復号、および後処理されて、画像/ビデオシーケンスが表示される。
図8は、本明細書に記載したようなゴーストアーチファクトを低減する時間ノイズフィルタリングを実施するように構成し得るデジタルシステム(例えば、携帯電話)800のブロック図である。信号処理ユニット(SPU)802は、組み込みメモリおよびセキュリティ機能を含むデジタル信号処理システム(DSP)を含む。アナログベースバンドユニット804は、ハンドセットマイクロホン813aから音声データストリームを受け取り、ハンドセットモノラルスピーカ813bに音声データストリームを送る。アナログベースバンドユニット804は更に、マイクロホン814aから音声データストリームを受け取り、モノラルハンドセット814bに音声データストリームを送る。アナログベースバンドユニット804およびSPU802は個別のICとし得る。多くの実施形態では、アナログベースバンドユニット804は、プログラマブルプロセッサコアを組み込まないが、SPU802上で動作するソフトウェアによって設定されるオーディオパス、フィルタ、利得などの構成に基づいて処理を実施する。ディスプレイ820は、ネットワークから、ローカルカメラ828から、またはUSB826やメモリ812などの他のソースから受け取った画像およびビデオストリームも表示し得る。また、SPU802は、RFトランシーバ806またはカメラ828を介するセルラネットワークなどの様々なソースから受け取るビデオストリームをディスプレイ820に送ることもできる。SPU802は、エンコーダ822を介してコンポジット出力端子824で外部ビデオディスプレイユニットにビデオストリームを送ることもできる。エンコーダユニット822は、PAL/SECAM/NTSCビデオ規格に従って符号化を提供し得る。
SPU802は、ビデオ符号化および復号化に必要とされる計算演算を実施する機能性を含む。サポートされるビデオ符号化規格は、例えば、JPEG規格、MPEG規格、およびH.26x規格の1つまたは複数を含み得る。本発明の1つまたは複数の実施形態では、SPU802は、本明細書に記載したようなゴーストアーチファクトを低減する時間ノイズフィルタリングの方法の計算演算を実施するように構成される。本方法を実装するソフトウェア命令が、メモリ812にストアされ得、例えば画像およびビデオストリームなどの、デジタル画像データの取得および/または符号化の一部として、かつ/または受け取ったデジタル画像データを復号化した後でありこのデジタル画像データをディスプレイまたは外部ディスプレイユニットに送る前に、SPU802によって実行され得る。
図9は、プロセッサ902、関連するメモリ904、記憶デバイス906、およびデジタルシステムに典型的な数多くの他の要素および機能性(図示せず)を含むデジタルシステム900(例えば、パーソナルコンピュータ)を示す。本発明の1つまたは複数の実施形態において、デジタルシステムが、複数のプロセッサを含み得、かつ/または、これらのプロセッサの1つまたは複数をデジタル信号プロセッサとし得る。デジタルシステム900は更に、キーボード908およびマウス910(または他のカーソル制御デバイス)などの入力手段、およびモニタ912(または他のディスプレイデバイス)などの出力手段を含み得る。デジタルシステム900は、ネットワークインターフェース接続(図示せず)を介して、ネットワーク(例えば、ローカルエリアネットワーク(LAN)、インターネットなどのワイドエリアネットワーク(WAN)、セルラネットワーク、任意の他の類似の種類のネットワーク、および/またはこれらの任意の組み合せ)に接続し得る。入力および出力手段は他の形態を取り得ることが当業者には理解されよう。
デジタルシステム900は更に、ビデオシーケンスを取得するための回路要素(例えば、光学素子、センサ、読出し電子機器)を含む画像取得デバイス(図示せず)を含み得る。デジタルシステム900は、取得したビデオシーケンスに対して、本明細書に記載したようなゴーストアーチファクトを低減する時間ノイズフィルタリングを実施する機能性を含み得る。デジタルシステム900は更に、符号化されたビデオシーケンスを復号化し、復号化したビデオシーケンスに対して本明細書に記載したようなゴーストアーチファクトを低減する時間的ノイズフィルタリングを実施し、フィルタされ復号化されたシーケンスをモニタ912に表示する機能性も含み得る。符号化されたビデオシーケンスは、ネットワークを介して受け取ることもでき、記憶媒体(例えばDVD)などから読み出すこともできる。
さらに、先に述べたデジタルシステム900の1つまたは複数の要素は、離れた場所に配置することができ、ネットワークを介して他の要素に接続し得ることが当業者には理解されよう。また、本発明の実施形態は、複数のノードを有する分散システムで実施し得る。この場合、このシステムの各部分およびソフトウェア命令が分散システム内の異なるノードに位置していてもよい。本発明の一実施形態では、ノードをデジタルシステムとし得る。あるいは、ノードは、関連する物理メモリを備えたプロセッサとし得る。あるいは、ノードは、共有されるメモリおよび/またはリソースを備えたプロセッサとし得る。
制限された数の例示の実施形態に関して本発明を記載してきたが、この開示を参照すれば、本明細書で開示する本発明の範囲から逸脱しない他の実施形態を考案し得ることが当業者には理解されよう。例えば、図1には、ビデオシーケンスを符号化する前の、本明細書に記載した方法に従ったノイズフィルタリングを示したが、このようなノイズフィルタリングを他の場所で用いる本発明の実施形態が当業者には理解されよう。例えば、本明細書に記載したようなノイズフィルタリングは、符号化したビデオシーケンスを復号化した後、例えば、図1のビデオデコーダ114とディスプレイ116の間、に適用してもよい。別の例として、DVDプレーヤを含むデジタルシステムにおいて、DVDのビデオを復号化した後でありそれをテレビまたはコンピュータスクリーンに表示する前に、本明細書に記載したようなノイズフィルタを適用してもよい。多くの他の実施形態および変形も可能である。

Claims (14)

  1. ゴーストアーチファクトを低減するためのデジタルビデオシーケンスのノイズフィルタリングの方法であって、
    参照フレームに基づいて前記デジタルビデオシーケンスのフレーム内の画素について動き値を演算すること、
    前記動き値に基づいて前記画素について混合ファクタを演算すること、
    前記参照フレームおよび前記フレーム内の対応する画素値に前記混合ファクタを適用することによって、フィルタされた出力画素値を生成することであって、ゴーストアーチファクトを低減するため、選択されるフィルタされた出力画素値が前記フレーム内の対応する画素値に向かって収束されること、および
    前記フィルタされたフレームを出力すること、
    を含む、方法。
  2. 請求項1に記載の方法であって、前記選択されたフィルタされた出力画素値が、前記フレーム内の前記対応する画素値に向かって即座収束される、方法。
  3. 請求項1に記載の方法であって、前記選択されたフィルタされた出力画素値が、前記フレーム内の前記対応する画素値に向かって段階的に収束される、方法。
  4. 請求項1に記載の方法であって、フィルタされた出力画素値を生成することが、あるフィルタされた出力画素値が前記参照フレーム内の対応する画素値に等しいとき、前記フィルタされた出力画素値を前記フレーム内の対応する画素値に近づくように動かすように、前記フィルタされた出力画素値を1だけインクリメントまたはデクリメントすることを含む、方法。
  5. 請求項1に記載の方法であって、フィルタされた出力画素値を生成することが、あるフィルタされた出力画素値が前記参照フレーム内の対応する画素値に等しいとき、前記フィルタされた出力画素値を前記フレーム内の対応する画素値で置き換えることを含む、方法。
  6. 請求項1に記載の方法であって、混合ファクタを演算することが、
    (2(a+(1−a)m(x,y,n)/T)m(x,y,n)>=3)のとき、混合ファクタをa+(1−a)m(x,y,n)/Tとして演算すること、
    m(x,y,n)=Tまたはm(x,y,n)=0のとき、混合ファクタを1として演算すること、および
    その他の場合は混合ファクタを3/(2×m(x,y,n))として演算すること、
    を含み、ここで、nは前記フレームの番号であり、xおよびyは画素座標であり、m(x,y,n)は動き値であり、Tは動き閾値であり、aは強度パラメータである、
    方法。
  7. 請求項1に記載の方法であって、混合ファクタを演算することが、
    (2(a+(1−a)m(x,y,n)/T)m(x,y,n)>=3)およびm(x,y,n)<Tのとき、混合ファクタをa+(1−a)m(x,y,n)/Tとして演算すること、および、
    その他の場合は混合ファクタを1として演算すること、
    を含み、ここで、nは前記フレームの番号であり、xおよびyは画素座標であり、m(x,y,n)は動き値であり、Tは動き閾値であり、aは強度パラメータである、
    方法。
  8. 請求項1に記載の方法であって、前記動き値を演算する前に、前記フレームに空間フィルタを適用することをさらに含む、方法。
  9. ゴーストアーチファクトを低減するためにデジタルビデオシーケンスをフィルタリングするノイズフィルタであって、
    参照フレームとして用いられる前記ノイズフィルタの出力フレームをストアするように構成されるフレームバッファ構成要素、
    前記参照フレームに基づいて前記デジタルビデオシーケンスのフレーム内の画素について動き値を演算するように構成される動き検出構成要素、
    前記動き値に基づいて前記画素について混合ファクタを演算するように構成される動き−混合ファクタ変換構成要素、および
    前記参照フレームおよび前記フレーム内の対応する画素値に前記混合ファクタを適用することによって、フィルタされた出力画素値を生成するように構成されるフレーム混合構成要素であって、ゴーストアーチファクトが低減されるように、選択されるフィルタされた出力画素値が前記フレーム内の対応する画素値に向かって収束される、前記フレーム混合構成要素、
    を含む、ノイズフィルタ。
  10. 請求項9に記載のノイズフィルタであって、前記フレーム混合構成要素が、
    あるフィルタされた出力画素値が前記参照フレーム内の対応する画素値に等しいとき、前記フィルタされた出力画素値を前記フレーム内の対応する画素値に近づくように動かすように、前記フィルタされた出力画素値を1だけインクリメントまたはデクリメントすること、および、
    あるフィルタされた出力画素値が前記参照フレーム内の対応する画素値に等しいとき、前記フィルタされた出力画素値を前記フレーム内の対応する画素値で置き換えること、
    とからなる群から選択される1つを実行するように構成される、
    ノイズフィルタ。
  11. 請求項9に記載のノイズフィルタであって、前記動き−混合ファクタ変換構成要素が、
    (2(a+(1−a)m(x,y,n)/T)m(x,y,n)>=3)のとき、混合ファクタをa+(1−a)m(x,y,n)/Tとして演算し、
    m(x,y,n)=Tまたはm(x,y,n)=0のとき、混合ファクタを1として演算し、
    その他の場合は混合ファクタを3/(2×m(x,y,n))として演算する、
    ように構成され、ここで、nは前記フレームの番号であり、xおよびyは画素座標であり、m(x,y,n)は動き値であり、Tは動き閾値であり、aは強度パラメータである、
    ノイズフィルタ。
  12. 請求項9に記載のノイズフィルタであって、前記動き−混合ファクタ変換構成要素が、
    (2(a+(1−a)m(x,y,n)/T)m(x,y,n)>=3)およびm(x,y,n)<Tのとき、混合ファクタをa+(1−a)m(x,y,n)/Tとして演算し、
    その他の場合は混合ファクタを1として演算する、
    ように構成され、ここで、nは前記フレームの番号であり、xおよびyは画素座標であり、m(x,y,n)は動き値であり、Tは動き閾値であり、aは強度パラメータである、
    ノイズフィルタ。
  13. 請求項9に記載のノイズフィルタであって、前記フレームに空間フィルタを適用するように構成される空間フィルタ構成要素をさらに含む、ノイズフィルタ。
  14. ゴーストアーチファクトを低減するためにデジタルビデオシーケンスをフィルタリングするように構成されるデジタルシステムであって、
    参照フレームとして用いられるフィルタされた出力フレームをストアするための手段、
    前記参照フレームに基づいて前記デジタルビデオシーケンスのフレーム内の画素について動き値を演算するための手段、
    前記動き値に基づいて前記画素についての混合ファクタを演算する手段、および
    前記参照フレームおよび前記フレーム内の対応する画素値に前記混合ファクタを適用することによって、フィルタされた出力画素値を生成する手段であって、ゴーストアーチファクトを低減するように、選択されるフィルタされた出力画素値が前記フレーム内の対応する画素値に向かって収束される、前記手段、
    を含む、デジタルシステム。
JP2013503809A 2010-04-04 2011-04-04 時間ノイズフィルタリングにおけるゴーストアーチファクト低減 Active JP5826249B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/753,897 2010-04-04
US12/753,897 US8564724B2 (en) 2010-04-04 2010-04-04 Ghosting artifact reduction in temporal noise filtering
PCT/US2011/031068 WO2011126968A2 (en) 2010-04-04 2011-04-04 Ghosting artifact reduction in temporal noise filtering

Publications (3)

Publication Number Publication Date
JP2013526138A true JP2013526138A (ja) 2013-06-20
JP2013526138A5 JP2013526138A5 (ja) 2014-05-22
JP5826249B2 JP5826249B2 (ja) 2015-12-02

Family

ID=44709265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013503809A Active JP5826249B2 (ja) 2010-04-04 2011-04-04 時間ノイズフィルタリングにおけるゴーストアーチファクト低減

Country Status (4)

Country Link
US (1) US8564724B2 (ja)
JP (1) JP5826249B2 (ja)
CN (1) CN102948139B (ja)
WO (1) WO2011126968A2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8773593B2 (en) * 2011-01-03 2014-07-08 Arm Limited Noise reduction filter circuitry and method
US8811757B2 (en) 2012-01-05 2014-08-19 Texas Instruments Incorporated Multi-pass video noise filtering
US9489706B2 (en) * 2012-07-02 2016-11-08 Qualcomm Technologies, Inc. Device and algorithm for capturing high dynamic range (HDR) video
US9041834B2 (en) * 2012-09-19 2015-05-26 Ziilabs Inc., Ltd. Systems and methods for reducing noise in video streams
US20140267919A1 (en) * 2013-03-15 2014-09-18 Quanta Computer, Inc. Modifying a digital video signal to mask biological information
US9118932B2 (en) * 2013-06-14 2015-08-25 Nvidia Corporation Adaptive filtering mechanism to remove encoding artifacts in video data
US9449371B1 (en) * 2014-03-06 2016-09-20 Pixelworks, Inc. True motion based temporal-spatial IIR filter for video
US10021396B1 (en) * 2014-12-30 2018-07-10 Ambarella, Inc. Motion detection based on observing several pictures
US9633416B1 (en) * 2015-12-26 2017-04-25 Intel Corporation Adaptive control for denoise filtering
DE112017001477T5 (de) * 2016-03-23 2018-12-06 Koninklijke Philips N.V. Verbesserte bildqualität durch zweistufige temporale rauschunterdrückung
US11176649B1 (en) 2017-06-03 2021-11-16 Interra Systems, Inc. System and method of identifying presence of digital ghosting artifacts in videos
WO2019209194A1 (en) * 2018-04-27 2019-10-31 Aselsan Elektroni̇k Sanayi̇ Ve Ti̇caret Anoni̇m Şi̇rketi̇ A method for confident registration-based non-uniformity correction using spatio-temporal update mask
GB2583519B (en) * 2019-05-02 2021-12-08 Apical Ltd Image processing

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090153739A1 (en) * 2007-12-14 2009-06-18 Texas Instruments Incorporated Method and Apparatus for a Noise Filter for Reducing Noise in a Image or Video

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5983251A (en) * 1993-09-08 1999-11-09 Idt, Inc. Method and apparatus for data analysis
EP0648047B1 (en) * 1993-10-11 2005-08-24 THOMSON multimedia Method and apparatus for forming a video signal using motion estimation and signal paths with different interpolation processing
US6310982B1 (en) * 1998-11-12 2001-10-30 Oec Medical Systems, Inc. Method and apparatus for reducing motion artifacts and noise in video image processing
KR100624421B1 (ko) * 2004-05-04 2006-09-19 삼성전자주식회사 디지탈 영상 신호 필터링 장치 및 방법
ATE530015T1 (de) * 2005-01-18 2011-11-15 Lg Electronics Inc Anordnung zur entfernung von rauschen aus einem videosignal
KR100672328B1 (ko) * 2005-01-18 2007-01-24 엘지전자 주식회사 영상신호의 잡음 크기 추정 장치
TWI324013B (en) * 2006-02-22 2010-04-21 Huper Lab Co Ltd Video noise reduction method using adaptive spatial and motion-compensation temporal filters
CN100559836C (zh) * 2007-09-20 2009-11-11 宝利微电子系统控股公司 一种数字图像降噪方法
US11677938B2 (en) 2008-04-30 2023-06-13 Arris Enterprises Llc Method to reduce contour artifacts on recursive temporal filters
JP4358283B1 (ja) * 2008-08-04 2009-11-04 株式会社東芝 ノイズ低減装置及びノイズ低減方法
US8610826B2 (en) * 2009-08-27 2013-12-17 Broadcom Corporation Method and apparatus for integrated motion compensated noise reduction and frame rate conversion

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090153739A1 (en) * 2007-12-14 2009-06-18 Texas Instruments Incorporated Method and Apparatus for a Noise Filter for Reducing Noise in a Image or Video

Also Published As

Publication number Publication date
JP5826249B2 (ja) 2015-12-02
CN102948139A (zh) 2013-02-27
WO2011126968A3 (en) 2012-01-19
US20110242422A1 (en) 2011-10-06
WO2011126968A2 (en) 2011-10-13
CN102948139B (zh) 2016-01-20
US8564724B2 (en) 2013-10-22

Similar Documents

Publication Publication Date Title
JP5826249B2 (ja) 時間ノイズフィルタリングにおけるゴーストアーチファクト低減
US8811757B2 (en) Multi-pass video noise filtering
US8179446B2 (en) Video stabilization and reduction of rolling shutter distortion
US11228772B2 (en) Rate control in video coding
US8072511B2 (en) Noise reduction processing apparatus, noise reduction processing method, and image sensing apparatus
US9070185B2 (en) Noise filtering method and apparatus considering noise variance and motion detection
US8139081B1 (en) Method for conversion between YUV 4:4:4 and YUV 4:2:0
KR102626115B1 (ko) 시간 잡음 감소를 위한 움직임 적응형 스트림 처리 기법
US10257449B2 (en) Pre-processing for video noise reduction
US20110026596A1 (en) Method and System for Block-Based Motion Estimation for Motion-Compensated Frame Rate Conversion
US20090167952A1 (en) Noise reduction device and noise reduction method
US20110255597A1 (en) Method and System for Reducing Flicker Artifacts
US20070040943A1 (en) Digital noise reduction apparatus and method and video signal processing apparatus
WO2008067319A2 (en) System and method for processing videos and images to a determined quality level
US9161030B1 (en) Graphics overlay system for multiple displays using compressed video
JP2011211707A (ja) ビデオ処理、高速静止画処理、及び高品質静止画処理のためのアーキテクチャ
US20090174812A1 (en) Motion-compressed temporal interpolation
US20130100351A1 (en) Method and apparatus for reduced complexity video processing via special chroma handling
US20080143873A1 (en) Tv user interface and processing for personal video players
US8588474B2 (en) Motion detection in video with large areas of detail
KR20030005219A (ko) 비디오 개선을 위한 코딩 정보에 기초한 유용성 메트릭제공 방법 및 장치
US8698838B1 (en) Architecture for multiple graphics planes
US20100215286A1 (en) Image processing apparatus and image processing method
US8270773B2 (en) Image processing apparatus and image processing method
JP2012004890A (ja) 映像信号出力装置、映像信号出力方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140403

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151013

R150 Certificate of patent or registration of utility model

Ref document number: 5826249

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250