JP2006340345A - ビデオから抽出された画像を強調する方法 - Google Patents

ビデオから抽出された画像を強調する方法 Download PDF

Info

Publication number
JP2006340345A
JP2006340345A JP2006137366A JP2006137366A JP2006340345A JP 2006340345 A JP2006340345 A JP 2006340345A JP 2006137366 A JP2006137366 A JP 2006137366A JP 2006137366 A JP2006137366 A JP 2006137366A JP 2006340345 A JP2006340345 A JP 2006340345A
Authority
JP
Japan
Prior art keywords
frame
image
extracted
video
transform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006137366A
Other languages
English (en)
Inventor
Owens James
ジェームス・オーエンス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of JP2006340345A publication Critical patent/JP2006340345A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)

Abstract

【課題】 非可逆圧縮方法によって導入されたアーティファクトによる画質の大幅な低減を防ぐ。
【解決手段】 本発明にかかる方法は、圧縮ビデオシーケンス(36)から抽出された静止デジタル画像(38)を強調する方法であって、圧縮ビデオ画像シーケンス(36)は、少なくとも1つのIフレームおよび少なくとも1つのPフレームを含み、ビデオのIフレームまたはPフレームが抽出されたかどうかを判断することと、Pフレームが抽出された場合に、前のIフレームの量子化行列を求めること(39)と、抽出されたビデオフレームを復元することと、抽出されたフレームの現在のIフレームがIフレームである場合には、量子化行列に基づいて画像(38)を強調し(40)、Pフレームが抽出された場合には、前のIフレームの量子化行列に基づいて画像(38)を強調すること(40)とを含む。
【選択図】図3

Description

本発明は、ビデオから抽出された画像を強調する方法に関する。
デジタルビデオは、要約すると、複数のデジタル画像またはビデオフレームを含む。
デジタルビデオによって生成された大量のデータのために、圧縮が行われることが多い。
MPEGビデオ圧縮は普及した技法である。
MPEGでは、各ビデオシーケンスは、1つまたは2つ以上の画像グループ(GOP(group of pictures))に分割される。
さらに、各GOPは、Iフレーム、Pフレーム、およびBフレームという3つの異なるタイプの1つまたは2つ以上のフレームから成る。
Iフレーム(イントラ符号化フレーム(intra-coded frame))は、独立に、すなわち、他のフレームを参照することなく、符号化されるかまたはそれ以外の方法で圧縮される。
Pフレームは、現在のフレームと時間的に先行するIフレームまたはPフレームとの差分を符号化することによって圧縮される。
Bフレームは、本明細書で説明する方法にもデバイスにも関係しない。
一般に、MPEG等の非可逆ビデオ圧縮方法は、個々のビデオフレームにアーティファクトを導入する。
いくつかの用途では、ビデオシーケンスから単一のフレームを抽出し、その品質を高め、そして、この単一のフレームを独立した画像として保存することが望ましい場合がある。
しかしながら、これらの非可逆圧縮方法によって導入されたアーティファクトは、画質を大幅に低減する可能性がある。
本発明にかかる方法は、上記背景からなされ、圧縮ビデオシーケンス(36)から抽出された静止デジタル画像(38)を強調する方法であって、前記圧縮ビデオ画像シーケンス(36)は、少なくとも1つのIフレームおよび少なくとも1つのPフレームを含み、ビデオのIフレームまたはPフレームが抽出されたかどうかを判断することと、Pフレームが抽出された場合に、前のIフレームの量子化行列を求めること(39)と、前記抽出されたビデオフレームを復元することと、前記抽出されたフレームの現在のIフレームがIフレームである場合には、前記量子化行列に基づいて前記画像(38)を強調し(40)、Pフレームが抽出された場合には、前記前のIフレームの前記量子化行列に基づいて前記画像(38)を強調すること(40)とを含む。
以下の説明では、同じ参照番号は、同じ要素を識別するのに使用される。
さらに、図面は、例示の実施の形態の主要な特徴を図的な方法で示すことを目的とする。
図面は、実際の実施の形態のあらゆる特徴を示すことを目的としているとは限らず、図示した要素の相対的な寸法を示すことを目的としておらず、一律の縮尺で描かれているものではない。
I.デジタルビデオ
デジタルビデオは、要約すると、複数のデジタル画像またはビデオフレームを含む。
デジタルビデオによって生成された大量のデータのために、圧縮が行われることが多い。
MPEGビデオ圧縮は普及した技法である。
MPEGでは、各ビデオシーケンスは、1つまたは2つ以上の画像グループ(GOP)に分割される。
さらに、各GOPは、Iフレーム、Pフレーム、およびBフレームという3つの異なるタイプの1つまたは2つ以上のフレームから成る。
Iフレーム(イントラ符号化フレーム)は、独立に、すなわち、他のフレームを参照することなく、符号化されるかまたはそれ以外の方法で圧縮される。
Pフレームは、現在のフレームと時間的に先行するIフレームまたはPフレームとの差分を符号化することによって圧縮される。
Bフレームは、本明細書で説明する方法にもデバイスにも関係しない。
離散コサイン変換(DCT)が使用されて、IフレームおよびPフレームの双方が符号化される。
DCTは、データブロックを空間周波数の加重和に分解する方法である。
DCTに続いて、量子化が使用されて、DCT係数が圧縮され、また、ビットレートが制御される。
MPEGでは、ビットレートは、線形スケール係数(linear scale factor)をデフォルトの量子化行列に適用することによって制御することができる。
DCT係数は、非ゼロの正の整数によって当該DCT係数を除算し、その商を四捨五入して最も近い整数にすることによって量子化される。
この非ゼロの正の整数は、量子化値と呼ばれる。
Iフレームの場合、高い空間周波数の係数をより低い精度で表すことが望ましい。
これは、表1の量子化行列によって示す量子化値等、より大きな量子化値を使用することによって達成することができる。
Figure 2006340345
表1:デフォルトのMPEGのIフレームの8×8量子化行列Qi[I,j]
Pフレームの場合、量子化プロセスは、現在のフレームと前に送信されたフレームとの差分に対して操作を行う。
この差分信号は、通例、大部分は無相関化され、したがって、大部分は均一な周波数成分を含む。
したがって、フラットな量子化行列が使用されて、この差分信号は圧縮される。
Pフレームを圧縮するのに使用される量子化行列の一例を表2に提供する。
Figure 2006340345
表2:デフォルトのMPEGのPフレームの8×8量子化行列Qp[I,j]
一般に、MPEG等の非可逆ビデオ圧縮方法は、個々のビデオフレームにアーティファクトを導入する。
いくつかの用途では、ビデオシーケンスから単一のフレームを抽出し、その品質を高め、そして、この単一のフレームを独立した画像として保存することが望ましい場合がある。
ビデオから静止画像を抽出することに関連したアーティファクトを低減する方法およびデバイスを本明細書で説明する。
II.ビデオフレームの圧縮
図1は、ビデオフレーム等の原画像10を処理して、圧縮画像12を生成する従来技術の方法を示している。
この図示した方法によれば、フォワード変換14が原画像10に適用されて、一組のフォワード変換係数16が生成される。
フォワード変換14は、選択された領域の一組の係数に原画像10を変換するように動作可能な変換であればどのタイプのものでもよい。
量子化器18が、フォワード変換係数16に個別に適用されて、一組の量子化フォワード係数20が生成される。
量子化器18は、フォワード変換係数の情報の一部を廃棄し、それによって、原画像10の圧縮が可能になる。
符号化器22は、任意のタイプの非可逆符号化技法を使用して量子化フォワード変換係数を符号化し、圧縮画像12を生成する。
原画像10は、2値画像(たとえば、黒および白のドットパターン)であってもよいし、多値単色画像(たとえば、グレーレベル画像)であってもよいし、多値多色画像であってもよい。
一般に、図1の画像圧縮プロセスは、ビデオシーケンスの各原ビデオフレームの各色平面に個別に適用される。
図2は、原画像10を圧縮する、従来技術のブロック変換ベースの画像方法を示している。
この方法によれば、原画像10が、事前に選択された色空間でまだ指定されていない場合、原画像10は、最初に、事前に選択されたルミナンスに基づく色空間(たとえば、YCrCb色空間)に変換される(ブロック24)。
事前に選択された色空間における画像の各色平面は、次のように個別に処理される各画像(すなわち、ピクセル値の配列)に対応する。
色成分(たとえば、Cr色成分およびCb色成分)は、ダウンサンプリングされる(ブロック26)。
各色平面は、ピクセルブロック(たとえば、8×8ピクセルブロック)に分割される(ブロック28)。
各ピクセルブロックには、ブロック変換が個別に適用される(ブロック30)。
これらのブロックには、任意の種類のブロック変換を適用することができる。
例示のタイプのブロック変換には、コサイン変換、フーリエ変換、アダマール変換、およびウェーブレット変換が含まれる。
その結果生成された変換係数は量子化される(ブロック32)。
量子化変換係数は、非可逆符号化技法を使用して符号化され、圧縮画像12が生成される(ブロック34)。
III.抽出用のフレームの選択
上述したように、圧縮デジタルビデオは、通常、IフレームおよびPフレームを含む。
Iフレーム(イントラ符号化フレーム)は独立に符号化される。
これは、Iフレームが他のフレームを参照せずに符号化されることを意味する。
MPEGにおけるIフレーム圧縮は、上述したようなJPEG圧縮と非常に類似している。
他方、Pフレームは、現在のフレームと時間的に先行するIフレームまたはPフレームとの差分を符号化することによって圧縮される。
ビデオ圧縮の実施態様は、通常、1つのIフレームごとに数個のPフレームを符号化する。
たとえば、特定のGOPにおいて、単一のIフレームの後に、10個のPフレームが続く場合がある。
このGOPのIフレームに関連した量子化表は、IフレームおよびPフレームの双方のアーティファクトを低減するための情報を提供する。
上述したように、Iフレーム量子化行列は、圧縮量を決定し、その結果、Iフレームの各DCT係数に導入された歪みの量を決定する。
フレームの品質は各GOP内では比較的均一であるので、GOPのIフレームの量子化行列は、GOPの復元されたすべてのフレームについての近似量子化行列として使用される(すなわち、GOPのすべてのフレームがIフレームであったと仮定する)。
Iフレームの量子化行列を使用することによって、量子化行列の入力を必要とするJPEG強調技法を使用して、抽出されたビデオフレームを強調することが可能になる。
同様に上述したように、Pフレームを作成するのに使用される差分信号の符号化に使用される量子化行列はフラットであり、したがって、フレーム品質を示す良好なものを提供しない。
したがって、Iフレーム量子化行列が使用される。
上述したIフレームおよびPフレームを使用してビデオフレームを強調するための方法の一実施の形態を図3のフロー図に示す。
ブロック35では、未圧縮のビデオ、すなわち原ビデオが圧縮される。
本明細書で説明する実施の形態では、ビデオは、MPEGビデオ圧縮を使用して圧縮される。
圧縮ビデオ36は、Iフレーム、Pフレーム、およびBフレームを含む。
ブロック37では、圧縮ビデオが、伸張、すなわち復元される。
これは、ユーザがブロック38に示すように抽出用または強調用のビデオフレームを選択する際に行われる場合がある。
ブロック39では、前のIフレームの量子化行列、すなわちQ行列が求められる。
上述したように、選択されたフレームがIフレームである場合、Iフレームの量子化行列が求められる。
前のIフレームまたは現在のIフレームの量子化行列を使用したビデオフレームの強調は、ブロック40に示すように行われる。
図4および次の説明は、この強調をより詳細に説明する。
IV.圧縮画像のアーティファクトの低減
以下に説明する実施の形態は、圧縮画像を作成するのに使用されるプロセスによって本来的に導入されるアーティファクトを低減するように構成される。
多くの場合、これらの実施の形態は、画像の特徴をぼかすこと等により画質を劣化させることなく、画像圧縮アーティファクトを低減する。
以下で詳細に説明するように、これらの実施の形態のいくつかの実施態様は、ブロック離散コサイン変換(DCT)画像圧縮技法等のブロック変換ベースの画像圧縮技法によって導入されるリンギング(ringing)圧縮アーティファクトおよびブロッキング(blocking)圧縮アーティファクトを十分に低減するのに特によく適している。
図4は、図2のブロック変換ベースの画像圧縮方法によって生成された圧縮画像12を処理して、圧縮アーティファクトが低減された出力画像40を生成する方法の一実施態様を示している。
圧縮画像は、PフレームまたはIフレームのいずれであってもよい。
この方法では、圧縮画像12の各平面が個別に処理される。
圧縮画像データは、最初に、伸張される(ブロック42)。
空間シフトされたフォワード変換(spatially-shifted forward transform)が、ビデオフレームの伸張画像データ62(ブロック44)から計算される。
このプロセスでは、フォワード変換オペレーションが、伸張画像データ62のシフトされた複数のバージョンのそれぞれに適用されて、複数の各組のフォワード変換係数46が生成される。
たとえば、画像12がM×N個のピクセルのブロックに基づいて圧縮される実施態様では、フォワード変換オペレーションは、M×N変換において可能なM×N個の独立したシフトからのK個のシフトを含むサブセットにおける伸張画像データ62に適用されて、K個の組のフォワード変換係数が生成される。
ここで、K、M、およびNは、少なくとも1の整数値を有する。
一例示の実施態様では、MおよびNは、共に8の値を有する。
各組のフォワード変換係数46は、非線形変換される(ブロック48)。
逆変換オペレーション(ブロック50)が、非線形変換されたフォワード変換係数の組に適用されて、各中間画像が生成される。
以下で詳細に説明したように、これらの中間画像は結合されて、各色平面64の圧縮アーティファクトが低減される(ブロック52)。
色成分画像平面(たとえば、CrおよびCb)は、元の解像度にアップサンプリングされて、その結果生成された画像平面は、原画像10の色空間(たとえば、赤・緑・青の色空間)に変換されて戻される(ブロック54)。
画像平面は結合されて、出力画像40が生成される。
図5は、図4の方法によって生成された圧縮画像データ62を処理して、圧縮アーティファクトが低減された出力画像40を生成するシステム60の一実施態様を示している。
処理システム60は、フォワード変換モジュール66、非線形ノイズ除去(denoiser)モジュール68、逆変換モジュール70、および出力画像ジェネレータモジュール72を含む。
一般に、システム60のモジュール66〜72は、どの特定のハードウェア構成にもどの特定のソフトウェア構成にも限定されず、デジタル電子回路機構またはコンピュータハードウェア、ファームウェア、デバイスドライバ、若しくはソフトウェアを含めて、任意の計算環境または処理環境で実施することができる。
たとえば、いくつかの実施態様では、これらのモジュール66〜72は、デジタルカメラ、プリンタ、およびポータブル電子デバイス(たとえば、移動電話および携帯情報端末)を含めて、多種多様な電子デバイスのいずれか1つのハードウェアで実施することができる。
これに加えて、図示した実施の形態では、フルの(または完全な)入力画像が処理されるが、他の実施態様は、入力画像の一連のサブ画像部分(たとえば、スワス)を順次処理するように構成することができる。
フォワード変換モジュール66は、復号された画像データ62からK組(C、C、…、C)のシフトされたフォワード変換係数を計算する。
これらK組のシフトされた変換係数は、圧縮画像12を基準にしたブロッキンググリッド(blocking grid)のK個の一意の位置に対応する。
非線形ノイズ除去モジュール68は、フォワード変換モジュール66によって計算された複数の組(C、C、…、C)のシフトされたフォワード変換係数を非線形変換する。
図6を参照して、いくつかの実施態様では、複数の組のフォワード変換係数は、各非線形しきい値変換(T、T、…、T)に従って変換される。
詳細には、各しきい値(qij、ここで、i、jは量子化要素のインデックスを指し、iは0からM−1の範囲の値を有し、jは0からN−1の範囲の値を有する)よりも小さな絶対値を有する各係数を0に設定し、各しきい値(qij)以上の絶対値を有する各係数を変更しないことにより、フォワード変換係数は非線形変換される。
量子化行列76(すなわち、「Q行列」)は、非線形しきい値変換(T、T、…、T)のパラメータqijを設定するのに使用される。
この実施態様では、量子化行列は、Pフレームが選択された状況において、GOPのIフレームまたは前のIフレームの画像12を圧縮するのに当初使用されたものと同じ量子化パラメータqijを含む。
これらの量子化パラメータは、JPEGやMPEG等の標準的な画像圧縮方式およびビデオ圧縮方式に従って圧縮画像12に記憶することができる。
いくつかの実施の形態では、非線形ノイズ除去モジュール68は、非線形度(nonlinearity)Tを変更することによってシャープネス強調を組み込む。
詳細には、非線形ノイズ除去モジュール68は、非線形変換パラメータ値qijに利得係数gijを乗算する。
利得係数を設定する方法には多くの方法がある。
一実施態様では、利得係数は方程式(1)によって与えられる。
ij=1.0+s×(i+j)/14 (1)
ここで、iおよびjは、各量子化器係数を選択するインデックスである。
8×8ブロッキンググリッド用に指定された実施態様では、iおよびjの値は、範囲[0〜7]にあり、0は最も低い空間周波数を表し、7は最も高い空間周波数を表す。
シャープネス係数sの値は、シャープ化の量を決定する。
s=0のとき、シャープ化は適用されない。
0.5と1.5との間のsの値は、出力画像ジェネレータ方法によって引き起こされるおそれのあるわずかなぼけを補償する十分なシャープネス範囲を提供する。
s=0.5の方程式(1)から計算された例示の利得係数を含む行列を以下の表3に提供する。
Figure 2006340345
表3:s=0.5の利得係数gij
逆変換モジュール70は、複数の組の非線形変換されたフォワード変換係数から複数の組(C'、C'、…、C')の逆変換を計算する。
逆変換モジュール70は、フォワード変換モジュール66によって適用されるフォワード変換オペレーションの逆のものを適用する。
逆変換モジュール70の出力は、空間領域の画像データを表す中間画像(I、I、…、I)である。
出力画像ジェネレータモジュール72は、中間画像(I、I、…、I)を結合して、最終出力画像40の画像平面64を形成する。
図7は、ベース画像ジェネレータ80およびリンギング補正画像ジェネレータ82を含む出力画像ジェネレータモジュール72の一実施の形態を示している。
ベース画像ジェネレータ80は、中間画像(I、I、…、I)を結合したものから、元の未圧縮画像の見積もりに対応するベース画像84を計算する。
図示した実施の形態では、ベース画像ジェネレータ80は、中間画像(I、I、…、I)の対応したピクセルの平均値に対応するピクセル値を有するベース画像(IAVE)を計算する。
リンギング補正画像ジェネレータ82は、中間画像(I、I、…、I)に基づいてリンギング補正画像(IRC)を計算する。
いくつかの実施態様では、リンギング補正画像ジェネレータ82は、中間画像(I、I、…、I)のピクセルについて計算された局所的な空間強度変動の測度に少なくとも部分的に基づいて、リンギング補正画像86(IRC)を計算する。
たとえば、最小分散デリンギング(minimum variance de-ringing)の実施態様では、リンギング補正画像86の所与のピクセルの値は、リンギング補正画像86のピクセルに対応するすべての中間画像ピクセルの空間強度変動の計算された最小の測度を有する、対応する中間画像ピクセルの値に設定される。
加重分散デリンギング(weighted variance de-ringing)手法では、リンギング補正画像86の各ピクセル値には、リンギング補正画像86の所与のピクセルに対応するすべての中間画像ピクセルの局所的な空間強度変動の測度の最小の百分率(たとえば、30%の百分率)における複数の対応した中間画像の平均値に対応する値が割り当てられる。
加重分散デリンギング手法は、リンギング圧縮アーティファクトを低減すると同時に、最小分散デリンギング手法によって導入されることがあるノイズを回避することが確認されている。
図8を参照して、いくつかの実施の形態では、空間強度変動は、空間分散(σ 、σ 、…、σ )によって測定される。
この空間分散は、リンギング補正画像86の所与のピクセルIRC(x,y)に対応する中間画像(I(x,y)、I(x,y)、…、I(x,y))のピクセルについて計算される。
空間分散の測度は、各ウィンドウ90、92、94、96によって画定された各中間画像領域に基づいて計算される。
図示した実施の形態では、ウィンドウ90〜96は、幅が3ピクセルで高さが3ピクセルの寸法を有する。
一例示の実施態様では、所与の中間画像ピクセルI(x,y)の空間分散は、方程式(2)によって与えられる。
Figure 2006340345
ここで、<V>は、所与のピクセル(すなわち、
Figure 2006340345
)の近傍の平均ピクセル値であり、Kは、リンギング補正画像86の所与のピクセルの近傍のピクセルの個数(たとえば、9個)である。
別の例示の実施態様では、値Vを有する所与の中間画像ピクセルI(x,y)の空間強度変動Λ は、方程式(3)によって与えられる。
Figure 2006340345
図示した実施の形態では、計算された最小の分散(σMIN )を有する中間画像ピクセルの値(たとえば、IMIN(x,y))は、リンギング補正画像86の対応するピクセル(IRC(x,y))に割り当てられる。
ベース画像84は、ブロッキングアーティファクト等の圧縮アーティファクトの出現を大幅に低減することを特徴とするが、場合によっては、ベース画像84は、まだ、未解決のリンギングアーティファクトを含むことが確認されている。
また、リンギング補正画像86(IRC)は、ベース画像84に比べてリンギング圧縮アーティファクトを大幅に低減することを特徴とするが、通常なら、一般に、ベース画像84よりもぼやけることも確認されている。
これらの確認事項に基づいて、出力画像ジェネレータモジュール72は、結果の出力画像40の圧縮アーティファクトの出現を大幅に低減する方法で、ベース画像84およびリンギング補正画像86を結合するように構成される。
図7の実施の形態では、出力画像ジェネレータモジュール72は、加重和ジェネレータ98を含む。
この加重和ジェネレータ98は、方程式(4)に従って、ベース画像84(IAVE(x,y))およびリンギング補正画像86(IRC(x,y))の対応するピクセルの加重和を計算し、出力画像40のピクセルの値を生成する。
OUT(x,y)=α(x,y)IRC(x,y)+(1−α(x,y))IAVE(x,y) (4)
ここで、αは、範囲[0,1]の値を有する。
重みジェネレータモジュール100は、出力画像40の各ピクセルのα(x,y)の値を計算する。
一般に、シャープな遷移から十分に離れたピクセルについては、予想されたリンギングが最小である場合に、重みジェネレータモジュール100は
Figure 2006340345
を設定する。
シャープな遷移上のピクセルについては、重みジェネレータモジュール100は、遷移をぼやかさないために、この場合も
Figure 2006340345
を設定する。
シャープな遷移上ではないが、十分に近い(たとえば、隣接した)ピクセルについては、重みジェネレータモジュール100は、
Figure 2006340345
を設定して、潜在的なリンギングを低減する。
いくつかの実施の形態では、重みジェネレータモジュール100は、所与のピクセルを包含する空間ウィンドウの局所的領域と、その局所的領域を取り囲む空間ウィンドウのより大きな領域との間の相対的なコントラスト測度に基づいて、その所与のピクセルのα(x,y)を計算する。
いくつかの実施態様では、画像のコントラストは、空間ウィンドウにおいて、最大のピクセル値と最小のピクセル値との差であるピクセルレンジから計算される。
図9に示すように、これらの実施態様では、ピクセルレンジは、2つの異なるサイズのウィンドウ102、104について計算される。
第1のウィンドウ102のサイズは、エッジの近くの局所コントラストを正確に見積もるために小さくなっている(たとえば、3ピクセル×3ピクセル)。
いくつかの実施態様では、第2のウィンドウ104のサイズ(たとえば、15ピクセル×15ピクセル)は、所与のピクセルにおけるシフトされたブロック変換(shifted block transform)のすべてをカバーする。
ピクセルレンジの計算の結果、局所コントラスト測度lcおよびブロックのコントラスト測度bcが得られる。
重みジェネレータモジュール100は、局所コントラスト測度とブロックのコントラスト測度との差分(Δ)(すなわち、Δ(x,y)=bc(x,y)−lc(x,y))を関数α(Δ)に入力する。
関数α(Δ)は、参照表として記憶することができ、範囲[0,1]におけるα(Δ)の値を生成する。
3つの異なる重み関数106、108、110を図10に示す。
これらの関数は、方程式(5)によって与えられる一般的な関数に対応する。
Figure 2006340345
ここで、aおよびTは、可変パラメータである。
主観的評価および客観的PSNR(ピーク信号対雑音比)値を使用してテスト画像でトレーニングされた、α(Δ)の最終参照表を以下の表4に提供する。
この表は、「読み出し順序」(すなわち、左から右へ、上から下へ)で提示されている。
Figure 2006340345
表4:重み参照
他の実施の形態は、特許請求の範囲の範囲内にある。
たとえば、上記圧縮アーティファクト低減の実施の形態は、ブロック変換ベースの画像圧縮方法によって圧縮された画像12に関して説明されているが、これらの実施の形態は、ブロック変換ベースでない他の画像圧縮技法によって圧縮された画像のアーティファクトを低減するのに容易に使用することができる。
原ビデオフレームを圧縮するためのシステムのブロック図である。 原ビデオフレームを圧縮するためのブロック変換ベースの方法のフロー図である。 ビデオフレームを強調するのに使用される方法の一実施態様を示すフロー図である。 圧縮画像を処理して、低減された圧縮アーティファクトを特徴とする出力画像を生成する方法の一実施態様のフロー図である。 図4の方法の出力画像ジェネレータステップを実施するための画像処理システムの一実施態様のブロック図である。 入力された変換係数値の関数としてプロットされた図5の非線形ノイズ除去モジュールの一実施態様のしきい値出力のグラフである。 図5の出力画像ジェネレータモジュールの一実施態様のブロック図である。 一組の中間画像およびその一組の中間画像から生成されたリンギング補正画像の描画図である。 ブロックのコントラスト測度および局所コントラスト測度をベース画像のピクセル値から計算するのに使用される一対の同心ウィンドウのブロック図である。 ベース画像のピクセルについて計算された、ブロックのコントラスト測度と局所コントラスト測度とのコントラストの差分の関数としてプロットされた重み値のグラフを示す図である。
符号の説明
64・・・出力画像平面,
66・・・フォワード変換モジュール,
68・・・非線形ノイズ除去モジュール,
70・・・逆変換モジュール,
72・・・出力画像ジェネレータモジュール,
76・・・Q行列,
80・・・ベース画像ジェネレータ,
82・・・リンギング補正画像ジェネレータ,
98・・・加重和ジェネレータ,
100・・・重みジェネレータ,

Claims (10)

  1. 圧縮ビデオシーケンス(36)から抽出された静止デジタル画像(38)を強調する方法であって、前記圧縮ビデオ画像シーケンス(36)は、少なくとも1つのIフレームおよび少なくとも1つのPフレームを含み、
    ビデオのIフレームまたはPフレームが抽出されたかどうかを判断することと、
    Pフレームが抽出された場合に、前のIフレームの量子化行列を求めること(39)と、
    前記抽出されたビデオフレームを復元することと、
    前記抽出されたフレームの現在のIフレームがIフレームである場合には、前記量子化行列に基づいて前記画像(38)を強調し(40)、Pフレームが抽出された場合には、前記前のIフレームの前記量子化行列に基づいて前記画像(38)を強調すること(40)と
    を含む方法。
  2. 前記強調すること(40)は、
    前記復元されたビデオフレームに関する空間シフトされたフォワード変換を計算し(44)、各組のフォワード変換係数を生成することと、
    各組の前記フォワード変換係数に、非線形変換を適用すること(48)と、
    前記組の非線形変換されたフォワード変換係数の逆変換を計算し(50)、各中間画像(64)を生成すること(50)と、
    前記中間画像(64)に少なくとも部分的に基づいて、ピクセル値を有する出力画像(40)を計算することと
    をさらに含む請求項1に記載の方法。
  3. 前記計算された空間シフトされたフォワード変換は、ブロック変換である
    請求項2に記載の方法。
  4. 前記ブロック変換は、2次元ブロック離散コサイン変換である
    請求項3に記載の方法。
  5. 前記フォワード変換係数は、第1の値よりも小さな絶対値を有する各係数を0に設定し、少なくとも第2の値に等しい絶対値を有する各係数を変更しないことによって、非線形変換される
    請求項2に記載の方法。
  6. 低い空間周波数のフォワード変換係数よりも、高い空間周波数のフォワード変換係数の方が、大きな各係数分、非線形変換パラメータを増加させることによって、前記フォワード変換係数をシャープ化すること
    をさらに含む請求項5に記載の方法。
  7. 前記出力画像(40)を計算することは、
    中間画像を結合したものからベース画像を計算すること
    を含む
    請求項2に記載の方法。
  8. 前記ベース画像は、
    前記中間画像における対応するピクセルの値の各平均値に対応するピクセル値
    を有する
    請求項7に記載の方法。
  9. 前記出力画像(40)を計算することは、
    局所的な空間強度変動の計算された測度に少なくとも部分的に基づいて、リンギング補正画像を計算すること
    をさらに含む
    請求項7に記載の方法。
  10. 前記リンギング補正画像における各ピクセルは、前記中間画像のそれぞれにおける対応するピクセルに関連付けられる
    請求項9に記載の方法。
JP2006137366A 2005-05-31 2006-05-17 ビデオから抽出された画像を強調する方法 Withdrawn JP2006340345A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US11/142,084 US7760805B2 (en) 2005-05-31 2005-05-31 Method of enhancing images extracted from video

Publications (1)

Publication Number Publication Date
JP2006340345A true JP2006340345A (ja) 2006-12-14

Family

ID=37463345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006137366A Withdrawn JP2006340345A (ja) 2005-05-31 2006-05-17 ビデオから抽出された画像を強調する方法

Country Status (2)

Country Link
US (1) US7760805B2 (ja)
JP (1) JP2006340345A (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007074687A1 (ja) * 2005-12-27 2007-07-05 Nittoh Kogaku K.K 画像処理装置
US8548049B2 (en) * 2007-07-02 2013-10-01 Vixs Systems, Inc Pattern detection module, video encoding system and method for use therewith
EP2229782A2 (en) * 2008-01-14 2010-09-22 Thomson Licensing Methods and apparatus for de-artifact filtering using multi-lattice sparsity-based filtering
WO2009091387A1 (en) * 2008-01-17 2009-07-23 Thomson Licensing Reduced video flicker
US8208745B2 (en) * 2008-01-31 2012-06-26 Analog Devices, Inc. Spatial domain video enhancement/scaling system and method
WO2011068429A1 (en) * 2009-12-01 2011-06-09 Intel Corporation Detecting artifacts in quantization noise in images compresses using discrete cosine transforms
JP2014510294A (ja) * 2010-12-21 2014-04-24 シンディアント, インコーポレイテッド 記憶容量低減器を有する空間光変調器
US9118872B1 (en) * 2014-07-25 2015-08-25 Raytheon Company Methods and apparatuses for image enhancement
US9699453B1 (en) 2014-07-25 2017-07-04 Raytheon Company Methods and apparatuses for video enhancement and video object tracking
CN113767626B (zh) * 2020-04-01 2024-03-26 华为技术有限公司 视频增强的方法及装置
CN113115075B (zh) * 2021-03-23 2023-05-26 广州虎牙科技有限公司 一种视频画质增强的方法、装置、设备以及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5987179A (en) * 1997-09-05 1999-11-16 Eastman Kodak Company Method and apparatus for encoding high-fidelity still images in MPEG bitstreams
US7359439B1 (en) * 1998-10-08 2008-04-15 Pixel Tools Corporation Encoding a still image into compressed video
WO2002102050A2 (en) * 2001-06-12 2002-12-19 Digital Interactive Streams, Inc. System and method for enhancing digital video
US6862372B2 (en) 2001-12-27 2005-03-01 Koninklijke Philips Electronics N.V. System for and method of sharpness enhancement using coding information and local spatial features
US7643688B2 (en) 2003-10-10 2010-01-05 Hewlett-Packard Development Company, L.P. Reducing artifacts in compressed images
US7388999B2 (en) 2003-10-29 2008-06-17 Hewlett-Packard Development Company, L.P. Transformations for denoising images

Also Published As

Publication number Publication date
US20060268981A1 (en) 2006-11-30
US7760805B2 (en) 2010-07-20

Similar Documents

Publication Publication Date Title
JP4468367B2 (ja) 圧縮画像のアーティファクトの低減
JP2006340345A (ja) ビデオから抽出された画像を強調する方法
US10455210B2 (en) Method, medium, and apparatus encoding and/or decoding an image using the same coding mode across components
JP4987480B2 (ja) 画像のノイズを除去するための変換
US7995849B2 (en) Method and apparatus for improving video quality of low bit-rate video
US7778476B2 (en) System and method for transform coding randomization
JP2007116728A (ja) 圧縮された画像の画質の向上
WO2012099691A2 (en) Systems and methods for wavelet and channel-based high definition video encoding
WO2007108642A1 (en) Image encoding/decoding method and apparatus
EP2317769A1 (en) Luminance dependent quantization
JP4641784B2 (ja) 階調変換処理装置、階調変換処理方法、画像表示装置、テレビジョン、携帯情報端末、カメラ、集積回路および画像処理プログラム
US20180359486A1 (en) Non-local adaptive loop filter processing
WO2006036796A1 (en) Processing video frames
JP2004528791A (ja) インターフレーム符号化方法および装置
US6665447B1 (en) Method for enhancing image data by sharpening
Yuan et al. Block-based learned image coding with convolutional autoencoder and intra-prediction aided entropy coding
US20200186810A1 (en) System and method for optimized video encoding
Shao et al. Quality adaptive least squares trained filters for video compression artifacts removal using a no-reference block visibility metric
JP4784386B2 (ja) 復号化装置、逆量子化方法及びプログラム
WO2021206699A1 (en) Bicriteria block splitting heuristic for lossy compression
Shao Simultaneous coding artifact reduction and sharpness enhancement for block-based compressed images and videos
Zhang et al. Textural and Directional Information Based Offset In-Loop Filtering in AVS3
JP2006509401A (ja) ブロッキングアーチファクトを測定する方法
EP1182885A2 (en) Method and apparatus for image quality enhancement
JP3034887B2 (ja) 画像処理方法及び装置

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090804