JP2006340345A - ビデオから抽出された画像を強調する方法 - Google Patents
ビデオから抽出された画像を強調する方法 Download PDFInfo
- Publication number
- JP2006340345A JP2006340345A JP2006137366A JP2006137366A JP2006340345A JP 2006340345 A JP2006340345 A JP 2006340345A JP 2006137366 A JP2006137366 A JP 2006137366A JP 2006137366 A JP2006137366 A JP 2006137366A JP 2006340345 A JP2006340345 A JP 2006340345A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- image
- extracted
- video
- transform
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000002708 enhancing effect Effects 0.000 title claims abstract description 9
- 238000013139 quantization Methods 0.000 claims abstract description 35
- 239000011159 matrix material Substances 0.000 claims abstract description 31
- 238000012937 correction Methods 0.000 claims description 16
- 230000009466 transformation Effects 0.000 claims description 7
- 238000007906 compression Methods 0.000 abstract description 34
- 230000006835 compression Effects 0.000 abstract description 33
- 230000002427 irreversible effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000000903 blocking effect Effects 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000008571 general function Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/48—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/21—Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Processing (AREA)
- Picture Signal Circuits (AREA)
Abstract
【課題】 非可逆圧縮方法によって導入されたアーティファクトによる画質の大幅な低減を防ぐ。
【解決手段】 本発明にかかる方法は、圧縮ビデオシーケンス(36)から抽出された静止デジタル画像(38)を強調する方法であって、圧縮ビデオ画像シーケンス(36)は、少なくとも1つのIフレームおよび少なくとも1つのPフレームを含み、ビデオのIフレームまたはPフレームが抽出されたかどうかを判断することと、Pフレームが抽出された場合に、前のIフレームの量子化行列を求めること(39)と、抽出されたビデオフレームを復元することと、抽出されたフレームの現在のIフレームがIフレームである場合には、量子化行列に基づいて画像(38)を強調し(40)、Pフレームが抽出された場合には、前のIフレームの量子化行列に基づいて画像(38)を強調すること(40)とを含む。
【選択図】図3
【解決手段】 本発明にかかる方法は、圧縮ビデオシーケンス(36)から抽出された静止デジタル画像(38)を強調する方法であって、圧縮ビデオ画像シーケンス(36)は、少なくとも1つのIフレームおよび少なくとも1つのPフレームを含み、ビデオのIフレームまたはPフレームが抽出されたかどうかを判断することと、Pフレームが抽出された場合に、前のIフレームの量子化行列を求めること(39)と、抽出されたビデオフレームを復元することと、抽出されたフレームの現在のIフレームがIフレームである場合には、量子化行列に基づいて画像(38)を強調し(40)、Pフレームが抽出された場合には、前のIフレームの量子化行列に基づいて画像(38)を強調すること(40)とを含む。
【選択図】図3
Description
本発明は、ビデオから抽出された画像を強調する方法に関する。
デジタルビデオは、要約すると、複数のデジタル画像またはビデオフレームを含む。
デジタルビデオによって生成された大量のデータのために、圧縮が行われることが多い。
MPEGビデオ圧縮は普及した技法である。
MPEGでは、各ビデオシーケンスは、1つまたは2つ以上の画像グループ(GOP(group of pictures))に分割される。
さらに、各GOPは、Iフレーム、Pフレーム、およびBフレームという3つの異なるタイプの1つまたは2つ以上のフレームから成る。
Iフレーム(イントラ符号化フレーム(intra-coded frame))は、独立に、すなわち、他のフレームを参照することなく、符号化されるかまたはそれ以外の方法で圧縮される。
Pフレームは、現在のフレームと時間的に先行するIフレームまたはPフレームとの差分を符号化することによって圧縮される。
Bフレームは、本明細書で説明する方法にもデバイスにも関係しない。
デジタルビデオによって生成された大量のデータのために、圧縮が行われることが多い。
MPEGビデオ圧縮は普及した技法である。
MPEGでは、各ビデオシーケンスは、1つまたは2つ以上の画像グループ(GOP(group of pictures))に分割される。
さらに、各GOPは、Iフレーム、Pフレーム、およびBフレームという3つの異なるタイプの1つまたは2つ以上のフレームから成る。
Iフレーム(イントラ符号化フレーム(intra-coded frame))は、独立に、すなわち、他のフレームを参照することなく、符号化されるかまたはそれ以外の方法で圧縮される。
Pフレームは、現在のフレームと時間的に先行するIフレームまたはPフレームとの差分を符号化することによって圧縮される。
Bフレームは、本明細書で説明する方法にもデバイスにも関係しない。
一般に、MPEG等の非可逆ビデオ圧縮方法は、個々のビデオフレームにアーティファクトを導入する。
いくつかの用途では、ビデオシーケンスから単一のフレームを抽出し、その品質を高め、そして、この単一のフレームを独立した画像として保存することが望ましい場合がある。
しかしながら、これらの非可逆圧縮方法によって導入されたアーティファクトは、画質を大幅に低減する可能性がある。
いくつかの用途では、ビデオシーケンスから単一のフレームを抽出し、その品質を高め、そして、この単一のフレームを独立した画像として保存することが望ましい場合がある。
しかしながら、これらの非可逆圧縮方法によって導入されたアーティファクトは、画質を大幅に低減する可能性がある。
本発明にかかる方法は、上記背景からなされ、圧縮ビデオシーケンス(36)から抽出された静止デジタル画像(38)を強調する方法であって、前記圧縮ビデオ画像シーケンス(36)は、少なくとも1つのIフレームおよび少なくとも1つのPフレームを含み、ビデオのIフレームまたはPフレームが抽出されたかどうかを判断することと、Pフレームが抽出された場合に、前のIフレームの量子化行列を求めること(39)と、前記抽出されたビデオフレームを復元することと、前記抽出されたフレームの現在のIフレームがIフレームである場合には、前記量子化行列に基づいて前記画像(38)を強調し(40)、Pフレームが抽出された場合には、前記前のIフレームの前記量子化行列に基づいて前記画像(38)を強調すること(40)とを含む。
以下の説明では、同じ参照番号は、同じ要素を識別するのに使用される。
さらに、図面は、例示の実施の形態の主要な特徴を図的な方法で示すことを目的とする。
図面は、実際の実施の形態のあらゆる特徴を示すことを目的としているとは限らず、図示した要素の相対的な寸法を示すことを目的としておらず、一律の縮尺で描かれているものではない。
さらに、図面は、例示の実施の形態の主要な特徴を図的な方法で示すことを目的とする。
図面は、実際の実施の形態のあらゆる特徴を示すことを目的としているとは限らず、図示した要素の相対的な寸法を示すことを目的としておらず、一律の縮尺で描かれているものではない。
I.デジタルビデオ
デジタルビデオは、要約すると、複数のデジタル画像またはビデオフレームを含む。
デジタルビデオによって生成された大量のデータのために、圧縮が行われることが多い。
MPEGビデオ圧縮は普及した技法である。
MPEGでは、各ビデオシーケンスは、1つまたは2つ以上の画像グループ(GOP)に分割される。
さらに、各GOPは、Iフレーム、Pフレーム、およびBフレームという3つの異なるタイプの1つまたは2つ以上のフレームから成る。
Iフレーム(イントラ符号化フレーム)は、独立に、すなわち、他のフレームを参照することなく、符号化されるかまたはそれ以外の方法で圧縮される。
Pフレームは、現在のフレームと時間的に先行するIフレームまたはPフレームとの差分を符号化することによって圧縮される。
Bフレームは、本明細書で説明する方法にもデバイスにも関係しない。
デジタルビデオは、要約すると、複数のデジタル画像またはビデオフレームを含む。
デジタルビデオによって生成された大量のデータのために、圧縮が行われることが多い。
MPEGビデオ圧縮は普及した技法である。
MPEGでは、各ビデオシーケンスは、1つまたは2つ以上の画像グループ(GOP)に分割される。
さらに、各GOPは、Iフレーム、Pフレーム、およびBフレームという3つの異なるタイプの1つまたは2つ以上のフレームから成る。
Iフレーム(イントラ符号化フレーム)は、独立に、すなわち、他のフレームを参照することなく、符号化されるかまたはそれ以外の方法で圧縮される。
Pフレームは、現在のフレームと時間的に先行するIフレームまたはPフレームとの差分を符号化することによって圧縮される。
Bフレームは、本明細書で説明する方法にもデバイスにも関係しない。
離散コサイン変換(DCT)が使用されて、IフレームおよびPフレームの双方が符号化される。
DCTは、データブロックを空間周波数の加重和に分解する方法である。
DCTに続いて、量子化が使用されて、DCT係数が圧縮され、また、ビットレートが制御される。
MPEGでは、ビットレートは、線形スケール係数(linear scale factor)をデフォルトの量子化行列に適用することによって制御することができる。
DCT係数は、非ゼロの正の整数によって当該DCT係数を除算し、その商を四捨五入して最も近い整数にすることによって量子化される。
この非ゼロの正の整数は、量子化値と呼ばれる。
Iフレームの場合、高い空間周波数の係数をより低い精度で表すことが望ましい。
これは、表1の量子化行列によって示す量子化値等、より大きな量子化値を使用することによって達成することができる。
DCTは、データブロックを空間周波数の加重和に分解する方法である。
DCTに続いて、量子化が使用されて、DCT係数が圧縮され、また、ビットレートが制御される。
MPEGでは、ビットレートは、線形スケール係数(linear scale factor)をデフォルトの量子化行列に適用することによって制御することができる。
DCT係数は、非ゼロの正の整数によって当該DCT係数を除算し、その商を四捨五入して最も近い整数にすることによって量子化される。
この非ゼロの正の整数は、量子化値と呼ばれる。
Iフレームの場合、高い空間周波数の係数をより低い精度で表すことが望ましい。
これは、表1の量子化行列によって示す量子化値等、より大きな量子化値を使用することによって達成することができる。
Pフレームの場合、量子化プロセスは、現在のフレームと前に送信されたフレームとの差分に対して操作を行う。
この差分信号は、通例、大部分は無相関化され、したがって、大部分は均一な周波数成分を含む。
したがって、フラットな量子化行列が使用されて、この差分信号は圧縮される。
Pフレームを圧縮するのに使用される量子化行列の一例を表2に提供する。
この差分信号は、通例、大部分は無相関化され、したがって、大部分は均一な周波数成分を含む。
したがって、フラットな量子化行列が使用されて、この差分信号は圧縮される。
Pフレームを圧縮するのに使用される量子化行列の一例を表2に提供する。
一般に、MPEG等の非可逆ビデオ圧縮方法は、個々のビデオフレームにアーティファクトを導入する。
いくつかの用途では、ビデオシーケンスから単一のフレームを抽出し、その品質を高め、そして、この単一のフレームを独立した画像として保存することが望ましい場合がある。
ビデオから静止画像を抽出することに関連したアーティファクトを低減する方法およびデバイスを本明細書で説明する。
いくつかの用途では、ビデオシーケンスから単一のフレームを抽出し、その品質を高め、そして、この単一のフレームを独立した画像として保存することが望ましい場合がある。
ビデオから静止画像を抽出することに関連したアーティファクトを低減する方法およびデバイスを本明細書で説明する。
II.ビデオフレームの圧縮
図1は、ビデオフレーム等の原画像10を処理して、圧縮画像12を生成する従来技術の方法を示している。
この図示した方法によれば、フォワード変換14が原画像10に適用されて、一組のフォワード変換係数16が生成される。
フォワード変換14は、選択された領域の一組の係数に原画像10を変換するように動作可能な変換であればどのタイプのものでもよい。
量子化器18が、フォワード変換係数16に個別に適用されて、一組の量子化フォワード係数20が生成される。
量子化器18は、フォワード変換係数の情報の一部を廃棄し、それによって、原画像10の圧縮が可能になる。
符号化器22は、任意のタイプの非可逆符号化技法を使用して量子化フォワード変換係数を符号化し、圧縮画像12を生成する。
図1は、ビデオフレーム等の原画像10を処理して、圧縮画像12を生成する従来技術の方法を示している。
この図示した方法によれば、フォワード変換14が原画像10に適用されて、一組のフォワード変換係数16が生成される。
フォワード変換14は、選択された領域の一組の係数に原画像10を変換するように動作可能な変換であればどのタイプのものでもよい。
量子化器18が、フォワード変換係数16に個別に適用されて、一組の量子化フォワード係数20が生成される。
量子化器18は、フォワード変換係数の情報の一部を廃棄し、それによって、原画像10の圧縮が可能になる。
符号化器22は、任意のタイプの非可逆符号化技法を使用して量子化フォワード変換係数を符号化し、圧縮画像12を生成する。
原画像10は、2値画像(たとえば、黒および白のドットパターン)であってもよいし、多値単色画像(たとえば、グレーレベル画像)であってもよいし、多値多色画像であってもよい。
一般に、図1の画像圧縮プロセスは、ビデオシーケンスの各原ビデオフレームの各色平面に個別に適用される。
一般に、図1の画像圧縮プロセスは、ビデオシーケンスの各原ビデオフレームの各色平面に個別に適用される。
図2は、原画像10を圧縮する、従来技術のブロック変換ベースの画像方法を示している。
この方法によれば、原画像10が、事前に選択された色空間でまだ指定されていない場合、原画像10は、最初に、事前に選択されたルミナンスに基づく色空間(たとえば、YCrCb色空間)に変換される(ブロック24)。
事前に選択された色空間における画像の各色平面は、次のように個別に処理される各画像(すなわち、ピクセル値の配列)に対応する。
色成分(たとえば、Cr色成分およびCb色成分)は、ダウンサンプリングされる(ブロック26)。
各色平面は、ピクセルブロック(たとえば、8×8ピクセルブロック)に分割される(ブロック28)。
各ピクセルブロックには、ブロック変換が個別に適用される(ブロック30)。
これらのブロックには、任意の種類のブロック変換を適用することができる。
例示のタイプのブロック変換には、コサイン変換、フーリエ変換、アダマール変換、およびウェーブレット変換が含まれる。
その結果生成された変換係数は量子化される(ブロック32)。
量子化変換係数は、非可逆符号化技法を使用して符号化され、圧縮画像12が生成される(ブロック34)。
この方法によれば、原画像10が、事前に選択された色空間でまだ指定されていない場合、原画像10は、最初に、事前に選択されたルミナンスに基づく色空間(たとえば、YCrCb色空間)に変換される(ブロック24)。
事前に選択された色空間における画像の各色平面は、次のように個別に処理される各画像(すなわち、ピクセル値の配列)に対応する。
色成分(たとえば、Cr色成分およびCb色成分)は、ダウンサンプリングされる(ブロック26)。
各色平面は、ピクセルブロック(たとえば、8×8ピクセルブロック)に分割される(ブロック28)。
各ピクセルブロックには、ブロック変換が個別に適用される(ブロック30)。
これらのブロックには、任意の種類のブロック変換を適用することができる。
例示のタイプのブロック変換には、コサイン変換、フーリエ変換、アダマール変換、およびウェーブレット変換が含まれる。
その結果生成された変換係数は量子化される(ブロック32)。
量子化変換係数は、非可逆符号化技法を使用して符号化され、圧縮画像12が生成される(ブロック34)。
III.抽出用のフレームの選択
上述したように、圧縮デジタルビデオは、通常、IフレームおよびPフレームを含む。
Iフレーム(イントラ符号化フレーム)は独立に符号化される。
これは、Iフレームが他のフレームを参照せずに符号化されることを意味する。
MPEGにおけるIフレーム圧縮は、上述したようなJPEG圧縮と非常に類似している。
他方、Pフレームは、現在のフレームと時間的に先行するIフレームまたはPフレームとの差分を符号化することによって圧縮される。
上述したように、圧縮デジタルビデオは、通常、IフレームおよびPフレームを含む。
Iフレーム(イントラ符号化フレーム)は独立に符号化される。
これは、Iフレームが他のフレームを参照せずに符号化されることを意味する。
MPEGにおけるIフレーム圧縮は、上述したようなJPEG圧縮と非常に類似している。
他方、Pフレームは、現在のフレームと時間的に先行するIフレームまたはPフレームとの差分を符号化することによって圧縮される。
ビデオ圧縮の実施態様は、通常、1つのIフレームごとに数個のPフレームを符号化する。
たとえば、特定のGOPにおいて、単一のIフレームの後に、10個のPフレームが続く場合がある。
このGOPのIフレームに関連した量子化表は、IフレームおよびPフレームの双方のアーティファクトを低減するための情報を提供する。
たとえば、特定のGOPにおいて、単一のIフレームの後に、10個のPフレームが続く場合がある。
このGOPのIフレームに関連した量子化表は、IフレームおよびPフレームの双方のアーティファクトを低減するための情報を提供する。
上述したように、Iフレーム量子化行列は、圧縮量を決定し、その結果、Iフレームの各DCT係数に導入された歪みの量を決定する。
フレームの品質は各GOP内では比較的均一であるので、GOPのIフレームの量子化行列は、GOPの復元されたすべてのフレームについての近似量子化行列として使用される(すなわち、GOPのすべてのフレームがIフレームであったと仮定する)。
Iフレームの量子化行列を使用することによって、量子化行列の入力を必要とするJPEG強調技法を使用して、抽出されたビデオフレームを強調することが可能になる。
同様に上述したように、Pフレームを作成するのに使用される差分信号の符号化に使用される量子化行列はフラットであり、したがって、フレーム品質を示す良好なものを提供しない。
したがって、Iフレーム量子化行列が使用される。
フレームの品質は各GOP内では比較的均一であるので、GOPのIフレームの量子化行列は、GOPの復元されたすべてのフレームについての近似量子化行列として使用される(すなわち、GOPのすべてのフレームがIフレームであったと仮定する)。
Iフレームの量子化行列を使用することによって、量子化行列の入力を必要とするJPEG強調技法を使用して、抽出されたビデオフレームを強調することが可能になる。
同様に上述したように、Pフレームを作成するのに使用される差分信号の符号化に使用される量子化行列はフラットであり、したがって、フレーム品質を示す良好なものを提供しない。
したがって、Iフレーム量子化行列が使用される。
上述したIフレームおよびPフレームを使用してビデオフレームを強調するための方法の一実施の形態を図3のフロー図に示す。
ブロック35では、未圧縮のビデオ、すなわち原ビデオが圧縮される。
本明細書で説明する実施の形態では、ビデオは、MPEGビデオ圧縮を使用して圧縮される。
圧縮ビデオ36は、Iフレーム、Pフレーム、およびBフレームを含む。
ブロック37では、圧縮ビデオが、伸張、すなわち復元される。
これは、ユーザがブロック38に示すように抽出用または強調用のビデオフレームを選択する際に行われる場合がある。
ブロック39では、前のIフレームの量子化行列、すなわちQ行列が求められる。
上述したように、選択されたフレームがIフレームである場合、Iフレームの量子化行列が求められる。
前のIフレームまたは現在のIフレームの量子化行列を使用したビデオフレームの強調は、ブロック40に示すように行われる。
図4および次の説明は、この強調をより詳細に説明する。
ブロック35では、未圧縮のビデオ、すなわち原ビデオが圧縮される。
本明細書で説明する実施の形態では、ビデオは、MPEGビデオ圧縮を使用して圧縮される。
圧縮ビデオ36は、Iフレーム、Pフレーム、およびBフレームを含む。
ブロック37では、圧縮ビデオが、伸張、すなわち復元される。
これは、ユーザがブロック38に示すように抽出用または強調用のビデオフレームを選択する際に行われる場合がある。
ブロック39では、前のIフレームの量子化行列、すなわちQ行列が求められる。
上述したように、選択されたフレームがIフレームである場合、Iフレームの量子化行列が求められる。
前のIフレームまたは現在のIフレームの量子化行列を使用したビデオフレームの強調は、ブロック40に示すように行われる。
図4および次の説明は、この強調をより詳細に説明する。
IV.圧縮画像のアーティファクトの低減
以下に説明する実施の形態は、圧縮画像を作成するのに使用されるプロセスによって本来的に導入されるアーティファクトを低減するように構成される。
多くの場合、これらの実施の形態は、画像の特徴をぼかすこと等により画質を劣化させることなく、画像圧縮アーティファクトを低減する。
以下で詳細に説明するように、これらの実施の形態のいくつかの実施態様は、ブロック離散コサイン変換(DCT)画像圧縮技法等のブロック変換ベースの画像圧縮技法によって導入されるリンギング(ringing)圧縮アーティファクトおよびブロッキング(blocking)圧縮アーティファクトを十分に低減するのに特によく適している。
以下に説明する実施の形態は、圧縮画像を作成するのに使用されるプロセスによって本来的に導入されるアーティファクトを低減するように構成される。
多くの場合、これらの実施の形態は、画像の特徴をぼかすこと等により画質を劣化させることなく、画像圧縮アーティファクトを低減する。
以下で詳細に説明するように、これらの実施の形態のいくつかの実施態様は、ブロック離散コサイン変換(DCT)画像圧縮技法等のブロック変換ベースの画像圧縮技法によって導入されるリンギング(ringing)圧縮アーティファクトおよびブロッキング(blocking)圧縮アーティファクトを十分に低減するのに特によく適している。
図4は、図2のブロック変換ベースの画像圧縮方法によって生成された圧縮画像12を処理して、圧縮アーティファクトが低減された出力画像40を生成する方法の一実施態様を示している。
圧縮画像は、PフレームまたはIフレームのいずれであってもよい。
この方法では、圧縮画像12の各平面が個別に処理される。
圧縮画像データは、最初に、伸張される(ブロック42)。
圧縮画像は、PフレームまたはIフレームのいずれであってもよい。
この方法では、圧縮画像12の各平面が個別に処理される。
圧縮画像データは、最初に、伸張される(ブロック42)。
空間シフトされたフォワード変換(spatially-shifted forward transform)が、ビデオフレームの伸張画像データ62(ブロック44)から計算される。
このプロセスでは、フォワード変換オペレーションが、伸張画像データ62のシフトされた複数のバージョンのそれぞれに適用されて、複数の各組のフォワード変換係数46が生成される。
たとえば、画像12がM×N個のピクセルのブロックに基づいて圧縮される実施態様では、フォワード変換オペレーションは、M×N変換において可能なM×N個の独立したシフトからのK個のシフトを含むサブセットにおける伸張画像データ62に適用されて、K個の組のフォワード変換係数が生成される。
ここで、K、M、およびNは、少なくとも1の整数値を有する。
一例示の実施態様では、MおよびNは、共に8の値を有する。
このプロセスでは、フォワード変換オペレーションが、伸張画像データ62のシフトされた複数のバージョンのそれぞれに適用されて、複数の各組のフォワード変換係数46が生成される。
たとえば、画像12がM×N個のピクセルのブロックに基づいて圧縮される実施態様では、フォワード変換オペレーションは、M×N変換において可能なM×N個の独立したシフトからのK個のシフトを含むサブセットにおける伸張画像データ62に適用されて、K個の組のフォワード変換係数が生成される。
ここで、K、M、およびNは、少なくとも1の整数値を有する。
一例示の実施態様では、MおよびNは、共に8の値を有する。
各組のフォワード変換係数46は、非線形変換される(ブロック48)。
逆変換オペレーション(ブロック50)が、非線形変換されたフォワード変換係数の組に適用されて、各中間画像が生成される。
以下で詳細に説明したように、これらの中間画像は結合されて、各色平面64の圧縮アーティファクトが低減される(ブロック52)。
色成分画像平面(たとえば、CrおよびCb)は、元の解像度にアップサンプリングされて、その結果生成された画像平面は、原画像10の色空間(たとえば、赤・緑・青の色空間)に変換されて戻される(ブロック54)。
画像平面は結合されて、出力画像40が生成される。
逆変換オペレーション(ブロック50)が、非線形変換されたフォワード変換係数の組に適用されて、各中間画像が生成される。
以下で詳細に説明したように、これらの中間画像は結合されて、各色平面64の圧縮アーティファクトが低減される(ブロック52)。
色成分画像平面(たとえば、CrおよびCb)は、元の解像度にアップサンプリングされて、その結果生成された画像平面は、原画像10の色空間(たとえば、赤・緑・青の色空間)に変換されて戻される(ブロック54)。
画像平面は結合されて、出力画像40が生成される。
図5は、図4の方法によって生成された圧縮画像データ62を処理して、圧縮アーティファクトが低減された出力画像40を生成するシステム60の一実施態様を示している。
処理システム60は、フォワード変換モジュール66、非線形ノイズ除去(denoiser)モジュール68、逆変換モジュール70、および出力画像ジェネレータモジュール72を含む。
一般に、システム60のモジュール66〜72は、どの特定のハードウェア構成にもどの特定のソフトウェア構成にも限定されず、デジタル電子回路機構またはコンピュータハードウェア、ファームウェア、デバイスドライバ、若しくはソフトウェアを含めて、任意の計算環境または処理環境で実施することができる。
たとえば、いくつかの実施態様では、これらのモジュール66〜72は、デジタルカメラ、プリンタ、およびポータブル電子デバイス(たとえば、移動電話および携帯情報端末)を含めて、多種多様な電子デバイスのいずれか1つのハードウェアで実施することができる。
これに加えて、図示した実施の形態では、フルの(または完全な)入力画像が処理されるが、他の実施態様は、入力画像の一連のサブ画像部分(たとえば、スワス)を順次処理するように構成することができる。
処理システム60は、フォワード変換モジュール66、非線形ノイズ除去(denoiser)モジュール68、逆変換モジュール70、および出力画像ジェネレータモジュール72を含む。
一般に、システム60のモジュール66〜72は、どの特定のハードウェア構成にもどの特定のソフトウェア構成にも限定されず、デジタル電子回路機構またはコンピュータハードウェア、ファームウェア、デバイスドライバ、若しくはソフトウェアを含めて、任意の計算環境または処理環境で実施することができる。
たとえば、いくつかの実施態様では、これらのモジュール66〜72は、デジタルカメラ、プリンタ、およびポータブル電子デバイス(たとえば、移動電話および携帯情報端末)を含めて、多種多様な電子デバイスのいずれか1つのハードウェアで実施することができる。
これに加えて、図示した実施の形態では、フルの(または完全な)入力画像が処理されるが、他の実施態様は、入力画像の一連のサブ画像部分(たとえば、スワス)を順次処理するように構成することができる。
フォワード変換モジュール66は、復号された画像データ62からK組(C1、C2、…、CK)のシフトされたフォワード変換係数を計算する。
これらK組のシフトされた変換係数は、圧縮画像12を基準にしたブロッキンググリッド(blocking grid)のK個の一意の位置に対応する。
これらK組のシフトされた変換係数は、圧縮画像12を基準にしたブロッキンググリッド(blocking grid)のK個の一意の位置に対応する。
非線形ノイズ除去モジュール68は、フォワード変換モジュール66によって計算された複数の組(C1、C2、…、CK)のシフトされたフォワード変換係数を非線形変換する。
図6を参照して、いくつかの実施態様では、複数の組のフォワード変換係数は、各非線形しきい値変換(T1、T2、…、TK)に従って変換される。
詳細には、各しきい値(qij、ここで、i、jは量子化要素のインデックスを指し、iは0からM−1の範囲の値を有し、jは0からN−1の範囲の値を有する)よりも小さな絶対値を有する各係数を0に設定し、各しきい値(qij)以上の絶対値を有する各係数を変更しないことにより、フォワード変換係数は非線形変換される。
量子化行列76(すなわち、「Q行列」)は、非線形しきい値変換(T1、T2、…、TK)のパラメータqijを設定するのに使用される。
この実施態様では、量子化行列は、Pフレームが選択された状況において、GOPのIフレームまたは前のIフレームの画像12を圧縮するのに当初使用されたものと同じ量子化パラメータqijを含む。
これらの量子化パラメータは、JPEGやMPEG等の標準的な画像圧縮方式およびビデオ圧縮方式に従って圧縮画像12に記憶することができる。
図6を参照して、いくつかの実施態様では、複数の組のフォワード変換係数は、各非線形しきい値変換(T1、T2、…、TK)に従って変換される。
詳細には、各しきい値(qij、ここで、i、jは量子化要素のインデックスを指し、iは0からM−1の範囲の値を有し、jは0からN−1の範囲の値を有する)よりも小さな絶対値を有する各係数を0に設定し、各しきい値(qij)以上の絶対値を有する各係数を変更しないことにより、フォワード変換係数は非線形変換される。
量子化行列76(すなわち、「Q行列」)は、非線形しきい値変換(T1、T2、…、TK)のパラメータqijを設定するのに使用される。
この実施態様では、量子化行列は、Pフレームが選択された状況において、GOPのIフレームまたは前のIフレームの画像12を圧縮するのに当初使用されたものと同じ量子化パラメータqijを含む。
これらの量子化パラメータは、JPEGやMPEG等の標準的な画像圧縮方式およびビデオ圧縮方式に従って圧縮画像12に記憶することができる。
いくつかの実施の形態では、非線形ノイズ除去モジュール68は、非線形度(nonlinearity)Tiを変更することによってシャープネス強調を組み込む。
詳細には、非線形ノイズ除去モジュール68は、非線形変換パラメータ値qijに利得係数gijを乗算する。
利得係数を設定する方法には多くの方法がある。
一実施態様では、利得係数は方程式(1)によって与えられる。
gij=1.0+s×(i+j)/14 (1)
ここで、iおよびjは、各量子化器係数を選択するインデックスである。
8×8ブロッキンググリッド用に指定された実施態様では、iおよびjの値は、範囲[0〜7]にあり、0は最も低い空間周波数を表し、7は最も高い空間周波数を表す。
シャープネス係数sの値は、シャープ化の量を決定する。
s=0のとき、シャープ化は適用されない。
0.5と1.5との間のsの値は、出力画像ジェネレータ方法によって引き起こされるおそれのあるわずかなぼけを補償する十分なシャープネス範囲を提供する。
s=0.5の方程式(1)から計算された例示の利得係数を含む行列を以下の表3に提供する。
詳細には、非線形ノイズ除去モジュール68は、非線形変換パラメータ値qijに利得係数gijを乗算する。
利得係数を設定する方法には多くの方法がある。
一実施態様では、利得係数は方程式(1)によって与えられる。
gij=1.0+s×(i+j)/14 (1)
ここで、iおよびjは、各量子化器係数を選択するインデックスである。
8×8ブロッキンググリッド用に指定された実施態様では、iおよびjの値は、範囲[0〜7]にあり、0は最も低い空間周波数を表し、7は最も高い空間周波数を表す。
シャープネス係数sの値は、シャープ化の量を決定する。
s=0のとき、シャープ化は適用されない。
0.5と1.5との間のsの値は、出力画像ジェネレータ方法によって引き起こされるおそれのあるわずかなぼけを補償する十分なシャープネス範囲を提供する。
s=0.5の方程式(1)から計算された例示の利得係数を含む行列を以下の表3に提供する。
逆変換モジュール70は、複数の組の非線形変換されたフォワード変換係数から複数の組(C'1、C'2、…、C'K)の逆変換を計算する。
逆変換モジュール70は、フォワード変換モジュール66によって適用されるフォワード変換オペレーションの逆のものを適用する。
逆変換モジュール70の出力は、空間領域の画像データを表す中間画像(I1、I2、…、IK)である。
逆変換モジュール70は、フォワード変換モジュール66によって適用されるフォワード変換オペレーションの逆のものを適用する。
逆変換モジュール70の出力は、空間領域の画像データを表す中間画像(I1、I2、…、IK)である。
出力画像ジェネレータモジュール72は、中間画像(I1、I2、…、IK)を結合して、最終出力画像40の画像平面64を形成する。
図7は、ベース画像ジェネレータ80およびリンギング補正画像ジェネレータ82を含む出力画像ジェネレータモジュール72の一実施の形態を示している。
図7は、ベース画像ジェネレータ80およびリンギング補正画像ジェネレータ82を含む出力画像ジェネレータモジュール72の一実施の形態を示している。
ベース画像ジェネレータ80は、中間画像(I1、I2、…、IK)を結合したものから、元の未圧縮画像の見積もりに対応するベース画像84を計算する。
図示した実施の形態では、ベース画像ジェネレータ80は、中間画像(I1、I2、…、IK)の対応したピクセルの平均値に対応するピクセル値を有するベース画像(IAVE)を計算する。
図示した実施の形態では、ベース画像ジェネレータ80は、中間画像(I1、I2、…、IK)の対応したピクセルの平均値に対応するピクセル値を有するベース画像(IAVE)を計算する。
リンギング補正画像ジェネレータ82は、中間画像(I1、I2、…、IK)に基づいてリンギング補正画像(IRC)を計算する。
いくつかの実施態様では、リンギング補正画像ジェネレータ82は、中間画像(I1、I2、…、IK)のピクセルについて計算された局所的な空間強度変動の測度に少なくとも部分的に基づいて、リンギング補正画像86(IRC)を計算する。
たとえば、最小分散デリンギング(minimum variance de-ringing)の実施態様では、リンギング補正画像86の所与のピクセルの値は、リンギング補正画像86のピクセルに対応するすべての中間画像ピクセルの空間強度変動の計算された最小の測度を有する、対応する中間画像ピクセルの値に設定される。
加重分散デリンギング(weighted variance de-ringing)手法では、リンギング補正画像86の各ピクセル値には、リンギング補正画像86の所与のピクセルに対応するすべての中間画像ピクセルの局所的な空間強度変動の測度の最小の百分率(たとえば、30%の百分率)における複数の対応した中間画像の平均値に対応する値が割り当てられる。
加重分散デリンギング手法は、リンギング圧縮アーティファクトを低減すると同時に、最小分散デリンギング手法によって導入されることがあるノイズを回避することが確認されている。
いくつかの実施態様では、リンギング補正画像ジェネレータ82は、中間画像(I1、I2、…、IK)のピクセルについて計算された局所的な空間強度変動の測度に少なくとも部分的に基づいて、リンギング補正画像86(IRC)を計算する。
たとえば、最小分散デリンギング(minimum variance de-ringing)の実施態様では、リンギング補正画像86の所与のピクセルの値は、リンギング補正画像86のピクセルに対応するすべての中間画像ピクセルの空間強度変動の計算された最小の測度を有する、対応する中間画像ピクセルの値に設定される。
加重分散デリンギング(weighted variance de-ringing)手法では、リンギング補正画像86の各ピクセル値には、リンギング補正画像86の所与のピクセルに対応するすべての中間画像ピクセルの局所的な空間強度変動の測度の最小の百分率(たとえば、30%の百分率)における複数の対応した中間画像の平均値に対応する値が割り当てられる。
加重分散デリンギング手法は、リンギング圧縮アーティファクトを低減すると同時に、最小分散デリンギング手法によって導入されることがあるノイズを回避することが確認されている。
図8を参照して、いくつかの実施の形態では、空間強度変動は、空間分散(σ1 2、σ2 2、…、σK 2)によって測定される。
この空間分散は、リンギング補正画像86の所与のピクセルIRC(x,y)に対応する中間画像(I1(x,y)、I2(x,y)、…、IK(x,y))のピクセルについて計算される。
空間分散の測度は、各ウィンドウ90、92、94、96によって画定された各中間画像領域に基づいて計算される。
図示した実施の形態では、ウィンドウ90〜96は、幅が3ピクセルで高さが3ピクセルの寸法を有する。
一例示の実施態様では、所与の中間画像ピクセルIj(x,y)の空間分散は、方程式(2)によって与えられる。
この空間分散は、リンギング補正画像86の所与のピクセルIRC(x,y)に対応する中間画像(I1(x,y)、I2(x,y)、…、IK(x,y))のピクセルについて計算される。
空間分散の測度は、各ウィンドウ90、92、94、96によって画定された各中間画像領域に基づいて計算される。
図示した実施の形態では、ウィンドウ90〜96は、幅が3ピクセルで高さが3ピクセルの寸法を有する。
一例示の実施態様では、所与の中間画像ピクセルIj(x,y)の空間分散は、方程式(2)によって与えられる。
ここで、<V>は、所与のピクセル(すなわち、
)の近傍の平均ピクセル値であり、Kは、リンギング補正画像86の所与のピクセルの近傍のピクセルの個数(たとえば、9個)である。
別の例示の実施態様では、値V0を有する所与の中間画像ピクセルIj(x,y)の空間強度変動Λ0 2は、方程式(3)によって与えられる。
別の例示の実施態様では、値V0を有する所与の中間画像ピクセルIj(x,y)の空間強度変動Λ0 2は、方程式(3)によって与えられる。
図示した実施の形態では、計算された最小の分散(σMIN 2)を有する中間画像ピクセルの値(たとえば、IMIN(x,y))は、リンギング補正画像86の対応するピクセル(IRC(x,y))に割り当てられる。
ベース画像84は、ブロッキングアーティファクト等の圧縮アーティファクトの出現を大幅に低減することを特徴とするが、場合によっては、ベース画像84は、まだ、未解決のリンギングアーティファクトを含むことが確認されている。
また、リンギング補正画像86(IRC)は、ベース画像84に比べてリンギング圧縮アーティファクトを大幅に低減することを特徴とするが、通常なら、一般に、ベース画像84よりもぼやけることも確認されている。
これらの確認事項に基づいて、出力画像ジェネレータモジュール72は、結果の出力画像40の圧縮アーティファクトの出現を大幅に低減する方法で、ベース画像84およびリンギング補正画像86を結合するように構成される。
また、リンギング補正画像86(IRC)は、ベース画像84に比べてリンギング圧縮アーティファクトを大幅に低減することを特徴とするが、通常なら、一般に、ベース画像84よりもぼやけることも確認されている。
これらの確認事項に基づいて、出力画像ジェネレータモジュール72は、結果の出力画像40の圧縮アーティファクトの出現を大幅に低減する方法で、ベース画像84およびリンギング補正画像86を結合するように構成される。
図7の実施の形態では、出力画像ジェネレータモジュール72は、加重和ジェネレータ98を含む。
この加重和ジェネレータ98は、方程式(4)に従って、ベース画像84(IAVE(x,y))およびリンギング補正画像86(IRC(x,y))の対応するピクセルの加重和を計算し、出力画像40のピクセルの値を生成する。
IOUT(x,y)=α(x,y)IRC(x,y)+(1−α(x,y))IAVE(x,y) (4)
ここで、αは、範囲[0,1]の値を有する。
この加重和ジェネレータ98は、方程式(4)に従って、ベース画像84(IAVE(x,y))およびリンギング補正画像86(IRC(x,y))の対応するピクセルの加重和を計算し、出力画像40のピクセルの値を生成する。
IOUT(x,y)=α(x,y)IRC(x,y)+(1−α(x,y))IAVE(x,y) (4)
ここで、αは、範囲[0,1]の値を有する。
重みジェネレータモジュール100は、出力画像40の各ピクセルのα(x,y)の値を計算する。
一般に、シャープな遷移から十分に離れたピクセルについては、予想されたリンギングが最小である場合に、重みジェネレータモジュール100は
一般に、シャープな遷移から十分に離れたピクセルについては、予想されたリンギングが最小である場合に、重みジェネレータモジュール100は
を設定する。
シャープな遷移上のピクセルについては、重みジェネレータモジュール100は、遷移をぼやかさないために、この場合も
シャープな遷移上のピクセルについては、重みジェネレータモジュール100は、遷移をぼやかさないために、この場合も
を設定する。
シャープな遷移上ではないが、十分に近い(たとえば、隣接した)ピクセルについては、重みジェネレータモジュール100は、
シャープな遷移上ではないが、十分に近い(たとえば、隣接した)ピクセルについては、重みジェネレータモジュール100は、
を設定して、潜在的なリンギングを低減する。
いくつかの実施の形態では、重みジェネレータモジュール100は、所与のピクセルを包含する空間ウィンドウの局所的領域と、その局所的領域を取り囲む空間ウィンドウのより大きな領域との間の相対的なコントラスト測度に基づいて、その所与のピクセルのα(x,y)を計算する。
いくつかの実施態様では、画像のコントラストは、空間ウィンドウにおいて、最大のピクセル値と最小のピクセル値との差であるピクセルレンジから計算される。
図9に示すように、これらの実施態様では、ピクセルレンジは、2つの異なるサイズのウィンドウ102、104について計算される。
第1のウィンドウ102のサイズは、エッジの近くの局所コントラストを正確に見積もるために小さくなっている(たとえば、3ピクセル×3ピクセル)。
いくつかの実施態様では、第2のウィンドウ104のサイズ(たとえば、15ピクセル×15ピクセル)は、所与のピクセルにおけるシフトされたブロック変換(shifted block transform)のすべてをカバーする。
ピクセルレンジの計算の結果、局所コントラスト測度lcおよびブロックのコントラスト測度bcが得られる。
いくつかの実施態様では、画像のコントラストは、空間ウィンドウにおいて、最大のピクセル値と最小のピクセル値との差であるピクセルレンジから計算される。
図9に示すように、これらの実施態様では、ピクセルレンジは、2つの異なるサイズのウィンドウ102、104について計算される。
第1のウィンドウ102のサイズは、エッジの近くの局所コントラストを正確に見積もるために小さくなっている(たとえば、3ピクセル×3ピクセル)。
いくつかの実施態様では、第2のウィンドウ104のサイズ(たとえば、15ピクセル×15ピクセル)は、所与のピクセルにおけるシフトされたブロック変換(shifted block transform)のすべてをカバーする。
ピクセルレンジの計算の結果、局所コントラスト測度lcおよびブロックのコントラスト測度bcが得られる。
重みジェネレータモジュール100は、局所コントラスト測度とブロックのコントラスト測度との差分(Δ)(すなわち、Δ(x,y)=bc(x,y)−lc(x,y))を関数α(Δ)に入力する。
関数α(Δ)は、参照表として記憶することができ、範囲[0,1]におけるα(Δ)の値を生成する。
3つの異なる重み関数106、108、110を図10に示す。
これらの関数は、方程式(5)によって与えられる一般的な関数に対応する。
関数α(Δ)は、参照表として記憶することができ、範囲[0,1]におけるα(Δ)の値を生成する。
3つの異なる重み関数106、108、110を図10に示す。
これらの関数は、方程式(5)によって与えられる一般的な関数に対応する。
ここで、aおよびTは、可変パラメータである。
主観的評価および客観的PSNR(ピーク信号対雑音比)値を使用してテスト画像でトレーニングされた、α(Δ)の最終参照表を以下の表4に提供する。
この表は、「読み出し順序」(すなわち、左から右へ、上から下へ)で提示されている。
主観的評価および客観的PSNR(ピーク信号対雑音比)値を使用してテスト画像でトレーニングされた、α(Δ)の最終参照表を以下の表4に提供する。
この表は、「読み出し順序」(すなわち、左から右へ、上から下へ)で提示されている。
他の実施の形態は、特許請求の範囲の範囲内にある。
たとえば、上記圧縮アーティファクト低減の実施の形態は、ブロック変換ベースの画像圧縮方法によって圧縮された画像12に関して説明されているが、これらの実施の形態は、ブロック変換ベースでない他の画像圧縮技法によって圧縮された画像のアーティファクトを低減するのに容易に使用することができる。
64・・・出力画像平面,
66・・・フォワード変換モジュール,
68・・・非線形ノイズ除去モジュール,
70・・・逆変換モジュール,
72・・・出力画像ジェネレータモジュール,
76・・・Q行列,
80・・・ベース画像ジェネレータ,
82・・・リンギング補正画像ジェネレータ,
98・・・加重和ジェネレータ,
100・・・重みジェネレータ,
66・・・フォワード変換モジュール,
68・・・非線形ノイズ除去モジュール,
70・・・逆変換モジュール,
72・・・出力画像ジェネレータモジュール,
76・・・Q行列,
80・・・ベース画像ジェネレータ,
82・・・リンギング補正画像ジェネレータ,
98・・・加重和ジェネレータ,
100・・・重みジェネレータ,
Claims (10)
- 圧縮ビデオシーケンス(36)から抽出された静止デジタル画像(38)を強調する方法であって、前記圧縮ビデオ画像シーケンス(36)は、少なくとも1つのIフレームおよび少なくとも1つのPフレームを含み、
ビデオのIフレームまたはPフレームが抽出されたかどうかを判断することと、
Pフレームが抽出された場合に、前のIフレームの量子化行列を求めること(39)と、
前記抽出されたビデオフレームを復元することと、
前記抽出されたフレームの現在のIフレームがIフレームである場合には、前記量子化行列に基づいて前記画像(38)を強調し(40)、Pフレームが抽出された場合には、前記前のIフレームの前記量子化行列に基づいて前記画像(38)を強調すること(40)と
を含む方法。 - 前記強調すること(40)は、
前記復元されたビデオフレームに関する空間シフトされたフォワード変換を計算し(44)、各組のフォワード変換係数を生成することと、
各組の前記フォワード変換係数に、非線形変換を適用すること(48)と、
前記組の非線形変換されたフォワード変換係数の逆変換を計算し(50)、各中間画像(64)を生成すること(50)と、
前記中間画像(64)に少なくとも部分的に基づいて、ピクセル値を有する出力画像(40)を計算することと
をさらに含む請求項1に記載の方法。 - 前記計算された空間シフトされたフォワード変換は、ブロック変換である
請求項2に記載の方法。 - 前記ブロック変換は、2次元ブロック離散コサイン変換である
請求項3に記載の方法。 - 前記フォワード変換係数は、第1の値よりも小さな絶対値を有する各係数を0に設定し、少なくとも第2の値に等しい絶対値を有する各係数を変更しないことによって、非線形変換される
請求項2に記載の方法。 - 低い空間周波数のフォワード変換係数よりも、高い空間周波数のフォワード変換係数の方が、大きな各係数分、非線形変換パラメータを増加させることによって、前記フォワード変換係数をシャープ化すること
をさらに含む請求項5に記載の方法。 - 前記出力画像(40)を計算することは、
中間画像を結合したものからベース画像を計算すること
を含む
請求項2に記載の方法。 - 前記ベース画像は、
前記中間画像における対応するピクセルの値の各平均値に対応するピクセル値
を有する
請求項7に記載の方法。 - 前記出力画像(40)を計算することは、
局所的な空間強度変動の計算された測度に少なくとも部分的に基づいて、リンギング補正画像を計算すること
をさらに含む
請求項7に記載の方法。 - 前記リンギング補正画像における各ピクセルは、前記中間画像のそれぞれにおける対応するピクセルに関連付けられる
請求項9に記載の方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/142,084 US7760805B2 (en) | 2005-05-31 | 2005-05-31 | Method of enhancing images extracted from video |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006340345A true JP2006340345A (ja) | 2006-12-14 |
Family
ID=37463345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006137366A Withdrawn JP2006340345A (ja) | 2005-05-31 | 2006-05-17 | ビデオから抽出された画像を強調する方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7760805B2 (ja) |
JP (1) | JP2006340345A (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007074687A1 (ja) * | 2005-12-27 | 2007-07-05 | Nittoh Kogaku K.K | 画像処理装置 |
US8548049B2 (en) * | 2007-07-02 | 2013-10-01 | Vixs Systems, Inc | Pattern detection module, video encoding system and method for use therewith |
EP2229782A2 (en) * | 2008-01-14 | 2010-09-22 | Thomson Licensing | Methods and apparatus for de-artifact filtering using multi-lattice sparsity-based filtering |
WO2009091387A1 (en) * | 2008-01-17 | 2009-07-23 | Thomson Licensing | Reduced video flicker |
US8208745B2 (en) * | 2008-01-31 | 2012-06-26 | Analog Devices, Inc. | Spatial domain video enhancement/scaling system and method |
WO2011068429A1 (en) * | 2009-12-01 | 2011-06-09 | Intel Corporation | Detecting artifacts in quantization noise in images compresses using discrete cosine transforms |
JP2014510294A (ja) * | 2010-12-21 | 2014-04-24 | シンディアント, インコーポレイテッド | 記憶容量低減器を有する空間光変調器 |
US9118872B1 (en) * | 2014-07-25 | 2015-08-25 | Raytheon Company | Methods and apparatuses for image enhancement |
US9699453B1 (en) | 2014-07-25 | 2017-07-04 | Raytheon Company | Methods and apparatuses for video enhancement and video object tracking |
CN113767626B (zh) * | 2020-04-01 | 2024-03-26 | 华为技术有限公司 | 视频增强的方法及装置 |
CN113115075B (zh) * | 2021-03-23 | 2023-05-26 | 广州虎牙科技有限公司 | 一种视频画质增强的方法、装置、设备以及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5987179A (en) * | 1997-09-05 | 1999-11-16 | Eastman Kodak Company | Method and apparatus for encoding high-fidelity still images in MPEG bitstreams |
US7359439B1 (en) * | 1998-10-08 | 2008-04-15 | Pixel Tools Corporation | Encoding a still image into compressed video |
WO2002102050A2 (en) * | 2001-06-12 | 2002-12-19 | Digital Interactive Streams, Inc. | System and method for enhancing digital video |
US6862372B2 (en) | 2001-12-27 | 2005-03-01 | Koninklijke Philips Electronics N.V. | System for and method of sharpness enhancement using coding information and local spatial features |
US7643688B2 (en) | 2003-10-10 | 2010-01-05 | Hewlett-Packard Development Company, L.P. | Reducing artifacts in compressed images |
US7388999B2 (en) | 2003-10-29 | 2008-06-17 | Hewlett-Packard Development Company, L.P. | Transformations for denoising images |
-
2005
- 2005-05-31 US US11/142,084 patent/US7760805B2/en not_active Expired - Fee Related
-
2006
- 2006-05-17 JP JP2006137366A patent/JP2006340345A/ja not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
US20060268981A1 (en) | 2006-11-30 |
US7760805B2 (en) | 2010-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4468367B2 (ja) | 圧縮画像のアーティファクトの低減 | |
JP2006340345A (ja) | ビデオから抽出された画像を強調する方法 | |
US10455210B2 (en) | Method, medium, and apparatus encoding and/or decoding an image using the same coding mode across components | |
JP4987480B2 (ja) | 画像のノイズを除去するための変換 | |
US7995849B2 (en) | Method and apparatus for improving video quality of low bit-rate video | |
US7778476B2 (en) | System and method for transform coding randomization | |
JP2007116728A (ja) | 圧縮された画像の画質の向上 | |
WO2012099691A2 (en) | Systems and methods for wavelet and channel-based high definition video encoding | |
WO2007108642A1 (en) | Image encoding/decoding method and apparatus | |
EP2317769A1 (en) | Luminance dependent quantization | |
JP4641784B2 (ja) | 階調変換処理装置、階調変換処理方法、画像表示装置、テレビジョン、携帯情報端末、カメラ、集積回路および画像処理プログラム | |
US20180359486A1 (en) | Non-local adaptive loop filter processing | |
WO2006036796A1 (en) | Processing video frames | |
JP2004528791A (ja) | インターフレーム符号化方法および装置 | |
US6665447B1 (en) | Method for enhancing image data by sharpening | |
Yuan et al. | Block-based learned image coding with convolutional autoencoder and intra-prediction aided entropy coding | |
US20200186810A1 (en) | System and method for optimized video encoding | |
Shao et al. | Quality adaptive least squares trained filters for video compression artifacts removal using a no-reference block visibility metric | |
JP4784386B2 (ja) | 復号化装置、逆量子化方法及びプログラム | |
WO2021206699A1 (en) | Bicriteria block splitting heuristic for lossy compression | |
Shao | Simultaneous coding artifact reduction and sharpness enhancement for block-based compressed images and videos | |
Zhang et al. | Textural and Directional Information Based Offset In-Loop Filtering in AVS3 | |
JP2006509401A (ja) | ブロッキングアーチファクトを測定する方法 | |
EP1182885A2 (en) | Method and apparatus for image quality enhancement | |
JP3034887B2 (ja) | 画像処理方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090804 |