JP2005525014A - 符号化されたデジタルビデオのためのシャープネスエンハンスメントのシステムおよび方法 - Google Patents
符号化されたデジタルビデオのためのシャープネスエンハンスメントのシステムおよび方法 Download PDFInfo
- Publication number
- JP2005525014A JP2005525014A JP2004502249A JP2004502249A JP2005525014A JP 2005525014 A JP2005525014 A JP 2005525014A JP 2004502249 A JP2004502249 A JP 2004502249A JP 2004502249 A JP2004502249 A JP 2004502249A JP 2005525014 A JP2005525014 A JP 2005525014A
- Authority
- JP
- Japan
- Prior art keywords
- ume
- frame
- block
- pixel
- sharpness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000033001 locomotion Effects 0.000 claims abstract description 47
- 230000007246 mechanism Effects 0.000 claims abstract description 22
- 239000003623 enhancer Substances 0.000 claims abstract description 3
- 230000008859 change Effects 0.000 claims description 25
- 239000013598 vector Substances 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 19
- 238000013139 quantization Methods 0.000 claims description 14
- 230000003068 static effect Effects 0.000 claims description 13
- 230000002708 enhancing effect Effects 0.000 claims description 9
- 230000003044 adaptive effect Effects 0.000 description 29
- 230000006870 function Effects 0.000 description 12
- 238000004458 analytical method Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 11
- 230000006835 compression Effects 0.000 description 10
- 238000007906 compression Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000012805 post-processing Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 230000002123 temporal effect Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- TVZRAEYQIKYCPH-UHFFFAOYSA-N 3-(trimethylsilyl)propane-1-sulfonic acid Chemical compound C[Si](C)(C)CCCS(O)(=O)=O TVZRAEYQIKYCPH-UHFFFAOYSA-N 0.000 description 1
- -1 HDTV decoders Chemical compound 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G06T5/73—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration by the use of local operators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/66—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission for reducing bandwidth of signals; for improving efficiency of transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/142—Detection of scene cut or scene change
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/162—User input
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/86—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/12—Systems in which the television signal is transmitted via one channel or a plurality of parallel channels, the bandwidth of each channel being less than the bandwidth of the television signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Color Television Systems (AREA)
- Picture Signal Circuits (AREA)
- Image Analysis (AREA)
Abstract
ビデオデータのフレーム中の各ピクセルのUMEを計算する方法とシステムである。ブロックベースのデータのフレームを表す符合化デジタルビデオ信号のシャープネスをエンハンスするシステムは、フレームタイプにより前記フレームの各ピクセルのUMEを計算するシステムと、ここで、前記計算するシステムは、前記フレームの局所空間的特徴を定義するメカニズムと、前記フレームのブロックベースの動き推定を分析するメカニズムと、前記フレームのシーン変化を検出するメカニズムとを含み、前記UMEに基づき前記デジタルビデオの復号されたバージョンにシャープネスを向上するシャープネスエンハンサとを有する。
Description
本発明は、符号化情報、局所空間的特徴、および動き情報を用いてデジタルビデオ信号の品質を向上するシステムおよび方法に関する。本発明のシステムおよび方法は、符号化によるアーティファクトを強めることなくデジタルビデオを符号化またはコード変換されたデジタルビデオのシャープネスをエンハンス(強調)する。
セットトップボックス、ハイエンドテレビ、デジタルテレビ、パーソナルテレビ、記憶装置、PDA、ワイヤレスインターネット機器等の高品質マルチメディア機器の開発は、多様なアーキテクチャが用いられ、新しい機能(フィーチャ)に対しより開放的である。さらにまた、これら新製品および任意のフォーマットのビデオデータを表示するその能力の開発は、ビデオ処理とビデオエンハンスメントアルゴリズムに関して新しい要望と機会を生んでいる。
MPEG(Moving Picture Expert Group)ビデオ圧縮は、現在あるおよび現れつつある多数の製品で使用されている。MPEGは、デジタルテレビセットトップボックス、DSS、HDTVデコーダ、DVDプレーヤ、テレビ会議、インターネットビデオ、その他のアプリケーションの中心である。これらのアプリケーションは、ビデオ情報の保管に要する記憶スペースが少なくても済むこと、一箇所から他の場所へビデオ情報を送信するのにバンド幅が少なくて済むこと、またはこれらの組み合わせによりビデオ圧縮から利益を得ている。これら機器のほとんどは、MPEG-2フォーマットでビデオを受信および/または記憶する。将来的には、MPEG-4フォーマットのビデオを受信および/または記憶してもよい。これらMPEGソースの画像品質は大きく異なることもある。
人間の視覚システムに関する研究により、眼は輝度の変化により敏感であり、クロミナンスの変化には余り敏感でないことが示された。MPEGは、眼の輝度およびクロミナンスへの感度の違いを効率的に利用するように色空間で動作する。よって、MPEGは、データの値を表すのに、RGBではなく、YCbCr色空間を用いる。ここで、Yは輝度成分であり、実験的にY=0.299R+0.587G+0.114Bである。Cbは青色差成分であり、Cb=B-Yである。また、Crは赤色差成分であり、Cr=R-Yである。
MPEGビデオは、エラーハンドリング、ランダムサーチおよび編集、若しくは例えばオーディオビットストリームとの同期を支援するため、レイヤの階層構造で構成される。第1のレイヤ、トップレイヤは、ビデオシーケンスレイヤとして知られ、例えば符号化された映画、広告、またはアニメーション等の任意の自己完結のビットストリームでよい。
第2レイヤは、第1レイヤの下にあり、GOP(Group Of Pictures)である。このGOPは、Iフレームおよび/または非I(PまたはB)ピクチャの1以上のグループから構成される。Iフレームは、厳密にイントラ圧縮されており、ビデオにランダムアクセスポイントを提供する。Pフレームは、動き補償された前方予測符号化されたフレームであり、フレーム間圧縮されており、一般的には圧縮の程度はIフレームより大きい。Bフレームは、動き補償された双方向予測符号化フレームであり、フレーム間圧縮されており、一般的には圧縮の程度が一番大きい。
第3のレイヤは、第2のレイヤの下にあり、ピクチャレイヤ自体である。第3のレイヤの下にある第4のレイヤはスライスレイヤと呼ばれる。各スライスはラスタ順のマクロブロックの連続シーケンスであり、典型的なビデオアプリケーションでは行ベースであることが多い。スライス構造は、エラーが発生したときも復号可能とすることを意図されている。各スライスはマクロブロックから構成されている。そのマクロブロックは、16x16アレイの輝度ピクセル、またはピクチャデータ要素であり、2つ以上の8x8アレイ(フォーマットによる)の関連するクロミナンスピクセルを伴う。マクロブロックは、別個の8x8ブロックにさらに分割でき、変換符号化等の処理がさらに可能である。マクロブロックは、YCbCr色空間を参照するとき、異なった仕方で表すことができる。よく使用される3つのフォーマット4:4:4、4:2:2、4:2:0が知られている。4:4:4は全バンド幅のYCbCrビデオである。4:2:2は、4:4:4の半分のクロミナンス情報を含む。4:2:0は4分の1のクロミナンス情報を含む。輝度とクロミナンスを表す効率的な仕方により、4:2:0表現はすぐに12ブロック/マクロブロックから6ブロック/マクロブロックへのデータ削減を可能とする。
IフレームはPフレームおよびBフレームと比較して圧縮が弱く、PフレームおよびBフレームではMPEG圧縮が最も効率的となる。効率は予測に基づく動き補償と呼ばれる技術により達成される。予測に基づく動き補償は時間的冗長性を利用する。フレームは密接に関係しているため、現在のピクチャは前のピクチャの変形としてモデル化することができると仮定する。1つのフレームのデータを前のフレームのデータに基づき正確に予測することができる。Pフレームにおいて、16x16サイズの各マクロブロックは、前に符号化されたIピクチャまたはPピクチャのマクロブロックから予測される。フレームは動くオブジェクトの時間的スナップショットであるから、2つのフレームのマクロブロックは、同じ空間的位置に対応しないかも知れない。エンコーダは、前のフレーム内を(Pフレームを求めて、または前と後のフレーム内をBフレームを求めて)探し、現在のマクロブロックに含まれる情報と密接に一致する他のマクロブロックの位置を求めて、ピクセルを半分ずつインクリメントして探す。最も一致するマクロブロックの、位置を特定したマクロブロックからの水平方向および垂直方向の変位は動きベクトルと呼ばれる。現在のブロックおよび一致するブロックの間の差異および動きベクトルが符号化される。動きベクトルは、間違いの多いデータの場合の動き予測にも用いることができる。精巧なデコーダアルゴリズムは、このベクトルをエラー隠蔽に用いることができる。Bフレームにおいて、動き補償ベースの予測と補間が、各フレームのいずれかの側にあるリファレンスフレームを用いて実行される。
次世代の記憶デバイスであるブルーレーザベースのデジタルビデオレコーダ(DVR)等は、ある程度HD(ハイデフィニション)(ATSC)の能力を有し、このタイプのデバイスではピクチャエンハンスメントの新しい方法が有利である。HDプログラムは、一般的には20Mb/sで放送され、MPEG-2ビデオ標準により符号化されている。これは、DVRの記憶容量が約25GBであることを考慮すると、1枚のディスクに約2時間のHDビデオが記録できることを表す。記録時間を増やすために、長時間プレイモードであるロングプレイ(LP)モードやエクステンデッドロングプレイ(ELP)モード等を規定することができる。
LPモードの場合、平均記憶ビットレートは約10Mb/sであると仮定され、HDの2倍の記録時間が確保できる。その結果、符合変換は、ビデオ処理の連鎖の統合された一部であり、20Mb/sの放送ビットレートを10Mb/sの記憶ビットレートに減少させる。MPEG-2符号変換の間に、ビデオのピクチャ品質(例えば、シャープネス)はほぼ確実に悪くなる。しかし、LPモードでは特に、ピクチャ品質を妥協しすぎるべきではない。それゆえ、LPモードでは、後処理が知覚されるピクチャ品質を向上する上で重要な役割を果たす。
現在まで、技術水準のシャープネスエンハンスメントアルゴリズムは、ほとんどアナログビデオ送信標準であるNTSC(National Television System Committee)、PAL(Phase Alternation Line)、SECAM(SEquential Couleur A Memoire)のために開発され、最適化されてきた。昔から、画像エンハンスメントアルゴリズムは、ピクチャの好ましくない外観を減少させたり(例えばノイズリダクション)、画像の望ましい特徴を向上したり(例えば、シャープネスエンハンスメント(鮮明度強調))することであった。これらの出現しつつある記憶デバイスにおいて、昔からのシャープネスエンハンスメントアルゴリズムは、ソースの特徴が異なるため、MPEG符号化されたまたは符号変換されたビデオに最適ではない。記憶システムの閉じたビデオ処理連鎖において、符号化されたソースの品質を決定可能とする情報は、MPEGストリームから導かれる。この情報は、ビデオエンハンスメントアルゴリズムの性能を向上するために潜在的に用いることができる。
ピクチャ品質はハイエンドビデオ製品でも差別化ファクタにとどまるので、ビデオエンハンスメントを実行する新しいアプローチは、特にこれらのソースに使用するために適応しており、利益がある。C-J Tsai、P. Karunaratne、N.P. Galatsanos、およびA.K. Katsaggelosによる「圧縮ビデオエンハンスメントアルゴリズム」(Proc. Of IEEE, ICIP’99, Kobe, Japan, Oct. 25-28, 1999)において、著者らは低ビットレートで符号化されたビデオシーケンスをエンハンスするための反復アルゴリズムを提案している。MPEGソースについて、ピクチャ品質の劣化は、量子化機能によりほとんど引き起こされる。よって、著者らにより用いられた反復グラジエントプロジェクションアルゴリズムは、符号化情報である量子化ステップサイズ、マクロブロックタイプ、およびコスト関数の前方動きベクトルを用いる。そのアルゴリズムは、低ビットレートビデオではすばらしい結果を示すが、その方法は計算が非常に複雑であるという限界がある。
B. Martins、S. Forchammerによる「MPEG-2符号化ビデオの改良デコーディング」(Proc. Of IBC’ 2000, Amsterdam, The Netherlands, Sept. 7-12, 2000, pp. 109-115)において、著者らはMPEG-2符号化ビデオの復号を向上する新しいコンセプトを説明している。特に、デ・インターレースとフォーマット変換への統一されたアプローチが、復号プロセスと統合されて提案されている。その技術は、通常の復号で得られるよりかなり高いピクチャ品質を結果として提供する。しかし、現在まで、その計算は複雑なので、コンシューマアプリケーションには実装されていない。
上記論文は両方、MPEG符号化情報とコスト関数を用いたビデオエンハンスメントアルゴリズムを説明している。しかし、これらのシナリオは両方とも、実際的でないことに加え、エンハンスメントとコスト関数を併用する。コスト関数は、ピクチャのどの位置でどれだけエンハンスメントを適用することができるかを決定する。このコストとエンハンスメント機能の組み合わせから生じる問題は、コスト機能とはたった一つのアルゴリズムしか使用できないことである。
さらにまた、シャープネスエンハンスメントを向上する以前の試みは、MPEGビットストリームからの符号化情報のみを用いていた。以前のシャープネスエンハンスメントアルゴリズムは、異なるピクチャタイプであるIフレーム、Pフレーム、Bフレーム等の間を区別しなかった。結果として、符合化アーティファクトがあるピクチャ部分とない部分を区別しなかったので、最適なシャープネスエンハンスメント結果が達成できなかった。その結果は、次善のシャープネスエンハンスメントである。
本発明は、フレームの各ピクセルについてエンハンスメント有用性計量(UME)を計算し、そのUMEを用いてシャープネス(鮮明度)をエンハンス(強調)するシステムと方法を提供することにより、上記問題その他を解決する。第1の態様において、本発明は、ブロックベースのデータのフレームを表す符合化デジタルビデオ信号のシャープネスをエンハンスするシステムであって、前記システムは、(1)フレームタイプにより前記フレームの各ピクセルのエンハンスメント有用性計量(UME)を計算するシステムと、ここで、前記計算するシステムは、前記フレームの局所空間的特徴を定義するメカニズムと、前記フレームのブロックベースの動き推定を分析するメカニズムと、前記フレームのシーン変化を検出するメカニズムとを含み、(2)前記UMEに基づき前記デジタルビデオの復号されたバージョンにシャープネスをエンハンスするシャープネスエンハンサとを有することを特徴とするシステムを提供する。
第2の態様において、本発明は、ブロックベースのデータのフレームの符号化されたデジタルビデオ信号表示のシャープネスをエンハンスする方法であって、前記方法は、前記フレームの局所空間的特徴(フィーチャ)を定義するメカニズムを設けるステップと、前記フレームのブロックベースの動き推定を分析するメカニズムを設けるステップと、前記フレームのシーン変化を検出するメカニズムを設けるステップと、局所空間的特徴(フィーチャ)、ブロックベースの動き推定、および検出されたシーン変化に基づき、前記フレームの各ピクセルのエンハンスメント有用性計量(UME)を計算するステップと、各ピクセルについて計算した前記UMEを適用することにより前記フレームのシャープネスを向上するステップとを有することを特徴とする方法を提供する。
第3の態様において、本発明は、ビデオデータのフレーム中の各ピクセルのエンハンスメント有用性計量(UME)を計算するため、記録媒体に記憶されたプログラムプロダクトであって、前記プログラムプロダクトは、前記フレームの局所空間的特徴(フィーチャ)を定義する手段と、前記フレームのブロックベースの動き推定を分析する手段と、前記フレームのシーン変化を検出する手段とを有することを特徴とするプログラムプロダクトを提供する。
本発明の好ましい実施形態について詳しく説明する。この実施形態の例は添付した図面に示されている。本発明の方法および対応するステップがシステムの詳しい説明と共に説明される。
I. 概観
下で説明するが図1から8および本発明のシステムと方法の原理を説明する多様な実施形態は、単なる例示であって、本発明の範囲を限定するものと解釈してはならない。本発明のシステムと方法は、符号化されたデジタルビデオ信号の画像品質をエンハンス(強調)するシステムと方法として説明される。本発明のシステムと方法はデジタルテレビセットに限定されないことに気づくことが重要である。テレビレシーバ、セットトップボックス、記憶デバイス、コンピュータビデオディスプレイシステム、その他デジタルビデオ信号を用いあるいは処理するいかなるタイプの電子機器をも含むがこれに限定はされない、いかなるタイプのデジタルビデオシステムにも本発明の原理をうまく適用することができることを、当業者は容易に理解するであろう。「デジタルビデオシステム」という用語は、現在または将来において取得可能なデジタルビデオシステムまたはこれと類似したタイプの機器を意味する。以下の実施形態の例において、デジタルテレビセットはデジタルビデオシステムの代表的な例として用いる。
下で説明するが図1から8および本発明のシステムと方法の原理を説明する多様な実施形態は、単なる例示であって、本発明の範囲を限定するものと解釈してはならない。本発明のシステムと方法は、符号化されたデジタルビデオ信号の画像品質をエンハンス(強調)するシステムと方法として説明される。本発明のシステムと方法はデジタルテレビセットに限定されないことに気づくことが重要である。テレビレシーバ、セットトップボックス、記憶デバイス、コンピュータビデオディスプレイシステム、その他デジタルビデオ信号を用いあるいは処理するいかなるタイプの電子機器をも含むがこれに限定はされない、いかなるタイプのデジタルビデオシステムにも本発明の原理をうまく適用することができることを、当業者は容易に理解するであろう。「デジタルビデオシステム」という用語は、現在または将来において取得可能なデジタルビデオシステムまたはこれと類似したタイプの機器を意味する。以下の実施形態の例において、デジタルテレビセットはデジタルビデオシステムの代表的な例として用いる。
本発明は、例えば、ハイデフィニション機能とロングプレイ(LP)モードがあるビデオ記憶アプリケーションにあるようなハイデフィニション(HD)シーケンスとスタンダードデフィニション(SD)シーケンスに適用することが可能である。上記のビデオシーケンスの大多数は、放送されたMPEG-2ビットストリームからより低い記憶ビットレートに符号変換される。このアプリケーションのロングプレイ(LP)では、符号変換の間にフォーマット変更も行うことができる。符号化され、復号され、本発明によりシャープネスエンハンスメントアルゴリズムで処理されたタスタンダードデフィニション(SD)ビデオシーケンスまたはハイデフィニション(HD)ビデオシーケンスは、符号化情報を用いないアルゴリズムと比較して、アプリオリな符号化または符号変換されたビデオシーケンスの優れたビデオ品質を提供する。
図1は、本発明の装置と方法を用いるデジタルテレビセット100のブロック図である。デジタルテレビセット100は、テレビレシーバ110とディスプレイ部115を有する。ディスプレイ部115は、冷陰極管、フラットパネルディスプレイ、その他ビデオ画像を表示する装置であってもよい。テレビレシーバ110は、テレビ信号を受信するアンテナ105を有する。アンテナ105はチューナ120に結合されている。チューナ120は中間周波数(IF)プロセッサ125に結合されている。IFプロセッサ125は、ここで実施されているように、デコーダ130に結合されている。MPEGデコーダが描かれているが、本発明はMPEGタイプの符号化/複合アプリケーションに限定はされない。他の実施形態において、いかなるブロックベースの圧縮スキーム、例えば、JPEG(静止画圧縮標準)、MPEG-1,2,4(デジタルビデオ標準)、H.261、H.263(テレビ会議標準)その他を用いてもよい。これらの標準において、2次元(2D)DCT(離散コサイン変換)が、圧縮される画像内の8x8ピクセルのブロックに適用される。DCTにより得られた64(8x8=64)個の係数は、実際に圧縮するため量子化される。一般的な画像では、8x8ピクセルのブロックにDCTをかけて得られるDCT係数のほとんどは小さく、量子化するとゼロになる。現実世界の画像におけるDCTのこの特性は、圧縮スキームにとって重要である。
本発明によると、デジタルビデオシステムの少なくとも1つのフレームを代表する符号化されたデジタルビデオ信号の画像品質をエンハンスする方法および対応するシステムが提供される。この方法は、一般に、下で詳しく説明するように、符号化されたデジタルビデオ信号をエンハンスするために適用されるエンハンスメント有用性計量(UME)を生成するステップを含む。特に、UMEは、一般に0と1の間の値であるゲイン値を有する。UMEはフレーム内の各ピクセルについて計算され適用される。UMEの計算は様々な基準に基づき、その基準には(1)フレーム中の局所空間的特徴(フィーチャ)、(2)ブロックベースの動き推定、(3)シーン変化検出、(4)符号化情報、および(5)フレームタイプが含まれる。一旦計算されると、UMEはエンハンスされたデジタルビデオ信号を生成するために、少なくとも1つのシャープネスエンハンスメントアルゴリズムに適用される。
図2は、本発明の一実施形態を示すシステム図である。図2の実施されたシステムの実装については、下でより詳しく説明する。フレーム(フレームt)を処理するUMEジェネレータ151が設けられている。UMEジェネレータ151は、フレームt中の各8x8ブロック内の各ピクセルのUME160を計算するために、符号化情報150を用い、同様にその他の分析メカニズム154、156、および158を用いる。一旦計算されると、UME160は、エンハンスされたフレームt´164を生成するために、少なくとも1つのシャープネスエンハンスメントアルゴリズム162に適用されることができる。
図1を再度参照して、MPEGデコーダ130の出力は、シャープネスエンハンスメントアルゴリズムの適用のため後処理回路135に結合される。限定ではなく例示として、後処理回路135は、本発明のUMEシステムを有する適応ピーキング部140を有していてもよい。適応ピーキング部140は、後処理回路135内の適当な位置にあってもよい。後処理回路135の出力はディスプレイ部115に入力される。
ここで実施形態として示したように、例示のため、適応ピーキング部140は、MPEGデコーダ130から受信したビデオ信号を処理する。適応ピーキング部140は、適応ピーキングプロセスでこの例のUMEを用いる。本発明のシステムおよび方法は適応ピーキングのプロセスに限定されるものではない。UMEは、別の複数のタイプのビデオエンハンスメントアルゴリズムで用いてもよい。
適応ピーキング部140は、分析メカニズムにより提供されるその他の情報と同様にビデオ信号中の符号化情報を考慮するように、ビデオ信号を処理する。その他の情報とは、すなわち、ブロックベースの動き推定156、UMEジェネレータ151(図2)内のシーン変化検出158である。適応ピーキング部140の出力は、MPEGデコーダ130から受信したビデオ信号のエンハンスされた輝度信号である。適応ピーキング部140により決定される輝度信号は、下でさらに説明するように、先行技術である適応ピーキング部により提供されるより正確で視覚的に顕著なビデオ画像を提供する。適応ピーキング部140は、後処理回路135内の他の回路にエンハンスされた輝度信号を転送する。後処理回路135は、ビデオ信号の品質をエンハンスすることができる。
後処理回路135は、いくつかの異なるタイプのビデオ信号処理を実行することができる。例えば、(a)ノイズレベル適応ノイズリダクションアルゴリズム、(b)ノイズレベル適応シャープネスエンハンスメント、(c)ノイズレベル適応輝度−クロミナンス分離、(d)ノイズレベル適応動き検出、(e)ノイズレベル適応動き推定および補間、(f)ノイズレベル適応アップコンバージョン、(g)ノイズレベル適応機能(フィーチャ)エンハンスメント、(h)ノイズレベル適応オブジェクトベースアルゴリズムがビデオ信号処理アプリケーションに含まれる。
図3は、本発明の一実施形態による適応ピーキング部140のシステムと方法を示すブロック図である。図3は、本発明のUMEがシャープネスエンハンスメントの適応ピークアルゴリズムにどのように適用可能であるかを示す図である。適応ピーキングアルゴリズムは、入力輝度信号210の過渡現象の振幅を増加することに向けられる。適応ピーキングアルゴリズムは、従来、「アプリオリな」符号化された/符号変換されたビデオソースには最適なビデオ品質を常に提供できたわけではない。これは主として、MPEGソースの特徴が考慮に入れられなかったという事実による結果である。
適応ピーキングアルゴリズムにより用いられる原理は当該技術分野で周知である。適応ピーキングアルゴリズムの一例は、4つのピクセルベース制御ブロックを用いる。図3に示したように、4つの制御ブロックは、コントラスト制御ブロック225、ダイナミックレンジ制御ブロック230、クリッピング防止ブロック235、および適応コアリングブロック240である。コントラスト制御ブロック225はゲイン信号「g1」を生成する。ダイナミックレンジ制御ブロック230はゲイン信号「g2」を生成する。クリッピング防止ブロック235はゲイン信号「g3」を生成する。適応コアリングブロック240はゲイン信号「g4」を生成する。これらの4つのピクセルベースの制御ブロックは、コントラスト、ダイナミックレンジ、ノイズレベル等のビデオ信号の特定の局所的特徴を考慮に入れる。しかし、これら4つの制御ブロックは、ビデオ信号の符号化特性、動き推定、およびシーン変化に関する情報は考慮に入れない。
本発明によるシステムは、下でさらに説明するように、好ましいピーキング量を決定するために、特に、符号化情報215を用いるUME計算システム245を提供する。UME計算システム245はUME情報「gcoding」を生成する。
ダイナミックゲイン制御ブロック250は、最終ゲイン信号「g」を生成するため、5つのゲイン信号(g1, g2, g3, g4, gcoding)の最小値を選択する。乗算回路255は、2Dピーキングフィルタ260によりフィルタされたハイパス信号による最終ゲイン信号「g」をかける。加算器265は、乗算回路255からの積を輝度入力信号210により表されたピクセルの元の輝度値に加える。このように、エンハンスされた輝度出力信号270が生成される。これらの機能の各々は、当該技術分野で周知な好適なコンポーネントにより実行することが可能である。
限定ではなく例示するために、図4は、本発明による符号化されたデジタルビデオのシャープネスをエンハンスする一般的システムを示す。このシステムは、入力ビデオ信号210をフィルタするハイパスフィルタ260と、本発明の方法のうちのいずれかを通して決定されたUME220によるハイパスフィルタされた信号を乗算する乗算器255とを有する。乗算によりゲインコントロールされた信号が生成される。このシステムは、入力ビデオ信号210にゲインコントロールされた信号を加え、入力信号210と比較して向上したピクチャ品質を持つエンハンスされた輝度出力信号270を生成する加算器265をさらに含む。本発明の一実施形態において、使用されるハイパスフィルタは、
図4に示したように、シャープネスエンハンスメントシステムの結果は以下の通りである:
out_pixel=input_pixel+UME*convolution_result。ここで、output_pixelはそのピクセルに使用される最終輝度値であり、input_pixelはその入力ピクセルの輝度値であり、convolution_resultはハイパスフィルタ出力である。シャープネスエンハンスメントアルゴリズムの結果の信号表示は、フレームの各ピクセルについて知られた仕方により生成される。
out_pixel=input_pixel+UME*convolution_result。ここで、output_pixelはそのピクセルに使用される最終輝度値であり、input_pixelはその入力ピクセルの輝度値であり、convolution_resultはハイパスフィルタ出力である。シャープネスエンハンスメントアルゴリズムの結果の信号表示は、フレームの各ピクセルについて知られた仕方により生成される。
UMEは符号化特徴を説明するために計算されるので、そのUMEはブロッキングやリンギング等の符号化アーティファクトのエンハンスメントを防ぐ。よって、過剰なエンハンスメントにより引き起こされることもある、符号化が原因ではないアーティファクトの防止または削減は、このシャープネスエンハンスメントアルゴリズムの他の部分により解決されてもよい。
図5は、別の実施形態を示す。図5において、図3の4つの制御ブロック225、230、235、240は削除されている。UME計算システム245のみが残っている。ビットストリームにある符号化情報215(ブロックごと、または領域ベースで提供される)は復号手順の間に回復することができる。UME258は、局所空間的特徴(フィーチャ)、動き推定、シーン変化検出計算247と同様に、ビットストリームにあるMPEG符号化情報215から導き出される。UME258は、符号化アーティファクトを増加させることなく、ピクセルまたは領域をどの程度エンハンスできるかを決定する。本発明によると、復号中に直接取得されるMPEG情報の最小粒度は、(1)マクロブロック(MB)数量に基づく、(2)ブロックベース数量に基づくのいずれかである。しかし、空間(ピクセル)領域ビデオエンハンスメントについて、UMEは、好ましくは、最も高いピクチャ品質を確保するためにピクチャの各ピクセルについて計算される。UME値は以下の基準を用いて計算される。
II. UME分析メカニズム
前述したように、様々な基準または分析メカニズムがUMEを計算するために用いられる。図6−8に関して詳しく説明するように、異なる分析メカニズム、または分析メカニズムの組み合わせは、UMEを計算するために使用されてもよい。分析メカニズムの一部は単一の計算でピクセルのブロックについてUMEを計算し、他の分析メカニズムはブロックの各ピクセルについてUMEを別々に計算する。一実施形態において、UMEの値は、0から1の間にある。UMEの値が0であるとき、そのピクセルについてはシャープネスエンハンスメントが許されていないことを意味する。一方、UMEの値が1であるとき、そのピクセルは符号化アーティファクトをエンハンスするリスクなく自由にエンハンスできることを意味する。多様な分析メカニズムについて以下説明する。
A. 符号化情報
MPEG情報から容易に抽出できるパラメータの1つは、量子化パラメータ(q_scale)である。この量子化パラメータはすべての符号化されたマクロブロック(MB)にあるからである。量子化パラメータが大きいと量子化は粗くなり、それにより量子化エラーも大きくなる。大きい量子化エラーは符号化アーティファクトにつながる。その結果、量子化パラメータが大きいマクロブロック(MB)のピクセルのエンハンスメントは、より抑制される。
II. UME分析メカニズム
前述したように、様々な基準または分析メカニズムがUMEを計算するために用いられる。図6−8に関して詳しく説明するように、異なる分析メカニズム、または分析メカニズムの組み合わせは、UMEを計算するために使用されてもよい。分析メカニズムの一部は単一の計算でピクセルのブロックについてUMEを計算し、他の分析メカニズムはブロックの各ピクセルについてUMEを別々に計算する。一実施形態において、UMEの値は、0から1の間にある。UMEの値が0であるとき、そのピクセルについてはシャープネスエンハンスメントが許されていないことを意味する。一方、UMEの値が1であるとき、そのピクセルは符号化アーティファクトをエンハンスするリスクなく自由にエンハンスできることを意味する。多様な分析メカニズムについて以下説明する。
A. 符号化情報
MPEG情報から容易に抽出できるパラメータの1つは、量子化パラメータ(q_scale)である。この量子化パラメータはすべての符号化されたマクロブロック(MB)にあるからである。量子化パラメータが大きいと量子化は粗くなり、それにより量子化エラーも大きくなる。大きい量子化エラーは符号化アーティファクトにつながる。その結果、量子化パラメータが大きいマクロブロック(MB)のピクセルのエンハンスメントは、より抑制される。
他の便利な情報は、マクロブロック(MB)またはブロックを符号化するために費やしたビット数(num_bits)である。ブロックを符号化するのに費やしたビットが少ないほど、そのブロックの品質は低くなる。しかし、この量(num_bits)は、シーンコンテント、ビットレート、I(intra)・P(predicted)・B(bidirectionally predicted)等のフレームタイプ、動き推定、動き補間等にも強く依存する。
ブロック内に存在するDCT係数の分布を考慮することも可能である。また、動きベクトルは、エンハンスするビデオの時間的特徴の情報を取得するために使用することもできる。MPEG符号化で推定され使用された動きベクトルは、必ずしもビデオ中の真の動きを表していないことはよく知られている。しかし、動きベクトルは静的エリアを特定する役に立ち、たとえその動きベクトルが信頼できなくてもフレームからフレームへのエンハンスメントの時間的一貫性を向上させるために使用することができる。
量子化パラメータ(q_scale)およびマクロブロックまたはブロックを符号化するために費やしたビット数(num_bits)の両方は、MPEG符号化のレート制御計算で広く用いられている。
通常、量子化パラメータがより大きいと符号化アーティファクトが増加するので、UMEは一般的に量子化パラメータq_scaleとは逆数の関係にある。
本発明の一実施形態によると、UMEジェネレータ215は、次式(1)により各8x8ブロックのUMEを計算することができる:
B. 局所空間的特徴(フィーチャ)
図5に示したように、UME220の計算は計算247にさらに依存してもよい。これらの計算の1つは、局所空間的特徴(フィーチャ)の分析を含む。局所空間的特徴(フィーチャ)は、nxnピクセルをカバーするnxnウィンドウにわたり各ピクセルの輝度値の分散として定義される。分散は次式(2)により定義される:
C. ブロックベースの動き推定
UME220の計算は、以下の分析を用いて各ブロックから取得した動き推定情報にさらに基づいてもよい。
ブロック
2つのブロックタイプは次のように定義される:動きの特徴がより少ない「静的ブロック」と動きの特徴がより多い「動的ブロック」。一実施形態において、以下の条件(5)
D. シーン変化検出
シーン変化検出の目標は、ビデオシーケンス中の連続するフレームのコンテント変化を検出することである。正確なシーン変化検出は、ビデオ処理アルゴリズムの実行を向上する。例えば、シーン変化検出により、異なるシーンコンテントにおいてビデオエンハンスメントアルゴリズムがパラメータを調整するようにすることができる。シーン変化検出はビデオ圧縮アルゴリズムで使用することもできる。
シーン変化検出は、特にシーンが劇的に変化したとき、異なるシーン間の強制的な時間的一貫性はピクチャ品質を劣化させるので、UME計算のさらなるステップとして組み込まれてもよい。
既知のいかなるシーン変化検出方法を用いてもよい。例えば、ビデオの連続するフレーム間の差異を計算し、複数の差異値を得る方法でもよい。差異値のヒストグラムをとってもよい。そのヒストグラム中の差異値の大部分が所定値を超えたときシーン変化が検出される。
III. UME計算
以下の実施形態において、フレームがIフレーム、Pフレーム、Bフレームのどれかにより、UMEの計算は異なる。具体的に、図6はIフレームの場合の計算を説明し、図8はPおよびBフレームの場合の計算を説明し、図7は両方の場合に用いられるサブルーチン「ボックスI」を含む。
III. UME計算
以下の実施形態において、フレームがIフレーム、Pフレーム、Bフレームのどれかにより、UMEの計算は異なる。具体的に、図6はIフレームの場合の計算を説明し、図8はPおよびBフレームの場合の計算を説明し、図7は両方の場合に用いられるサブルーチン「ボックスI」を含む。
まず図6−7を参照して、IフレームのUME計算を示すフロー図が示されている。最初のステップS1において、最初のUME値がボックスIにより計算される。ボックスIのフローチャートは図7に示されている。すなわち、ステップS13において、条件C2がテストされる。
条件C2は(var<VAR_THRED)or(num_bits==0)と定義される。ここで、varは上記の式(2)により計算され、VAR_THREDの値は例えば70である。条件C2が満たされないとき、ステップS15において上記式(1)によりUME_blockとして計算される。逆に、条件が満たされたとき、ステップS14においてUMEはゼロに設定される。後者の場合は、var値が非常に小さいか、ブロックにDC係数しかないかいずれかであることを示唆する。よって、後者の場合は、カレントピクセルを中心とする近傍はプレインエリアであり、ブロックアーティファクトが存在するかも知れず、シャープネスエンハンスメントは避けるべきであることが分かる。
次に、ステップS2において、シーン変化があったかどうか判断する。シーン変化があったとき、ステップS4においてアルゴリズムが終了する。ステップS1で計算された値が最終のUME値である。Iフレームについては、カレントIフレームの前のGOP(group of pictures)でPフレームまたはBフレームいずれかにシーン変化があったとき、またはカレントIフレームでシーン変化が検出されたときに、シーン変化のフラグが真とされる。
また、カレントIフレームが
GOPの第1または第2のIフレームであるとき、ステップS1はUMEの計算のみに用いられる。すなわち、シーン変化が推定される。よって、第1のGOPは通常不確実性が大きいまま符号化されるという事実により、前のフレームについて計算されたUME値は信頼されないであろう。エンコーダは、デフォルトの符号化パラメータの特定の画像シーケンスに当てはめるのに、ほとんどフレームを要しないからである。
GOPの第1または第2のIフレームであるとき、ステップS1はUMEの計算のみに用いられる。すなわち、シーン変化が推定される。よって、第1のGOPは通常不確実性が大きいまま符号化されるという事実により、前のフレームについて計算されたUME値は信頼されないであろう。エンコーダは、デフォルトの符号化パラメータの特定の画像シーケンスに当てはめるのに、ほとんどフレームを要しないからである。
シーン変化が検出されなかったとき、式(5)により、ステップS3において、カレントブロックが静的ブロックであるかどうか判断する。静的ブロックであるとき、ステップS6において、UMEはリセットされ、前のフレームの同じ位置のピクセルと同じ値とされる。カレントブロックが静的ブロックではないとき(すなわち、動的ブロックであるとき)、ステップS5において、式(6)により、動きベクトルV’=(v’,h’)を見つける。次に、ステップS7で、v’とh’の両方がゼロであるか判断する。もし一方または両方がゼロでなければ、ステップS8において、条件C1をテストする。ここで、条件C1は
UME=[0.9*UME]+[0.1*UME_prev(v’,h’)]
によりUMEを計算する。ここで、UME_prev(v’,h’)は前のフレームの動きベクトル(v’,h’)により示されるピクセルのUME値である。
あるいは、ステップS7において、v’とh’の両方がゼロであると判断されたとき、ステップS9Aにおいて、条件C1がテストされる。条件C1が真でないとき、ステップS12においてUMEはゼロに設定される。条件C1が真であるとき、次式:
UME=[0.1*UME]+[0.9*UME_prev]
によりUMEが計算される。ここで、UME_prevは前のフレームの同じ位置のピクセルの前記UME値である。
UME=[0.1*UME]+[0.9*UME_prev]
によりUMEが計算される。ここで、UME_prevは前のフレームの同じ位置のピクセルの前記UME値である。
図8を参照して、PまたはBフレーム中のピクセルのUMEを計算するフローチャートが示されている。最初に、ステップS20において、シーン変化が生じたかどうか判断する。シーン変化が発生した場合、ステップS21において、条件C3がテストされる。ここで、C3は条件:イントラブロックかつ
カレントブロックが静的ブロックでないとき、ステップS25において、動きベクトル(v’,h’)が計算される。ステップS26において、動きベクトル成分v’とh’がテストされる。一方または両方の成分がゼロでないとき、ステップS27において、条件C1がテストされる。C1が真でないとき、ステップS29において、UMEはゼロに設定される。C1が真であるとき、ステップS30において、UMEはUME_prev(v’,h’)に設定される。ここで、UME_prev(v’,h’)は前のフレームの動きベクトル(v’,h’)により示されるピクセルのUME値である。
ステップS26において、両方の成分v’とh’がゼロであるとき、ステップS28において、条件C1がテストされる。C1が真でないとき、ステップS32において、UMEはゼロに設定される。C1が真であるとき、ステップS31において、UMEはUME_prevに設定される。ここで、UME_prevは前のフレーム中の同じ位置にあるピクセルのUME値である。
最後に、(ステップS23に戻って)カレントブロックが静的ブロックであると判断したとき、ステップS24において、UMEはリセットされ、前のフレームの同じ位置にあるブロックの値と同じ値にされる。次のステップS28は、上で説明した仕方で繰り返される。
本発明の方法とシステムは、上で説明し、図面に示したように、シャープネスエンハンスメントアルゴリズムを用いることにより、デジタル符号化されたビデオ信号の品質をエンハンスするための改良された方法を提供する。当業者には、本発明の精神と範囲から逸脱することなく、本発明の方法とシステムにおいて多様な変更とバリエーションが可能であることが明らかであろう。よって、本発明は、添付したクレームとその均等の範囲内にある変更とバリエーションを含むことを意図したものである。
Claims (15)
- ブロックベースのデータのフレームを表す符合化デジタルビデオ信号のシャープネスをエンハンスするシステムであって、前記システムは、
−フレームタイプにより前記フレームの各ピクセルのエンハンスメント有用性計量(UME)を計算するシステムと、ここで、前記計算するシステムは、
−前記フレームの局所空間的特徴を定義するメカニズムと、
−前記フレームのブロックベースの動き推定を分析するメカニズムと、
−前記フレームのシーン変化を検出するメカニズムとを含み、
−前記UMEに基づき前記デジタルビデオの復号されたバージョンにシャープネスを向上するシャープネスエンハンサとを有することを特徴とするシステム。 - 請求項3に記載のシステムであって、前記フレームのブロックベースの動き推定を分析する前記メカニズムは、前記ブロックが静止ブロックであるかどうかを決定することを特徴とするシステム。
- 請求項6に記載のシステムであって、前記ブロックが静止ブロックでないとき、前記計算するシステムはv’とh’の両方がゼロであるか決定するためテストすることを特徴とするシステム。
- 請求項7に記載のシステムであって、前記ブロックが静止ブロックでなく、var<VAR_THREDであるとき、前記計算するシステムは前記UMEをゼロに設定し、VAR_THREDは所定の閾値であることを特徴とするシステム。
- 請求項1に記載のシステムであって、前記シャープネスエンハンスメントアルゴリズムは、ピーキングアルゴリズムであることを特徴とするシステム。
- 請求項1に記載のシステムであって、前記シャープネスエンハンスメントアルゴリズムは、空間領域アルゴリズムであることを特徴とするシステム。
- 請求項1に記載のシステムであって、前記適用されたシャープネスエンハンスメントアルゴリズムは
out_pixel=input_pixel+UME*convolution_result
であり、ここでoutput_pixelは前記ピクセルに使用される最終輝度値であり、input_pixelは前記入力ピクセルの輝度値であり、convolution_resultはハイパスフィルタ出力であることを特徴とするシステム。 - ブロックベースのデータのフレームの符号化されたデジタルビデオ信号表示のシャープネスをエンハンスする方法であって、
−前記フレームの局所空間的特徴(フィーチャ)を定義するステップと、
−前記フレームのブロックベースの動き推定を分析するステップと、
−前記フレームのシーン変化を検出するステップと、
−局所空間的特徴(フィーチャ)、ブロックベースの動き推定、および検出されたシーン変化に基づき、前記フレームの各ピクセルのエンハンスメント有用性計量(UME)を計算するステップと、
−各ピクセルについて計算した前記UMEを適用することにより前記フレームのシャープネスを向上するステップとを有することを特徴とする方法。 - ビデオデータのフレーム中の各ピクセルのエンハンスメント有用性計量(UME)を計算するため、記録媒体に記憶されたプログラムプロダクトであって、前記プログラムプロダクトは、
−前記フレームの局所空間的特徴(フィーチャ)を定義する手段と、
−前記フレームのブロックベースの動き推定を分析する手段と、
−前記フレームのシーン変化を検出する手段と、
−前記定義する手段、分析する手段、検出する手段を用いて、前記エンスメント有用性計量(UME)を計算する手段とを有することを特徴とするプログラムプロダクト。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/139,175 US7031388B2 (en) | 2002-05-06 | 2002-05-06 | System for and method of sharpness enhancement for coded digital video |
PCT/IB2003/001691 WO2003094111A1 (en) | 2002-05-06 | 2003-04-23 | System for and method of sharpness enhancement for coded digital video |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005525014A true JP2005525014A (ja) | 2005-08-18 |
JP2005525014A5 JP2005525014A5 (ja) | 2006-06-15 |
Family
ID=29269522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004502249A Withdrawn JP2005525014A (ja) | 2002-05-06 | 2003-04-23 | 符号化されたデジタルビデオのためのシャープネスエンハンスメントのシステムおよび方法 |
Country Status (9)
Country | Link |
---|---|
US (1) | US7031388B2 (ja) |
EP (1) | EP1506525B1 (ja) |
JP (1) | JP2005525014A (ja) |
KR (1) | KR20040102211A (ja) |
CN (1) | CN100370484C (ja) |
AT (1) | ATE310996T1 (ja) |
AU (1) | AU2003225481A1 (ja) |
DE (1) | DE60302456T2 (ja) |
WO (1) | WO2003094111A1 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8135073B2 (en) | 2002-12-19 | 2012-03-13 | Trident Microsystems (Far East) Ltd | Enhancing video images depending on prior image enhancements |
AU2003303269A1 (en) * | 2002-12-20 | 2004-07-14 | Koninklijke Philips Electronics N.V. | Enhancing video images depending on prior image enhancements |
JP2007501561A (ja) * | 2003-08-06 | 2007-01-25 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ブロックアーティファクトの検出 |
WO2005045764A1 (en) * | 2003-11-07 | 2005-05-19 | Koninklijke Philips Electronics N.V. | Video encoding method and device |
KR100772215B1 (ko) * | 2005-12-30 | 2007-11-01 | 엘지전자 주식회사 | 영상표시기기의 영상 제어장치 및 방법 |
US7852412B1 (en) * | 2006-02-27 | 2010-12-14 | Nvidia Corporation | Video noise level detection |
JP4615508B2 (ja) * | 2006-12-27 | 2011-01-19 | シャープ株式会社 | 画像表示装置及び方法、画像処理装置及び方法 |
JP2008225241A (ja) * | 2007-03-14 | 2008-09-25 | Fujitsu Ltd | 映像信号処理装置、映像信号処理方法及び映像信号処理プログラム |
JP4922839B2 (ja) * | 2007-06-04 | 2012-04-25 | 三洋電機株式会社 | 信号処理装置、映像表示装置及び信号処理方法 |
JP4279332B2 (ja) * | 2007-10-31 | 2009-06-17 | 株式会社東芝 | 順次走査変換装置及び順次走査変換方法 |
US9407925B2 (en) * | 2008-10-30 | 2016-08-02 | Vixs Systems, Inc. | Video transcoding system with quality readjustment based on high scene cost detection and method for use therewith |
US8953688B2 (en) * | 2010-11-08 | 2015-02-10 | Sony Corporation | In loop contrast enhancement for improved motion estimation |
US9014493B2 (en) * | 2011-09-06 | 2015-04-21 | Intel Corporation | Analytics assisted encoding |
US20150146981A1 (en) * | 2013-09-05 | 2015-05-28 | Tp Vision Holding B.V. | Apparatus and method for converting input image data into output image data, image conversion unit for converting input image data into output image data, image processing apparatus, display device |
US9832467B2 (en) * | 2014-10-07 | 2017-11-28 | Qualcomm Incorporated | Deblock filtering for intra block copying |
EP3016383B1 (en) * | 2014-11-03 | 2017-06-21 | Axis AB | Method, device, and system for pre-processing a video stream for subsequent motion detection processing |
KR102601350B1 (ko) * | 2016-05-31 | 2023-11-13 | 엘지디스플레이 주식회사 | 데이터 압축 방법 및 이를 이용한 표시 장치 |
US11019349B2 (en) * | 2017-01-20 | 2021-05-25 | Snap Inc. | Content-based client side video transcoding |
CN106961628B (zh) * | 2017-03-24 | 2020-04-28 | 北京金山安全软件有限公司 | 视频播放方法、装置以及电子设备 |
US20230028736A1 (en) * | 2021-07-22 | 2023-01-26 | Qualcomm Incorporated | Configurable image enhancement |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0721286A3 (en) * | 1995-01-09 | 2000-07-26 | Matsushita Electric Industrial Co., Ltd. | Video signal decoding apparatus with artifact reduction |
US6011864A (en) * | 1996-07-03 | 2000-01-04 | Apple Computer, Inc. | Digital image coding system having self-adjusting selection criteria for selecting a transform function |
EP0945001B1 (en) * | 1996-12-18 | 2003-04-23 | Thomson Consumer Electronics, Inc. | A multiple format video signal processor |
US6466624B1 (en) * | 1998-10-28 | 2002-10-15 | Pixonics, Llc | Video decoder with bit stream based enhancements |
JP2002535896A (ja) * | 1999-01-15 | 2002-10-22 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 鮮明度を向上させる方法および装置 |
CN1181690C (zh) * | 1999-07-20 | 2004-12-22 | 皇家菲利浦电子有限公司 | 用于压缩视频序列的编码方法 |
EP1129579A1 (en) * | 1999-09-14 | 2001-09-05 | Koninklijke Philips Electronics N.V. | Method and device for identifying block artifacts in digital video pictures |
EP1157543A1 (en) * | 1999-12-17 | 2001-11-28 | Koninklijke Philips Electronics N.V. | Signal peaking |
KR100323678B1 (ko) * | 2000-02-28 | 2002-02-07 | 구자홍 | 화면비 변환 장치 |
US6950561B2 (en) * | 2001-01-10 | 2005-09-27 | Koninklijke Philips Electronics N.V. | Method and system for sharpness enhancement for coded video |
US6873657B2 (en) * | 2001-12-27 | 2005-03-29 | Koninklijke Philips Electronics, N.V. | Method of and system for improving temporal consistency in sharpness enhancement for a video signal |
US6862372B2 (en) * | 2001-12-27 | 2005-03-01 | Koninklijke Philips Electronics N.V. | System for and method of sharpness enhancement using coding information and local spatial features |
-
2002
- 2002-05-06 US US10/139,175 patent/US7031388B2/en not_active Expired - Fee Related
-
2003
- 2003-04-23 EP EP03747519A patent/EP1506525B1/en not_active Expired - Lifetime
- 2003-04-23 DE DE60302456T patent/DE60302456T2/de not_active Expired - Fee Related
- 2003-04-23 WO PCT/IB2003/001691 patent/WO2003094111A1/en active IP Right Grant
- 2003-04-23 JP JP2004502249A patent/JP2005525014A/ja not_active Withdrawn
- 2003-04-23 AT AT03747519T patent/ATE310996T1/de not_active IP Right Cessation
- 2003-04-23 KR KR10-2004-7017857A patent/KR20040102211A/ko not_active Application Discontinuation
- 2003-04-23 AU AU2003225481A patent/AU2003225481A1/en not_active Abandoned
- 2003-04-23 CN CNB038100975A patent/CN100370484C/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US7031388B2 (en) | 2006-04-18 |
DE60302456T2 (de) | 2006-08-03 |
EP1506525A1 (en) | 2005-02-16 |
EP1506525B1 (en) | 2005-11-23 |
ATE310996T1 (de) | 2005-12-15 |
AU2003225481A1 (en) | 2003-11-17 |
KR20040102211A (ko) | 2004-12-03 |
CN1650328A (zh) | 2005-08-03 |
WO2003094111A1 (en) | 2003-11-13 |
DE60302456D1 (de) | 2005-12-29 |
CN100370484C (zh) | 2008-02-20 |
US20030206591A1 (en) | 2003-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6862372B2 (en) | System for and method of sharpness enhancement using coding information and local spatial features | |
US10013746B2 (en) | High dynamic range video tone mapping | |
EP1506525B1 (en) | System for and method of sharpness enhancement for coded digital video | |
US6873657B2 (en) | Method of and system for improving temporal consistency in sharpness enhancement for a video signal | |
US8218655B2 (en) | Method, system and device for improving video quality through in-loop temporal pre-filtering | |
US20060110062A1 (en) | Edge adaptive filtering system for reducing artifacts and method | |
JP2006519565A (ja) | ビデオ符号化 | |
US6950561B2 (en) | Method and system for sharpness enhancement for coded video | |
JP2005159419A (ja) | 画像処理装置及び方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体 | |
JP2009532741A6 (ja) | プリプロセッサ方法および装置 | |
KR20050084266A (ko) | 디지털 비디오 처리용 통합 규준 | |
US7161633B2 (en) | Apparatus and method for providing a usefulness metric based on coding information for video enhancement | |
Yang et al. | A new enhancement method for digital video applications | |
Basavaraju et al. | Modified pre and post processing methods for optimizing and improving the quality of VP8 video codec | |
JP2006121131A (ja) | ノイズ検出装置及びノイズ検出プログラム | |
WO1999059342A1 (en) | Method and system for mpeg-2 encoding with frame partitioning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060420 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060420 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20070528 |