JP2005525014A - 符号化されたデジタルビデオのためのシャープネスエンハンスメントのシステムおよび方法 - Google Patents

符号化されたデジタルビデオのためのシャープネスエンハンスメントのシステムおよび方法 Download PDF

Info

Publication number
JP2005525014A
JP2005525014A JP2004502249A JP2004502249A JP2005525014A JP 2005525014 A JP2005525014 A JP 2005525014A JP 2004502249 A JP2004502249 A JP 2004502249A JP 2004502249 A JP2004502249 A JP 2004502249A JP 2005525014 A JP2005525014 A JP 2005525014A
Authority
JP
Japan
Prior art keywords
ume
frame
block
pixel
sharpness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004502249A
Other languages
English (en)
Other versions
JP2005525014A5 (ja
Inventor
ヤン,イビン
ボロツキー,リラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of JP2005525014A publication Critical patent/JP2005525014A/ja
Publication of JP2005525014A5 publication Critical patent/JP2005525014A5/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/66Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission for reducing bandwidth of signals; for improving efficiency of transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/12Systems in which the television signal is transmitted via one channel or a plurality of parallel channels, the bandwidth of each channel being less than the bandwidth of the television signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)
  • Picture Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

ビデオデータのフレーム中の各ピクセルのUMEを計算する方法とシステムである。ブロックベースのデータのフレームを表す符合化デジタルビデオ信号のシャープネスをエンハンスするシステムは、フレームタイプにより前記フレームの各ピクセルのUMEを計算するシステムと、ここで、前記計算するシステムは、前記フレームの局所空間的特徴を定義するメカニズムと、前記フレームのブロックベースの動き推定を分析するメカニズムと、前記フレームのシーン変化を検出するメカニズムとを含み、前記UMEに基づき前記デジタルビデオの復号されたバージョンにシャープネスを向上するシャープネスエンハンサとを有する。

Description

発明の詳細な説明
本発明は、符号化情報、局所空間的特徴、および動き情報を用いてデジタルビデオ信号の品質を向上するシステムおよび方法に関する。本発明のシステムおよび方法は、符号化によるアーティファクトを強めることなくデジタルビデオを符号化またはコード変換されたデジタルビデオのシャープネスをエンハンス(強調)する。
セットトップボックス、ハイエンドテレビ、デジタルテレビ、パーソナルテレビ、記憶装置、PDA、ワイヤレスインターネット機器等の高品質マルチメディア機器の開発は、多様なアーキテクチャが用いられ、新しい機能(フィーチャ)に対しより開放的である。さらにまた、これら新製品および任意のフォーマットのビデオデータを表示するその能力の開発は、ビデオ処理とビデオエンハンスメントアルゴリズムに関して新しい要望と機会を生んでいる。
MPEG(Moving Picture Expert Group)ビデオ圧縮は、現在あるおよび現れつつある多数の製品で使用されている。MPEGは、デジタルテレビセットトップボックス、DSS、HDTVデコーダ、DVDプレーヤ、テレビ会議、インターネットビデオ、その他のアプリケーションの中心である。これらのアプリケーションは、ビデオ情報の保管に要する記憶スペースが少なくても済むこと、一箇所から他の場所へビデオ情報を送信するのにバンド幅が少なくて済むこと、またはこれらの組み合わせによりビデオ圧縮から利益を得ている。これら機器のほとんどは、MPEG-2フォーマットでビデオを受信および/または記憶する。将来的には、MPEG-4フォーマットのビデオを受信および/または記憶してもよい。これらMPEGソースの画像品質は大きく異なることもある。
人間の視覚システムに関する研究により、眼は輝度の変化により敏感であり、クロミナンスの変化には余り敏感でないことが示された。MPEGは、眼の輝度およびクロミナンスへの感度の違いを効率的に利用するように色空間で動作する。よって、MPEGは、データの値を表すのに、RGBではなく、YCbCr色空間を用いる。ここで、Yは輝度成分であり、実験的にY=0.299R+0.587G+0.114Bである。Cbは青色差成分であり、Cb=B-Yである。また、Crは赤色差成分であり、Cr=R-Yである。
MPEGビデオは、エラーハンドリング、ランダムサーチおよび編集、若しくは例えばオーディオビットストリームとの同期を支援するため、レイヤの階層構造で構成される。第1のレイヤ、トップレイヤは、ビデオシーケンスレイヤとして知られ、例えば符号化された映画、広告、またはアニメーション等の任意の自己完結のビットストリームでよい。
第2レイヤは、第1レイヤの下にあり、GOP(Group Of Pictures)である。このGOPは、Iフレームおよび/または非I(PまたはB)ピクチャの1以上のグループから構成される。Iフレームは、厳密にイントラ圧縮されており、ビデオにランダムアクセスポイントを提供する。Pフレームは、動き補償された前方予測符号化されたフレームであり、フレーム間圧縮されており、一般的には圧縮の程度はIフレームより大きい。Bフレームは、動き補償された双方向予測符号化フレームであり、フレーム間圧縮されており、一般的には圧縮の程度が一番大きい。
第3のレイヤは、第2のレイヤの下にあり、ピクチャレイヤ自体である。第3のレイヤの下にある第4のレイヤはスライスレイヤと呼ばれる。各スライスはラスタ順のマクロブロックの連続シーケンスであり、典型的なビデオアプリケーションでは行ベースであることが多い。スライス構造は、エラーが発生したときも復号可能とすることを意図されている。各スライスはマクロブロックから構成されている。そのマクロブロックは、16x16アレイの輝度ピクセル、またはピクチャデータ要素であり、2つ以上の8x8アレイ(フォーマットによる)の関連するクロミナンスピクセルを伴う。マクロブロックは、別個の8x8ブロックにさらに分割でき、変換符号化等の処理がさらに可能である。マクロブロックは、YCbCr色空間を参照するとき、異なった仕方で表すことができる。よく使用される3つのフォーマット4:4:4、4:2:2、4:2:0が知られている。4:4:4は全バンド幅のYCbCrビデオである。4:2:2は、4:4:4の半分のクロミナンス情報を含む。4:2:0は4分の1のクロミナンス情報を含む。輝度とクロミナンスを表す効率的な仕方により、4:2:0表現はすぐに12ブロック/マクロブロックから6ブロック/マクロブロックへのデータ削減を可能とする。
IフレームはPフレームおよびBフレームと比較して圧縮が弱く、PフレームおよびBフレームではMPEG圧縮が最も効率的となる。効率は予測に基づく動き補償と呼ばれる技術により達成される。予測に基づく動き補償は時間的冗長性を利用する。フレームは密接に関係しているため、現在のピクチャは前のピクチャの変形としてモデル化することができると仮定する。1つのフレームのデータを前のフレームのデータに基づき正確に予測することができる。Pフレームにおいて、16x16サイズの各マクロブロックは、前に符号化されたIピクチャまたはPピクチャのマクロブロックから予測される。フレームは動くオブジェクトの時間的スナップショットであるから、2つのフレームのマクロブロックは、同じ空間的位置に対応しないかも知れない。エンコーダは、前のフレーム内を(Pフレームを求めて、または前と後のフレーム内をBフレームを求めて)探し、現在のマクロブロックに含まれる情報と密接に一致する他のマクロブロックの位置を求めて、ピクセルを半分ずつインクリメントして探す。最も一致するマクロブロックの、位置を特定したマクロブロックからの水平方向および垂直方向の変位は動きベクトルと呼ばれる。現在のブロックおよび一致するブロックの間の差異および動きベクトルが符号化される。動きベクトルは、間違いの多いデータの場合の動き予測にも用いることができる。精巧なデコーダアルゴリズムは、このベクトルをエラー隠蔽に用いることができる。Bフレームにおいて、動き補償ベースの予測と補間が、各フレームのいずれかの側にあるリファレンスフレームを用いて実行される。
次世代の記憶デバイスであるブルーレーザベースのデジタルビデオレコーダ(DVR)等は、ある程度HD(ハイデフィニション)(ATSC)の能力を有し、このタイプのデバイスではピクチャエンハンスメントの新しい方法が有利である。HDプログラムは、一般的には20Mb/sで放送され、MPEG-2ビデオ標準により符号化されている。これは、DVRの記憶容量が約25GBであることを考慮すると、1枚のディスクに約2時間のHDビデオが記録できることを表す。記録時間を増やすために、長時間プレイモードであるロングプレイ(LP)モードやエクステンデッドロングプレイ(ELP)モード等を規定することができる。
LPモードの場合、平均記憶ビットレートは約10Mb/sであると仮定され、HDの2倍の記録時間が確保できる。その結果、符合変換は、ビデオ処理の連鎖の統合された一部であり、20Mb/sの放送ビットレートを10Mb/sの記憶ビットレートに減少させる。MPEG-2符号変換の間に、ビデオのピクチャ品質(例えば、シャープネス)はほぼ確実に悪くなる。しかし、LPモードでは特に、ピクチャ品質を妥協しすぎるべきではない。それゆえ、LPモードでは、後処理が知覚されるピクチャ品質を向上する上で重要な役割を果たす。
現在まで、技術水準のシャープネスエンハンスメントアルゴリズムは、ほとんどアナログビデオ送信標準であるNTSC(National Television System Committee)、PAL(Phase Alternation Line)、SECAM(SEquential Couleur A Memoire)のために開発され、最適化されてきた。昔から、画像エンハンスメントアルゴリズムは、ピクチャの好ましくない外観を減少させたり(例えばノイズリダクション)、画像の望ましい特徴を向上したり(例えば、シャープネスエンハンスメント(鮮明度強調))することであった。これらの出現しつつある記憶デバイスにおいて、昔からのシャープネスエンハンスメントアルゴリズムは、ソースの特徴が異なるため、MPEG符号化されたまたは符号変換されたビデオに最適ではない。記憶システムの閉じたビデオ処理連鎖において、符号化されたソースの品質を決定可能とする情報は、MPEGストリームから導かれる。この情報は、ビデオエンハンスメントアルゴリズムの性能を向上するために潜在的に用いることができる。
ピクチャ品質はハイエンドビデオ製品でも差別化ファクタにとどまるので、ビデオエンハンスメントを実行する新しいアプローチは、特にこれらのソースに使用するために適応しており、利益がある。C-J Tsai、P. Karunaratne、N.P. Galatsanos、およびA.K. Katsaggelosによる「圧縮ビデオエンハンスメントアルゴリズム」(Proc. Of IEEE, ICIP’99, Kobe, Japan, Oct. 25-28, 1999)において、著者らは低ビットレートで符号化されたビデオシーケンスをエンハンスするための反復アルゴリズムを提案している。MPEGソースについて、ピクチャ品質の劣化は、量子化機能によりほとんど引き起こされる。よって、著者らにより用いられた反復グラジエントプロジェクションアルゴリズムは、符号化情報である量子化ステップサイズ、マクロブロックタイプ、およびコスト関数の前方動きベクトルを用いる。そのアルゴリズムは、低ビットレートビデオではすばらしい結果を示すが、その方法は計算が非常に複雑であるという限界がある。
B. Martins、S. Forchammerによる「MPEG-2符号化ビデオの改良デコーディング」(Proc. Of IBC’ 2000, Amsterdam, The Netherlands, Sept. 7-12, 2000, pp. 109-115)において、著者らはMPEG-2符号化ビデオの復号を向上する新しいコンセプトを説明している。特に、デ・インターレースとフォーマット変換への統一されたアプローチが、復号プロセスと統合されて提案されている。その技術は、通常の復号で得られるよりかなり高いピクチャ品質を結果として提供する。しかし、現在まで、その計算は複雑なので、コンシューマアプリケーションには実装されていない。
上記論文は両方、MPEG符号化情報とコスト関数を用いたビデオエンハンスメントアルゴリズムを説明している。しかし、これらのシナリオは両方とも、実際的でないことに加え、エンハンスメントとコスト関数を併用する。コスト関数は、ピクチャのどの位置でどれだけエンハンスメントを適用することができるかを決定する。このコストとエンハンスメント機能の組み合わせから生じる問題は、コスト機能とはたった一つのアルゴリズムしか使用できないことである。
さらにまた、シャープネスエンハンスメントを向上する以前の試みは、MPEGビットストリームからの符号化情報のみを用いていた。以前のシャープネスエンハンスメントアルゴリズムは、異なるピクチャタイプであるIフレーム、Pフレーム、Bフレーム等の間を区別しなかった。結果として、符合化アーティファクトがあるピクチャ部分とない部分を区別しなかったので、最適なシャープネスエンハンスメント結果が達成できなかった。その結果は、次善のシャープネスエンハンスメントである。
本発明は、フレームの各ピクセルについてエンハンスメント有用性計量(UME)を計算し、そのUMEを用いてシャープネス(鮮明度)をエンハンス(強調)するシステムと方法を提供することにより、上記問題その他を解決する。第1の態様において、本発明は、ブロックベースのデータのフレームを表す符合化デジタルビデオ信号のシャープネスをエンハンスするシステムであって、前記システムは、(1)フレームタイプにより前記フレームの各ピクセルのエンハンスメント有用性計量(UME)を計算するシステムと、ここで、前記計算するシステムは、前記フレームの局所空間的特徴を定義するメカニズムと、前記フレームのブロックベースの動き推定を分析するメカニズムと、前記フレームのシーン変化を検出するメカニズムとを含み、(2)前記UMEに基づき前記デジタルビデオの復号されたバージョンにシャープネスをエンハンスするシャープネスエンハンサとを有することを特徴とするシステムを提供する。
第2の態様において、本発明は、ブロックベースのデータのフレームの符号化されたデジタルビデオ信号表示のシャープネスをエンハンスする方法であって、前記方法は、前記フレームの局所空間的特徴(フィーチャ)を定義するメカニズムを設けるステップと、前記フレームのブロックベースの動き推定を分析するメカニズムを設けるステップと、前記フレームのシーン変化を検出するメカニズムを設けるステップと、局所空間的特徴(フィーチャ)、ブロックベースの動き推定、および検出されたシーン変化に基づき、前記フレームの各ピクセルのエンハンスメント有用性計量(UME)を計算するステップと、各ピクセルについて計算した前記UMEを適用することにより前記フレームのシャープネスを向上するステップとを有することを特徴とする方法を提供する。
第3の態様において、本発明は、ビデオデータのフレーム中の各ピクセルのエンハンスメント有用性計量(UME)を計算するため、記録媒体に記憶されたプログラムプロダクトであって、前記プログラムプロダクトは、前記フレームの局所空間的特徴(フィーチャ)を定義する手段と、前記フレームのブロックベースの動き推定を分析する手段と、前記フレームのシーン変化を検出する手段とを有することを特徴とするプログラムプロダクトを提供する。
本発明の好ましい実施形態について詳しく説明する。この実施形態の例は添付した図面に示されている。本発明の方法および対応するステップがシステムの詳しい説明と共に説明される。
I. 概観
下で説明するが図1から8および本発明のシステムと方法の原理を説明する多様な実施形態は、単なる例示であって、本発明の範囲を限定するものと解釈してはならない。本発明のシステムと方法は、符号化されたデジタルビデオ信号の画像品質をエンハンス(強調)するシステムと方法として説明される。本発明のシステムと方法はデジタルテレビセットに限定されないことに気づくことが重要である。テレビレシーバ、セットトップボックス、記憶デバイス、コンピュータビデオディスプレイシステム、その他デジタルビデオ信号を用いあるいは処理するいかなるタイプの電子機器をも含むがこれに限定はされない、いかなるタイプのデジタルビデオシステムにも本発明の原理をうまく適用することができることを、当業者は容易に理解するであろう。「デジタルビデオシステム」という用語は、現在または将来において取得可能なデジタルビデオシステムまたはこれと類似したタイプの機器を意味する。以下の実施形態の例において、デジタルテレビセットはデジタルビデオシステムの代表的な例として用いる。
本発明は、例えば、ハイデフィニション機能とロングプレイ(LP)モードがあるビデオ記憶アプリケーションにあるようなハイデフィニション(HD)シーケンスとスタンダードデフィニション(SD)シーケンスに適用することが可能である。上記のビデオシーケンスの大多数は、放送されたMPEG-2ビットストリームからより低い記憶ビットレートに符号変換される。このアプリケーションのロングプレイ(LP)では、符号変換の間にフォーマット変更も行うことができる。符号化され、復号され、本発明によりシャープネスエンハンスメントアルゴリズムで処理されたタスタンダードデフィニション(SD)ビデオシーケンスまたはハイデフィニション(HD)ビデオシーケンスは、符号化情報を用いないアルゴリズムと比較して、アプリオリな符号化または符号変換されたビデオシーケンスの優れたビデオ品質を提供する。
図1は、本発明の装置と方法を用いるデジタルテレビセット100のブロック図である。デジタルテレビセット100は、テレビレシーバ110とディスプレイ部115を有する。ディスプレイ部115は、冷陰極管、フラットパネルディスプレイ、その他ビデオ画像を表示する装置であってもよい。テレビレシーバ110は、テレビ信号を受信するアンテナ105を有する。アンテナ105はチューナ120に結合されている。チューナ120は中間周波数(IF)プロセッサ125に結合されている。IFプロセッサ125は、ここで実施されているように、デコーダ130に結合されている。MPEGデコーダが描かれているが、本発明はMPEGタイプの符号化/複合アプリケーションに限定はされない。他の実施形態において、いかなるブロックベースの圧縮スキーム、例えば、JPEG(静止画圧縮標準)、MPEG-1,2,4(デジタルビデオ標準)、H.261、H.263(テレビ会議標準)その他を用いてもよい。これらの標準において、2次元(2D)DCT(離散コサイン変換)が、圧縮される画像内の8x8ピクセルのブロックに適用される。DCTにより得られた64(8x8=64)個の係数は、実際に圧縮するため量子化される。一般的な画像では、8x8ピクセルのブロックにDCTをかけて得られるDCT係数のほとんどは小さく、量子化するとゼロになる。現実世界の画像におけるDCTのこの特性は、圧縮スキームにとって重要である。
本発明によると、デジタルビデオシステムの少なくとも1つのフレームを代表する符号化されたデジタルビデオ信号の画像品質をエンハンスする方法および対応するシステムが提供される。この方法は、一般に、下で詳しく説明するように、符号化されたデジタルビデオ信号をエンハンスするために適用されるエンハンスメント有用性計量(UME)を生成するステップを含む。特に、UMEは、一般に0と1の間の値であるゲイン値を有する。UMEはフレーム内の各ピクセルについて計算され適用される。UMEの計算は様々な基準に基づき、その基準には(1)フレーム中の局所空間的特徴(フィーチャ)、(2)ブロックベースの動き推定、(3)シーン変化検出、(4)符号化情報、および(5)フレームタイプが含まれる。一旦計算されると、UMEはエンハンスされたデジタルビデオ信号を生成するために、少なくとも1つのシャープネスエンハンスメントアルゴリズムに適用される。
図2は、本発明の一実施形態を示すシステム図である。図2の実施されたシステムの実装については、下でより詳しく説明する。フレーム(フレームt)を処理するUMEジェネレータ151が設けられている。UMEジェネレータ151は、フレームt中の各8x8ブロック内の各ピクセルのUME160を計算するために、符号化情報150を用い、同様にその他の分析メカニズム154、156、および158を用いる。一旦計算されると、UME160は、エンハンスされたフレームt´164を生成するために、少なくとも1つのシャープネスエンハンスメントアルゴリズム162に適用されることができる。
図1を再度参照して、MPEGデコーダ130の出力は、シャープネスエンハンスメントアルゴリズムの適用のため後処理回路135に結合される。限定ではなく例示として、後処理回路135は、本発明のUMEシステムを有する適応ピーキング部140を有していてもよい。適応ピーキング部140は、後処理回路135内の適当な位置にあってもよい。後処理回路135の出力はディスプレイ部115に入力される。
ここで実施形態として示したように、例示のため、適応ピーキング部140は、MPEGデコーダ130から受信したビデオ信号を処理する。適応ピーキング部140は、適応ピーキングプロセスでこの例のUMEを用いる。本発明のシステムおよび方法は適応ピーキングのプロセスに限定されるものではない。UMEは、別の複数のタイプのビデオエンハンスメントアルゴリズムで用いてもよい。
適応ピーキング部140は、分析メカニズムにより提供されるその他の情報と同様にビデオ信号中の符号化情報を考慮するように、ビデオ信号を処理する。その他の情報とは、すなわち、ブロックベースの動き推定156、UMEジェネレータ151(図2)内のシーン変化検出158である。適応ピーキング部140の出力は、MPEGデコーダ130から受信したビデオ信号のエンハンスされた輝度信号である。適応ピーキング部140により決定される輝度信号は、下でさらに説明するように、先行技術である適応ピーキング部により提供されるより正確で視覚的に顕著なビデオ画像を提供する。適応ピーキング部140は、後処理回路135内の他の回路にエンハンスされた輝度信号を転送する。後処理回路135は、ビデオ信号の品質をエンハンスすることができる。
後処理回路135は、いくつかの異なるタイプのビデオ信号処理を実行することができる。例えば、(a)ノイズレベル適応ノイズリダクションアルゴリズム、(b)ノイズレベル適応シャープネスエンハンスメント、(c)ノイズレベル適応輝度−クロミナンス分離、(d)ノイズレベル適応動き検出、(e)ノイズレベル適応動き推定および補間、(f)ノイズレベル適応アップコンバージョン、(g)ノイズレベル適応機能(フィーチャ)エンハンスメント、(h)ノイズレベル適応オブジェクトベースアルゴリズムがビデオ信号処理アプリケーションに含まれる。
図3は、本発明の一実施形態による適応ピーキング部140のシステムと方法を示すブロック図である。図3は、本発明のUMEがシャープネスエンハンスメントの適応ピークアルゴリズムにどのように適用可能であるかを示す図である。適応ピーキングアルゴリズムは、入力輝度信号210の過渡現象の振幅を増加することに向けられる。適応ピーキングアルゴリズムは、従来、「アプリオリな」符号化された/符号変換されたビデオソースには最適なビデオ品質を常に提供できたわけではない。これは主として、MPEGソースの特徴が考慮に入れられなかったという事実による結果である。
適応ピーキングアルゴリズムにより用いられる原理は当該技術分野で周知である。適応ピーキングアルゴリズムの一例は、4つのピクセルベース制御ブロックを用いる。図3に示したように、4つの制御ブロックは、コントラスト制御ブロック225、ダイナミックレンジ制御ブロック230、クリッピング防止ブロック235、および適応コアリングブロック240である。コントラスト制御ブロック225はゲイン信号「g1」を生成する。ダイナミックレンジ制御ブロック230はゲイン信号「g2」を生成する。クリッピング防止ブロック235はゲイン信号「g3」を生成する。適応コアリングブロック240はゲイン信号「g4」を生成する。これらの4つのピクセルベースの制御ブロックは、コントラスト、ダイナミックレンジ、ノイズレベル等のビデオ信号の特定の局所的特徴を考慮に入れる。しかし、これら4つの制御ブロックは、ビデオ信号の符号化特性、動き推定、およびシーン変化に関する情報は考慮に入れない。
本発明によるシステムは、下でさらに説明するように、好ましいピーキング量を決定するために、特に、符号化情報215を用いるUME計算システム245を提供する。UME計算システム245はUME情報「gcoding」を生成する。
ダイナミックゲイン制御ブロック250は、最終ゲイン信号「g」を生成するため、5つのゲイン信号(g1, g2, g3, g4, gcoding)の最小値を選択する。乗算回路255は、2Dピーキングフィルタ260によりフィルタされたハイパス信号による最終ゲイン信号「g」をかける。加算器265は、乗算回路255からの積を輝度入力信号210により表されたピクセルの元の輝度値に加える。このように、エンハンスされた輝度出力信号270が生成される。これらの機能の各々は、当該技術分野で周知な好適なコンポーネントにより実行することが可能である。
限定ではなく例示するために、図4は、本発明による符号化されたデジタルビデオのシャープネスをエンハンスする一般的システムを示す。このシステムは、入力ビデオ信号210をフィルタするハイパスフィルタ260と、本発明の方法のうちのいずれかを通して決定されたUME220によるハイパスフィルタされた信号を乗算する乗算器255とを有する。乗算によりゲインコントロールされた信号が生成される。このシステムは、入力ビデオ信号210にゲインコントロールされた信号を加え、入力信号210と比較して向上したピクチャ品質を持つエンハンスされた輝度出力信号270を生成する加算器265をさらに含む。本発明の一実施形態において、使用されるハイパスフィルタは、
Figure 2005525014
であってもよい。ここで、kは0と1の間の範囲にあるスケーリングファクタである。すなわち、(0,1]であり、0は除かれるが1は含まれる。ファクタkは、一般的にユーザの主観的知覚に依存する。よりシャープな画像を望むときは、kを増加させる。
図4に示したように、シャープネスエンハンスメントシステムの結果は以下の通りである:
out_pixel=input_pixel+UME*convolution_result。ここで、output_pixelはそのピクセルに使用される最終輝度値であり、input_pixelはその入力ピクセルの輝度値であり、convolution_resultはハイパスフィルタ出力である。シャープネスエンハンスメントアルゴリズムの結果の信号表示は、フレームの各ピクセルについて知られた仕方により生成される。
UMEは符号化特徴を説明するために計算されるので、そのUMEはブロッキングやリンギング等の符号化アーティファクトのエンハンスメントを防ぐ。よって、過剰なエンハンスメントにより引き起こされることもある、符号化が原因ではないアーティファクトの防止または削減は、このシャープネスエンハンスメントアルゴリズムの他の部分により解決されてもよい。
図5は、別の実施形態を示す。図5において、図3の4つの制御ブロック225、230、235、240は削除されている。UME計算システム245のみが残っている。ビットストリームにある符号化情報215(ブロックごと、または領域ベースで提供される)は復号手順の間に回復することができる。UME258は、局所空間的特徴(フィーチャ)、動き推定、シーン変化検出計算247と同様に、ビットストリームにあるMPEG符号化情報215から導き出される。UME258は、符号化アーティファクトを増加させることなく、ピクセルまたは領域をどの程度エンハンスできるかを決定する。本発明によると、復号中に直接取得されるMPEG情報の最小粒度は、(1)マクロブロック(MB)数量に基づく、(2)ブロックベース数量に基づくのいずれかである。しかし、空間(ピクセル)領域ビデオエンハンスメントについて、UMEは、好ましくは、最も高いピクチャ品質を確保するためにピクチャの各ピクセルについて計算される。UME値は以下の基準を用いて計算される。

II. UME分析メカニズム
前述したように、様々な基準または分析メカニズムがUMEを計算するために用いられる。図6−8に関して詳しく説明するように、異なる分析メカニズム、または分析メカニズムの組み合わせは、UMEを計算するために使用されてもよい。分析メカニズムの一部は単一の計算でピクセルのブロックについてUMEを計算し、他の分析メカニズムはブロックの各ピクセルについてUMEを別々に計算する。一実施形態において、UMEの値は、0から1の間にある。UMEの値が0であるとき、そのピクセルについてはシャープネスエンハンスメントが許されていないことを意味する。一方、UMEの値が1であるとき、そのピクセルは符号化アーティファクトをエンハンスするリスクなく自由にエンハンスできることを意味する。多様な分析メカニズムについて以下説明する。

A. 符号化情報
MPEG情報から容易に抽出できるパラメータの1つは、量子化パラメータ(q_scale)である。この量子化パラメータはすべての符号化されたマクロブロック(MB)にあるからである。量子化パラメータが大きいと量子化は粗くなり、それにより量子化エラーも大きくなる。大きい量子化エラーは符号化アーティファクトにつながる。その結果、量子化パラメータが大きいマクロブロック(MB)のピクセルのエンハンスメントは、より抑制される。
他の便利な情報は、マクロブロック(MB)またはブロックを符号化するために費やしたビット数(num_bits)である。ブロックを符号化するのに費やしたビットが少ないほど、そのブロックの品質は低くなる。しかし、この量(num_bits)は、シーンコンテント、ビットレート、I(intra)・P(predicted)・B(bidirectionally predicted)等のフレームタイプ、動き推定、動き補間等にも強く依存する。
ブロック内に存在するDCT係数の分布を考慮することも可能である。また、動きベクトルは、エンハンスするビデオの時間的特徴の情報を取得するために使用することもできる。MPEG符号化で推定され使用された動きベクトルは、必ずしもビデオ中の真の動きを表していないことはよく知られている。しかし、動きベクトルは静的エリアを特定する役に立ち、たとえその動きベクトルが信頼できなくてもフレームからフレームへのエンハンスメントの時間的一貫性を向上させるために使用することができる。
量子化パラメータ(q_scale)およびマクロブロックまたはブロックを符号化するために費やしたビット数(num_bits)の両方は、MPEG符号化のレート制御計算で広く用いられている。
通常、量子化パラメータがより大きいと符号化アーティファクトが増加するので、UMEは一般的に量子化パラメータq_scaleとは逆数の関係にある。
本発明の一実施形態によると、UMEジェネレータ215は、次式(1)により各8x8ブロックのUMEを計算することができる:
Figure 2005525014
ここで、UME_blockはピクセルのブロックの有用性計量であり、q_scaleはマクロブロックの量子化スケールであり、num_bitsは輝度ブロックを符号化するビット数(すなわち、輝度ブロックのDCTブロックのAC係数を符号化するビットの数)であり、maxはフレーム全体の最大値を表す関数であり、MとNは実験的に決定されたスケーリングファクタである。Nファクタはq_scale値の範囲にある。Mファクタはユーザの主観的知覚に依存する。例えば、シャープネスエンハンスメントがより強いとき、Mファクタはより小さい。しかし、ユーザがよりシャープでない画像を好むとき、Mファクタを増加させる。Mの値としては1、2、4、8等がある。

B. 局所空間的特徴(フィーチャ)
図5に示したように、UME220の計算は計算247にさらに依存してもよい。これらの計算の1つは、局所空間的特徴(フィーチャ)の分析を含む。局所空間的特徴(フィーチャ)は、nxnピクセルをカバーするnxnウィンドウにわたり各ピクセルの輝度値の分散として定義される。分散は次式(2)により定義される:
Figure 2005525014
ここで、q=(n-1)/2、pix(i+k,j+m)は位置(i+k,j+m)のピクセル値であり、meanはnxmウィンドウにわたる平均ピクセル値である。iとjはピクセルの元の座標であり、kとmは変位値である。あるいは、局所空間的特徴(フィーチャ)は領域(テクスチャまたはプレインエリア)マップとして定義されてもよい。

C. ブロックベースの動き推定
UME220の計算は、以下の分析を用いて各ブロックから取得した動き推定情報にさらに基づいてもよい。
ブロック
Figure 2005525014
Figure 2005525014
で始まる8x8ブロックである:
Figure 2005525014
差の絶対値の和SADは次式(4)で定義される:
Figure 2005525014
ここで、
Figure 2005525014
はベクトル
Figure 2005525014
であり、nはフレーム番号である。
2つのブロックタイプは次のように定義される:動きの特徴がより少ない「静的ブロック」と動きの特徴がより多い「動的ブロック」。一実施形態において、以下の条件(5)
Figure 2005525014
が満たされたとき、ブロック
Figure 2005525014
は、静的ブロックとされる。ここで
Figure 2005525014
とSTILL_THREDは所定の閾値であり、例えば80である。もし条件(5)が満たされない場合は、ブロックは動的ブロックとされる。
Figure 2005525014
の動きベクトル
Figure 2005525014
は、サーチウィンドウ
Figure 2005525014
内の最小のSADを持つベクトルである。

D. シーン変化検出
シーン変化検出の目標は、ビデオシーケンス中の連続するフレームのコンテント変化を検出することである。正確なシーン変化検出は、ビデオ処理アルゴリズムの実行を向上する。例えば、シーン変化検出により、異なるシーンコンテントにおいてビデオエンハンスメントアルゴリズムがパラメータを調整するようにすることができる。シーン変化検出はビデオ圧縮アルゴリズムで使用することもできる。
シーン変化検出は、特にシーンが劇的に変化したとき、異なるシーン間の強制的な時間的一貫性はピクチャ品質を劣化させるので、UME計算のさらなるステップとして組み込まれてもよい。
既知のいかなるシーン変化検出方法を用いてもよい。例えば、ビデオの連続するフレーム間の差異を計算し、複数の差異値を得る方法でもよい。差異値のヒストグラムをとってもよい。そのヒストグラム中の差異値の大部分が所定値を超えたときシーン変化が検出される。

III. UME計算
以下の実施形態において、フレームがIフレーム、Pフレーム、Bフレームのどれかにより、UMEの計算は異なる。具体的に、図6はIフレームの場合の計算を説明し、図8はPおよびBフレームの場合の計算を説明し、図7は両方の場合に用いられるサブルーチン「ボックスI」を含む。
まず図6−7を参照して、IフレームのUME計算を示すフロー図が示されている。最初のステップS1において、最初のUME値がボックスIにより計算される。ボックスIのフローチャートは図7に示されている。すなわち、ステップS13において、条件C2がテストされる。
条件C2は(var<VAR_THRED)or(num_bits==0)と定義される。ここで、varは上記の式(2)により計算され、VAR_THREDの値は例えば70である。条件C2が満たされないとき、ステップS15において上記式(1)によりUME_blockとして計算される。逆に、条件が満たされたとき、ステップS14においてUMEはゼロに設定される。後者の場合は、var値が非常に小さいか、ブロックにDC係数しかないかいずれかであることを示唆する。よって、後者の場合は、カレントピクセルを中心とする近傍はプレインエリアであり、ブロックアーティファクトが存在するかも知れず、シャープネスエンハンスメントは避けるべきであることが分かる。
次に、ステップS2において、シーン変化があったかどうか判断する。シーン変化があったとき、ステップS4においてアルゴリズムが終了する。ステップS1で計算された値が最終のUME値である。Iフレームについては、カレントIフレームの前のGOP(group of pictures)でPフレームまたはBフレームいずれかにシーン変化があったとき、またはカレントIフレームでシーン変化が検出されたときに、シーン変化のフラグが真とされる。
また、カレントIフレームが
GOPの第1または第2のIフレームであるとき、ステップS1はUMEの計算のみに用いられる。すなわち、シーン変化が推定される。よって、第1のGOPは通常不確実性が大きいまま符号化されるという事実により、前のフレームについて計算されたUME値は信頼されないであろう。エンコーダは、デフォルトの符号化パラメータの特定の画像シーケンスに当てはめるのに、ほとんどフレームを要しないからである。
シーン変化が検出されなかったとき、式(5)により、ステップS3において、カレントブロックが静的ブロックであるかどうか判断する。静的ブロックであるとき、ステップS6において、UMEはリセットされ、前のフレームの同じ位置のピクセルと同じ値とされる。カレントブロックが静的ブロックではないとき(すなわち、動的ブロックであるとき)、ステップS5において、式(6)により、動きベクトルV’=(v’,h’)を見つける。次に、ステップS7で、v’とh’の両方がゼロであるか判断する。もし一方または両方がゼロでなければ、ステップS8において、条件C1をテストする。ここで、条件C1は
Figure 2005525014
である。C1が真でないとき、ステップS9でUMEをゼロに設定する。C1が真であるとき、ステップS10において、次式
UME=[0.9*UME]+[0.1*UME_prev(v’,h’)]
によりUMEを計算する。ここで、UME_prev(v’,h’)は前のフレームの動きベクトル(v’,h’)により示されるピクセルのUME値である。
あるいは、ステップS7において、v’とh’の両方がゼロであると判断されたとき、ステップS9Aにおいて、条件C1がテストされる。条件C1が真でないとき、ステップS12においてUMEはゼロに設定される。条件C1が真であるとき、次式:
UME=[0.1*UME]+[0.9*UME_prev]
によりUMEが計算される。ここで、UME_prevは前のフレームの同じ位置のピクセルの前記UME値である。
図8を参照して、PまたはBフレーム中のピクセルのUMEを計算するフローチャートが示されている。最初に、ステップS20において、シーン変化が生じたかどうか判断する。シーン変化が発生した場合、ステップS21において、条件C3がテストされる。ここで、C3は条件:イントラブロックかつ
Figure 2005525014
である。C3が真であるとき、ステップS22において、図7に記載したフローチャート(すなわち、ボックスI)によりUMEが計算される。条件C3が真でないとき、またはステップS20においてシーン変化が検出されなかったとき、ステップS23において、カレントブロックが静的ブロックであるかどうかを判断する。
カレントブロックが静的ブロックでないとき、ステップS25において、動きベクトル(v’,h’)が計算される。ステップS26において、動きベクトル成分v’とh’がテストされる。一方または両方の成分がゼロでないとき、ステップS27において、条件C1がテストされる。C1が真でないとき、ステップS29において、UMEはゼロに設定される。C1が真であるとき、ステップS30において、UMEはUME_prev(v’,h’)に設定される。ここで、UME_prev(v’,h’)は前のフレームの動きベクトル(v’,h’)により示されるピクセルのUME値である。
ステップS26において、両方の成分v’とh’がゼロであるとき、ステップS28において、条件C1がテストされる。C1が真でないとき、ステップS32において、UMEはゼロに設定される。C1が真であるとき、ステップS31において、UMEはUME_prevに設定される。ここで、UME_prevは前のフレーム中の同じ位置にあるピクセルのUME値である。
最後に、(ステップS23に戻って)カレントブロックが静的ブロックであると判断したとき、ステップS24において、UMEはリセットされ、前のフレームの同じ位置にあるブロックの値と同じ値にされる。次のステップS28は、上で説明した仕方で繰り返される。
本発明の方法とシステムは、上で説明し、図面に示したように、シャープネスエンハンスメントアルゴリズムを用いることにより、デジタル符号化されたビデオ信号の品質をエンハンスするための改良された方法を提供する。当業者には、本発明の精神と範囲から逸脱することなく、本発明の方法とシステムにおいて多様な変更とバリエーションが可能であることが明らかであろう。よって、本発明は、添付したクレームとその均等の範囲内にある変更とバリエーションを含むことを意図したものである。
本発明のシステムおよび方法を有するデジタルテレビセットの一例を示すブロック図である。 本発明の動作方法を示すフロー図である。 本発明の有用性計量ジェネレータおよびUME制御ブロックを有する適応ピーキング部を示すブロック図である。 本発明により用いられるシャープネスエンハンスメントアルゴリズムの別の実施形態を示すブロック図である。 本発明の有用性計量ジェネレータを有する適応ピーキング部の別の実施形態を示すブロック図である。 IフレームのUMEを算出する方法を示すフロー図である。 IフレームのUMEを算出する方法を示すフロー図である。 PフレームのUMEを算出する方法を示すフロー部である。

Claims (15)

  1. ブロックベースのデータのフレームを表す符合化デジタルビデオ信号のシャープネスをエンハンスするシステムであって、前記システムは、
    −フレームタイプにより前記フレームの各ピクセルのエンハンスメント有用性計量(UME)を計算するシステムと、ここで、前記計算するシステムは、
    −前記フレームの局所空間的特徴を定義するメカニズムと、
    −前記フレームのブロックベースの動き推定を分析するメカニズムと、
    −前記フレームのシーン変化を検出するメカニズムとを含み、
    −前記UMEに基づき前記デジタルビデオの復号されたバージョンにシャープネスを向上するシャープネスエンハンサとを有することを特徴とするシステム。
  2. 請求項1に記載のシステムであって、計算するシステムは次式
    Figure 2005525014
    によりマクロブロックおよびブロックベースの符号化情報を分析するメカニズムを含み、
    UME_blockはピクセルデータのブロックの有用性計量であり、q_scaleはマクロブロックの量子化スケールであり、num_bitsは輝度ブロックを符号化するためのビット数であり、maxは前記フレームの最大値を表す関数であり、MとNはスケーリングファクタであることを特徴とするシステム。
  3. 請求項2に記載のシステムであって、前記局所空間的特徴(フィーチャ)は、nxnピクセルをカバーするnxnウィンドウに渡るピクセル輝度値の分散として定義され、前記分散は次式
    Figure 2005525014
    により定義され、q=(n-1)/2、pix(i+k,j+m)は位置(i+k,j+m)におけるピクセル値であり、meanは前記nxnウィンドウにわたる平均ピクセル値であることを特徴とするシステム。
  4. 請求項3に記載のシステムであって、
    Figure 2005525014
    であり、シーン変化が検出されたとき、Iフレームのピクセルの前記UMEがUME_blockを用いて計算され、VAR_THREDは所定の閾値であることを特徴とするシステム。
  5. 請求項3に記載のシステムであって、前記フレームのブロックベースの動き推定を分析する前記メカニズムは、前記ブロックが静止ブロックであるかどうかを決定することを特徴とするシステム。
  6. 請求項3に記載のシステムであって、前記フレームのブロックベースの動き推定を分析する前記メカニズムは、カレントブロックが静止ブロックでないとき、動きベクトル(v’,h’)を計算し、前記動きベクトル(v’,h’)は、サーチウィンドウ中の差の絶対値の和(SAD)が最小となるブロック
    Figure 2005525014
    の動きベクトルであり、フレームn中のベクトル
    Figure 2005525014
    の前記差の絶対値の和は次式
    Figure 2005525014
    で定義され、
    Figure 2005525014
    は位置
    Figure 2005525014
    におけるピクセル値であることを特徴とするシステム。
  7. 請求項6に記載のシステムであって、前記ブロックが静止ブロックでないとき、前記計算するシステムはv’とh’の両方がゼロであるか決定するためテストすることを特徴とするシステム。
  8. 請求項7に記載のシステムであって、前記ブロックが静止ブロックでなく、var<VAR_THREDであるとき、前記計算するシステムは前記UMEをゼロに設定し、VAR_THREDは所定の閾値であることを特徴とするシステム。
  9. 請求項8に記載のシステムであって、前記ブロックが静止ブロックでなく、v’とh’の両方がゼロであるとき、
    Figure 2005525014
    であるとき、前記計算するシステムは前記UMEをUME=[0.1*UME]+[0.9*UME_prev]に設定し、ここでUME_prevは前のフレームの同じ位置のピクセルの前記UME値であることを特徴とするシステム。
  10. 請求項8に記載のシステムであって、前記ブロックは静止ブロックではなく、図区なくともv’とh’のうち一方がゼロでないとき、
    Figure 2005525014
    のとき、前記計算するシステムは前記UMEをUME=[0.9*UME]+[0.1*UME_prev(v’,h’)]に設定し、ここでUME_prev(v’,h’)は前記前のフレームのベクトル(v’,h’)により示される前記ピクセルの前記UME値であることを特徴とするシステム。
  11. 請求項1に記載のシステムであって、前記シャープネスエンハンスメントアルゴリズムは、ピーキングアルゴリズムであることを特徴とするシステム。
  12. 請求項1に記載のシステムであって、前記シャープネスエンハンスメントアルゴリズムは、空間領域アルゴリズムであることを特徴とするシステム。
  13. 請求項1に記載のシステムであって、前記適用されたシャープネスエンハンスメントアルゴリズムは
    out_pixel=input_pixel+UME*convolution_result
    であり、ここでoutput_pixelは前記ピクセルに使用される最終輝度値であり、input_pixelは前記入力ピクセルの輝度値であり、convolution_resultはハイパスフィルタ出力であることを特徴とするシステム。
  14. ブロックベースのデータのフレームの符号化されたデジタルビデオ信号表示のシャープネスをエンハンスする方法であって、
    −前記フレームの局所空間的特徴(フィーチャ)を定義するステップと、
    −前記フレームのブロックベースの動き推定を分析するステップと、
    −前記フレームのシーン変化を検出するステップと、
    −局所空間的特徴(フィーチャ)、ブロックベースの動き推定、および検出されたシーン変化に基づき、前記フレームの各ピクセルのエンハンスメント有用性計量(UME)を計算するステップと、
    −各ピクセルについて計算した前記UMEを適用することにより前記フレームのシャープネスを向上するステップとを有することを特徴とする方法。
  15. ビデオデータのフレーム中の各ピクセルのエンハンスメント有用性計量(UME)を計算するため、記録媒体に記憶されたプログラムプロダクトであって、前記プログラムプロダクトは、
    −前記フレームの局所空間的特徴(フィーチャ)を定義する手段と、
    −前記フレームのブロックベースの動き推定を分析する手段と、
    −前記フレームのシーン変化を検出する手段と、
    −前記定義する手段、分析する手段、検出する手段を用いて、前記エンスメント有用性計量(UME)を計算する手段とを有することを特徴とするプログラムプロダクト。

JP2004502249A 2002-05-06 2003-04-23 符号化されたデジタルビデオのためのシャープネスエンハンスメントのシステムおよび方法 Withdrawn JP2005525014A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/139,175 US7031388B2 (en) 2002-05-06 2002-05-06 System for and method of sharpness enhancement for coded digital video
PCT/IB2003/001691 WO2003094111A1 (en) 2002-05-06 2003-04-23 System for and method of sharpness enhancement for coded digital video

Publications (2)

Publication Number Publication Date
JP2005525014A true JP2005525014A (ja) 2005-08-18
JP2005525014A5 JP2005525014A5 (ja) 2006-06-15

Family

ID=29269522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004502249A Withdrawn JP2005525014A (ja) 2002-05-06 2003-04-23 符号化されたデジタルビデオのためのシャープネスエンハンスメントのシステムおよび方法

Country Status (9)

Country Link
US (1) US7031388B2 (ja)
EP (1) EP1506525B1 (ja)
JP (1) JP2005525014A (ja)
KR (1) KR20040102211A (ja)
CN (1) CN100370484C (ja)
AT (1) ATE310996T1 (ja)
AU (1) AU2003225481A1 (ja)
DE (1) DE60302456T2 (ja)
WO (1) WO2003094111A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8135073B2 (en) 2002-12-19 2012-03-13 Trident Microsystems (Far East) Ltd Enhancing video images depending on prior image enhancements
AU2003303269A1 (en) * 2002-12-20 2004-07-14 Koninklijke Philips Electronics N.V. Enhancing video images depending on prior image enhancements
JP2007501561A (ja) * 2003-08-06 2007-01-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ブロックアーティファクトの検出
WO2005045764A1 (en) * 2003-11-07 2005-05-19 Koninklijke Philips Electronics N.V. Video encoding method and device
KR100772215B1 (ko) * 2005-12-30 2007-11-01 엘지전자 주식회사 영상표시기기의 영상 제어장치 및 방법
US7852412B1 (en) * 2006-02-27 2010-12-14 Nvidia Corporation Video noise level detection
JP4615508B2 (ja) * 2006-12-27 2011-01-19 シャープ株式会社 画像表示装置及び方法、画像処理装置及び方法
JP2008225241A (ja) * 2007-03-14 2008-09-25 Fujitsu Ltd 映像信号処理装置、映像信号処理方法及び映像信号処理プログラム
JP4922839B2 (ja) * 2007-06-04 2012-04-25 三洋電機株式会社 信号処理装置、映像表示装置及び信号処理方法
JP4279332B2 (ja) * 2007-10-31 2009-06-17 株式会社東芝 順次走査変換装置及び順次走査変換方法
US9407925B2 (en) * 2008-10-30 2016-08-02 Vixs Systems, Inc. Video transcoding system with quality readjustment based on high scene cost detection and method for use therewith
US8953688B2 (en) * 2010-11-08 2015-02-10 Sony Corporation In loop contrast enhancement for improved motion estimation
US9014493B2 (en) * 2011-09-06 2015-04-21 Intel Corporation Analytics assisted encoding
US20150146981A1 (en) * 2013-09-05 2015-05-28 Tp Vision Holding B.V. Apparatus and method for converting input image data into output image data, image conversion unit for converting input image data into output image data, image processing apparatus, display device
US9832467B2 (en) * 2014-10-07 2017-11-28 Qualcomm Incorporated Deblock filtering for intra block copying
EP3016383B1 (en) * 2014-11-03 2017-06-21 Axis AB Method, device, and system for pre-processing a video stream for subsequent motion detection processing
KR102601350B1 (ko) * 2016-05-31 2023-11-13 엘지디스플레이 주식회사 데이터 압축 방법 및 이를 이용한 표시 장치
US11019349B2 (en) * 2017-01-20 2021-05-25 Snap Inc. Content-based client side video transcoding
CN106961628B (zh) * 2017-03-24 2020-04-28 北京金山安全软件有限公司 视频播放方法、装置以及电子设备
US20230028736A1 (en) * 2021-07-22 2023-01-26 Qualcomm Incorporated Configurable image enhancement

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0721286A3 (en) * 1995-01-09 2000-07-26 Matsushita Electric Industrial Co., Ltd. Video signal decoding apparatus with artifact reduction
US6011864A (en) * 1996-07-03 2000-01-04 Apple Computer, Inc. Digital image coding system having self-adjusting selection criteria for selecting a transform function
EP0945001B1 (en) * 1996-12-18 2003-04-23 Thomson Consumer Electronics, Inc. A multiple format video signal processor
US6466624B1 (en) * 1998-10-28 2002-10-15 Pixonics, Llc Video decoder with bit stream based enhancements
JP2002535896A (ja) * 1999-01-15 2002-10-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 鮮明度を向上させる方法および装置
CN1181690C (zh) * 1999-07-20 2004-12-22 皇家菲利浦电子有限公司 用于压缩视频序列的编码方法
EP1129579A1 (en) * 1999-09-14 2001-09-05 Koninklijke Philips Electronics N.V. Method and device for identifying block artifacts in digital video pictures
EP1157543A1 (en) * 1999-12-17 2001-11-28 Koninklijke Philips Electronics N.V. Signal peaking
KR100323678B1 (ko) * 2000-02-28 2002-02-07 구자홍 화면비 변환 장치
US6950561B2 (en) * 2001-01-10 2005-09-27 Koninklijke Philips Electronics N.V. Method and system for sharpness enhancement for coded video
US6873657B2 (en) * 2001-12-27 2005-03-29 Koninklijke Philips Electronics, N.V. Method of and system for improving temporal consistency in sharpness enhancement for a video signal
US6862372B2 (en) * 2001-12-27 2005-03-01 Koninklijke Philips Electronics N.V. System for and method of sharpness enhancement using coding information and local spatial features

Also Published As

Publication number Publication date
US7031388B2 (en) 2006-04-18
DE60302456T2 (de) 2006-08-03
EP1506525A1 (en) 2005-02-16
EP1506525B1 (en) 2005-11-23
ATE310996T1 (de) 2005-12-15
AU2003225481A1 (en) 2003-11-17
KR20040102211A (ko) 2004-12-03
CN1650328A (zh) 2005-08-03
WO2003094111A1 (en) 2003-11-13
DE60302456D1 (de) 2005-12-29
CN100370484C (zh) 2008-02-20
US20030206591A1 (en) 2003-11-06

Similar Documents

Publication Publication Date Title
US6862372B2 (en) System for and method of sharpness enhancement using coding information and local spatial features
US10013746B2 (en) High dynamic range video tone mapping
EP1506525B1 (en) System for and method of sharpness enhancement for coded digital video
US6873657B2 (en) Method of and system for improving temporal consistency in sharpness enhancement for a video signal
US8218655B2 (en) Method, system and device for improving video quality through in-loop temporal pre-filtering
US20060110062A1 (en) Edge adaptive filtering system for reducing artifacts and method
JP2006519565A (ja) ビデオ符号化
US6950561B2 (en) Method and system for sharpness enhancement for coded video
JP2005159419A (ja) 画像処理装置及び方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP2009532741A6 (ja) プリプロセッサ方法および装置
KR20050084266A (ko) 디지털 비디오 처리용 통합 규준
US7161633B2 (en) Apparatus and method for providing a usefulness metric based on coding information for video enhancement
Yang et al. A new enhancement method for digital video applications
Basavaraju et al. Modified pre and post processing methods for optimizing and improving the quality of VP8 video codec
JP2006121131A (ja) ノイズ検出装置及びノイズ検出プログラム
WO1999059342A1 (en) Method and system for mpeg-2 encoding with frame partitioning

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060420

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060420

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20070528