JP2013005437A - デジタル映像データを符号化するための方法およびデジタル映像符号化システム - Google Patents

デジタル映像データを符号化するための方法およびデジタル映像符号化システム Download PDF

Info

Publication number
JP2013005437A
JP2013005437A JP2012127963A JP2012127963A JP2013005437A JP 2013005437 A JP2013005437 A JP 2013005437A JP 2012127963 A JP2012127963 A JP 2012127963A JP 2012127963 A JP2012127963 A JP 2012127963A JP 2013005437 A JP2013005437 A JP 2013005437A
Authority
JP
Japan
Prior art keywords
frame
intra
original input
information
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012127963A
Other languages
English (en)
Other versions
JP5555741B2 (ja
Inventor
Lundberg Stephen
ステファン ルンドバリ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Axis AB
Original Assignee
Axis AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Axis AB filed Critical Axis AB
Publication of JP2013005437A publication Critical patent/JP2013005437A/ja
Application granted granted Critical
Publication of JP5555741B2 publication Critical patent/JP5555741B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】オリジナル入力映像フレームのシーケンスに対応するデジタル映像データの符号化方法および符号化システムを提供する。
【解決手段】符号化方法としては、第1のオリジナル入力映像フレームをインターフレームに符号化する工程と、前記インターフレームを復号して参照フレームに再構成する工程と、第2のオリジナル入力映像フレームおよび前記参照フレームの両方からの情報を含むイントラ入力フレームを作成する工程と、前記イントラ入力フレームをイントラフレームに符号化する工程とを含む。デジタル映像符号化システムとしては、イントラモードおよびインターモードを使用してオリジナル入力映像フレームのシーケンスを符号化することにより、オリジナル入力映像フレームのシーケンスに対応するデジタル映像データを符号化する。
【選択図】図2

Description

本発明は、イントラモードおよびインターモードを使用してオリジナル入力映像フレームのシーケンスを符号化することにより、オリジナル入力映像フレームのシーケンスに対応するデジタル映像データを符号化するための方法およびデジタル映像符号化システムに関する。
現代のデジタル映像符号化システムでは、映像信号を圧縮するためにイントラモードおよびインターモードの2つの主なモードが使用される。イントラモードでは、変換符号化によって、単一画像の所定のチャネル内のピクセルの空間的冗長性を利用することにより、輝度チャネルおよび色度チャネルが符号化される。インターモードは、別々のフレーム間での時間的冗長性を利用して、1つのフレームから他のフレームまでピクセルの動きを符号化することにより、前に復号された1つまたは複数のフレームからフレームを予測する動き補償技術に依存している。インターモードにおいて、輝度チャネルおよび色度チャネルは同じ運動記述を共有している。
通常、符号化されるフレームは、個別に圧縮され符号化される独立したブロック(マクロブロックまたはピクセルブロック)に分割される。インターモードでは、それぞれのブロックに、1つまたは複数の運動ベクトルが割り当てられ、フレームの予測は、運動ベクトルのセットに従ってピクセルブロックを過去および/または未来のフレームから移動させることにより構成される。最終的に、符号化されるフレームとフレームの動き補償された予測の間の残差信号と呼ばれる差異が、変換符号化によりイントラモードと同様の方法で符号化される。
MPEG用語におけるイントラモードはIフレームに相当し、インターモードはPおよびBフレームに相当する。インターモードの符号化効率は、イントラモードの符号化効率よりはるかに高いが、これは時間予測を利用するためである。すなわち信号の多くは動き補償により形成される予測に含まれ、残留信号が有するエネルギーはオリジナル信号より小さい。それらの符号化がそれ自体の空間的冗長性のみに依存するので、イントラフレームは、インターフレームの場合とは異なり、他のいかなる画像からも独立して復号でき、それゆえビットストリーム内に一定間隔で挿入される。イントラフレームは、時間的冗長性を利用できないシーンチェンジに対応する新しいフレームグループの最初に置かれるシーンチェンジフレームか、またはいくらかの時間的冗長性を利用できる他の位置に置かれるリフレッシュフレームとすることができる。
イントラおよびインターフレームは、基本となる符号化方法が違うので、異なる符号化アーティファクトを呈する。同質の映像シーケンス全体にわたって、結果として生じるインターフレームの品質およびアーティファクトは、安定する傾向がある。しかしながら、イントラリフレッシュフレームが符号化される場合、インター符号化に起因する先行するすべてのアーティファクトが消去され、イントラ符号化に起因する新しいアーティファクトが突然導入される。したがって映像画質は、イントラリフレッシュフレームにおいて乱れ、結果として、ここでフラッシング効果、文献ではまたフリッカおよびポンピング効果と称するものが生じる。フラッシング効果は、特に低い動作シーケンスおよび中程度または低いビットレートで目立ち、符号化アーティファクトが非常に顕著になる。
このフラッシング効果を減少させるための様々な方法およびデバイスが存在する。いくつかの例が、米国特許出願の第2007/0230574号、第2007/0081591号および第2008/0025397号に開示されている。
従来の方法には、圧縮過程という余分な演算を必要とする欠点がある。本発明は、余分な圧縮過程を伴わずに、フラッシング効果を減少させるための、代替方法およびデバイスに関する。
上述を鑑み、本発明の目的は、上記の欠点のうちの少なくとも1つもしくはいくつかを解消又は緩和することである。全般的に、上記の目的は、本出願の独立請求項によって実現される。
特に、本発明の第1の態様によると、オリジナル入力映像フレームのシーケンスに対応するデジタル映像データを符号化する方法が提示される。本方法は、第1のオリジナル入力映像フレームをインターフレームに符号化する工程と、前記インターフレームを復号して参照フレームに再構成する工程と、第2のオリジナル入力映像フレームと前記参照フレームの両方からの情報を含むイントラ入力フレームを作成する工程と、前記イントラ入力フレームをイントラフレームに符号化する工程とを含む。
本方法は、余分な圧縮過程を追加することなく、容易に前記フラッシング効果を減少するという点で効果がある。この効果の1つの根拠は、先に符号化されたインターフレームとオリジナルの入力フレームの両方からの情報が、イントラフレーム内に符号化される入力フレームを作成するために使用されるため、先に符号化されたインターフレーム内に存在するいずれかの符号化アーティファクトが、新しく符号化されたイントラフレーム内に少なくとも部分的に存在し、それゆえ前記フラッシング効果が低減されることである。さらに、本方法は、ISO/MPEGファミリ(MPEG−1、MPEG−2、MPEG−4)の映像符号化標準およびITU−H.26Xファミリ(H.261、H.263および拡張版H.264)の勧告を改変、変更しない。
本方法はさらに、前記第2のオリジナル入力フレームをサブエリアに分割する工程と、前記第2のオリジナル入力フレームの各サブエリアに対して、前記第2のオリジナル入力映像フレームのサブエリア内の動きのレベルを判定する工程とを含んでもよい。
前記第2のオリジナル入力フレームのサブエリアに対応する前記イントラ入力フレームのサブエリアの作成に使用される、前記第2のオリジナル入力フレームからの情報と、前記参照フレームからの情報との比率は、前記第2のオリジナル入力フレームの対応するサブエリア内で識別される動きのレベルに依存させることができる。このようにすることにより、高レベルの動きのイントラ入力フレームのエリアに関する情報がオリジナル入力フレームから取り出され、低レベルの動きのイントラ入力フレームエリアの情報が参照フレームから取り出される。
前記イントラ入力フレームの第1のサブエリアは、前記第2のオリジナル入力映像フレームからの情報だけを使用して作成することができる。
前記イントラ入力フレームの第2のサブエリアは、前記参照フレームからの情報だけを使用して作成することができる。
前記イントラ入力フレームの第3のサブエリアは、前記第2のオリジナル入力映像フレームと前記参照フレームの両方からの情報を使用して作成することができる。
本方法はさらに、主として前記第2のオリジナル入力映像フレームからの第1の量子化値の情報に基づいて、前記イントラ入力フレームのエリアを符号化する工程と、主として前記参照フレームからの、前記第1の量子化値とは異なる第2の量子化値の情報に基づいて、前記イントラ入力フレームのエリアを符号化する工程とを含んでもよい。したがって高レベルの動きのエリアは、低レベルの動きのエリアまたは動きのないエリアより高い画質を使用して符号化される。
前記インターフレームはPフレームまたはBフレームであってよく、前記イントラフレームはIフレームであってよい。
本発明の別の態様によれば、処理能力を有するデバイス上で実行されると上記方法を実行するプログラムが記録されたコンピュータ読み取り可能な記録媒体が提供される。
本発明のさらに別の態様によれば、コンピュータ読み取り可能な記録媒体に記録されたプログラムを実行するデジタルネットワークカメラが提供される。
本発明のさらに別の態様によれば、イントラモードおよびインターモードを使用してオリジナル入力映像フレームのシーケンスを符号化することにより、オリジナル入力映像フレームのシーケンスに対応するデジタル映像データを符号化するためのデジタル映像符号化システムが提供される。デジタル映像符号化システムは、入力フレームをイントラフレームまたはインターフレームに加工するエンコーダモジュールと、エンコーダで符号化されたイントラフレームまたはインターフレームを復号するデコーダモジュールと、符号化されたフレームを参照フレームに再構成するために、デコーダモジュールからの情報を使用する動き補償モジュールと、オリジナル入力映像フレームからの情報と共に、先に符号化され再構成された参照フレームからの情報を使用してイントラ入力フレームを作成するイントラ入力フレーム構成モジュールとを備え、イントラフレームを符号化する際、エンコーダモジュールは、イントラ入力フレーム構成モジュールを用いて構成されるイントラ入力フレームを使用する。
デジタル映像符号化システムは、さらに、前記オリジナル入力映像フレームのサブエリア内の動きのレベルを検出する動き検出モジュールを備え、前記イントラ入力フレーム構成モジュールは、動き検出モジュールを用いて前記オリジナル入力フレームの対応するサブエリア内で識別される動きのレベルに基づき、前記オリジナル入力フレームのサブエリアに対応する前記イントラ入力フレームのサブエリアを作成するために使用される、前記オリジナル入力フレームからの情報と前記参照フレームからの情報との比率を判定する。
デジタル映像符号化システムが監視カメラ内部に実装されてもよい。
本発明の上記態様および他の態様を、本発明の実施形態を示す添付の図面を参照して以下にさらに詳細に説明する。添付図面は、本発明を特定の実施形態に限定するものではなく、本発明の説明および理解のために使用される。全図を通して同じ参照番号は同じ要素を表す。
先行技術によるデジタル映像符号化システムの高レベルなブロック図である。 本発明によるデジタル映像符号化システムの一実施形態の高レベルなブロック図である。 デジタル映像データを符号化する方法の実施形態に関するブロック図である。
本発明は、デジタル映像符号化システムと、フレームのオリジナルシーケンスに対応するデジタル映像データを符号化するための方法に関する。
後述では、説明のために、本発明の十分な理解を提供するために用語を定義する。しかしながら、これらの具体的な詳細を必要とせずに本発明を実施できることは、当業者には明らかであろう。例えば、本発明は、ISO/MPEGファミリ(MPEG−1、MPEG−2、MPEG−4)の映像符号化標準およびITU−H.26Xファミリ(H.261、H.263および拡張版H.264)の映像推奨を参照して記述されている。しかしながら、同じ技術を他のタイプの映像符号化標準に容易に適用できる。
現代のデジタル映像符号化システムでは、映像フレームの映像ストリームの映像フレームを圧縮するために、イントラモードおよびインターモードの2つの主なモードが使用される。イントラモードでは、変換符号化によって、単一フレームの所定のチャネル内のピクセルの空間的冗長性を利用することにより、輝度チャネルおよび色度チャネルが符号化される。インターモードは、別々のフレーム間での時間的冗長性を利用して、1つのフレームから他のフレームまでピクセルの動きを符号化することにより、前に復号された1つまたは複数のフレームから1つのフレームを予測する動き補償技術に依存している。インターモードでは、輝度チャネルおよび色度チャネルは同じ運動記述を共有する。
通常、符号化されるフレームは、個別に圧縮され符号化される独立したブロック(マクロブロックまたはピクセルブロック)に分割される。インターモードでは、それぞれのブロックに、1つまたは複数の運動ベクトルが割り当てられる。フレームの予測は、運動ベクトルのセットに従ってピクセルブロックを過去および/または未来のフレームから移動することにより構成される。最終的に、符号化されるフレームとフレームの動き補償された予測との間の残留信号と呼ばれる差異は、変換符号化によりイントラモードと同様の方法で符号化される。
イントラモードに従って符号化される映像フレームは、Iフレームと呼ばれ、過去フレームまたは未来フレームを一切参照しない。インターモードに従って符号化される映像フレームは、それ自体が、イントラフレームまたはインターフレームである過去または未来のフレームを参照して符号化されるPフレームと呼ばれる一方向に予測されるフレームであるか、または複数の過去または未来の参照フレームを参照して符号化されるBフレームと呼ばれる両方向に予測されるフレームである。
イントラフレームは、時間的冗長性を利用できないシーンチェンジに対応する新しいフレームグループの最初に置かれるシーンチェンジフレームか、またはいくらかの時間的冗長性を利用できる他の位置に置かれるリフレッシュフレームを含む。
図1は、当該技術分野で周知の一般的なデジタル映像符号化装置100の高レベルなブロック図を示す。デジタル映像符号化装置100は、映像フレームの入力映像ストリームを受け取る。それぞれの映像フレームは、離散コサイン変換(DCT)モジュール112によって処理される。上述のように、それぞれのフレームは独立して(イントラフレーム)、または動き推定モジュール140(インターフレーム)から受け取った他のフレームからの情報を参照して処理されてもよい。次に量子化(Qu)モジュール114が、離散コサイン変換モジュール112からの情報を量子化する。離散コサイン変換モジュール112および量子化モジュール114は、エンコーダモジュール110を構成する。最終的に、量子化された映像フレームは、次にエントロピエンコーダ(E)モジュール150で符号化されて、符号化ビットストリームを生成する。エントロピエンコーダ(E)モジュール150は、例えば可変長符号化(VLC)システムまたは算術符号化(CABAC)を使用してもよい。
インターフレーム符号化映像フレームは、近接する他の映像フレームを参照して定義されるため、デジタル映像エンコーダ100は、インターフレームが正確に符号化されるように、デジタル映像デコーダの復号化プロセスの後で復号された各フレームが不可避の符号化アーティファクトと共にどのように現れるかのコピーを生成する必要がある。このように、デジタル映像エンコーダ100の下部部分は、事実上デジタル映像デコーダモジュール120である。具体的には、逆量子化(Qu−1)モジュール122は、映像フレーム情報を逆量子化し、逆離散コサイン変換(DCT−1)モジュール124は、映像フレーム情報を逆離散コサイン変換する。DCT係数がDCT−1モジュール124から再構成された後、動き補償モジュール130は、運動ベクトルと共に情報を使用し、その後に次のフレームの動き推定のために参照フレームとして使用される符号化されたフレームを再構成する。
復号された映像フレームは、次いで、復号された映像フレーム内の情報に関連して定義されるインターフレーム(PフレームまたはBフレーム)を符号化するために使用できる。具体的には、動き補償(MC)モジュール130および動き推定(ME)モジュール140が使用され、運動ベクトルを判定し、インターフレームを符号化するために使用される微分値を生成する。動き推定(ME)モジュール140は、一般的には、必要な微分値を生成する際に使用される、最後に復号された画像のコピーを格納するためのメモリ手段を含む。
イントラの符号化されたマクロブロックを予測するH.264(MPEG−4パート10)手法が容易に使用できる。ブロックまたはマクロブロックがイントラモードで符号化される場合、予測ブロックは、同じ画像内で先に符号化されて再構成されたブロックに基づいて形成される。この予測ブロックは、符号化以前の現在のブロックから減算される。したがって、それらの隣接するブロックからのピクセル値(輝度および色度)を予測することにより符号化されるデータ量を低減するので、イントラ予測モジュールはH.264コーデックの主要部分になる。図1において、イントラ予測方法は、イントラ予測(IP)モジュール105を用いて実行される。
イントラおよびインターフレームは、基本となる符号化方法が違うので、異なる符号化アーティファクトを示す。同質の映像シーケンス全体にわたって、後続のインターフレームの品質およびアーティファクトは安定する傾向がある。しかしながら、イントラリフレッシュフレームが符号化される場合、インター符号化に起因する先行するすべてのアーティファクトが消去され、イントラ符号化に起因する新しいアーティファクトが突然導入される。したがって映像画質は、イントラリフレッシュフレームにおいて乱れ、結果として、本明細書においてフラッシング効果と呼び、文献ではフリッカおよびポンピング効果とも呼ばれるものが生じる。フラッシング効果は、特に低い動作シーケンスおよび中程度または低いビットレートで目立ち、符号化アーティファクトが非常に顕著になる。
したがって解決すべき問題は、イントラおよびインターフレームを符号化する際に、異なる符号化アーティファクトに起因するフラッシング効果を低減することである。フラッシング効果を低減するための様々な方法およびデバイスが存在する。いくつかの例が、米国特許出願第2007/0230574号、米国特許出願第2007/0081591号および米国特許出願第2008/0025397号に開示されている。本発明は、フラッシング効果を減少させるための代替方法およびデバイスに関する。要約すると、本発明は以下に基づくものである。
・映像フレームのシーケンス内の第1のイントラフレーム(ここでは前のインターフレームが利用できない)は通常の方法に従って符号化される(上記参照)。第1のイントラフレームではフラッシング効果は見られない。
・リフレッシュフレームとして導入された次に来るイントラフレームが、以下に従って符号化される。
−動きを含む現在のオリジナル入力フレームのサブエリアが識別される。非限定的な例として、例えば、これは現在の入力フレームと、1つまたは複数の前(または予想される未来)のオリジナル入力フレームとの比較によりなされる。あるいは、さらに非限定的な例として、これは現在のオリジナル入力フレームと、シーンの現在の状態の背景モデルとの比較によりなされる。
−動きを含む各サブエリアについて、動きのレベルが判定される。
−イントラ入力フレームと呼ばれる新しい入力フレームが作成されて、オリジナル入力フレームを置き換える。イントラ入力フレームのデータ内容は、現在のオリジナル入力フレームからのデータおよび参照フレームからのデータ(先に符号化されたフレームから再構成される)の混合物であり、通常は最後の参照フレームからのデータが使用される。高レベルの動きのサブエリアのイントラ入力フレームデータは、主としてオリジナル入力フレームから取り出されるが、動きのないサブエリアまたは低レベルの動きのサブエリアのデータは、主として参照フレームから取り出される。オリジナル入力フレームから取り出される情報と、特定のサブエリア内の参照フレームから取り出される情報との比率は、特定のサブエリアの判定された動きのレベルに基づく。
−オリジナル入力フレームと参照フレームの両方からの情報/データを含むイントラ入力フレームは、イントラフレームに符号化される。
−任意で、イントラ入力フレームは、動きのないエリアまたは低レベルの動きのエリアと比較して高レベルの動きのエリアについて、異なる画質で符号化される。
−オプションのあらゆるインループデブロッキングフィルタ(H.264が使用される場合に存在しうる)を、この特定のイントラフレームでは無効にしてもよい。
図2は、本発明によるデジタル映像符号化システム200の実施形態の高レベルなブロック図を示す。デジタル映像符号化システム200は、オリジナル入力映像フレームのシーケンスに対応するデジタル映像データを符号化するように構成されている。より正確には、デジタル映像符号化システム200は、イントラおよびインターモードを使用してオリジナル入力映像フレームのシーケンスを符号化するように構成されている。
デジタル映像符号化システム200は、イントラ予測(IP)モジュール105、エンコーダモジュール110、デコーダモジュール120、動き補償モジュール130、動き推定(ME)モジュール140およびエントロピエンコーダ(E)モジュール150を備え、これらのすべてのモジュールは、図1で示すように、先行技術による符号化システムにも存在する。さらに、イントラ入力フレーム構成(IIFC)モジュール160および動き検出(MD)モジュール170が、ここで符号化システムの入力に追加される。よってイントラ入力フレーム構成(IIFC)モジュール160および動き検出(MD)モジュール170は、本発明によるデジタル映像符号化システム200のプリコーディングプロセス段階を形成する。
本発明の実施形態によれば、デジタル映像符号化システム200は、監視カメラ内部に実装される。
イントラ予測(IP)モジュール105は、イントラモードにおいて、それらの隣接ブロックからピクセル値(輝度および色度)を予測することにより符号化されるデータ量を低減する。
エンコーダモジュール110は、離散コサイン変換(DCT)モジュール112および量子化(Qu)モジュール114を備える。DCTモジュール112は、離散コサイン変換を使用して、入力データをイントラ入力フレームまたはインター入力フレームの形態に変換する。量子化モジュール114は、DCTモジュール112からの情報を量子化する。デジタル映像符号化システム200がイントラモードである場合、エンコーダモジュール110がイントラ入力フレームをイントラフレームに加工する。デジタル映像符号化システム200がインターモードである場合は、エンコーダモジュール110がインター入力フレームをインターフレームに加工する。
エントロピエンコーダモジュール150が、エンコーダモジュール110から出力された量子化済み映像フレームを符号化することにより、符号化されたビットストリームを生成する。エントロピエンコーダ(E)モジュール150は、例えば可変長符号化(VLC)システムまたは算術符号化(CABAC)を使用してもよい。
上述のように、インターフレームの符号化された映像フレームが、他の近傍の映像フレームを参照して定義されるので、デジタル映像エンコーダ200は、インターフレームが正確に符号化されるように、復号された各フレームが不可避の符号化アーティファクトと共にデジタル映像デコーダの復号化プロセスの後でどのように現れるかをコピーする必要がある。結果的に、デコーダモジュール120は、エンコーダモジュール110により符号化されたイントラフレームまたはインターフレームを復号する。デコーダモジュール120は、逆量子化(Qu−1)モジュール122および逆離散コサイン変換(DCT−1)モジュール124を備える。量子化(Qu−1)モジュール122が、エンコーダモジュール110からの映像フレーム情報を逆量子化する。逆離散コサイン変換(DCT−1)モジュール124が、エンコーダモジュール110からの映像フレーム情報を逆離散コサイン変換する。
動き補償モジュール130は、符号化されたフレームを参照フレームに再構成するために、デコーダモジュール120からの情報を使用する。すなわち、結論としてDCT係数は、DCT−1モジュール124から再構成され、動き補償モジュール130は、符号化されたフレームを再構成するために運動ベクトルと共に先の情報を使用する。インターモードでは、再構成されたフレームが、次のフレームの動き推定のための参照フレームとして使用される。
動き推定(ME)モジュール140は、インターフレームの符号化に使用される運動ベクトルを判定し、微分値を生成するために使用される。
これまでのところ、本発明によるデジタル映像符号化システム200は、例えば図1に示すような従来のデジタル映像符号化システムに類似している。
本発明によるデジタル映像符号化システム200の新しい特徴は、イントラ入力フレーム構成モジュール160および動き検出モジュール170である。
動き検出モジュール170が、オリジナル入力映像フレームのサブエリア内の動きのレベルを検出する。動き検出モジュール170およびその機能について、後述でさらに詳細に説明する。
イントラ入力フレーム構成(IIFC)モジュール160が、オリジナル入力映像フレームからの情報と、符号化されて再構成された参照フレームからの情報とを使用して、イントラ入力フレームを作成する。イントラモードの場合、デジタル映像符号化システム200は、イントラ入力フレームを使用してイントラフレームを符号化する。さらに、イントラ入力フレーム構成モジュール160は、前記オリジナル入力フレームのサブエリアに対応する前記イントラ入力フレームのサブエリアを作成するために使用される、前記オリジナル入力フレームからの情報と前記参照フレームからの情報との比率を判定する。この判定は、動き検出モジュール170を用いて、前記オリジナル入力フレームの対応するサブエリア内で識別された動きのレベルに基づく。映像フレームのシーケンス内の動きを検出するための多数の方法/アルゴリズムが存在する。以下に、いくつかの非限定的な実施例を説明する。
動き検出のための単純なアルゴリズムは、現在のオリジナル入力フレーム(または現在のオリジナル入力フレームのサブエリア)と、別のオリジナル入力フレーム(または別のオリジナル入力フレームのサブエリア)とを比較し、異なるピクセル数を単純に集計する。あるいは、アルゴリズムは、現在のオリジナル入力フレーム(または現在のオリジナル入力フレームのサブエリア)と、シーンの現在の状態の背景モデル(またはシーンの現在の状態の背景モデルのサブエリア)とを比較してもよい。各サブエリア内の動きのレベルは、次いで異なっているピクセルの数に関連づけられてもよい。
動きの検出のため、およびカメラが捉えたシーンの現在の状態の背景モデルを更新するための、より複雑なアルゴリズムについて後述する。
本プロセスについての理解を容易にするために、反復背景モデル更新プロセスの1つの反復を記述する。したがって、本プロセスは、最初の反復後しばらくして実行される1つの反復に関する。主として初期値の設定に関して最初の反復との間にいくらかの差異があったとしても、当業者であれば、以下の記述から容易に最初の反復を実行できるであろう。さらに、背景モデルの更新は、新しいフレーム/画像が取り込まれるたびに、または一定間隔ごとに実行されてもよい。したがって、下記のプロセスは、新しいフレーム/画像を取り込んだ後の状況を説明しており、背景モデル更新プロセスの反復が実行されると、フレーム/画像取り込みプロセスに戻る。フレーム/画像取り込みプロセスは、当業者に周知であるため、本明細書には記述しない。
一定時間の経過または背景モデルの反復時に、時間に関する新しいフレーム/画像データが取り込まれる。このとき、カメラのメモリは以下を記憶する。
−新しく取り込まれたフレーム/画像データ。
−直前の反復で生成された背景モデルのデータ。
−直前の反復で識別された各オブジェクトを表現するデータ。オブジェクトを表現するこのデータは、運動ベクトル、オブジェクトを表現する画像および画像を囲むバウンディングボックスを含む。
−直前の反復で識別された予想されるオブジェクトピクセルを描く前景画像を表現するデータ。
背景モデル更新プロセスは、このデータにアクセスできる。
次に背景モデルの更新が始まり、動きマップが作成される。動きマップは、取り込まれた現在のフレーム/画像データから作成され、動いているフレーム/画像のピクセルを示す。
識別された各オブジェクトの画像ビュー内の新しい位置が、次に、各オブジェクトの速度ベクトル、及び現在のフレーム/画像データの取り込みと直前のフレーム/画像データの取り込みとの間の時間差異を使用して予測される。
次に、動きマップは、例えば各オブジェクトのバウンディングボックスおよび画像を観察することにより、既存のオブジェクトに一致するフラグメントに分割される。この一致は、マッチングスコアを計算することにより実行される。マッチングスコアは、オブジェクトバウンディングボックスにより定義される各エリアとセグメントとの間、および/または各オブジェクト画像とセグメントとの間の、重複及び距離の比較によって計算される。次に、一致結果に基づいて、オブジェクトは分解され、オブジェクトの伝播、統合、分割、削除または作成にコンパイルされる。
セグメント化の後、オブジェクトは、動きマップに基いて一致したフラグメントを包含するように更新される。続いて、本プロセスでは、オブジェクトのバウンディングボックスに囲まれないエリア内の背景モデルを更新する。背景モデルのこれらのエリアの更新は、背景モデルからの現在値および新値に基づいて、対応するピクセルの置き換えること、または現在のピクセルを調整することにより実行される。
次に、前景画像を表現するデータが直前の反復から消去され、バックグラウンドモデルと取り込まれたフレーム/画像とを比較することにより、オブジェクトを含む領域の新値が計算される。新しい前景画像および動きマップに基づいて、オブジェクトはさらに、新しい運動ベクトル、オブジェクトを表現する新画像およびオブジェクトの新画像を囲む新しいバウンディングボックスで更新される。
オブジェクトが更新されると、各バウンディングボックス内のピクセルを更新することにより、背景モデルが微調整される。更新されるピクセルは、識別されたオブジェクトの一部ではないバウンディングボックス内のピクセルであり、更新は、現在値および新値に基づいて、現在のピクセルを調整すること、または対応するピクセルを置き換えることにより、背景モデルの対応するピクセル値を判定することにより実施される。背景モデルはこのように更新され、プロセスは前記フレーム/画像取り込みプロセスに戻る。
この場合の動きを判定するために、新画像と旧画像との差異が計算される。この場合、背景モデルが旧画像として使用される。
米国特許出願第2010/0080477号に、映像の動き検出のためのさらに別の方法が記載されている。この方法によれば、映像シーケンスの一連の画像は、頂点X、Yおよびtを有する画像ボリュームに結合される。画像ボリュームは、空間的かつ時間的フィルタおよび情報量を低減するためのしきい値でフィルタリングされた、(X、t)または(Y、t)平面にスライスされる。次に、検索アルゴリズムが、映像シーケンスのサブセット内のサーチラインに沿ってサーチし、動きの位置を特定する。いかなる頂点にも対応しないラインを識別することにより、動きが検出できる。静止した対象物および照明の変化が、頂点の1つに対応するラインとして現れる。したがって、実際の動きは、照明の変化と区別できる。この場合、移動していると検出されたピクセルの数を、動きを判定するために用いることができる。
イントラリフレッシュフレームのフリッカを減らすために使用できる動きのレベルに関する値は、全画像について計算されてもよいが、通常は、画像を分割した各サブエリアの局所値である。
1例として、例えばわずか9ピクセルの小さな画像の各サブエリアについて動きがチェックされ、各ピクセルについて、動きがある場合は1が、動きがない場合は0が記録される。これらの値が、「サブエリアの動きの和」を出すために加算される。これにより、サブエリア内の「最大の動き」は9(すべてのピクセルに動きがある場合)、「最小の動き」は0となる。さらに「サブエリアの動きのレベル」は、「サブエリアの動きの和」/「最大の動き」で計算される。
サブエリアに基づく単一ピクセルの使用に代えて、ピクセルのブロック内の動き値の平均を使用して、動きのレベルを低減できる。
これらのサブエリア、それらの動き値および動きのレベルを生成する他のいくつかの方法が想定できる。
さらに、隣接サブエリアに基づき「サブエリアの動きのレベル」間で計算された補間に基づいて、「サブエリアの動きのレベル」が最適化されてもよい。この補間は、線形でも非線形でもよく、より鋭いオブジェクト境界を与えることを意図してもよい。
各サブエリアの動きのレベルが判定されたら、オリジナル入力フレームからのデータ/情報および参照フレームからのデータ/情報の比率が決定できる。この比率を使用して、イントラ入力フレームの対応するサブエリアが作成できる。例えば、動きのレベルが第1のしきい値より高い場合、オリジナルの入力映像フレームからのデータ/情報だけが、イントラ入力フレームの対応するサブエリアを作成するために使用され、動きのレベルが第2のしきい値より低い場合、参照フレームからのデータ/情報だけが、イントラ入力フレームの対応するサブエリアを作成するために使用され、さらには、動きのレベルが第1のしきい値より低く、第2のしきい値より高い場合、オリジナル入力フレームと参照フレームの両方からのデータ/情報が、イントラ入力フレームの対応するサブエリアを生成するために使用される。最後のケースでは、オリジナル入力フレームと参照フレームの両方からのデータ/情報がイントラ入力フレームの対応するサブエリアを生成するために使用される場合、オリジナル入力フレームおよび参照フレームからのデータ/情報の比率は、特定のサブエリア内の動きのレベルに基づいてもよい。
先述のように、動きのないブロックまたは低レベルの動きのブロックと比較して高レベルの動きのブロックについては、任意でイントラ入力フレームを異なる画質で符号化してもよい。一般的に高い動きのブロックは、より高画質、すなわち低い量子化値で符号化される。
しかしながら、上記「サブエリアの動きのレベル」の値が定義されるサブエリアは、当然ながら、映像エンコーダで使用されるブロックとはサイズと位置の両方において異なる。1つのサブエリアが高レベルの動きを有すると記録される場合も、その結果として、符号化プロセスにおいてどのブロックが異なる画質で符号化されるべきであるかは明白でない。
さらに「ブロックの動きのレベル」の値を、「サブエリアの動きのレベル」に基づいて計算することが1つの解決策となりうる。符号化ブロックの符号化の質は、例えば画質の値がどの時点で変化すべきかを規定するしきい値を定義することにより、この「ブロックの動きのレベル」に依存させることができる。符号化の質が高いほど、一般的に動きの符号化を改善することができ、符号化の質が低いほど符号化の質が均一化する。
本発明はさらに、オリジナル入力映像フレームのシーケンスに対応するデジタル映像データを符号化する方法に関する。図3を参照して、本発明の方法の実施形態を後述でさらに詳細に説明する。
符号化のモードに応じて、オリジナル入力フレームは、イントラモードまたはインターモードを使用して符号化される。
映像フレームのシーケンス内の第1のフレーム(ここでは前のイントラフレームまたはインターフレームが利用できない)が、通常のイントラフレーム符号化方法に従って、すなわちいかなる過去のフレームも未来のフレームも参照しないで符号化され(工程300)、輝度および色度チャネルは、変換符号化によって、単一フレームの所定のチャネル内のピクセルの空間的冗長性を利用することにより符号化される。第1のイントラフレームでは、フラッシング効果は見られない。第1のイントラフレームが復号され、次のインターフレームの生成のために使用される参照フレームに再構成される(工程305)。
オリジナル入力フレームのシーケンス内の次の1つまたは複数のオリジナル入力映像フレームが、通常の(上記参照)インターモード符号化を使用して、インターフレームに符号化される(工程310)。各インターフレームが復号され、次のインターフレームの生成のために使用される参照フレームに再構成される(工程315)か、あるいはイントラ入力フレームを作成するときには入力データとして(工程325)再構成される。
リフレッシュフレームとして導入される次に来るイントラフレームが、次のように符号化される。現在のオリジナル入力フレームのサブエリアがサブエリアに分割され、現在のオリジナル入力フレームの各サブエリアについて、動きのレベルが判定される(工程320)。イントラ入力フレームと呼ばれる新しい入力フレームが作成され、オリジナル入力フレームに置き換わる(工程325)。イントラ入力フレームのデータ内容は、現在のオリジナル入力フレームからのデータと参照フレームからのデータとの混合物である。この参照フレーム、通常は最後の参照フレームが、先に復号されたフレームから再構成される(工程315)。高レベルの動きのサブエリアのイントラ入力フレームデータは、主としてオリジナル入力フレームから取り出され、一方動きのないサブエリアまたは低レベルの動きのサブエリア用データは、主として参照フレームから取り出される。オリジナル入力フレームから取り出される情報と、特定のサブエリア内の参照フレームから取り出される情報の比率は、オリジナル入力フレームの特定のサブエリアの判定された動きのレベルに基づく。
オリジナル入力フレームおよび参照フレームの両方からの情報/データを含むイントラ入力フレームは、イントラフレームに符号化される(工程330)。任意で、イントラ入力フレームは、動きのないエリアまたは低レベルの動きのエリアと比較して高レベルの動きのエリアについては、異なる画質(高い画質は低い量子化値に対応し、低い画質は高い量子化値に対応する)で符号化される。その後、符号化されたイントラフレームは復号され、符号化される次のフレームのための参照フレームとして使用するために再構成される(工程335)。符号化される次のフレームは、一般的には、インターフレーム(図3に示すケース)であり、イントラシーンチェンジフレームまたは別のイントラリフレッシュフレームとすることができる。
当業者であれば、本発明が決して上述の態様および実施形態に限定されないことを理解する。
例えば、オリジナル入力フレームのサブエリア内の動きの検出と共に、オリジナル入力フレームの様々なサブエリア内の動き値レベルの作成が、種々の方法で決定されてよい。
さらに、オリジナル入力フレームおよび参照フレームからの情報/データの比率が、判定された動きのレベルと共に、方法/符号化システムのユーザが管理する要因とによって変更されてもよい。
さらに、本発明の1つの実施形態によれば、イントラ予測(IP)モジュール105がデジタル映像符号化システム内に存在しなくてもよい。
しかも、符号化された映像フレームのシーケンス内のすべてのリフレッシュフレーム(イントラフレーム)が、本発明の方法に従って符号化される必要はない。
したがって、特許請求の範囲内において多くの修正および変更が可能である。

Claims (13)

  1. オリジナル入力映像フレームのシーケンスに対応するデジタル映像データを符号化する方法であって、
    第1のオリジナル入力映像フレームをインターフレームに符号化する工程と、
    前記インターフレームを復号して参照フレームに再構成する工程と、
    第2のオリジナル入力映像フレームと前記参照フレームの両方からの情報を含むイントラ入力フレームを作成する工程と、
    前記イントラ入力フレームをイントラフレームに符号化する工程と
    を含む方法。
  2. 前記第2のオリジナル入力フレームをサブエリアに分割する工程と、
    前記第2のオリジナル入力フレームの各サブエリアについて、前記第2のオリジナル入力映像フレームのサブエリア内の動きのレベルを判定する工程と
    をさらに含む、請求項1に記載の方法。
  3. 前記第2のオリジナル入力フレームのサブエリアに対応する前記イントラ入力フレームのサブエリアを作成するために使用される、前記第2のオリジナル入力フレームからの情報と、前記参照フレームからの情報との比率が、前記第2のオリジナル入力フレームの対応するサブエリア内で識別された動きのレベルに基づく、請求項2に記載の方法。
  4. 前記イントラ入力フレームの第1のサブエリアを、前記第2のオリジナル入力映像フレームからの情報だけを使用して作成する、請求項3に記載の方法。
  5. 前記イントラ入力フレームの第2のサブエリアを、前記参照フレームからの情報だけを使用して作成する、請求項3または4に記載の方法。
  6. 前記イントラ入力フレームの第3のサブエリアを、前記第2のオリジナル入力映像フレームと前記参照フレームの両方からの情報を使用して作成する、請求項3から5のいずれか一項に記載の方法。
  7. 主として前記第2のオリジナル入力映像フレームからの第1の量子化値の情報に基づいて、前記イントラ入力フレームのエリアを符号化する工程と、主として前記参照フレームからの、前記第1の量子化値とは異なる第2の量子化値の情報に基づいて、前記イントラ入力フレームのエリアを符号化する工程とをさらに含む、請求項2から6のいずれか一項に記載の方法。
  8. 前記インターフレームがPフレームまたはBフレームであり、前記イントラフレームがIフレームである、請求項1から7のいずれか一項に記載の方法。
  9. 処理能力を有するデバイス上で実行されると請求項1から8のいずれか一項に記載の方法を実行するプログラムを記録した、コンピュータ読み込み可能な記録媒体。
  10. 請求項9に記載のコンピュータ読み込み可能な記録媒体上に記録されたプログラムを実行するデジタルネットワークカメラ。
  11. イントラモードおよびインターモードを使用してオリジナル入力映像フレームのシーケンスを符号化することにより、オリジナル入力映像フレームのシーケンスに対応するデジタル映像データを符号化するためのデジタル映像符号化システムであって、
    入力フレームをイントラフレームまたはインターフレームに加工するエンコーダモジュール(110)と、
    前記エンコーダで符号化されたイントラフレームまたはインターフレームを復号するデコーダモジュール(120)と、
    前記符号化されたフレームを参照フレームに再構成するために、前記デコーダモジュール(120)からの情報を使用する動き補償モジュール(130)と、
    オリジナル入力映像フレームからの情報と、先に符号化されて再構成された参照フレームからの情報とを使用して、イントラ入力フレームを作成するイントラ入力フレーム構成モジュール(160)と
    を備え、
    前記エンコーダモジュール(110)が、イントラフレームを符号化するとき、前記イントラ入力フレーム構成モジュール(160)を用いて構成される前記イントラ入力フレームを使用するように構成されており、
    前記イントラ入力フレーム構成モジュール(160)が、第1のオリジナル入力映像フレームをインターフレームに符号化した後で前記インターフレームを参照フレームに再構成することにより形成される前記参照フレームからの情報と、第2のオリジナル入力フレームからの情報とを使用することにより、前記イントラ入力フレームを作成するように構成されていることを特徴とする、デジタル映像符号化システム。
  12. 前記オリジナル入力映像フレームのサブエリア内の動きのレベルを検出する動き検出モジュール(170)をさらに備えており、前記イントラ入力フレーム構成モジュール(160)が、前記オリジナル入力フレームのサブエリアに対応する前記イントラ入力フレームのサブエリアを作成するために使用される、前記オリジナル入力フレームからの情報と前記参照フレームからの情報との比率を、前記動き検出モジュール(170)を用いて前記オリジナル入力フレームの前記対応するサブエリア内で識別された動きのレベルに基づいて判定する、請求項11に記載のデジタル映像符号化システム。
  13. 前記デジタル映像符号化システムが監視カメラ内に実装されている、請求項11または12に記載のデジタル映像符号化システム。
JP2012127963A 2011-06-16 2012-06-05 デジタル映像データを符号化するための方法およびデジタル映像符号化システム Active JP5555741B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP11170154.6 2011-06-16
EP11170154.6A EP2536143B1 (en) 2011-06-16 2011-06-16 Method and a digital video encoder system for encoding digital video data

Publications (2)

Publication Number Publication Date
JP2013005437A true JP2013005437A (ja) 2013-01-07
JP5555741B2 JP5555741B2 (ja) 2014-07-23

Family

ID=44260040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012127963A Active JP5555741B2 (ja) 2011-06-16 2012-06-05 デジタル映像データを符号化するための方法およびデジタル映像符号化システム

Country Status (6)

Country Link
US (1) US9332279B2 (ja)
EP (1) EP2536143B1 (ja)
JP (1) JP5555741B2 (ja)
KR (1) KR101528616B1 (ja)
CN (1) CN102833532B (ja)
TW (1) TWI477154B (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105493500A (zh) * 2013-03-30 2016-04-13 安徽广行领视通信科技有限公司 用于解码可变质量视频位流的方法和设备
EP2838268B1 (en) * 2013-07-31 2019-02-20 Axis AB Method, device and system for producing a merged digital video sequence
GB2525170A (en) 2014-04-07 2015-10-21 Nokia Technologies Oy Stereo viewing
EP3021579B1 (en) 2014-11-14 2016-10-12 Axis AB Method and encoder system for encoding video
EP3200456A1 (en) * 2016-01-28 2017-08-02 Axis AB Video encoding method and video encoder system for temporal noise reduction
EP3340624B1 (en) * 2016-12-20 2019-07-03 Axis AB Encoding a privacy masked image
CN107155107B (zh) * 2017-03-21 2018-08-03 腾讯科技(深圳)有限公司 视频编码方法和装置、视频解码方法和装置
US10674159B2 (en) * 2017-07-28 2020-06-02 Microsoft Technology Licensing, Llc Effective intra encoding for screen data
WO2019084792A1 (zh) * 2017-10-31 2019-05-09 深圳市大疆创新科技有限公司 一种编码方法及装置
CN111095927A (zh) * 2018-01-30 2020-05-01 深圳市大疆创新科技有限公司 视频数据编码
EP3713235B1 (en) * 2019-03-19 2023-08-02 Axis AB Methods and devices for encoding a video stream using a first and a second encoder
US11889057B2 (en) * 2021-02-02 2024-01-30 Novatek Microelectronics Corp. Video encoding method and related video encoder

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007049629A (ja) * 2005-08-12 2007-02-22 Toshiba Corp 動画像符号化装置、動画像符号化方法および動画像符号化プログラム
JP2009503999A (ja) * 2005-07-26 2009-01-29 ソニー株式会社 符号化装置、符号化方法、復号装置、復号方法およびそれらのプログラム
JP2009147751A (ja) * 2007-12-14 2009-07-02 Sanyo Electric Co Ltd 画像処理装置、およびそれを搭載した撮像装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0418396B1 (en) * 1989-03-16 1998-06-03 Fujitsu Limited Video/audio multiplex transmission system
DE69422943T2 (de) * 1993-06-22 2000-06-29 Canon Kk Bildverarbeitungsvorrichtung
US5821986A (en) * 1994-11-03 1998-10-13 Picturetel Corporation Method and apparatus for visual communications in a scalable network environment
JP3905969B2 (ja) * 1998-01-30 2007-04-18 株式会社東芝 動画像符号化装置および動画像符号化方法
US20040031052A1 (en) * 2002-08-12 2004-02-12 Liberate Technologies Information platform
WO2005117449A1 (en) 2004-05-25 2005-12-08 Koninklijke Philips Electronics N.V. Method and device for encoding digital video data
CN101010959B (zh) * 2004-07-23 2012-01-25 海滩无极限有限公司 传送数据流的方法和系统
WO2006070787A1 (ja) * 2004-12-28 2006-07-06 Nec Corporation 動画像符号化方法、及びこれを用いた装置と、コンピュータプログラム
CL2006000541A1 (es) * 2005-03-10 2008-01-04 Qualcomm Inc Metodo para el procesamiento de datos multimedia que comprende: a) determinar la complejidad de datos multimedia; b) clasificar los datos multimedia en base a la complejidad determinada; y aparato asociado.
US8614732B2 (en) * 2005-08-24 2013-12-24 Cisco Technology, Inc. System and method for performing distributed multipoint video conferencing
US8879857B2 (en) * 2005-09-27 2014-11-04 Qualcomm Incorporated Redundant data encoding methods and device
KR100727994B1 (ko) 2005-10-06 2007-06-14 삼성전자주식회사 깜박거림 현상 감소를 위한 동영상 프레임의 코딩 방법 및장치
JP4449915B2 (ja) * 2006-02-08 2010-04-14 ソニー株式会社 符号化装置、符号化方法およびプログラム、並びに、記録媒体
WO2007129591A1 (ja) * 2006-05-09 2007-11-15 Pioneer Corporation 遮蔽物映像識別装置及び方法
US8036270B2 (en) 2006-07-27 2011-10-11 Sharp Laboratories Of America, Inc. Intra-frame flicker reduction in video coding
CA2665781C (en) * 2006-10-30 2014-02-18 Nippon Telegraph And Telephone Corporation Predicted reference information generating method, video encoding and decoding methods, apparatuses therefor, programs therefor, and storage media which store the programs
KR100846802B1 (ko) * 2007-02-14 2008-07-16 삼성전자주식회사 동영상 프레임의 디코딩 방법 및 인코딩 방법
US9247285B2 (en) * 2007-09-10 2016-01-26 The Directv Group, Inc. Method and system for monitoring a content signal
KR101365597B1 (ko) * 2007-10-24 2014-02-20 삼성전자주식회사 영상 부호화장치 및 방법과 그 영상 복호화장치 및 방법
DE102007060004B4 (de) * 2007-12-13 2009-09-03 Siemens Ag Verfahren und Vorrichtung zum Bestimmen einer Bildqualität
EP2232883B1 (en) * 2008-01-17 2012-08-08 Thomson Licensing Method for measuring flicker
US8121424B2 (en) 2008-09-26 2012-02-21 Axis Ab System, computer program product and associated methodology for video motion detection using spatio-temporal slice processing
EP2345258A4 (en) * 2008-11-12 2012-04-25 Thomson Licensing ELIMINATION OF FRAME SCINTILLE I FOR MULTIPHREAD VIDEO CODING PARALLEL TO THE GOP
US20100238354A1 (en) * 2009-03-18 2010-09-23 Shmueli Yaron Method and system for adaptive noise reduction filtering
CN101742314B (zh) 2009-12-28 2012-06-27 北京工业大学 视频编码中纹理合成区域的选取方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009503999A (ja) * 2005-07-26 2009-01-29 ソニー株式会社 符号化装置、符号化方法、復号装置、復号方法およびそれらのプログラム
JP2007049629A (ja) * 2005-08-12 2007-02-22 Toshiba Corp 動画像符号化装置、動画像符号化方法および動画像符号化プログラム
JP2009147751A (ja) * 2007-12-14 2009-07-02 Sanyo Electric Co Ltd 画像処理装置、およびそれを搭載した撮像装置

Also Published As

Publication number Publication date
TWI477154B (zh) 2015-03-11
TW201304555A (zh) 2013-01-16
JP5555741B2 (ja) 2014-07-23
US9332279B2 (en) 2016-05-03
EP2536143B1 (en) 2015-01-14
EP2536143A1 (en) 2012-12-19
KR101528616B1 (ko) 2015-06-12
CN102833532A (zh) 2012-12-19
US20120320979A1 (en) 2012-12-20
KR20120139552A (ko) 2012-12-27
CN102833532B (zh) 2015-12-16

Similar Documents

Publication Publication Date Title
JP5555741B2 (ja) デジタル映像データを符号化するための方法およびデジタル映像符号化システム
US8326075B2 (en) System and method for video encoding using adaptive loop filter
KR100751670B1 (ko) 화상 부호화 장치, 화상 복호 장치 및 화상 부호화 또는 복호화 방법
US7068722B2 (en) Content adaptive video processor using motion compensation
US8077772B2 (en) Coding background blocks in video coding that includes coding as skipped
US10638127B2 (en) Adaptive anchor frame and quantization parameter decision in video coding
US9392280B1 (en) Apparatus and method for using an alternate reference frame to decode a video frame
JP2013524669A (ja) 高効率な動画像符号化のためのスーパーブロック
JP2008500760A (ja) ディジタルビデオデータをエンコードする方法及び装置
AU2013212013A1 (en) Object detection informed encoding
JP2006229411A (ja) 画像復号化装置及び画像復号化方法
US11212536B2 (en) Negative region-of-interest video coding
US9438925B2 (en) Video encoder with block merging and methods for use therewith
US9930352B2 (en) Reducing noise in an intraframe appearance cycle
US20150195524A1 (en) Video encoder with weighted prediction and methods for use therewith
Chono et al. Detented quantization to suppress flicker artifacts in periodically inserted intra-coded pictures in H. 264 video coding
KR20070090494A (ko) 평균 움직임 벡터를 이용한 인터 프레임 에러 은닉 장치 및방법
Wen et al. Intra frame flicker reduction for parallelized HEVC encoding
JP2006196970A (ja) 動画像エラー隠蔽方法および装置
WO2024039910A1 (en) Method and apparatus for adaptive motion compensated filtering
JP2023552980A (ja) 高ビット深度ビデオコーディングのライスパラメータ導出のための低複雑度の履歴使用
JP2006270181A (ja) 動き補償型時間方向フィルタ処理における残差成分の復号化および格納方法ならびに装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130625

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130920

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140602

R150 Certificate of patent or registration of utility model

Ref document number: 5555741

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250