JP5969389B2 - オブジェクト認識ビデオ符号化ストラテジ - Google Patents

オブジェクト認識ビデオ符号化ストラテジ Download PDF

Info

Publication number
JP5969389B2
JP5969389B2 JP2012543082A JP2012543082A JP5969389B2 JP 5969389 B2 JP5969389 B2 JP 5969389B2 JP 2012543082 A JP2012543082 A JP 2012543082A JP 2012543082 A JP2012543082 A JP 2012543082A JP 5969389 B2 JP5969389 B2 JP 5969389B2
Authority
JP
Japan
Prior art keywords
frame
δqp
frames
masking
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012543082A
Other languages
English (en)
Other versions
JP2013513998A5 (ja
JP2013513998A (ja
Inventor
バガヴァティー シタラム
バガヴァティー シタラム
リャック ジョアン
リャック ジョアン
ドン−チン チャン
ドン−チン チャン
バーコンズ−パラオ ジーザス
バーコンズ−パラオ ジーザス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2013513998A publication Critical patent/JP2013513998A/ja
Publication of JP2013513998A5 publication Critical patent/JP2013513998A5/ja
Application granted granted Critical
Publication of JP5969389B2 publication Critical patent/JP5969389B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

[関連出願]
本出願は2009年12月14日に出願された米国特許仮出願第61/284151号の優先権を主張しており、当該米国特許仮出願の内容は全て本出願に組み込まれたものとする。
本発明はオブジェクト認識ビデオ符号化に関する。
多くのビデオ(画像)符号化アプリケーションにおいて、ビデオはビットレート制限を課せられて符号化されなければならない。例えば、モバイルデバイスへの送信の場合、50−400kbpsが典型的なビットレートである。低いビットレートでビデオを符号化すると、視覚情報が失われ、よって、主観的品質または視聴体験に影響を与える。このような損失のある符号化条件(状況)下では、主観的品質は顕著な(目立つ)領域または重要な領域における品質低下を低減することによって改善することができる。
図1に示されたオブジェクト強調表示システムのようなシステムにおいて、興味のあるオブジェクト(対象オブジェクト、目的オブジェクト)または領域が検出され、これらの符号化品質は、重要なオブジェクトをより良くプレザーブ(preserve:保持、維持)するための前処理によって、及び/または重要なオブジェクトをより良くプレザーブするためのオブジェクト認識エンコーダを使用することによって、改善される。このようなことが行われる理由は、視聴者にとってはビデオ(画像)の中の対象オブジェクト(例えば、サッカーのビデオであれば、ボールまたはプレーヤ)がはっきりと見えることが重要であるからである。
典型的なオブジェクト認識エンコーダはビデオの中の種々のオブジェクトまたは領域に関する情報を受信することができ、且つ、当該情報を使用して重要なオブジェクトをより良くプレザーブすることができ、よって、ユーザの視聴体験を改善(向上)することができる。このようなエンコーダは通常、符号化処理(例えば、リソース割当及びモード決定)をガイドするためにオブジェクト情報を使用することによって作動する。
オブジェクトをプレザーブする方法は複数ある。しかし、与えられたビデオについて、選択した1つの方法が当該ビデオ全体に対して最適なオブジェクトプレザーブを行えるかどうかは不明である。従って、ビデオ全体を最適にプレザーブするのに十分にフレキシブルなオブジェクトプレザーブ法が必要である。
オブジェクト認識ビデオ符号化方法が提供される。この方法は、複数のフレームを有するビデオシーケンスを受信するステップと、少なくとも2つのフレームを選択するステップと、当該少なくとも2つのフレームの各々における少なくとも1つの対象オブジェクトのトータルエリアを判別(決定)するステップと、当該トータルエリアを閾値エリアと比較するステップと、前記少なくとも2つのフレームの各々を低オブジェクト重み付けフレームまたは高オブジェクト重み付けフレームに分類するステップと、を含む。低オブジェクト重み付けフレームは前記閾値エリアを超えるトータルエリアを有するフレームであり、高オブジェクト重み付けフレームは前記閾値エリアを超えないトータルエリアを有するフレームである。前記方法はさらに、各低オブジェクト重み付けフレームを1つの符号化モードに従って符号化するステップと、各高オブジェクト重み付けフレームを異なる符号化モードに従って符号化するステップを含む。前記方法は、フレーム内のどのマクロブロックが前記少なくとも1つの対象オブジェクトを含むかを判別するステップと、前記少なくとも2つのフレームの各々について当初QPを決定するステップと、低オブジェクト重み付けフレームの場合に前記当初QPにオフセットを与えるステップと、当該オフセットを与えるステップに応じて、前記少なくとも1つの対象オブジェクトに含まれている前記マクロブロックへのビット割り当てを増大するステップと、を含んでもよい。前記方法はさらに、連続・隣接する高オブジェクト重み付けフレームについてフレームにおけるテンポラルマスキング効果の量(ΔQPMasking)からフレーム毎のQPオフセット寄与を判定するステップ(106)と、前記ΔQPMaskingをフレームタイプから得られたQPオフセット寄与(ΔQPType)に組み合わせるステップ(110)と、連続・隣接する高オブジェクト重み付けフレームを、前記フレームタイプから得られたQPオフセット寄与(ΔQPType)に組み合わされるΔQPMaskingを使用することによって得られるビットレートで符号化するステップ(114)と、連続・隣接する高オブジェクト重み付けフレームに関するフレーム複雑度を計算するステップ(102)と、連続・隣接する高オブジェクト重み付けフレームの各GOPについてGOP範囲及びGOP符号化パターンに基づいてフレームタイプを選択するステップ(104)と、フレームタイプ(ΔQPType)に基づいてフレーム毎のQPオフセット寄与を計算するステップ(106)と、を含む場合もある。前記フレームにおけるテンポラルマスキング効果の量(ΔQPMasking)からフレーム毎のQPオフセット寄与を計算するステップ(106)は、ΔQPMasking(n)=a・ComplMasking(n)を使用して実行され、ComplMasking(n)は、高オブジェクト重み付けフレームの所定サイズのウインドウにおける現在のフレームに隣接するフレームの平均として計算されたフレームのテンポラルマスキング複雑度を含む。前記方法はさらに、全高オブジェクト重み付けフレームについての平均ΔQPMaskingを計算するステップ(108)と、ΔQPMaskingを正規化するステップ(110)と、最終的なフレーム毎のΔQPを計算するステップ(110)と、当該計算された最終的なフレーム毎のΔQPを用いて、割り当てられたビット量(bit budget)とレート制御量(rate control)を計算するステップ(112)とを含んでもよい。高オブジェクト重み付けフレームについて各フレームのフレーム複雑度を計算するステップ(102)は、順方向フレーム間予測を使用して実行されてもよい。
オブジェクト認識ビデオ符号化方法の他の実施形態は、複数のフレームを有するビデオシーケンスを受信するステップと、少なくとも2つのフレームを選択するステップと、当該少なくとも2つのフレームの各々における少なくとも1つの対象オブジェクトのトータルエリアを判別(決定)するステップと、当該トータルエリアを閾値エリアと比較するステップと、前記少なくとも2つのフレームの各々を低オブジェクト重み付けフレームまたは高オブジェクト重み付けフレームに分類するステップと、各低オブジェクト重み付けフレームを1つの符号化モードに従って符号化すると共に、各高オブジェクト重み付けフレームを異なる符号化モードに従って符号化するステップと、連続・隣接する高オブジェクト重み付けフレームについてフレームにおけるテンポラルマスキング効果の量(ΔQPMasking)からフレーム毎のQPオフセット寄与を判定するステップ(106)と、前記ΔQPMaskingをフレームタイプから得られたQPオフセット寄与(ΔQPType)に組み合わせるステップ(110)と、連続・隣接する高オブジェクト重み付けフレームを、前記フレームタイプから得られたQPオフセット寄与(ΔQPType)に組み合わされたΔQPMaskingを使用することによって得られるビットレートで符号化するステップ(114)と、フレーム内のどのマクロブロックが前記少なくとも1つの対象オブジェクトを含むかを判定するステップと、前記少なくとも2つのフレームの各々について当初QPを判定するステップと、前記低オブジェクト重み付けフレームの当初QPにオフセットを与え、これにより、前記少なくとも1つの対象オブジェクトに含まれる前記マクロブロックのビット割り当てが増加するステップと、を含む。
前記方法の他の実施形態は、複数のフレームを有するビデオシーケンスを受信するステップと、少なくとも2つのフレームを選択するステップと、当該少なくとも2つのフレームの各々における少なくとも1つの対象オブジェクトのトータルエリアを判別(決定)するステップと、当該トータルエリアを閾値エリアと比較するステップと、前記少なくとも2つのフレームの各々を低オブジェクト重み付けフレームまたは高オブジェクト重み付けフレームに分類するステップと、各低オブジェクト重み付けフレームを1つの符号化モードに従って符号化すると共に、各高オブジェクト重み付けフレームを異なる符号化モードに従って符号化するステップと、前記低オブジェクト重み付けフレームについて2つ以上の符号化モードで符号化した場合の符号化マクロブロック画素とオリジナルのマクロブロック画素との間の絶対値差合計(SAD:sum of absolute differences)を判定するステップと、低オブジェクト重み付けフレームについての絶対値差合計判定ステップにおける少なくとも1つの他の符号化モードよりも小さな絶対値差合計を有する符号化モードを選択するステップと、当該選択するステップで選択されたそれぞれの符号化モードに従って前記低オブジェクト重み付けフレームを符号化するステップと、を含む。これら実施形態は、前記絶対値差合計判定ステップにおいてエンコーダ重みアレイを適用するステップを含むことができ、前記オブジェクトの画素には、オブジェクトではない画素よりも大きな重みが割り当てられる。
本発明の他の実施形態はビデオシーケンスを符号化するエンコーダを含み、当該エンコーダはビデオフレームにおける対象オブジェクトのエリアを判定する手段と、モード選択閾値エリアを設定する手段と、複数のフレームについて前記オブジェクトのエリアを前記閾値エリアと比較する手段と、前記比較する手段に応答して符号化モードを選択する手段と、符号化手段と、を含み、前記選択する手段は異なるフレームについて異なる符号化モードを選択し、前記符号化手段は前記異なるフレームを前記異なる符号化モードで符号化する。前記判定する手段は、前記対象オブジェクトを構成する画素の数を判定することができる。前記選択する手段は、前記閾値エリアを越える画素数のエリアを有するフレームについて知覚量子化(perceptual quantization)パラメータオフセット判定を採用し、この際、前記符号化手段は前記知覚量子化パラメータオフセット判定に応答する符号化モードにおいて前記フレームを符号化する。尚、前記選択する手段は、ナイーブ(naive)QPオフセット判定を採用してもよい。この場合、前記選択する手段は、前記閾値を超えない画素数のエリアを有する少なくとも2つのフレームの各々について当初QPを判定する。これは、前記少なくとも2つのフレームについてオフセットを前記当初QPに与えるためである。また、前記オフセットに応答して前記少なくとも1つの対象オブジェクトに含まれるマクロブロックへのビット割り当てを増大する。この際、前記符号化手段は、前記オフセットに応答する符号化モードにおいて前記閾値フレームを超えない画素数のエリアを有する前記少なくとも2つのフレームを符号化する。前記選択する手段は、ナイーブQPオフセット判定を採用することもでき、前記選択する手段は前記閾値を超えない画素数のエリアを有する少なくとも2つのフレームの各々について当初QPを判定する。これは、前記少なくとも2つのフレームについてオフセットを前記当初QPに与えるためである。また、前記オフセットに応答して前記少なくとも1つの対象オブジェクトに含まれるマクロブロックへのビット割り当てを増大する。この際、前記符号化手段は、前記オフセットに応答する符号化モードにおいて前記閾値フレームを超えない画素数のエリアを有する前記少なくとも2つのフレームを符号化する。
本発明は以下において添付図面を参照して例示的に説明される。
本発明で使用されるように構成されたデジタルビデオにおけるオブジェクトの見え方を強化するシステムのブロック図である。 図1のシステムによって提供される近似オブジェクト位置特定(approximate object localization)を説明する図である。 本発明によるオブジェクトハイライト処理(強調化表示、高輝度表示)のフローチャートである。 (A)と(B)は、オブジェクトフレンドリーなマクロブロック(MB)区分けの例を示す図であり、(C)はフレンドリーでないMB区分けの例を示す図である。 本発明において使用される、広域(全域)最適化R−QPモデルベースのフレームレベルのビット割り当てにおける知覚フレームレベルQPオフセットを用いてビデオセグメント全体を符号化する方法を示す例示的なフローチャートである。 本発明において使用されるビット割り当てを実行することができる例示的な標準ビデオエンコーダのブロック図である。
本発明は、量子化パラメータ(QP:quantization parameter)オフセット、重み付け歪みメトリック、及び知覚量子化(QP)オフセットを含むハイブリッド方法によってオブジェクトプレザベーション(preservation)を改良することを目的とする。
本発明は種々のタイプのオブジェクト認識エンコーダに適用可能であり、重要なオブジェクト若しくは領域を構成するマクロブロックについてQP若しくは量子化ステップサイズを減ずることを含むことができ、さらに、重要でないオブジェクト若しくは領域を構成するマクロブロックについてQP若しくは量子化ステップサイズを減ずることも含み得る。
本発明の一実施形態において、方法はビデオの中の重要なオブジェクトをプレザーブする。幾つかの条件に基づいて、エンコーダは例えばQPオフセット、重み付け歪み計測値、及び知覚的QPオフセット(またはこれらの組み合わせ)を関連マクロブロック(MB)に対して使用することができる。新規な重み付け歪み計測値が導入され、これにより、オブジェクト情報は符号化モード決定に影響を与えることができる。
図1は本発明の実施形態に適用することができるオブジェクト強調表示システムを示している。特に、本発明に従って構成されたオブジェクト強化(強調)システムはトランスミッタ10内に全コンポーネントを含むか、オブジェクト強化コンポーネントはレシーバ20内にある。オブジェクト強調表示が実行されるプロセスチェーンにおいて3つのステージがある。3つのステージとは、(1)オブジェクトが符号化(圧縮)ステージの前にトランスミッタ10において強化(強調)されるという前処理と、(2)オブジェクトおよびその位置に関する情報をリファインすることによって、オブジェクトを含む対象領域に対して、トランスミッタ10において特別な処理を行うという符号化と、(3)メタデータとしてビットストリームを介してトランスミッタ10から送信されるオブジェクト及びその位置に関する副次的情報を使用して復号化した後、オブジェクトをレシーバ20内で強化するという後処理である。本発明に従って構成されたオブジェクト強化システムは、前記した3つのステージの1つのステージのみにおいてオブジェクト強調表示を提供するか、2つのステージにおいてオブジェクト強調表示を提供するか、3つのステージ全てにおいてオブジェクト強調表示を提供することができる。
デジタル映像内のオブジェクトの見え方(ビジビリティ、視感度、鮮明度)を強化する図1のシステムは、対象オブジェクトを含む入力ビデオを提供する手段を備える。ビジビリティ強化対象となるオブジェクトを含むデジタル映像のソースは、従来の構造及び機能を有するテレビカメラであってよく、矢印12によって表されている。
図1のシステムはまた、対象オブジェクトの性質及び特徴を表す情報(例えば、オブジェクトテンプレート)を記憶すると共に、ビデオ入力、当該オブジェクトの性質及び特徴を表す情報に応じてオブジェクトを特定してその位置を見つけるオブジェクト位置特定情報を生成する手段を備える。このような手段は図1においてオブジェクト位置特定モジュール14として示されており、入力ビデオをフレーム毎に走査して、記憶されている対象オブジェクトの性質及び特徴を表す情報と同様の性質及び特徴を有する映像中のオブジェクトを特定し(つまり、何がオブジェクトであるのかを見つけ)、オブジェクトの位置を見つける(つまり、オブジェクトがどこにあるのかを見つける)手段を含む。オブジェクト位置特定モジュール14は入力ビデオのデジタル映像をフレーム毎に走査する従来の構造及び機能を有するユニットであってよい。このユニットは、走査された入力ビデオのデジタル映像のセクタ(sectors)を記憶された対象オブジェクトの性質及び特徴を表す情報と比較して、対象オブジェクトを特定し、デジタル映像のグリッド座標値によりその位置を見つける(位置を確認・特定する)。ユニットによる比較及び位置確認は、特定のセクタの走査から得られる情報が前記記憶されたオブジェクトの性質及び特徴を表す情報と同様な情報である場合に行われる。
通常、オブジェクト位置特定モジュール14は対象オブジェクトを特定して位置を確認(認識)する際に下記の方法の1つまたは複数を実行する。
・オブジェクトトラッキング法。オブジェクトトラッカ(トラッキング手段)の目的は、ビデオ内で動いているオブジェクトの位置(軌道)を見つけることである。典型的な場合、トラッカは、前のフレームから移動するオブジェクトの履歴が与えられると、現在のフレームにおけるオブジェクトパラメータ(例えば、位置、サイズ)を推定・予測する。トラッキング法は例えば、テンプレートマッチング、オプティカルフロー(optical flow)、カルマンフィルタ、平均値シフト法(mean shift analysis)、隠れマルコフモデル、パーティクルフィルタ(particle filter)に基づいて実施され得る。
・オブジェクト検出法。オブジェクト検出法の目的は、オブジェクトに関する前の知識に基づいて画像若しくはビデオフレーム内のオブジェクトの存在及び位置を検出することである。通常、オブジェクト検出法はトップダウンアプローチ及びボトムアップアプローチの組み合わせを採用する。トップダウンアプローチでは、オブジェクト検出法は、検出中のオブジェクトの人知(人間が持っている知識)から導出されるルールに基づいて行われる。ボトムアップアプローチでは、オブジェクト検出法はオブジェクトに低レベルの構造的特徴(部分)若しくはパターンを関連付け、これら特徴若しくはパターンをサーチすることによってオブジェクトの位置を見つける。
・オブジェクトセグメンテーション法。この方法では、画像またはビデオがその構成「オブジェクト」に分解され、「オブジェクト」はセマンティックエンティティ(semantic entities)またはビジュアルストラクチャ(例えば、カラーパッチ)を含み得る。一般的に、この分解は、オブジェクトの動作、色、及びテクスチャ属性に基づく。オブジェクトセグメンテーション法は幾つかのアプリケーション・用途を有する(例えば、コンパクトビデオ符号化、自動コンテンツベース説明、半自動コンテンツベース説明、フィルムポストプロダクション、及びシーン解釈)。特に、セグメンテーション法は、シーンのオブジェクトベースの説明を提供することによってオブジェクト位置特定の問題を単純にする。
図2はオブジェクト位置特定モジュール14によって提供される近似オブジェクト位置特定を示している。ユーザは例えば、オブジェクトが位置している領域の回りに楕円を描き、オブジェクトのおおよその位置を特定する。最終的には、近似オブジェクト位置特定情報(即ち、楕円の中心点パラメータ、長軸パラメータ、及び短軸パラメータ)を微調整することができる。
理想的には、オブジェクト位置特定モジュール14は完全に自動化されたモードで動作する。しかし、現実的には(実際には)、システムによって生ずる誤差・エラーを補正すために幾らかのマニュアル補助が必要になるであろう。少なくとも、システムが位置特定すべき重要なオブジェクトを決める(画定する)ためには、マニュアル補助が必要になるであろう。オブジェクトではないエリアを強化すると、視聴者は混乱してしまい、本当の動作(アクション)がわからなくなってしまう可能性がある。この問題を回避するか最小限に抑えるために、ユーザは上記したようにオブジェクトの回りに楕円を描くことができ、その後、システムは指定された位置からオブジェクトをトラッキングする(たどる)ことができる。もしオブジェクトをフレーム内に見つけることができれば、オブジェクト位置特定モジュール14はこれに対応する楕円パラメータ(即ち、中心点、長軸、及び短軸)を出力する。理想的には、この範囲決定(境界画定)楕円の輪郭はオブジェクトの輪郭に一致する。
しかし、パラメータがおおよそのものに過ぎず、結果として得られる楕円がオブジェクトをぴったり(隙間なく)オブジェクトを含まずにオブジェクト強化(強調)が適用されると、2つの問題が生じ得る。第1に、オブジェクトの全体が強化されない可能性がある。なぜなら、楕円がオブジェクト全体を含まないからである。第2に、オブジェクトではないエリアが強化されてしまう可能性がある。これら2つの結果は望まれないものであるので、このような場合、強化前にオブジェクト領域を微調整(精度向上、リファイン)することが有益である。オブジェクト位置特定情報の微調整(精度向上)については、下記に詳しく説明する。
図1のシステムはさらに、オブジェクト位置特定モジュール14から受信されたオブジェクト位置特定情報及びビデオ入力に応じて、デジタル映像の一部の強化ビデオを作る手段を備える。デジタル映像の一部とは、対象オブジェクトを含み且つオブジェクトが位置している領域を含む部分である。このような手段は図1においてオブジェクト強化モジュール16として示されており、従来の画像処理をこの領域に適用することによって、対象オブジェクトを含むデジタル映像の領域の見え方を強化する従来のユニット(構成も機能も従来技術)であってよい。オブジェクト位置特定情報はフレーム毎にオブジェクト位置特定モジュール14から受信される情報であって、対象オブジェクトが位置している所定サイズの領域のグリッド座標値を含む。さらに、上記したように、オブジェクト強化は強化ステージに続く符号化ステージの間にオブジェクトの品質低下を抑制するのに役立つ。これについては後述する。この時点までの図1のシステムの動作が、上記において前処理モードと称されていた動作に対応する。
オブジェクトを強化する際、オブジェクトの見え方(ビジビリティ)は対象オブジェクトが位置している領域に画像処理を適用することによって改善される。この処理は、オブジェクトの境界に沿って適用され(例えば、エッジをシャープにする)、オブジェクトの中に適用され(例えば、テクスチャ強化)、さらにオブジェクトの外にも適用されることもある(例えば、コントラストの増強、オブジェクトエリア外のぼかし)。例えば、オブジェクトにより多くの注意が向くようにする1つの手法は、オブジェクト内のエッジ及びオブジェクトの輪郭に沿ったエッジをシャープにすることである。これにより、オブジェクトの細部がよりはっきりと見えるようになり、且つ、オブジェクトが背景から際立つようになる。さらに、エッジがシャープになると、符号化が良い状態で維持される。可能性のある他の手法はオブジェクトの増補である。例えば、スムージング処理、シャープニング処理、及びオブジェクト精緻化(リファインメント)処理を繰り返し適用する(必ずしもこの順序で適用する必要はない)ことによって、オブジェクトを増補する。
図3においてより簡素化した形で示されたオブジェクト強調表示システムは入力ビデオ305内の重要なオブジェクト310を検出し、適切な前処理315によってオブジェクト強化を行う。このシステムはまた、オブジェクトをプレザーブするオブジェクト認識エンコーダ320を有する。オブジェクト認識エンコーダは、符号化処理の間、対象オブジェクトをより良くプレザーブするためにオブジェクト位置特定モジュールからのオブジェクト情報を使用する。
ビデオフレームのためのオブジェクト情報は「エンコーダ重みアレイ」W(x,y)で表される。これは複数の値のシーケンスであり、各値がフレーム内の各画素(x,y)に対応している。より重要なオブジェクトほど、その構成画素について、より大きな重みを有している。背景画素の重みは、慣例により0に設定することができる。
オブジェクトをより良くプレザーブするために、幾つかの方法がオブジェクト認識ビデオエンコーダで使用されてもよい。これらプレザーブ法は、例えば、ナイーブQPオフセット、重み付け歪計測及び知覚QPオフセットである。
ナイーブQPオフセット法は通常、エンコーダ重みアレイ(配列)を使用して、フレーム内のどのマクロブロック(MB)が対象オブジェクトを含むかを判定することができる。オブジェクトの重み及びマクロブロック内のオブジェクト画素数に応じて、適切なオフセットを適用してマクロブロックのQPを低減することができる。これにより、より多くのビットをマクロブロックに割り当てることができ、知覚品質を向上することができる。
重み付け歪み計測を実行する場合、エンコーダは各マクロブロックについて幾つかのモード決定(例えば、イントラコーディング(intra coding)、インターコーディング、スキップコーディング、ディレクトコーディング、及び図4に示されているマクロブロック区分け法(16x16、8x8、4x4等))を行う。このような決定はレートと歪(ディストーション)の間のトレードオフ(R−D tradeoff)に基づき、レートは割り当てられたビットの数に対応し、歪は符号化忠実度(コーディングフィディリティ)の計測値である。歪は通常、オリジナルのマクロブロックの画素値と符号化されたマクロブロックの画素値との間の絶対値差合計(SAD)として計算される。オブジェクトをより良くプレザーブするために、プロセスは重み付けされたSADを使用する。オブジェクト画素における差はオブジェクトでない画素(非オブジェクト画素)より大きな値で重み付けされる(1より大きな値で乗算される)。オブジェクト画素の重みはエンコーダ重みアレイから得られる。画素(x,y)の重みはW(x,y)+1によって与えられる。オブジェクト画素における歪を強調することによって、重み付けされた歪を計測すると、より良いオブジェクトのプレザベーションが得られる。なぜならレートと歪の最適化を行おうとすれば、マクロブロック歪全体を最小化するモードを選択することになるからである。
知覚QPオフセット法は知覚フレームレベルQPオフセット法として特徴付けることができる。知覚QPオフセットは特に、知覚されるべきオブジェクトが多くのマクロブロックに亘っている場合に有用(便利)である。本質的に、知覚QPオフセットは基準フレーム(Iフレーム及びPフレーム)の質を向上し、よって、符号化効率全体を向上する。知覚QPオフセットは以下の関係を前提としている。
QPI<QPP<QPB (1)
ここで、QPI、QPP、及びQPBはそれぞれIフレームのQP、PフレームのQP、及びBフレームのQPを示している。一定の(定数の)フレームQPを用いたレート制御の式、つまり、フレームの最終的なQPを用いたレート制御の式は想定された一定のQP(全てのフレームについて同じ)をこのフレームのQPオフセットに合計したものである。この場合、各フレームタイプについて好ましいQPオフセットは同じように、
ΔQPI<ΔQPP<ΔQPB (2)
となる。ここで、ΔQPI、ΔQPP、及びΔQPBはそれぞれIフレームのQPオフセット、PフレームのQPオフセット及びBフレームのQPオフセットを示している。
フレームレベルのQPオフセットの計算における他の重要なファクタは人間視覚システム(HVS:human visual system)のテンポラルマスキング効果またはモーションマスキング効果である。基本的に、人間の目の感度は、ハイモーション(high motion)フレームの品質低下に対する感度の方がローモーション(low motion)フレームより鈍い。よって、ローモーションフレームに適用されるQPよりも小さなQPがハイモーションフレームに適用されるべきである。なぜならハイモーションフレームは高いテンポラルマスキング効果を有しているからである。このとき、符号化されたビデオにおいては依然として同じレベルの知覚品質が知覚され得る。
フレームにおけるテンポラルマスキング効果の量からフレーム毎のQPオフセット寄与度を効率的に計算する手法を探し、この手法をフレームタイプから得られるオリジナルの(元の)QPオフセット寄与度に適切に組み合わせる。結果として得られるフレームレベルのQPオフセットは、フレームタイプとテンポラルマスキング効果の双方を表しており、よって、より包括的なものになっている。この手法は、オフラインビデオ符号化におけるビデオクリップ全体またはビデオシーケンス全体のフレームビット割り当て(FBA:frame bit allocation)のために微調整される。これにも拘わらず、通常、この手法はオンラインのリアルタイムビデオ符号化にも適用することができる。この際、種々の程度の品質改善が、含まれた先読時間に応じて得られる。徹底的な(広範な、十分な)実験によって以下のことが判明した。即ち、オフラインビデオ符号化において全域最適化フレームビット割り付けから顕著な視覚品質向上を確実に得るためには、フレームタイプファクタよりもテンポラルマスキング効果をフレーム毎のQPオフセットにおいて説明する(重視する)ことが、より必要で且つ重要である。
オンラインまたはオフラインのビデオ符号化についてのほとんどのレート制御スキームはフレームビット割り当てにおいてフレームタイプファクタだけを説明し、HVSマスキング効果による影響を全く説明しない。よって、オフライン符号化の場合、たとえ平均ピークSN比(PSNR:peak signal−to−noise ratio)で計測された客観的な符号化効率がフレームタイプベースのフレーム毎のQPオフセットのフレームビット割り当てを介したオンライン符号化よりも著しく改善されたとしても、顕著な知覚品質改善を見ることはできない。シーケンスの全フレームビット割り当ての全域最適化の故に、ハイモーションフレームはオンライン符号化の場合よりも多くのビットが割り当てられて符号化される。オンライン符号化の場合、ビットはまず各GOP(group of pictures)に割り当てられ、一定のビットレート(CBR:constant bit rate)を保証するために、GOPの割り当てられたビットは関与しているフレーム数だけに比例し(即ち、GOPのサイズだけに比例し)、異なる符号化複雑度(例えば、ハイモーションであるかローモーションであるか等)によって影響されない。従って、オフライン符号化の場合、多くのビットが与えられれば、ハイモーションフレームはオンライン符号化の場合よりも高いPSNRで符号化される。一方、ビットの総量(総数)は同じであるので、ローモーションフレームは低いPSNRで符号化される。この場合、PSNRの変化はかなり低減される。しかし、ほぼ一定のPSNRであることは、ほぼ一定の知覚品質であることを意味しない。HVSテンポラルマスキング効果のために、ハイモーションフレームPSNRゲインはローモーションフレームPSNR低下より著しく知覚されにくい。よって、全体的な知覚品質は大抵の場合、オンライン符号化より悪い。従って、クリップ全体の全域FBAにおけるテンポラルマスキング効果を考慮することが必要であり、知覚品質強化(向上)のためには重要であることが、本発明の手法により判明した。
尚、テンポラルマスキングの原因となるFBAを含む手法はしばしば、分類分けベース若しくはフレーム複雑度ベースの基本レートモデルを有しているが、これはレート制御に広く採用されているR−QPモデリング法ほど正確ではなく、一般的でものでもない。さらに、テンポラルマスキングを考慮する広く採用された方法はFBAにおけるフレーム毎のQPを利用しないので、R−QPモデルベースのレート制御による手法に適用することはできない。
よって、知覚フレームレベルQPオフセット法は実際には、テンポラルマスキングによるQPオフセット部分(ΔQPMaskingとして示されている)とフレームタイプによる部分(ΔQPTypeとして示されている)の適切な組み合わせである。このスキーム(考え方、やり方)は、リアルタイムのシングルパスコーディングに対してオフラインのマルチパスコーディングの知覚品質を著しく向上するために、重要なスキームである。
フレーム複雑度メトリックを有するテンポラルマスキング効果は次のように定義される。
Figure 0005969389
Cmpl=max(0.1,Compl−2) (4)
ここで、Cmplはフレームの複雑度を示す。
Figure 0005969389
はフレームのMB毎の(1MB当たりの)平均MV符号化ビットを示す。
Figure 0005969389
はフレームにおける全MBに対する予測残余の平均化された平均絶対値差(MAD:mean−absolute−difference)を示す。よって、これらの合計はまさに現在のフレームのモーション強度を示し、等しく符号化複雑度及びフレーム間変化を意味する。式(3)の簡単な足し算は広範な実験による十分な経験則(ヒューリスティックス)から導出されている。
エンコーダにおいて、
Figure 0005969389
及び
Figure 0005969389
、即ちCmplはすべて、フレームの符号化の前に最初の(元の)入力フレームに基づいて計算され、
Figure 0005969389
は輝度成分だけに関与する。計算は簡単な符号化プロセス(例えば、インター16x16モード及びイントラ16x16モードをチェックするだけ、並びに、整数モーションベクトルをサーチするだけ)に従う。
式(3)から計算されるフレームの複雑度はさらに、式(4)によって制限が付けられる。複雑度が0.1未満の場合、予測残余はもともと含まれている(内在的な)画像ノイズによって存在すると考えられる。よって、最小複雑度を0.1に設定することができ、「ゼロで割り算する」エラーを回避することもできる。また、たとえモーションベクトル差が無くても、式(3)における最小平均モーションベクトルビット
Figure 0005969389
は2のままである。従って、この部分は常に除去される。
尚、本明細書において、フレーム複雑度は順方向フレーム間予測だけによってフレーム毎に計算される。なぜなら、フレーム表示順序または視聴順序は順方向に進行するからである。つまり、任意のフレームについて、フレームタイプがどのようなタイプであったとしても(即ち、IフレームであってもPフレームであってもBフレームであっても)、モーション強度やそのモーションマスキング効果を計測する際には式(3)で計算されるフレーム複雑度を使用するだけである。
下記の式(10)から分かるように、最終的なQPオフセットは実際に、テンポラルマスキングによるQPオフセット部分(ΔQPMaskingとして示されている)とフレームタイプによる部分(ΔQPTypeとして示されている)の適切な組み合わせである。このスキームは、リアルタイムのシングルパスコーディングに対してオフラインのマルチパスコーディングの知覚品質を著しく向上するために、重要なスキームである。このスキームは次の計算を含む。
・フレームnについてΔQPMaskingを計算する。
Figure 0005969389
・フレームnがシーン変化フレームである場合、式(5)の代わりに次の式を用いる。
Figure 0005969389
ΔQPMasking(n)=a・ComplMasking(n) (7)
Figure 0005969389
Figure 0005969389
ここで、K=1。2K+1=3がウインドゥサイズである。Complmax=40。a=0.5。Nはビデオクリップにおける全フレーム数である。ΔQPMasking.max=8であるとき、
ΔQPMasking.min=−8
・フレームnについてΔQPTypeを計算する。
・Iフレームなら、
GOPSize=1の場合 →ΔQPType(n)=0
それ以外で、もしGOPSize10なら

もしGOPAvgCompl<6なら、→ΔQPType(n)=−6
それ以外で、もしGOPAvgComple<14なら、→ΔQPType(n)
=−4
それ以外は →ΔQPType(n)=−2

それ以外

もしGOPAvgCompl<6なら、 →ΔQPType(n)=−8
それ以外で、もしGOPAvgCompl<14なら、→ΔQPType(n)=
−6
それ以外は →ΔQPType(n)=−4

・Pフレームなら、
もしBフレームの予測に用いられるならば、→ΔQPType(n)=−2
それ以外は →ΔQPType(n)=0
・Bフレームなら、→ΔQPType(n)=+4
ここで、GOPAvgComplは最初のIフレームを除く現在のGOPの平均フレーム複雑度である。
・フレームnについて最終的なΔQPを計算する。
ΔQP(n)=min(ΔQPmax,max(ΔQPmin,ΔQPMasking(n)+ΔQPType(n))) (10)
ここで、ΔQPmax=15、ΔQPmin=−15。
式(5)においてフレームのテンポラルマスキング複雑度は所定サイズのウインドゥ(即ち、2K+1)において現在のフレームの隣にある複数のフレームの平均フレーム複雑度として計算される。これにより幾らかのローパスフィルタリング処理を適用することになり、フレーム複雑度のハイダイナミック変化(high dynamic change)によるフレームのテンポラルマスキング複雑度のハイダイナミック変化を回避する。
シーン変化フレームの場合、そのフレーム複雑度は非常に高い可能性がある。よって、そのテンポラルマスキング複雑度は特別に式(6)のように計算される。ここで、最大の制約がフレーム複雑度に適用され、平均化処理は同じシーン内の順方向の複数の隣接フレームにのみ適用される。
テンポラルマスキングフレーム複雑度が与えられると、テンポラルマスキング効果から得られるQPオフセットの部分は式(7)のように線形マッピングによって計算される。これは十分な経験則から導き出され、複雑度メトリックと共に効率的に使うことができる。次に、式(7)から得られるΔQPMasking(n)が平均ΔQPMaskingによって正規化され、式(9)に示されるように、所定の合理的な範囲内に納まる。
本発明のΔQPTypeの計算は式(2)に記載したような経験的な規則(ヒューリスティックルール)を具現化するものである。詳しくは、もしGOPがより多くのフレームを有するなら、または、もしGOPがローモーションであるなら、GOPの最初のIフレームにより多くのビットを割り当てることがより好ましい。なぜならGOPにおける後続フレームにとって、より大きな符号化効率(の利益)を与えるからである。従って、このような場合、よりネガティブなQPオフセットが望まれ、反対の場合もしかりである。
テンポラルマスキング効果とフレームタイプ効果の双方からのQPオフセット寄与は、式(10)における簡単な加算及び限界値(範囲)設定により組み合わされる。式(10)から得られるフレーム毎のQPオフセットは、その後、R−QPモデリングベースのレート制御法に使用されて、シーケンス内の各フレームへの割り当てビットを計算する。この際、ビット割り当てにおける一定の品質のために、QPは一定であると仮定する。
フレームレベルのビット割り当てについてのレート制御法に関する簡単な説明が下記においてなされる。
1.最適QP(QPOpt)を探す場合、
Figure 0005969389
2.QPOptに基づいて各フレームの割り当てビット予定量を計算する。
i,alloc=Ri(QPOpt+ΔQPi) (12)
ここで、RTotalはビデオシーケンス全体に対するビットの総数を示す。Nはビデオシーケンス中のフレーム総数である。Riはフレームiのビット数である。ΔQPiは式(8)において計算された知覚フレームレベルQPオフセットである。Ri,allocはフレームiに対する割り当てビット数である。
全域最適化R−QPモデルベースのフレームレベルビット割り当てにおいて知覚フレームレベルQPオフセットを使用したビデオシーケンス全体の処理方法500の例が図5のフロー図に示されている。図示されているように、入力ビデオシーケンス全体が受信され、各フレーム毎に上記した簡素化された符号化法(式(3)及び(4))を用いてフレーム複雑度が計算される(502)。その後、各フレーム毎に、各GOPのGOP符号化パターン及びGOP境界(範囲)についての決定を使用してフレームタイプが選択される(504)。次に、各フレーム毎に、上記した式(7)及びΔQPTypeを使用してΔQPMaskingが計算される(506)。その後、全フレームについての平均ΔQPMaskingが計算される(508)。各フレーム毎に、式(9)を用いてΔQPMaskingが正規化され、式(10)を用いて最終的なΔQPが計算される(510)。計算された最終的なΔQPを使用して、式(11)及び(12)に関して説明したようにR−QPベースのレート制御を用い、各フレーム毎の割り当てビット予定量を計算する(512)。この段階で、シーケンス全体は、MBレベルのレート制御及び符号化を用いて求めた各フレーム毎の割り当てビット予定量により符号化される(514)。
徹底的な実験結果から次のことが判明した。即ち、テンポラルマスキング効果を考慮することなしに、フレームQPオフセットとしてΔQPTypeのみを使用すると、式(9)及び(10)のようにシーケンス全体を用いる全域最適化レート制御は、現時点で利用できる1つのGOPだけで局所的最適化レート制御をする場合に比べて優れてはいない。しかしながら、本発明の実施形態で記載されているようにテンポラルマスキング効果をさらに考慮すると、知覚品質において著しい改善が達成される。即ち、GOP最適化レート制御に比べて、上記において提案されているフレームベースのQPオフセットを用いてシーケンス最適化レート制御を行うと、(i)ハイモーションフレームに隣接するローモーションフレームに対してかなり良い符号化品質が得られ、且つ、(ii)シーンの終わりのローモーションショートGOPに対してかなり良い符号化品質が得られると共にローモーションGOPの品質はわずかに低下するだけである。全体的には、符号化ビデオの視覚経験は常に向上(改善)される。
図6は本発明を適用することができる例示的ビデオエンコーダ600のブロック図である。まず、プロセッサ601及びメモリ602がエンコーダの全要素と信号通信可能にされ、全要素を制御するよう動作する。ビデオエンコーダ600の入力は加算接合点610の非反転入力に信号通信可能に接続されている。加算接合点610の出力は変換器/量子化器620に信号通信可能に接続されている。変換器/量子化器620の出力はエントロピ符号化器640に信号通信可能に接続されている。エントロピ符号化器640の出力はエンコーダ600の出力として利用可能である。
変換器/量子化器620の出力はさらに、逆変換器/量子化器650に信号通信可能に接続されている。逆変換器/量子化器450の出力は非ブロック化(ブロック分解、デブロック)フィルタ660の入力に信号通信可能に接続されている。非ブロック化フィルタ660の出力は基準映像記憶部670に信号通信可能に接続されている。基準映像記憶部670の第1の出力はモーションエスティメータ680の第1の入力に信号通信可能に接続されている。エンコーダ600の入力はさらに、モーションエスティメータ680の第2の入力に信号通信可能に接続されている。モーションエスティメータ680の出力はモーション補償器690の第1の入力に信号通信可能に接続されている。基準映像記憶部670の第2の出力はモーション補償器690の第2の入力に信号通信可能に接続されている。モーション補償器の出力は加算接合点610の反転入力に信号通信可能に接続されている。
ナイーブQPオフセット法においては、フレームレベルレート制御法がMBのQPを決定した後にQPを変える。しかしながら、このように多くのMBを変えると、レート制御が不安定になる可能性があり、全体の知覚品質を下げてしまう可能性がある。フレームレベルのレート制御を行う前に(所望の知覚品質に基づいて)各MBの所望のQPオフセットを特定した方が良いことがわかった。レート制御法は、各MBに適切にリソースを割り当てるために、全ての情報を考慮する。
本発明に従って対象オブジェクトをどのようにプレザーブするかは、上記した3つの方法(ナイーブ量子化パラメータ(QP)オフセット法、重み付け歪みメトリック法、及び知覚量子化(QP)オフセット法)の組み合わせによって決めてもよい。この組み合わせは、プレザーブされるべきオブジェクト及びシーンの特徴を考慮し得る幾つかの条件に依存してもよい。
1つの方法では、フレーム内における対象オブジェクトのトータルエリア(総面積)を考慮する。もし0を超えるエンコーダ重み(つまりW(x,y)>0)で画素の数が所定の閾値エリア(Tarea)より小さなエリアを画定するなら、知覚QPオフセット法が採用されるべきである。
2番目の方法では、オブジェクト画素を含むMBの総数またはオブジェクト画素の数を考慮する。もしオブジェクト画素を含むMBの総数またはオブジェクト画素の数が、閾値(Tarea)より小さなエリアを有するなら、ナイーブQPオフセット法または重み付け歪む計測法が使用される。
前記2つの方法は、プレザーブされるべきMBの数が多いとき、知覚QPオフセット法はエラーに対して強いという期待・予想に基づいている。しかし、ナイーブQPオフセット法及び重み付け歪み計測法は、少ないMBが関与している場合にのみ、より良い結果を提供する。
どの方法にするかを決める条件は、オブジェクトの数及びシーンの特徴(例えば、対象オブジェクトのエリア、オブジェクトの重要度、オブジェクトの速度、及びオブジェクトプレザベーションの履歴)に基づいて決定される(例えば、前のフレームにおける対応MBに高いQPが与えられていたかどうかに基づいて決定される)。
本発明の1つの適用例において、顔領域はテレビ会議(ウェブ会議)のビデオ(画像)内で検出され、背景領域の量子化粒度を制御するために用いられる。
上記の記載は本発明を実施することができる形態の幾つかの例を示している。本発明の精神及び範囲の中で多くの他の実施形態が可能である。従って、上記の説明は例示的なものであり限定的なものでないと解釈されるべきであると共に、本発明の範囲は特許請求の範囲及びその最大限の均等物によって決められるべきである。
本発明は以下の態様を含む。
(付記1)
複数のフレームを有するビデオシーケンスから少なくとも2つのフレームを選択するステップと、
前記選択されたフレームの各々における少なくとも1つの対象オブジェクトのトータルエリアを判別するステップと、
各トータルエリアを閾値エリアと比較するステップと、
前記閾値エリアを超えるトータルエリアを有する選択されたフレームの各々を低オブジェクト重み付けフレームとして分類するステップと、
前記閾値エリアを超えないトータルエリアを有する選択されたフレームの各々を高オブジェクト重み付けフレームとして分類するステップと、
各低オブジェクト重み付けフレームを第1の符号化モードに従って符号化すると共に各高オブジェクト重み付けフレームを異なる符号化モードに従って符号化するステップと、
を含む、方法。
(付記2)
フレーム内のどのマクロブロックが前記少なくとも1つの対象オブジェクトを含むかを判別するステップと、
前記少なくとも2つのフレームの各々について当初QPを決定するステップと、
前記低オブジェクト重み付けフレームについては、前記当初QPにオフセットを与えるステップと、
前記オフセットを与えるステップに応じて、前記少なくとも1つの対象オブジェクトに含まれている前記マクロブロックへのビット割り当てを増大するステップと、
を含む、付記1記載の方法。
(付記3)
連続する高オブジェクト重み付けフレームについてフレームにおけるテンポラルマスキング効果の量からフレーム毎のQPオフセット寄与(ΔQPMasking)を判定するステップと、
前記ΔQPMaskingをフレームタイプから得られたQPオフセット寄与(ΔQPType)に組み合わせるステップと、
連続する高オブジェクト重み付けフレームを、前記フレームタイプから得られたQPオフセット寄与(ΔQPType)に組み合わされた計算済みΔQPMaskingを使用することによって得られるビットレートを使用して符号化するステップと、
を含む、付記1記載の方法。
(付記4)
連続する高オブジェクト重み付けフレームに関するフレーム複雑度を計算するステップと、
連続する高オブジェクト重み付けフレームの各GOPについてGOP範囲及びGOP符号化パターンに基づいてフレームタイプを選択するステップと、
フレームタイプに基づいてフレーム毎のQPオフセット寄与(ΔQPType)を計算するステップと、
をさらに含む、付記3記載の方法。
(付記5)
全ての高オブジェクト重み付けフレームについての平均ΔQPMaskingを計算するステップと、
ΔQPMaskingを正規化するステップと、
最終的なフレーム毎のΔQPを計算するステップと、
をさらに含む、付記4記載の方法。
(付記6)
前記計算された最終的なフレーム毎のΔQPを用いて、割り当てられるビット量及びレート制御量を計算するステップをさらに含む、付記5記載の方法。
(付記7)
前記フレームにおけるテンポラルマスキング効果の量からフレーム毎のQPオフセット寄与(ΔQPMasking)を計算するステップは、ΔQPMasking(n)=a・ComplMasking(n)を使用して実行され、ComplMasking(n)は、高オブジェクト重み付けフレームの所定サイズのウインドウにおける現在のフレームに隣接する複数のフレームの平均として計算されたフレームのテンポラルマスキング複雑度を含む、付記3記載の方法。
(付記8)
高オブジェクト重み付けフレームについて各フレームのフレーム複雑度を計算する前記ステップは、順方向フレーム間予測を使用して実行される、付記4記載の方法。
(付記9)
フレーム内のどのマクロブロックが前記少なくとも1つの対象オブジェクトを含むかを判定するステップと、
前記少なくとも2つのフレームの各々について当初QPを決定するステップと、
前記低オブジェクト重み付けフレームの前記当初QPにオフセットを与えるステップであって、これにより、前記少なくとも1つの対象オブジェクトに含まれる前記マクロブロックへのビット割り当てが増加する、ステップと、
を含む、付記3記載の方法。
(付記10)
フレーム内のどのマクロブロックが前記少なくとも1つの対象オブジェクトを含むかを判定するステップと、
前記少なくとも2つのフレームの各々について当初QPを決定するステップと、
前記低オブジェクト重み付けフレームの前記当初QPにオフセットを与えるステップであって、これにより、前記少なくとも1つの対象オブジェクトに含まれる前記マクロブロックへのビット割り当てが増加する、ステップと、
を含む、付記4記載の方法。
(付記11)
前記低オブジェクト重み付けフレームについてオリジナルのマクロブロック画素と2つ以上の符号化モードの符号化されたマクロブロック画素との間の絶対値差合計(SAD)を判定するステップと、
前記低オブジェクト重み付けフレームについての絶対値差合計判定ステップにおける少なくとも1つの他の符号化モードよりも小さな絶対値差合計を有する符号化モードを選択するステップと、
当該選択するステップで選択されたそれぞれの符号化モードに従って前記低オブジェクト重み付けフレームを符号化するステップと、
を含む、付記1記載の方法。
(付記12)
前記絶対値差合計判定ステップにおいてエンコーダ重みアレイを適用して、前記オブジェクトの画素にオブジェクトではない画素よりも大きな重みが割り当てられるようにするステップを含む、付記11記載の方法。
(付記13)
ビデオシーケンスを符号化するエンコーダであって、
ビデオフレームにおける対象オブジェクトのエリアを判定する手段と、
モード選択閾値エリアを設定する手段と、
複数のフレームについて前記オブジェクトのエリアを前記閾値エリアと比較する手段と、
前記比較する手段に応答して符号化モードを選択する手段であって、異なるフレームについて異なる符号化モードを選択するように適合される、前記選択する手段と、
符号化手段であって、前記異なるフレームを前記異なる符号化モードで符号化するように適合される、前記符号化手段と、
を含む、前記エンコーダ。
(付記14)
前記判定する手段は、前記対象オブジェクトを構成する画素の数を判定し、
前記選択する手段は、前記閾値エリアを越える画素数のエリアを有するフレームについて知覚量子化パラメータオフセット判定を使用し、
前記符号化手段は、前記知覚量子化パラメータオフセット判定に応じた符号化モードで前記フレームを符号化する、付記13記載のエンコーダ。
(付記15)
前記判定する手段は、前記対象オブジェクトを構成する画素の数を判定し、
前記選択する手段は、ナイーブQPオフセット判定を使用し、前記選択する手段は、前記閾値を超えない画素数のエリアを有する少なくとも2つのフレームの各々について当初QPを決定し、前記少なくとも2つのフレームについてオフセットを前記当初QPに与え、前記オフセットに応答して前記少なくとも1つの対象オブジェクトに含まれるマクロブロックへのビット割り当てを増大させるのに適合し、
前記符号化手段は、前記オフセットに応じた符号化モードで前記閾値フレームを超えない画素数のエリアを有する前記少なくとも2つのフレームを符号化する、付記14記載のエンコーダ。
(付記16)
前記判定する手段は、前記対象オブジェクトを構成する画素の数を判定し、
前記選択する手段は、ナイーブQPオフセット判定を使用し、前記選択する手段は前記閾値を超えない画素数のエリアを有する少なくとも2つのフレームの各々について当初QPを決定し、前記少なくとも2つのフレームについてオフセットを前記当初QPに与え、前記オフセットに応答して前記少なくとも1つの対象オブジェクトに含まれるマクロブロックへのビット割り当てを増大させるのに適合し、
前記符号化手段は、前記オフセットに応じた符号化モードで前記閾値フレームを超えない画素数のエリアを有する前記少なくとも2つのフレームを符号化する、付記13記載のエンコーダ。

Claims (12)

  1. 複数のフレームを有するビデオシーケンスから少なくとも2つのフレームを選択するステップと、
    前記選択されたフレームの各々における少なくとも1つの対象オブジェクトのトータルエリアを決定するステップと、
    各トータルエリアを閾値エリアと比較するステップと、
    前記閾値エリアを超えるトータルエリアを有する選択されたフレームの各々を低オブジェクト重み付けフレームとして分類するステップと、
    前記閾値エリアを超えないトータルエリアを有する選択されたフレームの各々を高オブジェクト重み付けフレームとして分類するステップと、
    各低オブジェクト重み付けフレームを第1の符号化モードに従って符号化すると共に各高オブジェクト重み付けフレームを第2の符号化モードに従って符号化するステップであって、前記第2の符号化モードは前記第1の符号化モードより高い品質をもたらす、前記ステップと、
    を含み、前記符号化するステップは、
    連続する前記高オブジェクト重み付けフレームについての1つのフレームにおけるテンポラルマスキング効果の量からフレーム毎のQPオフセット寄与(ΔQPMasking)を決定するステップと、
    前記ΔQPMaskingをフレームタイプから得られたQPオフセット寄与(ΔQPType)に組み合わせるステップと、
    連続する前記高オブジェクト重み付けフレームを、前記フレームタイプから得られたQPオフセット寄与(ΔQPType)に組み合わされた計算済みΔQPMaskingを使用することによって得られるビットレートを使用して符号化するステップと、
    を含む、方法。
  2. フレーム内のどのマクロブロックが前記少なくとも1つの対象オブジェクトを含むかを判定するステップと、
    前記少なくとも2つのフレームの各々について当初QPを決定するステップと、
    前記低オブジェクト重み付けフレームについては、前記当初QPにオフセットを適用するステップと、
    前記オフセットを適用するステップに応じて、前記少なくとも1つの対象オブジェクトに含まれている前記マクロブロックへのビット割り当てを増加させるステップと、
    を含む、請求項1記載の方法。
  3. 連続する前記高オブジェクト重み付けフレームに関するフレーム複雑度を計算するステップと、
    連続する前記高オブジェクト重み付けフレームの各GOPについてGOP境界及びGOP符号化パターンに基づいてフレームタイプを選択するステップと、
    フレームタイプに基づいてフレーム毎のQPオフセット寄与(ΔQPType)を計算するステップと、
    をさらに含む、請求項1記載の方法。
  4. 全ての高オブジェクト重み付けフレームについての平均ΔQPMaskingを計算するステップと、
    ΔQPMaskingを前記平均ΔQPMaskingによって正規化するステップと、
    前記フレームタイプから得られたQPオフセット寄与(ΔQPType)に組み合わされた前記正規化済みΔQPMaskingを用いて最終的なフレーム毎のΔQPを計算するステップと、
    をさらに含む、請求項3記載の方法。
  5. 前記計算済みの最終的なフレーム毎のΔQPを用いて、割り当てられるビット量及びレート制御量を計算するステップをさらに含む、請求項4記載の方法。
  6. 前記フレームにおけるテンポラルマスキング効果の量からフレーム毎のQPオフセット寄与(ΔQPMasking)を決定するステップは、n番目のフレームについてΔQPMasking(n)=a・ComplMasking(n)を使用して実行され、ここでa=0.5であり、ComplMasking(n)は、高オブジェクト重み付けフレームの所定サイズのウインドウにおける現在のフレームに隣接する複数のフレームの平均として計算されたフレームのテンポラルマスキング複雑度を含む、請求項1記載の方法。
  7. 高オブジェクト重み付けフレームについて各フレームのフレーム複雑度を計算する前記ステップは、順方向フレーム間予測を使用して実行される、請求項3記載の方法。
  8. フレーム内のどのマクロブロックが前記少なくとも1つの対象オブジェクトを含むかを判定するステップと、
    前記少なくとも2つのフレームの各々について当初QPを決定するステップと、
    前記低オブジェクト重み付けフレームの前記当初QPにオフセットを適用するステップであって、これにより、前記少なくとも1つの対象オブジェクトに含まれる前記マクロブロックへのビット割り当てが増加する、ステップと、
    を含む、請求項1記載の方法。
  9. フレーム内のどのマクロブロックが前記少なくとも1つの対象オブジェクトを含むかを判定するステップと、
    前記少なくとも2つのフレームの各々について当初QPを決定するステップと、
    前記低オブジェクト重み付けフレームの前記当初QPにオフセットを適用するステップであって、これにより、前記少なくとも1つの対象オブジェクトに含まれる前記マクロブロックへのビット割り当てが増加する、ステップと、
    を含む、請求項3記載の方法。
  10. 前記低オブジェクト重み付けフレームについてオリジナルのマクロブロック画素と2つ以上の符号化モードの符号化されたマクロブロック画素との間の絶対値差の合計(SAD)を決定するステップと、
    前記低オブジェクト重み付けフレームについての前記絶対値差の合計を決定するステップにおいて少なくとも1つの他の符号化モードよりも小さな絶対値差の合計を有する符号化モードを選択するステップと、
    当該選択するステップで選択されたそれぞれの符号化モードに従って前記低オブジェクト重み付けフレームを符号化するステップと、
    を含む、請求項1記載の方法。
  11. 前記絶対値差の合計を決定するステップにおいてエンコーダ重みアレイを適用してオブジェクトの画素にオブジェクトではない画素よりも大きな重みが割り当てられるようにするステップを含む、請求項10記載の方法。
  12. ビデオシーケンスを符号化するエンコーダであって、
    ビデオフレームにおける対象オブジェクトのエリアを決定する手段と、
    モード選択の閾値エリアを設定する手段と、
    複数のフレームについて前記対象オブジェクトのエリアを前記閾値エリアと比較する手段であって、前記閾値エリアを超えない前記対象オブジェクトのトータルエリアを有するフレームが高オブジェクト重み付けフレームとして分類される、前記比較する手段と、
    前記比較する手段に応じて符号化モードを選択する手段であって、異なるフレームについて異なる符号化モードを選択するように適合される、前記選択する手段と、
    符号化手段であって、前記異なるフレームを前記異なる符号化モードで符号化するように適合され、前記異なる符号化モードは異なる品質をもたらす、前記符号化手段と、
    を含み、
    前記符号化手段は、
    連続する前記高オブジェクト重み付けフレームについての1つのフレームにおけるテンポラルマスキング効果の量からフレーム毎のQPオフセット寄与(ΔQPMasking)を決定する手段と、
    前記ΔQPMaskingをフレームタイプから得られたQPオフセット寄与(ΔQPType)に組み合わせる手段と、
    連続する前記高オブジェクト重み付けフレームを、前記フレームタイプから得られたQPオフセット寄与(ΔQPType)に組み合わされた計算済みΔQPMaskingを使用することによって得られるビットレートを使用して符号化する手段と、
    を含む、前記エンコーダ。
JP2012543082A 2009-12-14 2010-12-08 オブジェクト認識ビデオ符号化ストラテジ Expired - Fee Related JP5969389B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US28415109P 2009-12-14 2009-12-14
US61/284,151 2009-12-14
PCT/US2010/003110 WO2011081639A2 (en) 2009-12-14 2010-12-08 Object-aware video encoding strategies

Publications (3)

Publication Number Publication Date
JP2013513998A JP2013513998A (ja) 2013-04-22
JP2013513998A5 JP2013513998A5 (ja) 2014-01-30
JP5969389B2 true JP5969389B2 (ja) 2016-08-17

Family

ID=44168390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012543082A Expired - Fee Related JP5969389B2 (ja) 2009-12-14 2010-12-08 オブジェクト認識ビデオ符号化ストラテジ

Country Status (6)

Country Link
US (1) US9118912B2 (ja)
EP (1) EP2514207A2 (ja)
JP (1) JP5969389B2 (ja)
KR (1) KR101882024B1 (ja)
CN (1) CN102656886B (ja)
WO (1) WO2011081639A2 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8510644B2 (en) * 2011-10-20 2013-08-13 Google Inc. Optimization of web page content including video
US9236024B2 (en) 2011-12-06 2016-01-12 Glasses.Com Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
US20130314401A1 (en) 2012-05-23 2013-11-28 1-800 Contacts, Inc. Systems and methods for generating a 3-d model of a user for a virtual try-on product
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US10045032B2 (en) 2013-01-24 2018-08-07 Intel Corporation Efficient region of interest detection
US9398302B2 (en) * 2013-03-08 2016-07-19 Mediatek Inc. Image encoding method and apparatus with rate control by selecting target bit budget from pre-defined candidate bit budgets and related image decoding method and apparatus
GB201312382D0 (en) 2013-07-10 2013-08-21 Microsoft Corp Region-of-interest aware video coding
CN107079155A (zh) * 2014-03-25 2017-08-18 云巅控股有限公司 视频内容分类
US20150288965A1 (en) * 2014-04-08 2015-10-08 Microsoft Corporation Adaptive quantization for video rate control
FR3022095B1 (fr) 2014-06-06 2017-09-01 Daniel Elalouf Dispositif et procede de transmission de donnees multimedia
US9549188B2 (en) * 2014-07-30 2017-01-17 Intel Corporation Golden frame selection in video coding
CN106030646B (zh) * 2015-01-30 2020-03-17 Ds全球 用于虚拟拍摄服务的系统和方法
US10735755B2 (en) * 2015-04-21 2020-08-04 Arris Enterprises Llc Adaptive perceptual mapping and signaling for video coding
CN107852508A (zh) * 2015-07-31 2018-03-27 深圳市大疆创新科技有限公司 修改搜索区域的方法
CN107852491B (zh) * 2015-07-31 2021-09-14 深圳市大疆创新科技有限公司 传感器辅助的码率控制方法
JP6537396B2 (ja) * 2015-08-03 2019-07-03 キヤノン株式会社 画像処理装置、撮像装置および画像処理方法
CN106920255B (zh) * 2015-12-24 2020-06-05 航天信息股份有限公司 一种针对图像序列的运动目标提取方法及装置
CN106231303B (zh) * 2016-07-22 2020-06-12 上海交通大学 一种hevc编码中使用预测模式进行复杂度控制的方法
CN106331707B (zh) * 2016-08-30 2020-03-13 上海大学 基于恰可觉察失真模型的非对称感知视频编码系统及方法
CN108347607B (zh) * 2017-01-25 2020-08-18 联咏科技股份有限公司 固定码率且基于行的嵌入式视频压缩方法和图像处理设备
KR102683294B1 (ko) * 2018-09-10 2024-07-10 삼성전자주식회사 객체를 인식하는 전자 장치 및 그 전자 장치를 제어하는 방법
KR20210072344A (ko) 2019-12-09 2021-06-17 삼성전자주식회사 전자장치 및 그 제어방법
CN113011210B (zh) * 2019-12-19 2022-09-16 北京百度网讯科技有限公司 视频处理方法和装置
US11263261B2 (en) * 2020-02-14 2022-03-01 Alibaba Group Holding Limited Method and system for characteristic-based video processing
CN114979610A (zh) * 2021-02-26 2022-08-30 微软技术许可有限责任公司 用于3d场景重构的图像传输
WO2023140446A1 (ko) * 2022-01-19 2023-07-27 한화비전 주식회사 영상처리장치 및 그의 영상처리방법
WO2024040535A1 (zh) * 2022-08-25 2024-02-29 深圳市大疆创新科技有限公司 视频处理方法、装置、设备和计算机存储介质
WO2024076273A1 (en) * 2022-10-07 2024-04-11 Telefonaktiebolaget Lm Ericsson (Publ) Object-based qp adaptation
CN116614631B (zh) * 2023-05-17 2024-03-19 北京百度网讯科技有限公司 视频处理方法、装置、设备及介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05227524A (ja) 1991-09-30 1993-09-03 Victor Co Of Japan Ltd データ圧縮装置
US5214507A (en) 1991-11-08 1993-05-25 At&T Bell Laboratories Video signal quantization for an mpeg like coding environment
JP2646921B2 (ja) * 1991-11-15 1997-08-27 日本ビクター株式会社 適応量子化装置
JP3258840B2 (ja) 1994-12-27 2002-02-18 シャープ株式会社 動画像符号化装置および領域抽出装置
US6192075B1 (en) 1997-08-21 2001-02-20 Stream Machine Company Single-pass variable bit-rate control for digital video coding
US6782135B1 (en) * 2000-02-18 2004-08-24 Conexant Systems, Inc. Apparatus and methods for adaptive digital video quantization
GB2371434A (en) * 2001-01-19 2002-07-24 Motorola Inc Encoding and transmitting video data
US6944224B2 (en) * 2002-08-14 2005-09-13 Intervideo, Inc. Systems and methods for selecting a macroblock mode in a video encoder
US20060109902A1 (en) * 2004-11-19 2006-05-25 Nokia Corporation Compressed domain temporal segmentation of video sequences
ES2528293T3 (es) * 2005-04-19 2015-02-06 Telecom Italia S.P.A. Procedimiento y aparato de codificación de imágenes digitales
US8149909B1 (en) * 2005-10-13 2012-04-03 Maxim Integrated Products, Inc. Video encoding control using non-exclusive content categories
JP4993676B2 (ja) * 2006-09-01 2012-08-08 キヤノン株式会社 画像符号化装置及び画像符号化方法
WO2009045682A2 (en) * 2007-09-28 2009-04-09 Athanasios Leontaris Treating video information
EP2277142A1 (en) * 2008-04-11 2011-01-26 Thomson Licensing System and method for enhancing the visibility of an object in a digital picture
WO2009126261A2 (en) * 2008-04-11 2009-10-15 Thomson Licensing System and method for enhancing the visibility of an object in a digital picture
US9215467B2 (en) * 2008-11-17 2015-12-15 Checkvideo Llc Analytics-modulated coding of surveillance video
WO2010060463A1 (en) * 2008-11-25 2010-06-03 Telefonaktiebolaget L M Ericsson (Publ) Method and apparatus for statistical multiplexing
CN101494785B (zh) 2008-12-19 2012-05-09 无锡云视界科技有限公司 一种h.264感兴趣区域编码的方法

Also Published As

Publication number Publication date
WO2011081639A2 (en) 2011-07-07
KR20120114263A (ko) 2012-10-16
US9118912B2 (en) 2015-08-25
WO2011081639A3 (en) 2011-09-09
CN102656886A (zh) 2012-09-05
EP2514207A2 (en) 2012-10-24
KR101882024B1 (ko) 2018-07-25
CN102656886B (zh) 2016-08-10
JP2013513998A (ja) 2013-04-22
US20120224629A1 (en) 2012-09-06

Similar Documents

Publication Publication Date Title
JP5969389B2 (ja) オブジェクト認識ビデオ符号化ストラテジ
JP5318424B2 (ja) 関心領域映像符号化に関するコンテンツ適応型背景スキップ
US8750372B2 (en) Treating video information
JP6698077B2 (ja) モデルベースの映像符号化用の知覚的最適化
JP5391290B2 (ja) テクスチャレベルに基づく量子化調整
JP4589437B2 (ja) ビデオ・センサに基づいた自動関心領域検出
Meddeb et al. Region-of-interest-based rate control scheme for high-efficiency video coding
Chen et al. Block-composed background reference for high efficiency video coding
KR102440329B1 (ko) 영상 선택 방법 및 그 장치
Eleftheriadis et al. Automatic face location detection for model-assisted rate control in H. 261-compatible coding of video
JP2009533902A (ja) Dcシフトアーチファクトに対する量子化調整
JP2009512283A (ja) ビデオ・フレームの動きに基づいた自動関心領域検出
JP2011510562A (ja) 知覚上の品質を評価する方法
US10440384B2 (en) Encoding method and equipment for implementing the method
Lin et al. PEA265: Perceptual assessment of video compression artifacts
WO2019001283A1 (zh) 编码分辨率控制方法及装置
Sanchez Rate control for predictive transform screen content video coding based on RANSAC
CN114173131B (zh) 一种基于帧间相关性的视频压缩方法及系统
CN115955564A (zh) 一种视频编码方法、装置、设备和介质
Wang et al. Joint adaptive background skipping and weighted bit allocation for wireless video telephony
JP4668878B2 (ja) 符号化装置
Sherki et al. A Review on Design of Low Bit Rate Video Encoding for Image Compression
KR20210108258A (ko) 깊이 얼굴 영상 부호화에서의 양자화 인자 결정 방법 및 장치 그리고 비일시적 컴퓨터 판독가능 기록매체와 이를 이용한 얼굴 인식 방법 및 장치
Zhang et al. ROI based Computational Complexity Reduction Scheme for H. 264/AVC Encoder
JP2009094645A (ja) 動画像符号化装置及びその制御方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141202

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150302

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160405

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160707

R150 Certificate of patent or registration of utility model

Ref document number: 5969389

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees