JP2007266749A - 符号化方法 - Google Patents

符号化方法 Download PDF

Info

Publication number
JP2007266749A
JP2007266749A JP2006086163A JP2006086163A JP2007266749A JP 2007266749 A JP2007266749 A JP 2007266749A JP 2006086163 A JP2006086163 A JP 2006086163A JP 2006086163 A JP2006086163 A JP 2006086163A JP 2007266749 A JP2007266749 A JP 2007266749A
Authority
JP
Japan
Prior art keywords
unit
enhancement layer
encoding
frame
base layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006086163A
Other languages
English (en)
Inventor
Mitsuru Suzuki
満 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2006086163A priority Critical patent/JP2007266749A/ja
Publication of JP2007266749A publication Critical patent/JP2007266749A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】カラー深度毎に動画像の符号化ストリームを用意すると、符号量が増える。
【解決手段】符号化装置200は、動画像にピクセル深度スケーラビリティをもたせて階層的に符号化する。上位ビット取得部150は、ピクチャの色に関する情報を与える複数のビットプレーンの内、所定ビット数の上位ビットプレーンを基本レイヤに、全ビットプレーンを拡張レイヤに割り当てる。基本レイヤ符号化部100は、基本となる上位ビットプレーンの動き予測符号化を行う。ビットシフト部102は、基本レイヤの量子化後の画像データを左ビットシフトした上で、拡張レイヤ符号化部110に与える。拡張レイヤ符号化部110は、拡張レイヤの量子化後の画像データと左ビットシフトされた基本レイヤの量子化後の画像データとの差分をとった後、差分データを可変長符号化して拡張レイヤの符号化データを生成する。
【選択図】図1

Description

本発明は、動画像にスケーラビリティをもたせて符号化する符号化方法に関する。
ブロードバンドネットワークが急速に発展しており、高品質な動画像を利用したサービスに期待が集まっている。また、DVDなど大容量の記録媒体が利用されており、高画質の画像を楽しむユーザ層が広がっている。動画像を通信回線で伝送したり、記録媒体に蓄積するために不可欠な技術として圧縮符号化がある。動画像圧縮符号化技術の国際標準として、MPEG4の規格やH.264/AVC規格がある。また、1つのストリームで、符号量に応じて、異なる画質(たとえば高画質と低画質)、異なる解像度(たとえば高解像度と低解像度)、異なるフレームレート(たとえば高フレームレートと低フレームレート)の画像の圧縮および伸長を実現することのできる、H.264/AVCの拡張として規格化が進められているSVC(Scalable Video Coding)のような次世代画像圧縮技術がある。
次世代画像圧縮技術であるSVCでは、動画像を複数の異なる解像度、フレームレート、画質で再生することができるように、空間スケーラビリティ、時間スケーラビリティ、SNRスケーラビリティなどの各種スケーラビリティをもたせて動画像を符号化する。これらのスケーラビリティを任意に組み合わせて符号化することも可能であり、SVCのスケーラビリティ機能は柔軟性に富んでいる。
最近の高品質の液晶カラーテレビの中には表示可能色数が50億色を超えるものもあり、テレビの表示可能色数を考慮して動画像の色数を増やして高画質で符号化することが求められている。SVCでは、色数のスケーラビリティの導入が検討されている(たとえば、非特許文献1参照)。
"SVC Requirements Specified by MPEG",JVT-N026,Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCEG, 2005
従来の動画像符号化方式では、カラー深度(color depth)は動画像の符号化ストリーム単位で一定の値に決められる。たとえば、標準テレビで映像を再生するには、カラー深度は8ビットで十分とされており、色数は8ビット固定である。色数の異なる動画像を再生したいというニーズに応えるためには、カラー深度毎に別々の符号化ストリームを用意してユーザに提供する必要があり、全体の符号量が増え、通信帯域や記憶領域を圧迫するという問題があった。
本発明はこうした状況に鑑みてなされたもので、その目的は、動画像に異なるピクセル深度をもたせて効率良く符号化するための符号化技術を提供することにある。
上記課題を解決するために、本発明のある態様の符号化方法は、動画像を階層的に符号化する際、画像データを与える複数のビットプレーンの内、上位ビットプレーン群を基本レイヤに、前記上位ビットプレーン群を含むより多いビット数のビットプレーン群を拡張レイヤに割り当て、前記拡張レイヤでは、前記拡張レイヤにおける予測による差分ピクチャと前記基本レイヤにおける予測による差分ピクチャのレイヤ間での差分を符号化して前記拡張レイヤの符号化データを生成する。画素データは、輝度データ、色差データ、RGBデータのいずれであってもよい。
ここでピクチャは符号化の単位であり、その概念にはフレーム、フィールド、VOP(Video Object Plane)などを含む。
「予測による差分ピクチャ」には、PピクチャやBピクチャなどに対する動き予測による差分ピクチャや、Iピクチャなどに対するフレーム内予測による差分ピクチャを含む。
この態様によると、動画像にピクセル深度スケーラビリティをもたせて符号化することができる。また、動き予測符号化によって動画像の時間方向の冗長性が取り除かれたり、あるいはフレーム内予測符号化によって画像内の冗長性が取り除かれたりしているため、動画像の符号化ストリームの符号量を抑えることができる。
前記基本レイヤと前記拡張レイヤの間で量子化処理に用いる量子化パラメータを共通にし、その共通の量子化パラメータに関する情報を前記動画像の符号化ストリームに含めてもよい。前記基本レイヤと前記拡張レイヤの間で動き補償に用いる動きベクトル情報を共通にし、その共通の動きベクトル情報を前記動画像の符号化ストリームに含めてもよい。量子化や動き補償などをレイヤ間で共通にすることで、符号化と復号の両面で効率を高めることができ、また、量子化パラメータや動き情報の符号量を減らすこともできる。
前記動画像の符号化ストリーム内で前記拡張レイヤに割り当てるビット数を動的に調整し、前記拡張レイヤに割り当てられたビット数に関する情報を前記符号化ストリームに含めてもよい。これにより、必要に応じてピクセル深度を増減することができるため、符号化効率が良くなるとともに、必要に応じて柔軟に画質を調整することができる。ピクセル深度を動的に変更する領域の単位は、フレーム、スライス、マクロブロック、ROI(Region Of Interest)領域のいずれであってもよい。画像内の領域を選択してピクセル深度を変えることができる。
なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、異なるピクセル深度をもつ動画像を効率的に階層符号化することができる。
図1は、実施の形態に係る符号化装置200の構成図である。これらの構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされた画像符号化機能のあるプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。
本実施の形態の符号化装置200は、次世代画像圧縮技術であるSVC(Scalable Video Coding)に準拠して、動画像にピクセル深度(pixel depth)スケーラビリティをもたせて符号化する「スケーラブル符号化」を行う。ピクセル深度スケーラビリティは、1ピクセルにもたせる色や輝度などのピクセル値のビット数に関するスケーラビリティのことであり、狭義の意味でカラー深度(color depth)スケーラビリティと呼ばれることもある。
符号化装置200は、動画像にピクセル深度スケーラビリティ以外に空間(spatial)スケーラビリティ、時間(temporal)スケーラビリティ、SNR(signal to noise ratio)スケーラビリティなどをもたせて符号化してもよい。
SVCでは、スケーラビリティを階層符号化により実現しており、ピクセル深度の異なる画像データをレイヤに分けて符号化し、ピクセル深度がそれぞれ異なる複数のレイヤからなる符号化ストリームを生成する。このようにしてスケーラブル階層符号化された動画像は、任意のピクセル深度を選択して復号することができるというスケーラビリティをもつ。たとえば下位層の符号化データだけを復号すると、ピクセル深度が浅い、すなわち色数の少ない動画像が再生され、上位層の符号化データを含めて復号すると、ピクセル深度が深い、すなわち色数の多い動画像が再生される。
符号化装置200は、基本レイヤの符号化データを生成する基本レイヤ符号化部100と、拡張レイヤの符号化データを生成する拡張レイヤ符号化部110とをもち、基本レイヤでは基本となるビット数分の画像データが符号化され、拡張レイヤでは全ビット数分の画像データと基本レイヤの画像データとの差分が符号化される。
上位ビット取得部150は、入力画像の最上位ビットから数えて所定ビット数の上位ビットプレーンを取得し、基本レイヤ符号化部100の入力として与える。一方、拡張レイヤ符号化部110には、入力画像の全ビットプレーンが入力される。基本レイヤには、画像の全ビットプレーンの内、画像を基礎づけている上位の基本となるビット数分のビットプレーン群が割り当てられる。一例として、10ビットのピクセル深度をもつ入力画像について、上位8ビットの画像データが基本レイヤ符号化部100に入力され、全10ビットの画像データが拡張レイヤ符号化部110に入力される。
基本レイヤ符号化部100は、上位ビットの画像データに対して動き補償、直交変換、および量子化の各処理を施し、拡張レイヤ符号化部110は、全ビットプレーンの画像データに対して動き補償、直交変換および量子化の各処理を施す。拡張レイヤの動き補償には、基本レイヤの動き補償で用いた動きベクトルが用いられ、拡張レイヤの量子化には、基本レイヤの量子化で用いた量子化スケールなどの量子化パラメータが用いられる。
基本レイヤ符号化部100は、量子化後の上位ビットの画像データを可変長符号化して基本レイヤの符号化データを生成し、ストリーム結合部160に供給する。ビットシフト部102は、基本レイヤの量子化後の画像データを左ビットシフトした上で、拡張レイヤ符号化部110に与える。ここで、ビットシフト部102による左ビットシフト量は、基本レイヤの画像のビット数と拡張レイヤの画像のビット数の差であり、ビットシフト部102による左ビットシフトにより、基本レイヤの画像データの下位ビットに0が補填され、基本レイヤの画像データと拡張レイヤの画像データのビット数が揃い、差分をとることが可能となる。
拡張レイヤ符号化部110は、拡張レイヤの量子化後の画像データとビットシフト部102により左ビットシフトされた基本レイヤの量子化後の画像データとの差分をとった後、差分データを可変長符号化して拡張レイヤの符号化データを生成する。拡張レイヤ符号化部110は、拡張レイヤの符号化データをストリーム結合部160に供給する。
ストリーム結合部160は、基本レイヤの符号化データと拡張レイヤの符号化データを結合して動画像の符号化ストリームを出力する。
図1では、基本レイヤと拡張レイヤの2つのレイヤを符号化する場合を例に挙げて構成と動作を説明するが、拡張レイヤの個数は任意である。たとえば、拡張レイヤを2つ設けて、10ビットのピクセル深度をもつ入力画像について、上位8ビットの画像データが基本レイヤで符号化され、上位9ビットの画像データが第1の拡張レイヤで符号化され、全10ビットの画像データが第2の拡張レイヤで符号化されてもよい。この場合、第2の拡張レイヤでは、第2の拡張レイヤの量子化後の画像データと、第1の拡張レイヤの量子化後の画像データであって基本レイヤとの差分をとる前のデータとの差分が符号化されることになる。拡張レイヤが3つ以上ある場合も同様で、拡張レイヤでは1つ下のレイヤの量子化後のデータとの差分をとって符号化する。
次に基本レイヤ符号化部100の構成と動作を詳しく説明する。
本実施の形態の基本レイヤ符号化部100は、国際標準化機関であるISO(International Organization for Standardization)/IEC(International Electrotechnical Commission)によって標準化されたMPEG(Moving Picture Experts Group)シリーズの規格(MPEG−1、MPEG−2およびMPEG−4)、電気通信に関する国際標準機関であるITU−T(International Telecommunication Union-Telecommunication Standardization Sector)によって標準化されたH.26xシリーズの規格(H.261、H.262およびH.263)、もしくは両方の標準化機関によって合同で標準化された最新の動画像圧縮符号化標準規格であるH.264/AVC(両機関における正式勧告名はそれぞれMPEG-4 Part 10: Advanced Video CodingとH.264)に準拠して動画像の符号化を行う。
MPEGシリーズの規格では、フレーム内符号化を行うフレームをI(Intra)フレーム、過去のフレームを参照フレームとして順方向のフレーム間予測符号化を行うフレームをP(Predictive)フレーム、過去と未来のフレームを参照フレームとして双方向のフレーム間予測符号化を行うフレームをBフレームという。
一方、H.264/AVCでは、参照フレームとして利用できるフレームは、時間の先後を問わず、過去の2枚のフレームを参照フレームとしてもよく、未来の2枚のフレームを参照フレームとしてもよい。また、参照フレームとして利用できるフレームの枚数も問わず、3枚以上のフレームを参照フレームとして用いることもできる。したがって、MPEG−1/2/4では、Bフレームは双方向予測(Bi-directional prediction)フレームのことを指していたが、H.264/AVCでは、Bフレームは、参照フレームの時間の先後は問わないため、双予測(Bi-predictive prediction)フレームのことを指すことに留意する。
なお、実施の形態では、符号化の単位としてフレームを例に挙げて説明するが、符号化の単位はフィールドであってもよい。また、符号化の単位はMPEG−4におけるVOPであってもよい。
基本レイヤ符号化部100は、フレーム単位で動画像の入力を受け取り、動画像を符号化し、符号化ストリームを出力する。基本レイヤ符号化部100に入力される動画像のフレームは、上位ビット取得部150により上位ビットが取り出されたものであり、最下位ビットから数えた所定のビット数はあらかじめ落とされている。
ブロック生成部10aは、入力された動画像のフレームをマクロブロックに分割する。フレームの左上から右下方向の順にマクロブロックが形成される。ブロック生成部10aは生成したマクロブロックを差分器12aと動き予測部60aに供給する。
差分器12aは、ブロック生成部10aから供給されるフレームがIフレームであれば、そのままDCT部20aに出力するが、PフレームまたはBフレームであれば、動き予測部60aから供給される予測フレームとの差分を計算してDCT部20aに供給する。
動き予測部60aは、フレームバッファ80aに格納されている過去または未来のフレームを参照フレームとして利用し、ブロック生成部10aから入力されたPフレームまたはBフレームのマクロブロック毎に動き補償を行い、動きベクトルと予測フレームを生成する。動き予測部60aは、生成した動きベクトルを可変長符号化部90aに供給し、予測フレームを差分器12aと加算器14aに供給する。
差分器12aは、ブロック生成部10aから出力される現在の符号化対象フレームと、動き予測部60aから出力される予測フレームとの差分を求め、DCT部20aに出力する。DCT部20aは、差分器12aから与えられた差分フレームを離散コサイン変換(DCT)し、DCT係数を量子化部30aに与える。
量子化部30aは、DCT係数を量子化し、可変長符号化部90aに与える。可変長符号化部90aは、動き予測部60aから与えられた動きベクトルとともに差分フレームの量子化されたDCT係数を可変長符号化し、符号化ストリームを生成する。可変長符号化部90aは、符号化ストリームを生成する際、符号化されたフレームを時間順序に並べ替える処理を行う。
量子化部30aは、フレームの量子化されたDCT係数を逆量子化部40aに供給する。逆量子化部40aは、与えられた量子化データを逆量子化し、逆DCT部50aに与え、逆DCT部50aは、与えられた逆量子化データを逆離散コサイン変換する。これにより、符号化されたフレームが復元される。復元されたフレームは加算器14aに入力される。
加算器14aは、逆DCT部50aから供給されるフレームがIフレームであれば、そのままフレームバッファ80aに格納する。加算器14aは、逆DCT部50aから供給されるフレームがPフレームまたはBフレームであれば、それは差分フレームであるため、逆DCT部50aから供給された差分フレームと動き予測部60aから供給される予測フレームとを加算することにより、元のフレームを再構築し、フレームバッファ80aに格納する。
フレームバッファ80aに格納された再構築フレームは、動き予測部60aによる動き補償の参照フレームとして利用される。
PフレームもしくはBフレームの符号化処理の場合は、上述のように動き予測部60aが動作するが、Iフレームの符号化処理の場合は、動き予測部60aは動作せず、ここでは図示しないが、フレーム内予測が行われる。
動き予測部60aは、ブロック生成部10aから与えられた符号化対象フレームのマクロブロック(「対象マクロブロック」という)に対して、フレームバッファ80aに格納された再構築フレームを参照フレームとして、参照フレーム内を探索し、対象マクロブロックとの差分が最も小さくなる領域を特定する。これにより、対象マクロブロック毎に符号化対象フレームから参照フレームへの動きを示す動きベクトルが定まる。
ビットシフト部102には、基本レイヤ符号化部100の量子化部30aによる量子化後の基本レイヤの画像データが入力される。ビットシフト部102は、拡張レイヤの画像データのビット数に揃えるために、基本レイヤの量子化後の画像データを左ビットシフトし、左シフトで空いた下位ビットに0を補填する。ビットシフト部102は、左ビットシフトされた基本レイヤの量子化後の画像データを拡張レイヤ符号化部110に与える。
次に拡張レイヤ符号化部110の構成と動作を説明するが、基本レイヤ符号化部100と共通する構成については対応する符号を付して説明を省略する。なお、同図では、基本レイヤ符号化部100の各構成の符号の後には「a」を付し、拡張レイヤ符号化部110の各構成の符号の後には「b」を付すことで区別している。
拡張レイヤ符号化部110の動き予測部60bは、基本レイヤ符号化部100の動き予測部60aから基本レイヤの動き補償で用いた動きベクトルMVの情報を受け取り、拡張レイヤの動き補償で用いる。基本レイヤと拡張レイヤとではピクセル値のビット数が異なるだけであるから、基本レイヤの動きベクトルは拡張レイヤの動き補償でも利用することができる。
拡張レイヤ符号化部110の量子化部30bは、基本レイヤ符号化部100の量子化部30aから基本レイヤの量子化で用いた量子化スケールQの情報を受け取り、拡張レイヤでも基本レイヤと同じ量子化スケールQで量子化を行う。基本レイヤと拡張レイヤの量子化パラメータの統一は、復号の際、基本レイヤの復号データと拡張レイヤの復号データを合成して逆量子化することを可能にするために必要である。量子化スケール以外の量子化処理に必要なパラメータについても同様に基本レイヤと拡張レイヤ間で共通にする。共通化された量子化パラメータに関する情報は、動画像の符号化ストリームのヘッダなどに格納される。
拡張レイヤ符号化部110の差分器16bは、拡張レイヤ符号化部110の量子化部30bによる拡張レイヤの量子化後の画像データと、ビットシフト部102により左ビットシフトされた基本レイヤの量子化後の画像データとの差分を求め、可変長符号化部90bに与える。ここで、差分器16bに入力される拡張レイヤと基本レイヤの画像データは、PフレームまたはBフレームの場合は、動き予測により得られた差分フレームが直交変換され、量子化されたものであり、Iフレームの場合は、フレーム内予測により得られた差分フレームが直交変換され、量子化されたものである。
拡張レイヤ符号化部110の可変長符号化部90bは、差分器16bから基本レイヤと拡張レイヤの量子化後の画像データの差分の入力を受けて、差分データを可変長符号化し、ストリーム結合部160に与える。ここで、拡張レイヤ符号化部110では、基本レイヤの動きベクトル情報を利用しているため、動きベクトル情報を可変長符号化する必要はないことに留意する。
図1では、基本レイヤと拡張レイヤのそれぞれに対して、DCT部、量子化部、動き予測部、逆量子化部、逆DCT部、可変長符号化部などの各構成を図示したが、これらは機能上の構成であるから、実装では時間的に処理を分割するなどして基本レイヤと拡張レイヤとで各構成を物理的に共有し、回路規模を小さくすることも可能である。
上記の説明では、動画ストリームのピクセル深度は一定であるとしたが、ピクセル深度を動的に変更できるようにしてもよい。その場合、ピクセル深度の増減に伴って、拡張レイヤに割り当てられるビット数を同一ストリーム内で可変にする。たとえば、基本レイヤに8ビットを割り当て、拡張レイヤには2〜4ビットの間で割り当てるビット数を変える。拡張レイヤに割り当てられたビット数の情報は動画ストリームのヘッダなどに含める。これにより、1つの動画ストリーム内でもフレーム単位もしくはフレームの集合単位で色数を増減させることができる。たとえば、シーンに応じて色数を増減したり、重要でないフレームでは色数を落とすことができる。
なお、SVC非対応の復号装置でも基本レイヤのみで動画像を復号できるように、基本レイヤに割り当てられるビット数は可変にせず、固定にしておくことが好ましい。また、本実施の形態では、拡張レイヤにおいて動き予測によってフレーム間の差分を符号化するため、拡張レイヤのビット割り当ては、フレーム間の予測符号化をしている間は一定にする必要がある。したがって、符号化ストリーム内でピクセル深度を変更可能なタイミングは、Iフレームのような基準フレームの位置になることに留意する。
本実施の形態の符号化装置200によれば、動画像にピクセル深度スケーラビリティをもたせて階層的に符号化することができる。よって、復号の際、ピクセル深度の異なる動画を選択して再生することができる。
また、符号化装置200によれば、動き補償により参照フレームとの差分をとり、時間方向の冗長性が落とされた画像や、フレーム内予測によりフレーム内の冗長性が落とされた画像について、基本レイヤと拡張レイヤ間で差分をとって符号化していることから、原画像もしくは再構築画像のレベルで差分をとる場合に比べて、基本レイヤと拡張レイヤのデータ間の冗長度を極めて小さくすることができ、階層符号化された動画ストリーム全体の符号量を小さく抑えることができる。
また、符号化装置200では、基本レイヤと拡張レイヤの間で差分を符号化する際、直交変換し、量子化した後のデータの差分をとる。一般に、量子化前のデータについてレイヤ間の差分をとってしまうと、後の量子化により誤差が生じる。本実施の形態では、量子化後のデータのについてレイヤ間の差分をとるため、レイヤ間の差分符号化が量子化による影響を受けることがなく、動画像の再生品質を維持することができる。
図2は、実施の形態に係るSVC非対応の復号装置400の構成図である。これらの機能ブロックもハードウエアのみ、ソフトウエアのみ、またはそれらの組み合わせによっていろいろな形で実現することができる。
復号装置400には、図1の符号化装置200によりピクセル深度スケーラビリティをもたせて階層符号化された動画像の符号化ストリームが入力される。しかし、復号装置400はSVCに対応していないため、入力された符号化ストリームから基本レイヤのストリームのみを取り出して復号する。
ストリーム分離部302は、入力された符号化ストリームから基本レイヤの符号化ストリームを分離して取り出し、可変長復号部310に与える。
可変長復号部310は、基本レイヤの符号化ストリームを可変長復号し、復号された画像データを逆量子化部320に供給し、動きベクトル情報を動き補償部360に供給する。
逆量子化部320は、可変長復号部310により復号された画像データを逆量子化し、逆DCT部330に供給する。逆量子化部320により逆量子化された画像データはDCT係数である。逆DCT部330は、逆量子化部320により逆量子化されたDCT係数を逆離散コサイン変換(IDCT)することにより、元の画像データを復元する。逆DCT部330により復元された画像データは、加算器312に供給される。
加算器312は、逆DCT部330から供給された画像データが、Iフレームである場合、そのIフレームの画像データをそのまま出力するとともに、PフレームやBフレームの予測フレームを生成するための参照フレームとして、フレームバッファ380に格納する。
加算器312は、逆DCT部330から供給された画像データが、Pフレームである場合、その画像データは差分フレームであるから、逆DCT部330から供給された差分フレームと動き補償部360から供給される予測フレームを加算することにより、元の画像データを復元し、出力する。
動き補償部360は、可変長復号部310から供給される動きベクトル情報と、フレームバッファ380に格納された参照フレームを用いて、PフレームまたはBフレームの予測フレームを生成し、加算器312に供給する。
動き補償部360は、可変長復号部310から復号対象フレームの動きベクトルを取得し、復号対象フレームの対象マクロブロックに対して、動きベクトルが参照する領域を特定し、その領域の画素データを用いて、動き補償された予測フレームを生成し、加算器312に与える。
図3は、実施の形態に係るSVC対応の復号装置500の構成図である。これらの機能ブロックもハードウエアのみ、ソフトウエアのみ、またはそれらの組み合わせによっていろいろな形で実現することができる。復号装置500は、SVCに準拠して、動画像にピクセル深度スケーラビリティをもたせて復号する「スケーラブル復号」を行う。
復号装置500には、図1の符号化装置200によりピクセル深度スケーラビリティをもたせて階層符号化された動画像の符号化ストリームが入力される。復号装置500は、SVCに対応しており、入力された符号化ストリームから基本レイヤと拡張レイヤのストリームを取り出して復号する。
復号装置500は、図1の符号化装置200に対応して、基本レイヤと拡張レイヤの2つのレイヤで動画像を復号する構成であるが、拡張レイヤの個数は任意である。
復号装置500は、動画像の符号化ストリームの入力を受け取り、基本レイヤと拡張レイヤの符号化ストリームをそれぞれ可変長復号し、基本レイヤの可変長復号後のデータを出力画像のビット数に合わせてビットシフトした上で、基本レイヤの可変長復号後のデータと拡張レイヤの可変長復号後のデータを足し合わせて合成する。復号装置500は、合成されたデータに対して逆量子化、逆直交変換、および動き補償を施して、出力画像を生成する。
複数の拡張レイヤがある場合は、各拡張レイヤの符号化ストリームが可変長復号され、最上位の拡張レイヤ以外は、可変長復号後のデータが出力画像のビット数に合わせてビットシフトされた上で、他のレイヤの可変長復号後のデータに足し合わされる。
同図を参照しながら、復号装置500の構成と動作を詳しく説明する。ストリーム分離部302は、入力された符号化ストリームから基本レイヤと拡張レイヤの符号化データを分離して取り出し、基本レイヤの符号化データは基本レイヤ用の可変長復号部310aに、拡張レイヤの符号化データは拡張レイヤ用の可変長復号部310bに与える。
基本レイヤ用の可変長復号部310aは、基本レイヤの符号化ストリームを可変長復号し、可変長復号後のデータをビットシフト部316に供給し、動きベクトル情報を動き補償部360に供給する。
ビットシフト部316は、基本レイヤの画像のビット数と出力画像のビット数の差の分だけ、基本レイヤの可変長復号後のデータを左ビットシフトし、最下位ビットから数えて左シフト分の下位ビットに0を補填する。ビットシフト部316は、左ビットシフトされた基本レイヤの可変長復号後のデータを加算器314に与える。
拡張レイヤ用の可変長復号部310bは、拡張レイヤの符号化ストリームを可変長復号し、可変長復号後のデータを加算器314に供給する。拡張レイヤについては、基本レイヤの画像との差分データが可変長復号される。
加算器314は、左ビットシフトされた基本レイヤの可変長復号後のデータと、拡張レイヤの可変長復号後のデータとを加算することで基本レイヤと拡張レイヤのデータを合成し、合成後のデータを逆量子化部320に与える。
以降、逆量子化部320、逆DCT部330、およぶ動き補償部360により、基本レイヤと拡張レイヤを合成したデータに対して逆量子化、逆直交変換、および動き補償が施され、元の画像データが復元され、出力される。
復号装置500において、拡張レイヤを選択しないで基本レイヤだけを選択してピクセル深度の浅い、すなわち色数の少ない動画像を復号する場合は、拡張レイヤ用の可変長復号部310bは動作しない。
本実施の形態の復号装置500によれば、ピクセル深度スケーラビリティをもたせて符号化された動画像の符号化ストリームにおいて、基本レイヤの他に拡張レイヤを適宜選択することでピクセル深度の異なる動画像を復号することができる。これにより、ディスプレイの表示可能色数やユーザの画質要求レベルに応じて最適なピクセル深度を選択して動画像を再生することができる。
また、図1の符号化装置200において、基本レイヤと拡張レイヤで量子化スケールなどの量子化パラメータを共通にしたことにより、図3の復号装置500において、基本レイヤと拡張レイヤのデータを合成した後、一括して逆量子化と逆直交変換を行うことができるようになる。また、符号化装置200において、基本レイヤの動きベクトルを用いて拡張レイヤの動き補償を行っていることから、復号装置500において、基本レイヤと拡張レイヤを合成した後の画像データについて、動き補償を行うことができる。これにより、復号装置500の逆量子化部320、逆DCT部330、および動き補償部360の各構成を基本レイヤと拡張レイヤに分けて別々に用意する必要がなくなり、復号装置500の回路規模を小さくすることができる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
実施の形態に係る符号化装置の構成図である。 実施の形態に係るSVC非対応の復号装置の構成図である。 実施の形態に係るSVC対応の復号装置の構成図である。
符号の説明
10a、10b ブロック生成部、 20a、20b DCT部、 30a、30b 量子化部、 40a、40b 逆量子化部、 50a、50b 逆DCT部、 60a、60b 動き予測部、 80a、80b フレームバッファ、 90a、90b 可変長符号化部、 100 基本レイヤ符号化部、 102 ビットシフト部、 110 拡張レイヤ符号化部、 150 上位ビット取得部、 160 ストリーム結合部、 200 符号化装置、 302 ストリーム分離部、 310a、310b 可変長復号部、 316 ビットシフト部、 320 逆量子化部、 330 逆DCT部、 360 動き補償部、 380 フレームバッファ、500 復号装置。

Claims (5)

  1. 動画像を階層的に符号化する際、画素データを与える複数のビットプレーンの内、上位ビットプレーン群を基本レイヤに、前記上位ビットプレーン群を含むより多いビット数のビットプレーン群を拡張レイヤに割り当て、前記拡張レイヤでは、前記拡張レイヤにおける予測による差分ピクチャと前記基本レイヤにおける予測による差分ピクチャのレイヤ間での差分を符号化して前記拡張レイヤの符号化データを生成することを特徴とする符号化方法。
  2. 前記基本レイヤにおける前記予測による前記差分ピクチャと前記拡張レイヤにおける前記予測による前記差分ピクチャはそれぞれ量子化された後、レイヤ間での差分がとられることを特徴とする請求項1に記載の符号化方法。
  3. 前記基本レイヤと前記拡張レイヤの間で量子化処理に用いる量子化パラメータを共通にし、その共通の量子化パラメータに関する情報を前記動画像の符号化ストリームに含めることを特徴とする請求項1または2に記載の符号化方法。
  4. 前記基本レイヤと前記拡張レイヤの間で動き補償に用いる動きベクトル情報を共通にし、その共通の動きベクトル情報を前記動画像の符号化ストリームに含めることを特徴とする請求項1から3のいずれかに記載の符号化方法。
  5. 前記動画像の符号化ストリーム内で前記拡張レイヤに割り当てるビット数を動的に調整し、前記拡張レイヤに割り当てられたビット数に関する情報を前記符号化ストリームに含めることを特徴とする請求項1から4のいずれかに記載の符号化方法。
JP2006086163A 2006-03-27 2006-03-27 符号化方法 Pending JP2007266749A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006086163A JP2007266749A (ja) 2006-03-27 2006-03-27 符号化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006086163A JP2007266749A (ja) 2006-03-27 2006-03-27 符号化方法

Publications (1)

Publication Number Publication Date
JP2007266749A true JP2007266749A (ja) 2007-10-11

Family

ID=38639342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006086163A Pending JP2007266749A (ja) 2006-03-27 2006-03-27 符号化方法

Country Status (1)

Country Link
JP (1) JP2007266749A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009054596A1 (en) * 2007-10-24 2009-04-30 Samsung Electronics Co., Ltd. Method, medium, and apparatus for encoding and/or decoding video
JP2009100472A (ja) * 2007-10-15 2009-05-07 Intel Corp スケーラブル・ビデオ・コーディングにおけるビットの深さの改善
JP2009164937A (ja) * 2008-01-08 2009-07-23 Nippon Telegr & Teleph Corp <Ntt> 動画像の多重化方法とファイル読み込み方法及び装置,並びにそのプログラムとコンピュータ読み取り可能な記録媒体
US8204333B2 (en) 2007-10-15 2012-06-19 Intel Corporation Converting video and image signal bit depths
WO2012147350A1 (ja) * 2011-04-28 2012-11-01 パナソニック株式会社 高画質化に関わる記録媒体、再生装置、記録装置、符号化方法、復号化方法
JP2013505647A (ja) * 2009-09-22 2013-02-14 パナソニック株式会社 画像符号化装置、画像復号装置、画像符号化方法および画像復号方法
KR20150096381A (ko) * 2012-12-18 2015-08-24 소니 주식회사 화상 처리 장치 및 화상 처리 방법
JP5891389B2 (ja) * 2010-12-16 2016-03-23 パナソニックIpマネジメント株式会社 制作装置及びコンテンツ配信システム
US10271059B2 (en) 2014-11-21 2019-04-23 Samsung Electronics Co., Ltd. Decoder, decoding system including the decoder and method of operating the decoder
US10554986B2 (en) 2013-04-19 2020-02-04 Maxell, Ltd. Encoding method and encoding device

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009100472A (ja) * 2007-10-15 2009-05-07 Intel Corp スケーラブル・ビデオ・コーディングにおけるビットの深さの改善
US8204333B2 (en) 2007-10-15 2012-06-19 Intel Corporation Converting video and image signal bit depths
US8208560B2 (en) 2007-10-15 2012-06-26 Intel Corporation Bit depth enhancement for scalable video coding
US8743955B2 (en) 2007-10-24 2014-06-03 Samsung Electronics Co., Ltd. Method, medium, and apparatus for encoding and/or decoding video by generating scalable bitstream with adaptive bit-depth and video format
WO2009054596A1 (en) * 2007-10-24 2009-04-30 Samsung Electronics Co., Ltd. Method, medium, and apparatus for encoding and/or decoding video
JP2009164937A (ja) * 2008-01-08 2009-07-23 Nippon Telegr & Teleph Corp <Ntt> 動画像の多重化方法とファイル読み込み方法及び装置,並びにそのプログラムとコンピュータ読み取り可能な記録媒体
JP2013505647A (ja) * 2009-09-22 2013-02-14 パナソニック株式会社 画像符号化装置、画像復号装置、画像符号化方法および画像復号方法
JP5891389B2 (ja) * 2010-12-16 2016-03-23 パナソニックIpマネジメント株式会社 制作装置及びコンテンツ配信システム
JP5914888B2 (ja) * 2011-04-28 2016-05-11 パナソニックIpマネジメント株式会社 高画質化に関わる記録媒体、再生装置、記録装置、符号化方法、復号化方法
US9392246B2 (en) 2011-04-28 2016-07-12 Panasonic Intellectual Property Management Co., Ltd. Recording medium, playback device, recording device, encoding method, and decoding method related to higher image quality
JPWO2012147350A1 (ja) * 2011-04-28 2014-07-28 パナソニック株式会社 高画質化に関わる記録媒体、再生装置、記録装置、符号化方法、復号化方法
CN103503070A (zh) * 2011-04-28 2014-01-08 松下电器产业株式会社 与高画质有关的记录介质、再现装置、记录装置、编码方法、及解码方法
WO2012147350A1 (ja) * 2011-04-28 2012-11-01 パナソニック株式会社 高画質化に関わる記録媒体、再生装置、記録装置、符号化方法、復号化方法
US9967578B2 (en) 2012-12-18 2018-05-08 Sony Corporation Image processing device and image processing method
JPWO2014097816A1 (ja) * 2012-12-18 2017-01-12 ソニー株式会社 画像処理装置及び画像処理方法
KR20150096381A (ko) * 2012-12-18 2015-08-24 소니 주식회사 화상 처리 장치 및 화상 처리 방법
CN109068136A (zh) * 2012-12-18 2018-12-21 索尼公司 图像处理装置和图像处理方法、计算机可读存储介质
US10368082B2 (en) 2012-12-18 2019-07-30 Sony Corporation Image processing device and image processing method
US10609400B2 (en) 2012-12-18 2020-03-31 Sony Corporation Image processing device and image processing method
KR102258356B1 (ko) 2012-12-18 2021-05-31 소니그룹주식회사 화상 처리 장치 및 화상 처리 방법
KR20210063474A (ko) * 2012-12-18 2021-06-01 소니그룹주식회사 화상 처리 장치 및 화상 처리 방법
KR102307099B1 (ko) 2012-12-18 2021-10-01 소니그룹주식회사 화상 처리 장치 및 화상 처리 방법
US10554986B2 (en) 2013-04-19 2020-02-04 Maxell, Ltd. Encoding method and encoding device
US10271059B2 (en) 2014-11-21 2019-04-23 Samsung Electronics Co., Ltd. Decoder, decoding system including the decoder and method of operating the decoder

Similar Documents

Publication Publication Date Title
JP4991699B2 (ja) ビデオ信号のスケーラブルなエンコーディング方法およびデコーディング方法
KR100323489B1 (ko) 비디오데이타를가지는비트스트림의트랜스코딩방법및장치
KR100791299B1 (ko) 다 계층 기반의 비디오 인코딩 방법 및 장치
US8085847B2 (en) Method for compressing/decompressing motion vectors of unsynchronized picture and apparatus using the same
RU2313190C2 (ru) Способ и устройство для генерации масштабируемого кодированного видеосигнала из немасштабируемого кодированного видеосигнала
JP2007266749A (ja) 符号化方法
JP4703449B2 (ja) 符号化方法
KR20060135992A (ko) 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
KR20040091686A (ko) 더 높은 질의 참조 프레임을 사용하는 fgst 코딩 방법
JP2007081720A (ja) 符号化方法
JP2007174568A (ja) 符号化方法
JP2006279573A (ja) 符号化装置と方法、ならびに復号装置と方法
JP2008011455A (ja) 符号化方法
JP2007235314A (ja) 符号化方法
KR20050112588A (ko) 스케일러블 동영상 인코딩, 디코딩 장치 및 그 방법
KR100880640B1 (ko) 스케일러블 비디오 신호 인코딩 및 디코딩 방법
KR100878824B1 (ko) 스케일러블 비디오 신호 인코딩 및 디코딩 방법
JP2007036888A (ja) 符号化方法
KR100883604B1 (ko) 스케일러블 비디오 신호 인코딩 및 디코딩 방법
JP4660408B2 (ja) 符号化方法
WO2013145021A1 (ja) 画像復号方法及び画像復号装置
JP2007266750A (ja) 符号化方法
JP2000023195A (ja) 画像符号化装置及び方法、並びに画像復号装置及び方法、並びに符号化データ提供媒体
JP4209134B2 (ja) 圧縮ビットストリームをアップサンプリングする方法および装置
KR20060063619A (ko) 영상 신호의 인코딩 및 디코딩 방법