JP2009303263A - 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法 - Google Patents

画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法 Download PDF

Info

Publication number
JP2009303263A
JP2009303263A JP2009222332A JP2009222332A JP2009303263A JP 2009303263 A JP2009303263 A JP 2009303263A JP 2009222332 A JP2009222332 A JP 2009222332A JP 2009222332 A JP2009222332 A JP 2009222332A JP 2009303263 A JP2009303263 A JP 2009303263A
Authority
JP
Japan
Prior art keywords
encoding
color component
unit
prediction
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009222332A
Other languages
English (en)
Inventor
Etsuhisa Yamada
悦久 山田
Shunichi Sekiguchi
俊一 関口
Yoshimi Moriya
芳美 守屋
Kazuo Sugimoto
和夫 杉本
Yuichi Izuhara
優一 出原
Kotaro Asai
光太郎 浅井
Atsumichi Murakami
篤道 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009222332A priority Critical patent/JP2009303263A/ja
Publication of JP2009303263A publication Critical patent/JP2009303263A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/04Colour television systems using pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

【課題】4:4:4フォーマットのような色成分間にサンプル比の区別のない動画像信号を符号化するにあたり、最適性を高めた、符号化装置、復号装置、符号化方法、および、復号方法を提供する。
【解決手段】各色成分の信号を独立に符号化するか否かを示す識別情報と、各色成分の逆量子化に用いる量子化マトリクス情報をビットストリームに多重するとともに、前記識別情報が、各色成分の信号を独立に符号化することを示す場合に、スライスヘッダに、当該スライスに含まれる符号化データがいずれの色成分の符号化データであるかを識別するための色成分識別情報を多重するとともに、該色成分識別情報に基づいて当該スライスの符号化処理に使用する量子化マトリクスを特定するピクチャ符号化部を有する。
【選択図】図8

Description

本発明は、画像圧縮符号化技術や圧縮画像データ伝送技術等に用いられるデジタル画像信号符号化装置、デジタル画像信号復号装置、デジタル画像信号符号化方法、およびデジタル画像信号復号方法に関する。
従来、MPEGやITU-T H.26xなどの国際標準映像符号化方式(例えば非特許文献1)では、主として4:2:0フォーマットと呼ばれる標準化された入力信号フォーマットの使用を前提としてきた。4:2:0とは、RGBなどのカラー動画像信号を輝度成分(Y)と2つの色差成分(Cb、Cr)に変換し、水平・垂直ともに色差成分のサンプル数を輝度成分の半分に削減したフォーマットである。色差成分は輝度成分に比べて視認性が落ちることから、従来の国際標準映像符号化方式では、このように符号化を行う前に色差成分のダウンサンプルを行うことで符号化対象の原情報量を削減しておくことを前提としていた。一方、近年のビデオディスプレイの高解像度化、高階調化に伴い、色差成分をダウンサンプルすることなく輝度成分と同一サンプル数のまま符号化する方式の検討が行われている。輝度成分と色差成分とがまったく同一のサンプル数のフォーマットは4:4:4フォーマットと呼ばれる。従来の4:2:0フォーマットが色差成分のダウンサンプルを前提としたためにY、Cb、Crという色空間定義にのみ限定されたのに対し、4:4:4フォーマットでは色成分間にサンプル比の区別がないため、Y、Cb、Crのほか、R,G,Bを直接使用したり、その他複数の色空間定義を利用することが可能である。4:4:4フォーマットを対象とした映像符号化方式としては、非特許文献2などがある。同文献では、色成分間に残存する相関を利用して異なる色成分間で予測を行うことにより符号化すべき情報量を削減するアプローチを提案している。しかし、色成分間の相関の度合いは映像コンテンツの種類や色空間によって様々であり、予測が符号化効率上逆効果となる場合もありうる。また、複数の色成分をまたがった信号処理を必要とするために、デジタルシネマ映像(4000x2000画素)などきわめて解像度の高い映像信号のリアルタイム処理を行うような例では並列処理効率が悪いという課題がある。
"Information Technology Coding of Audio-Visual Objects Part10: Advanced Video Coding", ISO/IEC 14496-10, 2003 Woo-Shik Kim, Dae-Sung Cho, and Hyun Mun Kim、"INTER-PLANE PREDICTION FOR RGB VIDEO CODING", ICIP 2004, October 2004.
非特許文献1におけるMPEG-4 Advanced Video Coding(以下AVC)の4:2:0フォーマットを符号化対象とするハイ4:2:0プロファイルでは、輝度成分16x16画素からなるマクロブロック領域において、対応する色差成分はCb、Crとも各8x8画素ブロックとなる。ハイ4:2:0プロファイルにおける動き補償予測では、輝度成分に対してのみ動き補償予測の単位となるブロックサイズ情報と予測に用いる参照画像情報、各ブロックごとの動きベクトル情報を多重化し、色差成分は輝度成分と同じ情報を用いて動き補償予測を行うことになっている。4:2:0フォーマットは、画像の構造情報(テクスチャ情報)のほとんどが輝度成分に集約されていることと、輝度信号に比べ色差成分のほうが歪の視認性が低く、映像再現性に関する寄与が小さいという色空間定義上の特徴があり、上記ハイ4:2:0プロファイルの予測・符号化はこのような4:2:0フォーマットの性質の前提のもとでなりたつものである。しかしながら、4:4:4フォーマットでは3つの色成分が同等にテクスチャ情報を保持しており、1成分のみに依存したインター予測モード、参照画像情報および動きベクトル情報で動き補償予測が行われる方式は、画像信号の構造表現に際して各色成分が同等に寄与する4:4:4フォーマットでは必ずしも最適な予測方法とはいえない。
そこで、本発明は、上記従来技術に述べたように、4:4:4フォーマットのような色成分間にサンプル比の区別のない動画像信号を符号化するにあたり、最適性を高めた符号化装置、復号装置、符号化方法、および復号方法を提供することを目的とする。
本発明は、4:4:4フォーマットのカラー画像を圧縮符号化してビットストリームを生成する画像符号化装置において、各色成分の信号を独立に符号化するか否かを示す識別情報と、各色成分の逆量子化に用いる量子化マトリクス情報をビットストリームに多重するとともに、前記識別情報が、各色成分の信号を独立に符号化することを示す場合に、スライスヘッダに、当該スライスに含まれる符号化データがいずれの色成分の符号化データであるかを識別するための色成分識別情報を多重するとともに、該色成分識別情報に基づいて当該スライスの符号化処理に使用する量子化マトリクスを特定するピクチャ符号化部を有するものである。
本発明によれば、Y、Cb、Crなどの固定された色空間に限定せず多様な色空間を利用する符号化を行う場合において、各色成分で用いるインター予測モード情報を柔軟に選択できるように構成することができ、色空間の定義が種々に及ぶ場合にも最適な符号化処理を行うことができる。
シーケンス、GOP、ピクチャ、スライス、マクロブロックにより構成される映像信号の階層構造を示す説明図である。 マクロブロック符号化データの構成を示す説明図である。 「共通符号化処理」の際にマクロブロックを構成する3つの色信号成分を示す説明図である。 「独立符号化処理」の際にマクロブロックを構成する3つの色信号成分を示す説明図である。 「共通符号化」・「独立符号化」におけるピクチャ間の時間方向の動き予測参照関係を示す説明図である。 実施の形態1におけるビットストリームの構成例を示す説明図である。 実施の形態1におけるスライスデータのビットストリームの構成例を示す説明図である。 実施の形態1における符号化装置の概略構成図である。 第1のピクチャ符号化部5の内部構成図である。 動き補償予測を行う7種類のブロックサイズを示す説明図である。 第2のピクチャ符号化部7の内部構成図である。 実施の形態1における復号装置の概略構成図である。 第1のピクチャ復号部302の内部構成図である。 第2のピクチャ復号部304の内部構成図である。 3つの色成分のピクチャデータの配置例を示す説明図である。
実施の形態1.
本実施の形態1では、特定の色空間に限定されない4:4:4フォーマットの映像信号を効率的に符号化する符号化装置、および該符号化装置により生成される符号化ビットストリームを入力として画像信号を復元する復号装置について述べる。
本実施の形態1における符号化装置は、RGB、XYZ、YCbCrといったような3つの色成分からなる映像信号を入力して圧縮符号化を行ってビットストリームを出力する。図1に示すように、入力映像信号は、時間サンプリングによりフレームないしはフィールドの単位で定義される画面情報(以降、ピクチャと呼ぶ)の時系列データとして表現される。ピクチャを時系列に並べたデータ単位をシーケンスと呼ぶ。シーケンスは、いくつかのピクチャのグループ(GOP)に分割されることがある。GOPは、任意のGOPの先頭から他のGOPに依存せずに復号を実行できることを保証し、ビットストリームに対するランダムアクセスを保証するといった用途に利用する。ピクチャはさらにマクロブロックと呼ばれる正方ブロックに分割され、マクロブロックの単位で予測・変換・量子化処理を適用して映像圧縮を行う。
また、マクロブロックを複数個集めた単位をスライスと呼ぶ。スライスは、それぞれのスライスで独立に符号化・復号を行うことができるデータ単位であり、例えばHDTVあるいはそれ以上の高い解像度を持つ映像信号をリアルタイム処理する際に、1つのピクチャを複数のスライスに分割し各スライスを並列に符号化・復号することで演算時間を短縮したり、ビットストリームを誤り率の高い回線で伝送する場合に、あるスライスが誤りの影響で破壊されて復号画像が乱れても次のスライスから正しい復号処理に復帰するといった用途に利用する。一般に、スライスの境界では、隣接スライスとの信号の依存性を利用した予測などが使えなくなるため、スライスの数が増えるほど符号化性能は低下するが、並列処理の柔軟性や誤りに対する耐性が高まるという特徴がある。
マクロブロックの単位で予測・変換・量子化処理を適用して映像圧縮を行うため、ビットストリームに多重されるマクロブロックの符号化データは、大別して2種類の情報からなる。ひとつは予測モードや動き予測情報、量子化のためのパラメータといった映像信号自体とは異なるサイド情報と呼ばれる類で、これらをまとめてマクロブロックヘッダと呼ぶ。もう一つは映像信号自体の情報であり、本実施の形態では、符号化される映像信号はマクロブロックヘッダの情報に基づいて予測・変換・量子化を行った結果として得られる予測誤差信号の圧縮データであり、変換係数を量子化した形式で表現されることから、以降、係数符号化データと呼ぶ。本実施の形態1におけるマクロブロック符号化データの並びの様子を図2に示す。同図において、マクロブロックヘッダは、マクロブロックタイプ・サブマクロブロックタイプ・イントラ予測モードなどの符号化・予測モード情報、参照画像識別番号・動きベクトルなどの動き予測情報、変換係数に対する量子化パラメータ、8x8ブロック単位での有効変換係数有無判定フラグなど、係数符号化データの前までのすべてのサイド情報を含む。
本実施の形態1では、3つの色成分を共通のマクロブロックヘッダに基づいて符号化するか、色成分別に独立のマクロブロックヘッダに基づいて符号化するかを選択しながら符号化を行う符号化装置と、該符号化装置の出力として得られるビットストリームを入力して、3つの色成分が共通のマクロブロックヘッダに基づいて符号化されているか、色成分ごとに独立したマクロブロックヘッダに基づいて符号化されているかを、ビットストリームから復号して取り出した識別情報に基づいて選択しながら映像の復号処理を行う復号装置について説明する。本実施の形態1では、特に、3つの色成分信号を共通のマクロブロックヘッダで符号化・復号するか、色成分ごとに独立のマクロブロックヘッダで符号化・復号するかをシーケンスの単位で切り替えて符号化・復号する装置構成・動作を具体的な図面をもとに説明する。このように符号化装置・復号装置を構成することにより、入力映像信号が定義される色空間や映像信号の統計的性質に合わせて各色成分を共通の予測パラメータで符号化する場合と、各色成分を独立した予測パラメータで符号化する場合とを選択して符号化することできるので、4:4:4フォーマットの映像信号に対して最適な符号化を行うことができる。
以降において、1フレームないしは1フィールドの3つの色成分信号を共通のマクロブロックヘッダで符号化する処理を「共通符号化処理」、1フレームないしは1フィールドの3つの色成分信号を個別の独立したマクロブロックヘッダで符号化する処理を「独立符号化処理」と記す。同様に、1フレームないしは1フィールドの3つの色成分信号が共通のマクロブロックヘッダで符号化されたビットストリームから画像データを復号する処理を「共通復号処理」、1フレームないしは1フィールドの3つの色成分信号が個別の独立したマクロブロックヘッダで符号化されたビットストリームから画像データを復号する処理を「独立復号処理」と記す。共通符号化処理では、1フレームないしは1フィールドの3つの色成分をまとめて1つのピクチャとして定義し、3つの色成分をまとめた形のマクロブロックに分割する(図3)。同図ならびに以降の説明において、3つの色成分をC0、C1、C2成分と呼ぶ。一方、独立符号化処理では、1フレームないしは1フィールドの入力映像信号を3つの色成分に分離し、それぞれをピクチャとして定義して、各ピクチャを単一の色成分からなるマクロブロックに分割する(図4)。つまり、共通符号化処理の対象となるマクロブロックは、C0、C1、C2の3つの色成分のサンプル(画素)を含むが、独立符号化処理の対象となるマクロブロックは、C0またはC1またはC2成分のうちのいずれか1つの成分のサンプル(画素)のみを含む。
図5には、本実施の形態1の符号化装置・復号装置における、ピクチャ間の時間方向の動き予測参照関係を示す。この例では、太縦棒線で示されるデータ単位をピクチャとし、ピクチャとアクセスユニットとの関係を囲み点線で示している。共通符号化・復号処理の場合、上述のように、1ピクチャは3つの色成分が混在した映像信号を表すデータであって、独立符号化・復号処理の場合、1ピクチャはいずれか1つの色成分からなる映像信号とする。アクセスユニットは、映像信号に対してオーディオ・音声情報などとの同期などを目的とするタイムスタンプを付与する最小データ単位であり、共通符号化・復号処理の場合、1つのアクセスユニットには1ピクチャ分のデータを含む。一方、独立符号化・復号処理の場合は1つのアクセスユニットに3つのピクチャが含まれる。これは独立符号化・復号処理の場合、3つの色成分すべての同一表示時刻のピクチャがそろってはじめて1フレーム分の再生映像信号が得られるためである。なお、各ピクチャの上部に付与した番号は、ピクチャの時間方向の符号化・復号処理順序(AVCのframe_numに相当)を示す。図5では、ピクチャ間の矢印は動き予測の参照方向を示している。すなわち、独立符号化・復号処理の場合、同一アクセスユニットに含まれるピクチャの間での動き予測参照、ならびに異なる色成分間での動き予測参照は行わないものとし、C0、C1、C2の各色成分のピクチャを同一色成分の信号に限定して予測参照しながら符号化・復号する。このような構成とすることにより、本実施の形態1における独立符号化・復号処理の場合は、各色成分の符号化・復号を、他の色成分の符号化・復号処理に全く依存することなく実行でき、並列処理が容易になる。
以下、共通符号化処理による符号化を行うか、独立符号化処理による符号化を行うかを示す識別情報を、共通符号化・独立符号化識別信号1と呼ぶ。
図6に、本実施の形態1の符号化装置で生成され、本実施の形態1の復号装置が入力・復号処理の対象とするビットストリームの構造の一例を示す。同図は、シーケンスからスライスレベルまでのビットストリーム構成を示したもので、まず、シーケンスレベルの上位ヘッダ(AVCの場合、シーケンスパラメータセット)に、共通符号化・独立符号化識別信号1を多重する。AUDは、AVCにおいてアクセスユニットの切れ目を識別するためのユニークなNALユニットであるAccess Unit Delimiter NALユニットを示す。AUDはアクセスユニットの先頭をあらわす情報であり、AVCのAUDのデータ形式によらず、その目的に合致すれば任意のデータ形式に適用可能である。例えば、MPEG-2規格ではピクチャスタートコード、MPEG-4規格ではVOPスタートコードなどが対応する。
共通符号化・独立符号化識別信号1が「共通符号化処理」を示す場合は、アクセスユニットには1ピクチャ分の符号化データが含まれる。このときのピクチャは、前述のように3つの色成分が混在した1フレームないしは1フィールド分の映像信号を表すデータである。実際の映像符号化データは、図1のスライスの単位でビットストリームに多重される。一方、共通符号化・独立符号化識別信号1が「独立符号化処理」を示す場合は、1ピクチャは、1フレームないしは1フィールド中のいずれか1つの色成分の映像信号であり、1つのアクセスユニットには3つのピクチャが含まれる。このとき、スライスは各色成分のピクチャに対して定義される。
図7は、共通符号化処理、独立符号化処理それぞれの場合のスライスデータのビットストリーム構成を示す。独立符号化処理によって符号化されたビットストリームでは、後述する効果を達成するため、復号装置で受信したスライスデータがアクセスユニット内のどの色成分のピクチャに属するスライスかを識別可能なように、スライスデータの先頭のヘッダ領域に色成分識別フラグ2(color_channel_idc)を付与する。色成分識別フラグ2は、その値が同じスライスをグループ化する。つまり、色成分識別フラグ2の値が異なるスライス間では、いかなる符号化・復号の依存性(例えば動き予測参照、CABACのコンテキストモデリング・生起確率学習など)も持たせないものとする。このように規定することで、独立符号化処理の場合のアクセスユニット内の個々のピクチャの独立性が確保される。また、各スライスヘッダに多重される frame_num (スライスが属するピクチャの符号化・復号処理順序)については、1アクセスユニット内の全色成分ピクチャにおいて同一の値とする。
図8に、本実施の形態1の符号化装置の概略構成を示す。同図において、共通符号化処理は第1のピクチャ符号化部5において実行され、独立符号化処理は第2のピクチャ符号化部7a〜7c(3つの色成分分を用意)において実行される。
入力映像信号3は、スイッチ(SW)4によって第1のピクチャ符号化部5か、色成分分離部6および第2のピクチャ符号化部7a〜7c、のいずれかに供給される。スイッチ4は、共通符号化・独立符号化識別信号1によって駆動され、入力映像信号3を指定されたパスへ供給する。
共通符号化・独立符号化識別信号1は、入力映像信号が4:4:4フォーマットの場合にシーケンスパラメータセットに多重され、シーケンスの単位で共通符号化処理と独立符号化処理を選択する信号とする。共通符号化・独立符号化識別信号1は、ビットストリーム11がいずれの処理を用いて生成されたかを指定する情報としてビットストリーム11中のシーケンスパラメータセットに多重する。これによって、ビットストリーム11を入力とする復号装置では、シーケンスパラメータセット中の共通符号化・独立符号化識別信号1を復号してその値を確認することで、ビットストリーム11が共通符号化処理を用いて生成された場合に共通復号処理を実行し、独立符号化処理を用いて生成された場合は独立復号処理を実行することができる。
共通符号化・独立符号化識別信号1が「共通符号化処理」を指示する場合は、第1のピクチャ符号化部5において、入力映像信号3を図3に示すように3つの色成分のサンプルをまとめた形式のマクロブロックへ分割して、その単位で符号化処理が行われ、符号化データはビットストリーム8として出力される。第1のピクチャ符号化部5における符号化処理は後述する。
共通符号化・独立符号化識別信号1が「独立符号化処理」を指示する場合は、入力映像信号3は色成分分離部6でC0、C1、C2の各色成分の信号に分離され、それぞれ対応する第2のピクチャ符号化部7a〜7cへ供給される。第2のピクチャ符号化部7a〜7cでは、色成分ごとに分離された信号を図4に示す形式のマクロブロックへ分割して、その単位で符号化処理が行われ、ビットストリーム9a〜9cとして出力される。第2のピクチャ符号化部7a〜7cにおける符号化処理は後述する。
多重化部10では、共通符号化・独立符号化識別信号1をシーケンスパラメータセットに付与してビットストリーム11に多重するとともに、共通符号化・独立符号化識別信号1の値に応じて、ビットストリーム8ないしは9a〜9cのいずれかを選択してビットストリーム11に多重する。
さらに、詳細は後述するが、ピクチャ符号化過程、特に量子化・逆量子化処理の過程で用いる量子化パラメータに対する量子化重み付け係数情報を3つの色成分ごとにそれぞれ用意し(12a〜12c)、これらを各ピクチャ符号化部へ入力し、色成分ごとの特性に合わせた量子化処理を行うよう構成する。量子化重み付け係数12a〜12cは符号化処理過程で用いた値と同じ値を復号装置側でも使用するため、シーケンスパラメータセットに多重するために多重化部10にも送られる。
さらに、イントラオンリー符号化指示信号13をピクチャ符号化部5、7a〜7cへ入力し、符号化処理を制御するよう構成する。イントラオンリー符号化指示信号13は、ピクチャ符号化部が動き補償予測による時間方向の予測処理を行うか否かを指示する信号であり、同信号が「イントラオンリー符号化」であることを示す場合は、入力映像信号3のすべてのピクチャに対して、動き補償予測による時間方向の予測を行うことなく、画面内に閉じた符号化を行う。また、このとき同時に、ピクチャ符号化部内部でループ内デブロッキングフィルタを無効にする(詳しくは後述する)。イントラオンリー符号化指示信号13が「イントラオンリー符号化ではない」ことを示す場合は、入力映像信号3のピクチャに対して、動き補償予測による時間方向の予測も使用して、画面内・画面間の相関を利用したインター符号化を行う。イントラオンリー符号化指示信号13は多重化部10において、シーケンスパラメータセットに付与してビットストリーム11に多重する。これによって、ビットストリーム11を入力とする復号装置では、シーケンスパラメータセット中のイントラオンリー符号化指示信号13を復号してその値を確認することで、ビットストリーム11がイントラオンリー符号化されたかどうかを認識できるので、イントラオンリー符号化されている場合はループ内デブロッキングフィルタ処理を不要とすることができ、復号装置の演算量を削減することができる。
AVCのイントラ符号化処理では、インター符号化処理に比べ符号量が2〜10倍程度必要となるため、「イントラオンリー符号化」で符号化されているデータは「イントラオンリー符号化ではない」ものに比べデータ量がかなり大きくなる。
従来の復号装置では、復号処理を可能とするデータ量に上限を設け、装置内部の動作スピードや必要とするメモリ量などをできる限り小さくすることにより、動作の安定性を図っている。そのため、「イントラオンリー符号化」の場合には、設けられている上限値を超えたデータが入力される可能性があり、安定した動作が可能かどうか判別できない、という問題が生じる。
そこでシーケンスパラメータセットの中に、符号化データが所定量よりも少ないか、あるいは所定量を超えているかいずれであるかを示すためのフラグを設ける。フラグにより判定処理を行い、所定量よりも符号化データが少ない場合には、従来の復号装置でも処理が可能であるとして復号処理を行い、所定量よりも符号化データが超えている場合には、従来の復号装置では安定した処理が困難な可能性があるものとして、例えば警告を発する、といった処理をとることができる。
さらに、入力映像信号3の画像サイズ情報14をピクチャ符号化部5、7a〜7cへ入力し、符号化処理を制御するよう構成する。画像サイズ情報14は入力映像信号3のピクチャ内マクロブロック数を示す情報であり、この値が所定の閾値よりも大きい場合にスライス中に含まれるマクロブロックの数の上限値を定め、スライスがそれよりも多くのマクロブロックを含まないように制御する。画像サイズ情報14はシーケンスパラメータセットに付与してビットストリーム11に多重する。これにより、入力映像信号3の画面サイズが大きい(すなわち、空間解像度が高い)場合に、符号化装置・復号装置ともに並列処理可能な単位を特定でき、円滑なタスク割り当てを行うことができる。
以下、第1および第2のピクチャ符号化部の動作を詳しく説明する。
第1のピクチャ符号化部の動作概要
第1のピクチャ符号化部5の内部構成を図9に示す。同図において、入力映像信号3は、4:4:4フォーマットで、かつ図3の形式の3つの色成分をまとめたマクロブロックの単位で符号化されるものとする。内部処理は、イントラオンリー符号化指示信号13の値によって異なる。
(1)イントラオンリー符号化指示信号13が「イントラオンリー符号化でない」ことを示す場合
予測部15において、メモリ16に格納される動き補償予測参照画像データの中から参照画像を選択し、該マクロブロックの単位で動き補償予測処理を行う。メモリ16には、直前ないしは過去・未来の複数時刻に渡って、3つの色成分で構成される複数枚の参照画像データが格納され、予測部15では、これらの中からマクロブロックの単位で最適な参照画像を選択して動き予測を行う。メモリ16内の参照画像データの配置は、色成分ごとに面順次で分けて格納してもよいし、各色成分のサンプルを点順次で格納してもよい。動き補償予測を行うブロックサイズは7種類用意されており、まずマクロブロック単位に、図10(a)から(d)に示すように、16x16、16x8、8x16、8x8のいずれかのサイズを選択する。さらに8x8が選択された場合には、それぞれの8x8ブロックごとに、図10(e)から(h)に示すように、8x8、8x4、4x8、4x4のいずれかのサイズを選択する。第1のピクチャ符号化部5で実行される共通符号化処理においては、3つの色成分に対して共通の動き補償予測ブロックサイズが選択・適用される。
予測部15では、図10のすべてまたは一部のブロックサイズ・サブブロックサイズ、および所定の探索範囲の動きベクトルおよび利用可能な1枚以上の参照画像に対してマクロブロックごとに動き補償予測処理を実行して、動きベクトルおよび予測に用いる参照画像インデックスを含む予測オーバヘッド情報17と予測画像33を出力する。減算器18は予測画像33と入力映像信号3により、動き補償予測単位となるブロックごとの予測差分信号19を得る。符号化モード判定部20では、予測部15で実行した予測処理の中から選定処理を行い、選定された予測差分信号19とマクロブロックタイプ/サブマクロブロックタイプ21を出力する。マクロブロックタイプ、サブマクロブロックタイプ、参照画像インデックス、動きベクトルなどのマクロブロックヘッダ情報はすべて、3つの色成分に対して共通のヘッダ情報として決定され、3つの色成分の符号化に共通に使用され、ビットストリーム8に多重化される。予測効率の最適性の評価にあたっては、演算量を抑制する目的で、ある所定の色成分(たとえばRGBのうちのG成分、YCbCrのうちのY成分など)に対する予測誤差量だけを評価してもよいし、演算量は大きくなるが最適な予測性能を得るべくすべての色成分についての予測誤差量を総合評価するようにしてもよい。
同様に、予測部15ではイントラ予測も実行する。イントラ予測実行時は、信号17には、イントラ予測モード情報が出力される。
以降、特にイントラ予測、動き補償予測を区別しない場合には、信号17は予測オーバヘッド情報と呼ぶ。なお、イントラ予測を行う際の参照画像データとしては、デブロッキングフィルタ22を施す前の局部復号画像23を用いる(図示していないが、局部復号画像23はイントラ予測の参照画像データとして用いるため、予測部15などへ一時的に格納される)。第1のピクチャ符号化部5で実行される共通符号化処理においては、3つの色成分に対して共通のイントラ予測モードが選択・適用される。イントラ予測についても所定の色成分だけの予測誤差量を評価してもよいし、すべての色成分についての予測誤差量を総合評価するようにしてもよい。最後に、マクロブロックタイプをイントラ予測にするか、インター予測にするかを、符号化モード判定部20において予測効率または符号化効率で評価して選定する。
変換部24は予測差分信号19を変換し変換係数として量子化部25へ出力する。この際、変換を行う単位となるブロックのサイズを4x4か8x8など複数の候補の中から選択するようにしてもよい。変換ブロックサイズを選択可能とする場合は、符号化時に選択されたブロックサイズを、変換ブロックサイズ指定フラグ26の値に反映し、同フラグをビットストリーム8に多重化する。量子化部25は入力される変換係数を、量子化パラメータ27と量子化重み付け係数12a〜12cに基づいて量子化を行い、結果を量子化済み変換係数28として可変長符号化部29および逆量子化部30へ出力する。
量子化部25の処理について記す。変換部24で空間領域から周波数領域の信号に変換された変換係数は、人間の視覚特性上ひずみが目に付きやすい低周波領域と、ひずみを検知しにくい高周波領域に分離されている。そこで、周波数領域ごとに重みをつけ、低周波領域は細かい量子化を、高周波領域は粗い量子化を行うことにより、人間の視覚特性に合わせた量子化処理を実現することが可能である。量子化重み付け係数12a〜12cは、この周波数領域ごとに与える重み付けのパラメータであり、4x4ブロックサイズの変換用に16個の、8x8ブロックサイズの変換用に64個のパラメータが使用される。前述のように量子化重み付け係数12a〜12cはシーケンスパラメータセットに多重されるが、「共通符号化処理」を行う場合には3つの色成分で同じ量子化重み付け係数を使用するため、12a、12b、12cと3つ多重する必要は無く1つだけ多重すれば十分である。量子化部25は3つの色成分の変換係数に対してそれぞれの量子化重み付け係数12a〜12cを用いて重みをつけた量子化処理を行い、量子化済み変換係数28を得る。
これら3つの色成分分の量子化済み変換係数28は、可変長符号化部29にてハフマン符号化や算術符号化などの手段によりエントロピー符号化される。
また、量子化済み変換係数28は逆量子化部30、逆変換部31を経て局部復号予測差分信号32へ復元され、選定されたマクロブロックタイプ/サブマクロブロックタイプ21と予測オーバヘッド情報17に基づいて生成される予測画像33と加算器34で加算することで局部復号画像23が生成される。局部復号画像23は、デブロッキングフィルタ22でブロックひずみ除去処理を実施した後、以降の動き補償予測処理に用いるためメモリ16へ格納される。
可変長符号化部29に入力される量子化済み変換係数28、マクロブロックタイプ/サブマクロブロックタイプ21、予測オーバヘッド情報17、量子化パラメータ27は所定のマクロブロック符号化データのシンタックスに従って配列・整形され、図3の形式のマクロブロックが1つないしは複数個まとまったスライスデータの単位でパケット化(AVCでは、NALユニット化とも呼ぶ)されてビットストリーム8として出力される。
(2)イントラオンリー符号化指示信号13が「イントラオンリー符号化である」ことを示す場合
予測部15は(1)で述べたイントラ予測処理のみを実行する。イントラ予測実行時は、予測オーバヘッド情報17には、イントラ予測モード情報が出力される。なお、イントラ予測を行う際の参照画像データとしては、デブロッキングフィルタ22を施す前の局部復号画像23を用いる(図示していないが、局部復号画像23はイントラ予測の参照画像データとして用いるため、予測部15などへ一時的に格納される)。第1のピクチャ符号化部5で実行される共通符号化処理においては、3つの色成分に対して共通のイントラ予測モードが選択・適用される。イントラ予測モードの選定は、符号化モード判定部20において予測効率または符号化効率で評価して選定する。
符号化モード判定部20は、選定された予測差分信号19を変換部24へ出力する。変換部24は入力される予測差分信号19を変換し変換係数として量子化部25へ出力する。この際、変換を行う単位となるブロックのサイズを4x4か8x8など複数の候補の中から選択するようにしてもよい。AVCでは、イントラ予測モードの被予測ブロックを変換ブロックサイズと合わせるように構成されている。変換ブロックサイズを選択可能とする場合は、符号化時に選択されたブロックサイズを、変換ブロックサイズ指定フラグ26の値に反映し、同フラグをビットストリーム8に多重化する。量子化部25は入力される変換係数を、量子化パラメータ27と量子化重み付け係数12a〜12cに基づいて量子化を行い、結果を量子化済み変換係数28として可変長符号化部29へ出力する。処理の例は上述のとおりである。
3つの色成分分の量子化済み変換係数28は、可変長符号化部29にてハフマン符号化や算術符号化などの手段によりエントロピー符号化される。
また、量子化済み変換係数28は逆量子化部30、逆変換部31を経て局部復号予測差分信号32へ復元され、予測オーバヘッド情報17に基づいて生成される予測画像33と加算器34で加算することで局部復号画像23が生成される。イントラオンリー符号化指示情報13が「イントラオンリー符号化である」ことを示す場合は、動き補償予測を実行しないため、デブロッキングフィルタ22は処理を実行せず、参照画像としてのメモリ16への書き出しも行わない。このように構成することで、メモリアクセスやデブロッキングフィルタの処理に要する演算が削減できる。
可変長符号化部29に入力される量子化済み変換係数28、マクロブロックタイプ/サブマクロブロックタイプ21(イントラモードに固定)、予測オーバヘッド情報17、量子化パラメータ27は所定のマクロブロック符号化データのシンタックスに従って配列・整形され、図3の形式のマクロブロックが1つないしは複数個まとまったスライスデータの単位でパケット化(AVCでは、NALユニット化とも呼ぶ)されてビットストリーム8として出力される。
なお、イントラオンリー符号化指示情報13の値によらず、画像サイズ情報14によってスライスの中に含まれるマクロブロックの個数に制約を与える。画像サイズ情報14は可変長符号化部29に入力され、可変長符号化部29は画像サイズ情報14に基づいて、スライス内に含まれるマクロブロックの個数の上限値を定める。可変長符号化部29は、符号化されたマクロブロックの個数をカウントしておき、スライス内に含まれるマクロブロックの個数が上記上限値に達したとき、そこでスライスデータのパケットを閉じ、以降のマクロブロックは新しいスライスデータとしてパケット化する。
また、本実施の形態1における第1のピクチャ符号化部5では、共通符号化・独立符号化識別信号1によってシーケンス中のすべてのスライスデータがC0,C1,C2混在スライス(すなわち、3つの色成分の情報が混在するスライス)であることが識別可能であるため、スライスデータに対して色成分識別フラグ2は付与しない。
第2のピクチャ符号化部の動作概要
第2のピクチャ符号化部7aの内部構成を図11に示す。同図において、入力映像信号3aは、図4の形式のC0成分のサンプルからなるマクロブロックの単位で入力されるものとする。第2のピクチャ符号化部7b、7cについては、入力映像信号3aが3b(C1成分),3c(C2成分)を扱うようになるだけで内部構成はまったく同様であるため、以下では第2のピクチャ符号化部7aを代表例として第2のピクチャ符号化部の動作説明を行う。
(3)イントラオンリー符号化指示信号13が「イントラオンリー符号化でない」ことを示す場合
予測部115において、メモリ116に格納される動き補償予測参照画像データの中から参照画像を選択し、マクロブロックの単位で動き補償予測処理を行う。メモリ116には、直前ないしは過去・未来の複数時刻に渡って、単一色成分で構成される複数枚の参照画像データを格納でき、予測部115では、これらの中からマクロブロックの単位で最適な参照画像を選択して動き予測を行う。なお、第2のピクチャ符号化部7a〜7cは、それぞれ対象とする色成分の分の参照画像データのみを使用し、他の色成分の参照画像データにはアクセスしない構成をとることも可能なので、メモリ116としては3つの色成分それぞれにメモリを持つ構成ではなく、一つにまとめた構成としてもよい。さらに、第2のピクチャ符号化部7a〜7cによって符号化処理を行うシーケンス中では、第1のピクチャ符号化部5は動作しないため、メモリ116はメモリ16と共用するように構成してもよい。動き補償予測を行うブロックサイズには7種類用意されており、まずマクロブロック単位に、図10(a)から(d)に示すように、16x16、16x8、8x16、8x8のいずれかのサイズを選択することができる。さらに8x8が選択された場合には、それぞれの8x8ブロックごとに、図10(e)から(h)に示すように、8x8、8x4、4x8、4x4のいずれかのサイズを選択することができる。第2のピクチャ符号化部7で実行される独立符号化処理においては、C0〜C2各成分に対して個別に動き補償予測ブロックサイズが選択・適用される。
予測部115では、図10のすべてまたは一部のブロックサイズ・サブブロックサイズ、および所定の探索範囲の動きベクトルおよび利用可能な1枚以上の参照画像に対してマクロブロックごとに動き補償予測処理を実行して、動きベクトルと予測に用いる参照画像のインデックスを含む予測オーバヘッド情報117と予測画像133を出力する。減算器118は予測画像133と入力映像信号3aにより、動き補償予測単位となるブロックごとの予測差分信号119を得る。符号化モード判定部120では、予測部115で実行した予測処理の中から選定処理を行い、選定された予測差分信号119とマクロブロックタイプ/サブマクロブロックタイプ121を出力する。マクロブロックタイプ、サブマクロブロックタイプ、参照画像インデックス、動きベクトルなどのマクロブロックヘッダ情報はすべて、入力映像信号3aに対するヘッダ情報として決定され、符号化に使用され、ビットストリーム9aに多重化される。予測効率の最適性の評価にあたっては、符号化処理対象となる入力映像信号3aに対する予測誤差量を評価する。
同様に、予測部115ではイントラ予測も実行する。イントラ予測実行時は、予測オーバヘッド情報117には、イントラ予測モード情報が出力される。
入力映像信号3の各色成分におけるイントラ予測モードの選択・適用は、各色成分で個別に行われる。なお、イントラ予測を行う際の参照画像データとしては、デブロッキングフィルタ122を施す前の局部復号画像123を用いる(図示していないが、局部復号画像123はイントラ予測の参照画像データとして用いるため、予測部115などへ一時的に格納される)。イントラ予測についても符号化処理対象となる入力映像信号3aに対する予測誤差量を評価する。最後に、マクロブロックタイプをイントラ予測にするか、インター予測にするかを符号化モード判定部120において予測効率または符号化効率で評価して選定する。
変換部124は、予測差分信号119を変換し変換係数として量子化部125へ出力する。この際、変換を行う単位となるブロックのサイズを4x4か8x8のいずれかから選択するようにしてもよい。AVCでは、イントラ予測モードの被予測ブロックを変換ブロックサイズと合わせるように構成されている。選択可能とする場合は、符号化時に選択されたブロックサイズを、変換ブロックサイズ指定フラグ126の値に反映し、同フラグをビットストリーム9aに多重化する。量子化部125は入力される変換係数を、量子化パラメータ127と量子化重み付け係数12aまたは12bまたは12cに基づいて量子化を行い、結果を量子化済み変換係数128として可変長符号化部129へ出力する。
次に量子化部125の処理について記す。変換部124で空間領域から周波数領域の信号に変換された変換係数は、人間の視覚特性上ひずみが目に付きやすい低周波領域と、ひずみを検知しにくい高周波領域に分離されている。そこで、周波数領域ごとに重みをつけ、低周波領域は細かい量子化を、高周波領域は粗い量子化を行うことにより、人間の視覚特性に合わせた量子化処理を実現することが可能である。量子化重み付け係数12a、12b、12cは、いずれもこの周波数領域ごとに与える重み付けのパラメータであり、4x4ブロックサイズの変換用に16個の、8x8ブロックサイズの変換用に64個のパラメータが使用される。前述のように量子化重み付け係数12a、12b、12cはシーケンスパラメータセットに多重されるが、「独立符号化処理」を行う場合には3つの色成分でそれぞれ異なる量子化重み付け係数を使用することが可能であるため、12a、12b、12cと3つともすべて多重してもよいし、同じ値を使用する場合にはそのことを示す情報とともに1つだけを多重してもよい。量子化部125は3つの色成分の変換係数に対してそれぞれの量子化重み付け係数12aまたは12bまたは12cを用いて重みをつけた量子化処理を行い、量子化済み変換係数128を得る。
量子化済み変換係数128は、可変長符号化部129にてハフマン符号化や算術符号化などの手段によりエントロピー符号化される。
また、量子化済み変換係数128は逆量子化部130、逆変換部131を経て局部復号予測差分信号132へ復元され、選定されたマクロブロックタイプ/サブマクロブロックタイプ121と予測オーバヘッド情報117に基づいて生成される予測画像133と加算器134で加算することで局部復号画像123が生成される。局部復号画像123は、デブロッキングフィルタ122でブロックひずみ除去処理を実施した後、以降の動き補償予測処理に用いるためメモリ116へ格納される。
可変長符号化部129に入力される量子化済み変換係数128、マクロブロックタイプ/サブマクロブロックタイプ121、予測オーバヘッド情報117、量子化パラメータ127は所定のマクロブロック符号化データのシンタックスに従って配列・整形され、図4の形式のマクロブロックが1つないしは複数個まとまったスライスデータの単位でパケット化(AVCでは、NALユニット化とも呼ぶ)されてビットストリーム9aとして出力される。
(4)イントラオンリー符号化指示信号13が「イントラオンリー符号化である」ことを示す場合
予測部115は(3)で述べたイントラ予測処理のみを実行する。イントラ予測実行時は、予測オーバヘッド情報117には、イントラ予測モード情報が出力される。なお、イントラ予測を行う際の参照画像データとしては、デブロッキングフィルタ122を施す前の局部復号画像123を用いる(図示していないが、局部復号画像123はイントラ予測の参照画像データとして用いるため、予測部115などへ一時的に格納される)。AVCにおけるイントラ予測は上述のとおりであり、入力映像信号3aに対して実行されるので、入力映像信号3の各色成分におけるイントラ予測モードの選択・適用は各色成分で個別に行われる。イントラ予測モードの選定は、符号化モード判定部120において予測効率または符号化効率で評価して選定する。
符号化モード判定部120は、選定された予測差分信号119を変換部124へ出力する。変換部124は入力される予測差分信号119を変換し変換係数として量子化部125へ出力する。この際、変換を行う単位となるブロックのサイズを4x4か8x8など複数の候補の中から選択するようにしてもよい。AVCでは、イントラ予測モードの被予測ブロックを変換ブロックサイズと合わせるように構成されている。変換ブロックサイズを選択可能とする場合は、符号化時に選択されたブロックサイズを、変換ブロックサイズ指定フラグ126の値に反映し、同フラグをビットストリーム9aに多重化する。量子化部125は入力される変換係数を、量子化パラメータ127と量子化重み付け係数12aに基づいて量子化を行い、結果を量子化済み変換係数128として可変長符号化部129へ出力する。処理の例は上述のとおりである。
また、量子化済み変換係数128は、可変長符号化部129にてハフマン符号化や算術符号化などの手段によりエントロピー符号化される。
量子化済み変換係数128は逆量子化部130、逆変換部131を経て局部復号予測差分信号132へ復元され、予測オーバヘッド情報117に基づいて生成される予測画像133と加算器134で加算することで局部復号画像123が生成される。イントラオンリー符号化指示情報113が「イントラオンリー符号化である」ことを示す場合は、動き補償予測を実行しないため、デブロッキングフィルタ122は処理を実行せず、参照画像としてのメモリ116への書き出しも行わない。このように構成することで、メモリアクセスやデブロッキングフィルタの処理に要する演算が削減できる。
可変長符号化部129に入力される量子化済み変換係数128、マクロブロックタイプ/サブマクロブロックタイプ121(イントラモードに固定)、予測オーバヘッド情報117、量子化パラメータ127は所定のマクロブロック符号化データのシンタックスに従って配列・整形され、図4の形式のマクロブロックが1つないしは複数個まとまったスライスデータの単位でパケット化(AVCでは、NALユニット化とも呼ぶ)されてビットストリーム9aとして出力される。
本実施の形態1における第2のピクチャ符号化部7a〜7cでは、共通符号化・独立符号化識別信号1により、シーケンス中のすべてのスライスデータが単一色成分スライス(すなわち、C0スライスまたはC1スライスまたはC2スライス)で符号化されているため、スライスデータ先頭に常に色成分識別フラグ2を多重化し、復号装置側でどのスライスがアクセスユニット内のどのピクチャデータに該当するかを識別できるようにする。例えば、第2のピクチャ符号化部7aでは色成分識別フラグ2の値を0、第2のピクチャ符号化部7bでは色成分識別フラグ2の値を1、第2のピクチャ符号化部7cでは色成分識別フラグ2の値を2、といったように設定してスライスデータの先頭に付与する。これによって、ビットストリーム9a〜9cをシリアルにビットストリーム11へ多重しても、その中のどのスライスがC0、C1、C2成分のいずれの符号化データかを容易に識別可能となる。つまり、第2のピクチャ符号化部7a〜7cは、それぞれのビットストリーム出力を1画面分ためこむことなく、1スライス分のデータがたまった時点でいつでも送出することができる。
なお、イントラオンリー符号化指示情報13の値によらず、画像サイズ情報14によってスライスの中に含まれるマクロブロックの個数に制約を与える。画像サイズ情報14は可変長符号化部129に入力され、可変長符号化部129は画像サイズ情報14に基づいて、スライス内に含まれるマクロブロックの個数の上限値を定める。可変長符号化部129は、符号化されたマクロブロックの個数をカウントしておき、スライス内に含まれるマクロブロックの個数が上記上限値に達したとき、そこでスライスデータのパケットを閉じ、以降のマクロブロックは新しいスライスデータとしてパケット化する。なお、画像サイズ情報14は4:4:4フォーマットの場合はC0、C1、C2成分で同値であるので、シーケンスパラメータセット中に1つだけ多重しておけばよい。
また、第1のピクチャ符号化部5と第2のピクチャ符号化部7a〜7cとは、マクロブロックヘッダ情報を3成分共通の情報として扱うか、単一の色成分の情報として扱うかの違いと、スライスデータのビットストリーム構成が異なるだけである。したがって、図9の変換部24、逆変換部31、量子化部25、逆量子化部30、デブロッキングフィルタ22は、図11の変換部124、逆変換部131、量子化部125、逆量子化部130、デブロッキングフィルタ122をそれぞれ3成分分繰り返す演算で実現できるので、第1のピクチャ符号化部5と第2のピクチャ符号化部7a〜7cの内部構成の一部を共通の機能ブロックで実現することもできる。したがって、図8のような完全に独立な符号化処理部としてだけでなく、図9、図11の構成要素を適宜組み合わせて、例えば同じ回路を複数回繰り返して動作させる、というように多様な符号化装置の実装を実現することができる。また、上述のように、第1のピクチャ符号化部5におけるメモリ16の配置を面順次で持つことにすれば、参照画像格納メモリを第1のピクチャ符号化部5と第2のピクチャ符号化部と7a〜7cで共有できる。
図12に、本実施の形態1の復号装置の概略構成を示す。同図において、共通復号処理は第1のピクチャ復号部302において実行され、独立復号処理は色成分判定部303と第2のピクチャ復号部304(3つの色成分分を用意)において実行される。
ビットストリーム11は、上位ヘッダ解析部300でNALユニット単位に分割され、シーケンスパラメータセットやピクチャパラメータセットなどの上位ヘッダ情報は復号して第1のピクチャ復号部302、色成分判定部303、第2のピクチャ復号部304が参照可能な上位ヘッダメモリ305へ格納する。シーケンス単位に多重される共通符号化・独立符号化識別信号1、量子化重み付け係数12a〜12c、イントラオンリー符号化指示情報13、画像サイズ情報14は、シーケンスパラメータセットの一部として上位ヘッダメモリ305に保持される。
復号された共通符号化・独立符号化識別信号1はスイッチ(SW)301に供給され、スイッチ301は共通符号化・独立符号化識別信号1が「共通符号処理されている」ことを示すならば、当該シーケンス中のスライスNALユニットをすべてビットストリーム8として第1のピクチャ復号部302へ供給し、共通符号化・独立符号化識別信号1が「独立符号化処理されている」ことを示すならば、当該シーケンス中のスライスNALユニットをすべて色成分判定部303に供給する。第1および第2のピクチャ復号部の詳細な動作は後述する。
色成分判定部303は、入力されるスライスNALユニットの中から図7で示した色成分識別フラグ2の値を解析し、スライスNALユニットが現在のアクセスユニット内でいずれの色成分ピクチャに相当するかを識別して、第2のピクチャ復号部304a〜304cのうち該当する復号部へビットストリーム9a〜9cとして分配供給する。このような復号装置の構成によって、アクセスユニット内で色成分ごとにスライスがインタリーブされて符号化されたビットストリームを受信しても、どのスライスがどの色成分ピクチャに属するかを容易に判別し正しく復号できる効果がある。
第1のピクチャ復号部の動作概要
第1のピクチャ復号部302の内部構成を図13に示す。第1のピクチャ復号部302は、例えば図8の符号化装置から出力されるビットストリーム11を、C0、C1、C2の3つの色成分混在スライスで構成されるビットストリーム8の形式で受信して、図3に示す3つの色成分のサンプルからなるマクロブロックを単位として復号処理を行い、出力映像フレームを復元する。
可変長復号部310はビットストリーム8を入力とし、所定の規則(シンタックス)に従ってビットストリーム8を解読して、3成分分の量子化済み変換係数28、および3成分で共通して用いられるマクロブロックヘッダ情報(マクロブロックタイプ/サブマクロブロックタイプ21、予測オーバヘッド情報17、変換ブロックサイズ指定フラグ26、量子化パラメータ27)をビットストリーム8から抽出する。
さらに、量子化済み変換係数28は量子化パラメータ27とともに、第1のピクチャ符号化部5と同じ処理を行う逆量子化部30へ入力され、逆量子化処理が行われる。その際、各色成分で用いる量子化重み付け係数12a〜12cを上位ヘッダメモリ305から参照して使用する。なお3つの量子化重み付け係数12a〜12cにおいて同じ値が使用される場合には、復号器内部では必ずしも3つ分のデータとして持つ必要は無く、1つのデータを共通に使用することも可能である。ついでその出力が第1のピクチャ符号化部5と同じ処理を行う逆変換部31へ入力され、局部復号予測差分信号32へ復元される(変換ブロックサイズ指定フラグ26がビットストリーム8中に存在すれば、それを逆量子化、逆変換処理過程で参照する)。一方、予測部311は、第1のピクチャ符号化部5中の予測部15のうち、予測オーバヘッド情報17を参照して予測画像33を生成する処理だけが含まれ、予測部311に対してマクロブロックタイプ/サブマクロブロックタイプ21、予測オーバヘッド情報17が入力され、3成分分の予測画像33を得る。
マクロブロックタイプがイントラ予測であることを示す場合は、予測オーバヘッド情報17からイントラ予測モード情報に従って3成分分の予測画像33を得、マクロブロックタイプがインター予測であることを示す場合は、予測オーバヘッド情報17から動きベクトル、参照画像インデックスに従って3成分分の予測画像33を得る。局部復号予測差分信号32と予測画像33は加算器34により加算され、3成分分の暫定復号画像323を得る。暫定復号画像323は以降のマクロブロックの動き補償予測に用いられるため、第1のピクチャ符号化部5と同じ処理を行うデブロッキングフィルタ22で3成分分の暫定復号画像サンプルに対してブロックひずみ除去処理を実施した後、復号画像313として出力されるとともに、メモリ312へ格納される。メモリ312には、複数時刻に渡る、3つの色成分で構成される複数枚の参照画像データが格納され、予測部311では、これらの中からマクロブロックの単位でビットストリーム8から抽出した参照画像インデックスで示される参照画像を選択して予測画像生成を行う。メモリ312内の参照画像データの配置は、色成分ごとに面順次で分けて格納してもよいし、各色成分のサンプルを点順次で格納してもよい。復号画像313は3つの色成分を含んでいるカラー映像フレームである。
また、第1のピクチャ復号部302は、上位ヘッダメモリ305に格納されるイントラオンリー符号化指示情報13が「イントラオンリー符号化である」ことを示す場合は、動き補償予測処理を必要としないので参照画像が不要となるため、デブロッキングフィルタ22における処理をスキップし、参照画像としてのメモリ312への書き出しを行わない構成をとることも可能である。このように構成することで、メモリアクセスやデブロッキングフィルタの処理に要する演算を削減することが可能となる。ただし、たとえ「イントラオンリー符号化」であっても、復号画像を表示するための後処理としてデブロッキングフィルタもしくは類似の後処理フィルタを行うことは可能である。
第2のピクチャ復号部の動作概要
第2のピクチャ復号部304の内部構成を図14に示す。第2のピクチャ復号部304は、例えば図8の符号化装置から出力されるビットストリーム11が、色成分判定部303で振り分けられたC0ないしは、C1ないしは、C2スライスNALユニットで構成されるビットストリーム9a〜9cのいずれかを受信して、図4に示す単一色成分のサンプルからなるマクロブロックを単位として復号処理を行い、出力映像フレームを復元する。
可変長復号部410はビットストリーム9を入力とし、所定の規則(シンタックス)に従ってビットストリーム9を解読して、単一色成分の量子化済み変換係数128、および単一色成分に適用するマクロブロックヘッダ情報(マクロブロックタイプ/サブマクロブロックタイプ121、予測オーバヘッド情報117、変換ブロックサイズ指定フラグ126、量子化パラメータ127)を抽出する。量子化済み変換係数128は量子化パラメータ127とともに第2のピクチャ符号化部7と同じ処理を行う逆量子化部130へ入力され、逆量子化処理が行われる。その際に用いる量子化重み付け係数は、可変長復号部410で復号した色成分識別フラグ2に基づいて、上位ヘッダメモリ305中の量子化重み付け係数12a〜12cの中から当該色成分に対応するもの一つを選択し参照する。ついでその出力が第2のピクチャ符号化部7と同じ処理を行う逆変換部131へ入力され、局部復号予測差分信号132へ復元される(変換ブロックサイズ指定フラグ126がビットストリーム9中に存在すれば、それを逆量子化、逆直交変換処理過程で参照する)。
一方、予測部411は、第2のピクチャ符号化部7中の予測部115のうち、予測オーバヘッド情報117を参照して予測画像133を生成する処理だけが含まれ、予測部411に対してマクロブロックタイプ/サブマクロブロックタイプ121、予測オーバヘッド情報117が入力され、単一色成分の予測画像133を得る。マクロブロックタイプがイントラ予測であることを示す場合は、予測オーバヘッド情報117からイントラ予測モード情報に従って単一色成分の予測画像133を得、マクロブロックタイプがインター予測であることを示す場合は、予測オーバヘッド情報117から動きベクトル、参照画像インデックスに従って単一色成分の予測画像133を得る。局部復号予測差分信号132と予測画像133は加算器134により加算され、単一色成分マクロブロックの暫定復号画像423を得る。暫定復号画像423は以降のマクロブロックの動き補償予測に用いられるため、第2のピクチャ符号化部7と同じ処理を行うデブロッキングフィルタ122で単一色成分の暫定復号画像サンプルに対してブロックひずみ除去処理を実施した後、復号画像413として出力されるとともに、メモリ412へ格納される。復号画像413は単一色成分のサンプルのみを含み、図5に示すように、他の色成分用の第2のピクチャ復号部304のそれぞれの出力を束ねることで、カラー映像フレームとして構成される。
また、第2のピクチャ復号部304は、上位ヘッダメモリ305に格納されるイントラオンリー符号化指示情報113が「イントラオンリー符号化である」ことを示す場合は、動き補償予測処理を必要としないので参照画像が不要となるため、デブロッキングフィルタ122における処理をスキップし、参照画像としてのメモリ412への書き出しを行わない構成をとることも可能である。このように構成することで、メモリアクセスやデブロッキングフィルタの処理に要する演算を削減することが可能となる。ただし、たとえ「イントラオンリー符号化」であっても、復号画像を表示するための後処理としてデブロッキングフィルタもしくは類似の後処理フィルタを行うことは可能である。
以上のことから明らかなように、第1のピクチャ復号部302と第2のピクチャ復号部304とは、マクロブロックヘッダ情報を3成分共通の情報として扱うか、単一の色成分の情報として扱うかの違いと、スライスデータのビットストリーム構成が異なるだけであるので、図13や図14における予測部、逆変換部、逆量子化部などの基本的な復号処理ブロックは第1のピクチャ復号部302と第2のピクチャ復号部304とで共通の機能ブロックで実現できる。したがって、図12のような完全に独立な符号化処理部としてだけでなく、図13や図14の基本構成要素を適宜組み合わせて多様な復号装置の実装を実現することができる。また、第1のピクチャ復号部302におけるメモリ312の配置を面順次で持つことにすれば、メモリ312、メモリ412の構成を第1のピクチャ復号部302と第2のピクチャ復号部304とで共通にすることができる。
上記実施例の第1のピクチャ復号部および第2のピクチャ復号部は、符号化装置が出力するビットストリーム11を入力として説明したが、符号化装置が出力するビットストリームに限定されるものではなく、ハードディスクやDVDのような蓄積メディアから読み出されたビットストリームを入力としてもよいし、サーバーから読み出されてネットワーク経由で送信されてくるビットストリームを入力としてもよい。
なお、上記実施例の符号化装置・復号装置において、独立符号化処理の場合には、図15に示すように、3つの色成分のピクチャデータを順番に配置して、ひとつのピクチャデータとして扱っても同様の効果を得ることができる。このときには、水平方向H画素、垂直方向Vラインであるカラー映像信号に対して、垂直方向に3つのデータを連結して、画像サイズ情報14を水平方向H画素、垂直方向V×3ラインとし、単一の色成分画素配列相当とするものである。なお、本実施の形態1の符号化装置・復号装置において、各色成分の信号をそれぞれ独立したピクチャとして扱えるようにするために、各色成分の境界(図15太線点線部)における符号化・復号処理において色成分間の依存性を除去する。依存性の除去の例として、以下のような条件が挙げられる。
・符号化時は、各色成分の境界に位置するマクロブロックでは、その動きベクトル探索において、隣接する他の色成分の画素を使用せず、画面境界の場合の処理と同様、自色成分の端点画素を拡張して画面外探索を行うようにする。復号時は、色成分の境界に位置するマクロブロックでは、動きベクトルが自色成分の画像領域を逸脱する場合(画面外の探索が行われている場合)、他の色の画素信号を用いるのではなく、画面境界とみなして自色成分の端点画素を拡張して予測画像生成を行うようにする。
・各色成分の境界に位置するブロック間に対してデブロッキングフィルタ処理は行わない。
・各色成分のマクロブロックの符号化・復号処理で、可変長符号化・可変長復号の処理に学習型の算術符号化を用いる場合、確率モデルを色成分ごとに個別に用意し、学習プロセスを色成分ごとに独立に実施する。
これらの条件を課すことにより、それぞれの色成分の信号の独立性が得られ、第1、2、3のピクチャ符号化部、ピクチャ復号部がそれぞれ独立に処理を実行することが可能となる。
また、スライスは、各色成分の境界をまたがって定義することを禁止し、1スライス内に複数の異なる色成分の符号化データが含まれないようにするとともに、各色成分の先頭マクロブロックデータは、必ずスライスデータの先頭マクロブロックとなるように制約を課す。
また、スライスデータがどの色成分に属するかを規定するために、上記実施例のようにcolor_channel_idcを定義してスライスデータの先頭領域に付与することにより明示的にスライスが属する色成分を指定するように構成してもよいし、color_channel_idcを使用せず、各スライスデータの先頭マクロブロックアドレスと、画像サイズ情報14を使用して、当該スライスデータがどの色成分に属するかを識別するように構成してもよい。例えば、水平画素数W=1920、垂直画素数V=1080の場合、C0成分、C1成分、C2成分それぞれの先頭マクロブロックアドレスを0、8160、16320として、マクロブロックアドレスが0−8159のマクロブロックはC0成分、マクロブロックアドレスが8160−16319のマクロブロックはC1成分、マクロブロックアドレスが16320−24479のマクロブロックはC2成分と割り当てる。
このような構成とすることで、共通符号化処理・独立符号化処理のピクチャ・アクセスユニット構造の共通化をはかることができ、ランダムアクセスや編集作業などを効率化することができる。
1 共通符号化・独立符号化識別信号、2 色成分識別フラグ、3,3a〜3c 入力映像信号、4 スイッチ(SW)、5 第1のピクチャ符号化部、6 色成分分離部、7a〜7c 第2のピクチャ符号化部、8 第1のピクチャ符号化部が出力するビットストリーム、9a〜9c 第2のピクチャ符号化部7a〜7cが出力するビットストリーム、10 多重化部、11 ビットストリーム、12a〜12c 量子化重み付け係数、13 イントラオンリー符号化指示信号、14 画像サイズ情報、15,115 予測部、16,116 メモリ、17,117 予測オーバヘッド情報(参照画像インデックスと動きベクトル情報、もしくはイントラ予測モード情報)、18,118 減算器、19,119 予測差分信号、20,120 符号化モード判定部、21,121 マクロブロックタイプ/サブマクロブロックタイプ、22,122 デブロッキングフィルタ、23,123 局部復号画像、24,124 変換部、25,125 量子化部、26,126 変換ブロックサイズ指定フラグ、27,127 量子化パラメータ、28,128 量子化済み変換係数、29,129 可変長符号化部、30,130 逆量子化部、31,131 逆変換部、32,132 局部復号予測差分信号、33,133 予測画像、34,134 加算器、300 上位ヘッダ解析部、301 スイッチ(SW)、302 第1のピクチャ復号部、303 色成分判定部、304a〜304c 第2のピクチャ復号部、305 上位ヘッダメモリ、311,411 予測部、312,412 メモリ、313,413 復号画像、323,423 暫定復号画像。

Claims (4)

  1. 4:4:4フォーマットのカラー画像を圧縮符号化してビットストリームを生成する画像符号化装置において、
    各色成分の信号を独立に符号化するか否かを示す識別情報と、各色成分の逆量子化に用いる量子化マトリクス情報をビットストリームに多重するとともに、前記識別情報が、各色成分の信号を独立に符号化することを示す場合に、スライスヘッダに、当該スライスに含まれる符号化データがいずれの色成分の符号化データであるかを識別するための色成分識別情報を多重するとともに、該色成分識別情報に基づいて当該スライスの符号化処理に使用する量子化マトリクスを特定するピクチャ符号化部を有することを特徴とする画像符号化装置。
  2. 4:4:4フォーマットのカラー画像を圧縮符号化してビットストリームを生成する画像符号化方法において、
    各色成分の信号を独立に符号化するか否かを示す識別情報と、各色成分の逆量子化に用いる量子化マトリクス情報をビットストリームに多重するとともに、前記識別情報が、各色成分の信号を独立に符号化することを示す場合に、スライスヘッダに、当該スライスに含まれる符号化データがいずれの色成分の符号化データであるかを識別するための色成分識別情報を多重するとともに、該色成分識別情報に基づいて当該スライスの符号化処理に使用する量子化マトリクスを特定するピクチャ符号化ステップを有することを特徴とする画像符号化方法。
  3. 4:4:4フォーマットのデジタル動画像信号を入力して圧縮符号化を行う画像符号化装置において、
    入力された動画像信号の3つの色成分信号を共通の符号化モードで符号化処理を行い、共通の量子化マトリクスを使用して量子化処理を行う第1の符号化処理と、
    入力された動画像信号の3つの色成分信号をそれぞれ独立の符号化モードで符号化処理を行い、それぞれ独立の量子化マトリクスを使用して量子化処理を行う第2の符号化処理と
    のいずれか一方を選択して符号化処理を行うピクチャ符号化部を備え、
    前記ピクチャ符号化部は、どちらを選択したかを示す識別信号を圧縮データに含むとともに、
    第2の符号化処理を選択した場合には、3つの色成分信号のうちのどの色成分のものかを示す色成分識別フラグを圧縮データに含むことを特徴とする画像符号化装置。
  4. 4:4:4フォーマットのデジタル動画像信号を入力して圧縮符号化を行う画像符号化装置において、
    入力された動画像信号の3つの色成分信号を共通の符号化モードで符号化処理を行い、共通の量子化マトリクスを使用して量子化処理を行う第1の符号化処理と、
    入力された動画像信号の3つの色成分信号をそれぞれ独立の符号化モードで符号化処理を行い、それぞれ独立の量子化マトリクスを使用して量子化処理を行う第2の符号化処理と
    のいずれか一方を選択して符号化処理を行うピクチャ符号化部を備え、
    前記ピクチャ符号化部は、どちらを選択したかを示す識別信号を圧縮データに含むとともに、
    第2の符号化処理を選択した場合には、3つの色成分信号のうちのどの色成分のものかを示す色成分識別フラグを圧縮データに含むとともに、3つの色成分信号でそれぞれ独立の参照画像を用いて動き補償予測を行うことを特徴とする画像符号化装置。
JP2009222332A 2007-01-12 2009-09-28 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法 Pending JP2009303263A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009222332A JP2009303263A (ja) 2007-01-12 2009-09-28 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007004652 2007-01-12
JP2009222332A JP2009303263A (ja) 2007-01-12 2009-09-28 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007028711A Division JP2008193627A (ja) 2007-01-12 2007-02-08 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法

Publications (1)

Publication Number Publication Date
JP2009303263A true JP2009303263A (ja) 2009-12-24

Family

ID=39632177

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2007028711A Pending JP2008193627A (ja) 2007-01-12 2007-02-08 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法
JP2009222332A Pending JP2009303263A (ja) 2007-01-12 2009-09-28 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法
JP2009222334A Pending JP2009303265A (ja) 2007-01-12 2009-09-28 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法
JP2009222333A Pending JP2009303264A (ja) 2007-01-12 2009-09-28 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2007028711A Pending JP2008193627A (ja) 2007-01-12 2007-02-08 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2009222334A Pending JP2009303265A (ja) 2007-01-12 2009-09-28 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法
JP2009222333A Pending JP2009303264A (ja) 2007-01-12 2009-09-28 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法

Country Status (8)

Country Link
US (1) US8655087B2 (ja)
EP (1) EP2357826B1 (ja)
JP (4) JP2008193627A (ja)
KR (2) KR100966427B1 (ja)
CN (4) CN101783965B (ja)
ES (2) ES2630452T3 (ja)
PL (2) PL2357826T3 (ja)
RU (2) RU2369039C1 (ja)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100939917B1 (ko) 2008-03-07 2010-02-03 에스케이 텔레콤주식회사 움직임 예측을 통한 부호화 시스템 및 움직임 예측을 통한부호화 방법
CN105472369B (zh) 2009-01-29 2017-09-12 杜比实验室特许公司 视频装置
US8275038B2 (en) * 2009-11-30 2012-09-25 Faraday Technology Corp. Motion detecting method and motion detector
KR101841783B1 (ko) 2009-12-04 2018-03-23 톰슨 라이센싱 비디오 인코딩 및 디코딩에서 인터 프레임을 위한 개선된 색차 변환을 위한 방법 및 장치
KR20110065412A (ko) * 2009-12-09 2011-06-15 에스케이 텔레콤주식회사 멀티 플레인 영상의 부호화/복호화 장치와 방법 및 이를 위한 기록매체
JP5421757B2 (ja) * 2009-12-11 2014-02-19 株式会社Kddi研究所 画像符号化装置
KR101675118B1 (ko) 2010-01-14 2016-11-10 삼성전자 주식회사 스킵 및 분할 순서를 고려한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
JP2011199396A (ja) * 2010-03-17 2011-10-06 Ntt Docomo Inc 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法、及び動画像予測復号プログラム
LT3955579T (lt) 2010-04-13 2023-09-11 Ge Video Compression, Llc Vaizdo kodavimas naudojant kadrų multimedžių poskaidinius
CN106210733B (zh) 2010-04-13 2020-03-24 Ge视频压缩有限责任公司 解码器、重建数组的方法、编码器、编码及解码方法
CN106101724B (zh) * 2010-04-13 2019-09-06 Ge视频压缩有限责任公司 跨平面预测
CN106210736B (zh) 2010-04-13 2020-06-16 Ge视频压缩有限责任公司 样本区域合并技术
CN106131549B (zh) 2010-04-13 2019-04-05 三星电子株式会社 执行去块滤波的对视频进行解码的设备
BR112012030158B1 (pt) * 2010-06-04 2021-10-05 Sony Corporation Aparelho e método de processamento de imagem
US9172968B2 (en) 2010-07-09 2015-10-27 Qualcomm Incorporated Video coding using directional transforms
US10992958B2 (en) 2010-12-29 2021-04-27 Qualcomm Incorporated Video coding using mapped transforms and scanning modes
GB2487200A (en) 2011-01-12 2012-07-18 Canon Kk Video encoding and decoding with improved error resilience
KR101874143B1 (ko) * 2011-02-10 2018-07-03 벨로스 미디어 인터내셔널 리미티드 화상 처리 장치 및 화상 처리 방법
JP5875236B2 (ja) * 2011-03-09 2016-03-02 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
US9674521B2 (en) 2011-06-28 2017-06-06 Samsung Electronics Co., Ltd. Prediction method and apparatus for chroma component of image using luma component of image
US9210426B2 (en) * 2011-06-30 2015-12-08 Mitsubishi Electric Corporation Image coding device, image decoding device, image coding method, and image decoding method
US8767824B2 (en) * 2011-07-11 2014-07-01 Sharp Kabushiki Kaisha Video decoder parallelization for tiles
WO2013047811A1 (ja) 2011-09-29 2013-04-04 シャープ株式会社 画像復号装置、画像復号方法および画像符号化装置
CN103858430B (zh) 2011-09-29 2017-05-03 夏普株式会社 图像解码装置、图像解码方法及图像编码装置
KR20130049525A (ko) * 2011-11-04 2013-05-14 오수미 잔차 블록 복원을 위한 역변환 방법
JP6080375B2 (ja) 2011-11-07 2017-02-15 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
US9237358B2 (en) * 2011-11-08 2016-01-12 Qualcomm Incorporated Context reduction for context adaptive binary arithmetic coding
US9538200B2 (en) 2012-01-19 2017-01-03 Qualcomm Incorporated Signaling of deblocking filter parameters in video coding
JP2013172323A (ja) * 2012-02-21 2013-09-02 Toshiba Corp 動き検出装置、画像処理装置および画像処理システム
US9756327B2 (en) 2012-04-03 2017-09-05 Qualcomm Incorporated Quantization matrix and deblocking filter adjustments for video coding
EP2838259A4 (en) * 2012-04-13 2015-12-16 Mitsubishi Electric Corp APPARATUS FOR CODING MOVEMENT PICTURES, DEVICE FOR DECODING MOVEMENT PICTURES, METHOD FOR CREATING MOVEMENT IMAGES AND METHOD FOR DECODING MOVEMENT PICTURES
GB2501535A (en) 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
JP5885604B2 (ja) * 2012-07-06 2016-03-15 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
US20140072027A1 (en) * 2012-09-12 2014-03-13 Ati Technologies Ulc System for video compression
JPWO2014051080A1 (ja) * 2012-09-28 2016-08-25 三菱電機株式会社 カラー動画像符号化装置、カラー動画像復号装置、カラー動画像符号化方法及びカラー動画像復号方法
US20140185928A1 (en) * 2012-12-28 2014-07-03 Shai Ben NUN Hardware-supported huffman coding of images
US9049442B2 (en) * 2013-03-15 2015-06-02 Canon Kabushiki Kaisha Moving image encoding apparatus and method for controlling the same
CN105659610A (zh) 2013-11-01 2016-06-08 索尼公司 图像处理设备和方法
CN117459724A (zh) * 2014-01-08 2024-01-26 索尼公司 解码设备和编码设备
GB2533111B (en) * 2014-12-09 2018-08-29 Gurulogic Microsystems Oy Encoder, decoder and method for images, video and audio
CN107211121B (zh) 2015-01-22 2020-10-23 联发科技(新加坡)私人有限公司 视频编码方法与视频解码方法
WO2016115708A1 (en) * 2015-01-22 2016-07-28 Mediatek Singapore Pte. Ltd. Methods for chroma component coding with separate intra prediction mode
US10306229B2 (en) 2015-01-26 2019-05-28 Qualcomm Incorporated Enhanced multiple transforms for prediction residual
EP3293975A4 (en) * 2015-09-08 2018-10-10 Samsung Electronics Co., Ltd. Device and method for entropy encoding and decoding
US10455228B2 (en) * 2016-03-21 2019-10-22 Qualcomm Incorporated Determining prediction parameters for non-square blocks in video coding
US10623774B2 (en) 2016-03-22 2020-04-14 Qualcomm Incorporated Constrained block-level optimization and signaling for video coding tools
EP3531700B1 (en) * 2016-10-18 2022-04-06 Panasonic Intellectual Property Management Co., Ltd. Image coding method, transmission method and image coding device
US11323748B2 (en) 2018-12-19 2022-05-03 Qualcomm Incorporated Tree-based transform unit (TU) partition for video coding
CN114342383B (zh) * 2019-08-29 2024-05-03 日本放送协会 编码装置、解码装置及程序

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005076613A1 (en) * 2004-01-30 2005-08-18 Matsushita Electric Industrial Co., Ltd Picture coding and decoding method, apparatus, and program thereof

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0637889B1 (en) * 1993-08-06 2001-01-17 Lg Electronics Inc. Device for converting the frame rate of an image
JP3681835B2 (ja) * 1995-12-27 2005-08-10 三菱電機株式会社 画像符号化装置及び画像復号化装置及び符号化・復号化システム
JP3413720B2 (ja) * 1998-06-26 2003-06-09 ソニー株式会社 画像符号化方法及び装置、並びに画像復号方法及び装置
US7129978B1 (en) * 1998-07-13 2006-10-31 Zoran Corporation Method and architecture for an improved CMOS color image sensor
US6259741B1 (en) * 1999-02-18 2001-07-10 General Instrument Corporation Method of architecture for converting MPEG-2 4:2:2-profile bitstreams into main-profile bitstreams
US6999511B1 (en) * 1999-02-23 2006-02-14 International Business Machines Corporation Dynamically switching quant matrix tables within an MPEG-2 encoder
KR100654275B1 (ko) * 1999-11-10 2006-12-05 톰슨 라이센싱 Mpeg 비디오 매체 레코딩 디바이스를 제어하기 위한 방법 및 레코딩 가능한 매체 디바이스
US7310371B2 (en) * 2003-05-30 2007-12-18 Lsi Corporation Method and/or apparatus for reducing the complexity of H.264 B-frame encoding using selective reconstruction
JP4617644B2 (ja) * 2003-07-18 2011-01-26 ソニー株式会社 符号化装置及び方法
US7177474B2 (en) * 2003-11-10 2007-02-13 Mobixell Networks Inc. Video to animation conversion with file size constraint
CN1910922B (zh) * 2004-01-30 2013-04-17 松下电器产业株式会社 运动图片编码方法和运动图片解码方法
JP2005349755A (ja) 2004-06-11 2005-12-22 Canon Inc カラープリンタ
WO2006009400A1 (en) * 2004-07-22 2006-01-26 Samsung Electronics Co., Ltd. Method and apparatus to transform/inverse transform and quantize/dequantize color image, and method and apparatus to encode/decode color image using it
JP2008536447A (ja) * 2005-04-13 2008-09-04 トムソン ライセンシング ビデオ復号化のための方法および装置
KR101246915B1 (ko) * 2005-04-18 2013-03-25 삼성전자주식회사 동영상 부호화 또는 복호화 방법 및 장치
EP1753242A2 (en) 2005-07-18 2007-02-14 Matsushita Electric Industrial Co., Ltd. Switchable mode and prediction information coding
CN102176754B (zh) 2005-07-22 2013-02-06 三菱电机株式会社 图像编码装置和方法、以及图像解码装置和方法
CA2623297C (en) 2005-09-20 2011-11-01 Mitsubishi Electric Corporation Image encoding method and image decoding method, image encoder and image decoder, and image encoded bit stream and recording medium
CN100466745C (zh) * 2005-10-11 2009-03-04 华为技术有限公司 帧内预测编解码方法及其系统
US8036517B2 (en) * 2006-01-25 2011-10-11 Qualcomm Incorporated Parallel decoding of intra-encoded video
WO2007111476A1 (en) * 2006-03-28 2007-10-04 Samsung Electronics Co., Ltd. Method, medium, and system encoding and/or decoding an image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005076613A1 (en) * 2004-01-30 2005-08-18 Matsushita Electric Industrial Co., Ltd Picture coding and decoding method, apparatus, and program thereof

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6011041987; Shun-ichi Sekiguchi, Yoshimi Isu, Yoshihisa Yamada, Kohtaro Asai, Tokumichi Murakami: 'Results of Core Experiment on 4:4:4 Coding (CE5)' Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 and ITU-T SG16 Q.6) 20th , 20060330 *
JPN6013034903; SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS - Infrastructure of audiovisual services - Coding of mo , 200503, p.39〜40, 65〜66, ITU-T H.264 TELECOMMUNICATION STANDARDIZATION SECT

Also Published As

Publication number Publication date
US20090028427A1 (en) 2009-01-29
CN102065292B (zh) 2013-10-09
CN101783965B (zh) 2011-11-09
KR100966427B1 (ko) 2010-06-28
KR100966416B1 (ko) 2010-06-28
CN101222645A (zh) 2008-07-16
EP2357826A3 (en) 2012-02-01
RU2008101376A (ru) 2009-07-20
US8655087B2 (en) 2014-02-18
CN102065292A (zh) 2011-05-18
JP2008193627A (ja) 2008-08-21
ES2630452T3 (es) 2017-08-22
CN101783965A (zh) 2010-07-21
CN102006474A (zh) 2011-04-06
RU2009118334A (ru) 2010-11-20
KR20080066560A (ko) 2008-07-16
RU2369039C1 (ru) 2009-09-27
EP2357826A2 (en) 2011-08-17
JP2009303264A (ja) 2009-12-24
ES2630454T3 (es) 2017-08-22
KR20100024468A (ko) 2010-03-05
CN102006474B (zh) 2013-06-19
EP2357826B1 (en) 2017-03-01
RU2479148C2 (ru) 2013-04-10
PL2357826T3 (pl) 2017-07-31
PL1947860T3 (pl) 2017-07-31
CN101222645B (zh) 2011-02-02
JP2009303265A (ja) 2009-12-24

Similar Documents

Publication Publication Date Title
JP2009303263A (ja) 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法
CA2615299C (en) Image encoding device, image decoding device, image encoding method, and image decoding method
JP4964595B2 (ja) 画像復号装置及び方法
JP5026092B2 (ja) 動画像復号装置および動画像復号方法
JP2015521826A (ja) 画像を符号化または復号するための方法およびデバイス
JP5475409B2 (ja) 動画像符号化装置および動画像符号化方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120409

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120619

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120919

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120927

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20121207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130913