JP2012235293A - 動画像符号化装置 - Google Patents

動画像符号化装置 Download PDF

Info

Publication number
JP2012235293A
JP2012235293A JP2011102155A JP2011102155A JP2012235293A JP 2012235293 A JP2012235293 A JP 2012235293A JP 2011102155 A JP2011102155 A JP 2011102155A JP 2011102155 A JP2011102155 A JP 2011102155A JP 2012235293 A JP2012235293 A JP 2012235293A
Authority
JP
Japan
Prior art keywords
picture
block
pixels
field image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011102155A
Other languages
English (en)
Inventor
Hiroshi Arakawa
博 荒川
Kazuhito Kimura
一仁 木村
Hideyuki Okose
秀之 大古瀬
Koji Arimura
耕治 有村
Seishi Abe
清史 安倍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011102155A priority Critical patent/JP2012235293A/ja
Publication of JP2012235293A publication Critical patent/JP2012235293A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】MBAFFをハードウェアで実現する場合、単純に決まった位置の画素を取得することはできず、場合分けした上で複雑な処理により位置を決定した上で画素値を参照しなければならない。
【解決手段】第1フィールド画像および第2フィールド画像の画素に基づいて、第1フィールド画像の画素および第2フィールド画像の画素が混在する新たな第1ピクチャおよび第2ピクチャを生成し、前記第1ピクチャを符号化単位であるブロック毎に符号化して第1符号列を生成した後、前記第2ピクチャを前記ブロック毎に符号化して第2符号列を生成する。
【選択図】図1

Description

本発明は、入力された動画像をブロックに分割して符号化する画像符号化装置および画像符号化方法に関するものである。
近年、マルチメディアアプリケーションの発展に伴い、画像、音声及びテキストなど、あらゆるメディアの情報を統一的に扱うことが一般的になってきた。また、ディジタル化された画像は膨大なデータ量を持つため、蓄積及び伝送のためには、画像の情報圧縮技術が不可欠である。一方で、圧縮した画像データを相互運用するためには、圧縮技術の標準化も重要である。例えば、画像圧縮技術の標準規格としては、ITU−T(国際電気通信連合 電気通信標準化部門)のH.261、H.263、H.264、ISO/IEC(国際標準化機構)のMPEG−1、MPEG−2、MPEG−4、MPEG−4AVCなどがある。また、現在は、ITU−TとISO/IECとの共同によるHEVCと呼ばれる次世代画面符号化方式の標準化活動が進んでいる。
このような動画像の符号化では、符号化対象の各ピクチャを符号化単位ブロックに分割し、ブロック毎に時間方向および空間方向の冗長性を削減することによって情報量の圧縮を行う。時間的な冗長性の削減を目的とする画面間予測符号化では、前方または後方のピクチャを参照してブロック単位で動きの検出および予測画像の作成を行い、得られた予測画像と符号化対象のブロックとの差分画像を取得する。また空間的な冗長性の削減を目的とする画面内予測符号化では、周辺の符号化済みブロックの画素情報から予測画像の生成を行い、得られた予測画像と符号化対象のブロックとの差分画像を取得する。さらに得られた差分画像に対して離散コサイン変換等の直交変換および量子化を行い、可変長符号化を用いて符号列を生成することで情報量が圧縮される。
また復号化では、前記符号化処理によって生成された符号列を解析して予測情報および残差係数情報を取得し、予測情報を用いて画面間予測復号化および画面内予測復号化を行って予測画像を生成し、残差係数情報に対して逆量子化および逆直交変換を行って差分画像を生成し、得られた予測画像と差分画像を加算することで最終的な出力画像を復元する。
H.264には、動画像を符号化する際の処理としてMBAFFと呼ばれる処理が存在する。MBAFFは、16×16から成るマクロブロックを上下に連結したマクロブロックペア(MB pair)を一つの単位として、画素値がフレーム形式に配置されたフレームペア(Frame pair)と、フィールド形式に配置されたフィールドペア(Field pair)とに分解し、分解後の上マクロブロックと下マクロブロックとについて符号化処理を行うものである。
この動作について、図12を用いて説明する。ここでは、説明の便宜上、マクロブロックを水平4×垂直4画素から成るブロックとして図示している。MBpair1201、1203,1205は、MBAFFにおける処理単位である。つまり、MBAFFでは、上下に連結した2つのMBを1つの処理単位とする。MBpair1201は、水平4×垂直8画素からなるブロックである。MBpair1201をFramepairとして分解した場合、Framepair1202となる。すなわち、上ブロックにライン1からライン4、下ブロックにライン5から8が格納される。一方、MBpair1203を、Fieldpairとして分解した場合、Fieldpair1204となる。すなわち、上ブロックに奇数ラインであるライン1,3,5,7が格納され、上ブロックに偶数ラインであるライン2,4,6,8が格納される。
分解画像は、以後の処理において、FramepairまたはFieldpairを1つの単位として処理される。例えば、Framepair1202を処理する場合、ライン1から4を含む上ブロックを処理した後、ライン5から8を含む下ブロックを処理する。その後、処理順で次のFramepair1206を処理する。
ITU-T H.264 : Advanced video coding for generic audiovisual services (03/2010)
このようなMBAFFにおいて、画面内予測を行う場合に、隣接画素の参照方法が複雑となる、という課題がある。つまり、MBpair1205をFramepairとして分解し、MBpair1203をFieldpairとして分解した場合、Fieldpair1204は、Framepair1206に含まれる上ブロックおよび下ブロックの画素を参照しなければならない。つまり、Fieldpair1204の上ブロックを符号化する際、単にFramepair1206の上ブロックにおける画素のみを参照することができない。
このように、従来のMBAFFにおいては、画面内予測において隣接画素を参照する処理が複雑となる。そのため、MBAFFをハードウェアで実現する場合、単純に決まった位置の画素を取得することはできず、場合分けした上で複雑な処理により位置を決定した上で画素値を参照しなければならない課題があった。
本発明は上記課題を解決するものであって、従来のMBAFFよりも簡易な処理、ハードウェア構成により、ブロック毎に、フレーム形式での符号化とフィールド形式での符号化とを切替可能な動画像符号化装置を提供することを目的とする。
本発明における動画像符号化装置は、インターレース構造の動画像を符号化する動画像符号化装置であって、連続して入力される2つのフィールド画像であって、フレームを構成する際にペアとなる第1フィールド画像および第2フィールド画像を取得する取得部と、前記取得した前記第1フィールド画像および前記第2フィールド画像の画素に基づいて、前記第1フィールド画像の画素および前記第2フィールド画像の画素が混在する新たな第1ピクチャおよび第2ピクチャを生成するピクチャ生成部と、前記第1ピクチャを符号化単位であるブロック毎に符号化して第1符号列を生成した後、前記第2ピクチャを前記ブロック毎に符号化して第2符号列を生成する符号化部と、を備える。
また好ましくは、前記ピクチャ生成部は、前記第1フィールド画像の画素と前記第2フィールド画像の画素が混在するブロックおよび前記第1フィールド画像の画素および前記第2フィールド画像の画素のうちいずれか一方の画素で構成されるブロックのうち、少なくとも一方のブロックから構成される前記第1ピクチャおよび前記第2ピクチャを生成する。
また好ましくは、前記ピクチャ生成部は、前記第1フィールド画像のうち第1ブロックに含まれる画素と、前記第2フィールド画像に含まれるブロックのうち前記第1ブロックと空間的に同じ場所に位置する第2ブロックに含まれる画素と、に基づいて、前記第1ピクチャおよび前記第2ピクチャに含まれるブロックのうち前記第1ブロックと空間的に同じ場所に位置する2つのブロックを構成する。
また好ましくは、前記ピクチャ生成部は、(A)前記第1ピクチャに含まれるブロックのうち前記第1ブロックと空間的に同じ場所に位置するブロックを、前記第1ブロックに含まれる画素で構成し、さらに前記第2ピクチャに含まれるブロックのうち前記第1ブロックと空間的に同じ場所に位置するブロックを、前記第2ブロックに含まれる画素で構成する処理Aと、(B)前記第1ピクチャに含まれるブロックのうち前記第1ブロックと空間的に同じ場所に位置するブロックを、前記第1ブロックに含まれる画素のうち上半分に位置する画素と前記第2ブロックに含まれる画素のうち上半分に位置する画素とを交互に配置して構成し、さらに前記第2ピクチャに含まれるブロックのうち前記第1ブロックと空間的に同じ場所に位置するブロックを、前記第1ブロックに含まれる画素のうち下半分に位置する画素と前記第2ブロックに含まれる画素のうち下半分に位置する画素とを交互に配置して構成する処理Bと、を切り換えて利用する。
また好ましくは、前記符号化部は、前記第1符号列と、前記第1符号列を生成する際に利用した符号化条件を示す第1ヘッダ情報を対応づけた状態で出力し、前記第2符号列と、前記第2符号列を生成する際に利用した符号化条件を示す第2ヘッダ情報を対応づけた状態で出力し、前記第1ヘッダ情報および前記第2ヘッダ情報のうち少なくとも一方のヘッダ情報は、前記第1符号列または前記第2符号列に対応するピクチャを構成するブロックが、前記第1フィールド画像を構成する画素と前記第2フィールド画像を構成する画素が混在するブロックであるか、または前記第1フィールド画像を構成する画素および前記第2フィールド画像を構成する画素のうちいずれか一方の画素で構成されるブロックであるかを示す識別子を、前記ピクチャ内に含まれるブロックの個数分有する。
また好ましくは、前記識別子は、前記ヘッダ情報におけるピクチャ層にまとめて格納される。
また好ましくは、前記識別子は、前記ヘッダ情報におけるブロック層に各々格納される。
また好ましくは、前記第1ヘッダ情報および前記第2ヘッダ情報のうち少なくとも一方のヘッダ情報は、ヘッダ情報と対応付けられた符号列に対応するピクチャが2つのフィールド画像の画素が混合しているピクチャであるか否かを示す判定識別子を有し、前記判定識別子がONである場合、当該判定識別子が含まれるヘッダ情報は、前記第1符号列または前記第2符号列に対応するピクチャを構成するブロックが、前記第1フィールド画像を構成する画素と前記第2フィールド画像を構成する画素が混在するブロックであるか、または前記第1フィールド画像を構成する画素および前記第2フィールド画像を構成する画素のうちいずれか一方の画素で構成されるブロックであるかを示す識別子を、前記ピクチャ内に含まれるブロックの個数分有する。
また好ましくは、前記符号化部は、前記第1ピクチャおよび前記第2ピクチャが、前記第1フィールド画像および前記第2フィールド画像を構成する画素が混在するピクチャである場合、前記第1ピクチャおよび前記第2ピクチャを、デブロックフィルタ処理を適用することなく符号化する。
また好ましくは、前記符号化部は、前記第1ピクチャおよび前記第2ピクチャを符号化する際、隣接するブロックで前記ピクチャ生成部が適用した処理方法が異なる場合、処理方法が異なるブロックの境界に対してデブロックフィルタ処理しない。
なお、本発明は、このような動画像符号化として実現することができるだけでなく、このような動画像符号化・復号化装置に含まれる各手段と同等の処理をプログラムや集積回路としても実現することもできる。
以上より、本発明における動画像符号化装置は、従来のMBAFFよりも簡易な処理、ハードウェア構成により、ブロック毎に、フレーム形式での符号化とフィールド形式での符号化とを切替可能とすることができる。
本実施形態1に係る動画像符号化装置100のブロック図。 本実施形態3に係る動画像復号化装置200のブロック図。 分解部160のブロック図。 本実施形態1に係る処理Aを説明するための図。 本実施形態1に係る処理Bを説明するための図。 本実施形態1に係る分解部160において入力画像であるフィールド画像を分解する際のフローチャート。 本実施形態2に係る動画像符号化装置700のブロック図。 本実施形態2によって生成される符号列のシンタックスを説明するための図。 SEIにmb_pair_decomposition_flagを格納する際のシンタックスを説明するための図。 ブロック層にmb_pair_decomposition_flagを格納する際のシンタックスを説明するための図。 本実施形態3に係る復元部208を説明するための図。 MBAFFを説明するための図。 本実施形態4に係る動画像符号化装置1300のブロック図。 本実施形態5に係る動画像符号化装置1400のブロック図。
(実施の形態1)
以下、本実施形態1について、図面を参照しながら説明する。
図1は、本実施形態に係る動画像符号化装置100のブロック図である。動画像符号化装置100は、フィールド単位で入力された動画像をブロックに分割し、ブロック単位で符号化処理し、符号列を生成する。
この動画像符号化装置100は、分解部160と、ピクチャメモリ101と、予測残差符号化部102と、予測残差復号化部103と、ローカルバッファ104と、予測符号化部105と、量子化値決定部106と、ヘッダ符号列生成部107と、係数符号列生成部108とを備えている。
分解部160は、後述する構成と動作により、表示を行う順にピクチャ単位で入力される入力画像信号151でのフィールド画像のうち、1枚のフレームを構成する第1フィールドと第2フィールドを、所定の処理により画素データの配置が変更された2枚のピクチャを出力する。つまり、分解部160は、トップフィールドに含まれる画素データとボトムフィールドに含まれる画素データを用いて、新たな第1ピクチャと第2ピクチャを生成する。
ピクチャメモリ101は分解部160が出力するピクチャを、符号化を行う順に並び替えを行って蓄積する。次に、ピクチャメモリ101は、差分演算部109または予測符号化部105からの読出し命令を受け付けると当該読出し命令に係る画像信号をそれぞれ出力する。このとき、各々のピクチャはコーディングユニット(CU)と呼ばれる複数の画素から構成される符号化単位に分割される。このCUは、例えば水平64×垂直64画素のブロック、水平32×垂直32画素のブロック、水平16×垂直16画素、または水平4×垂直4画素のブロックから成る。なお、本実施形態における動画像符号化装置100では、CU単位で以降の処理が行われる。
予測残差符号化部102は、差分演算部109から出力される差分画像信号152に対して直交変換を行う。さらに得られた各周波数成分の直交変換係数に対し量子化を行うことで画像情報の圧縮を行い、残差符号化信号153を生成する。予測残差符号化部102は、生成した残差符号化信号153を予測残差復号化部103および係数符号列生成部108に出力する。なお、予測残差符号化部102は、量子化値決定部106において決定された量子化値信号158を用いて、直交変換係数を量子化する。
予測残差復号化部103は、予測残差符号化部102から出力される残差符号化信号153に対して、逆量子化および逆直交変換することで差分画像情報の復元を行う。そして、生成した残差復号化信号154を加算演算部110に出力する。
ローカルバッファ104は、加算演算部110から出力される再構成画像信号155を格納する。この再構成画像信号155は、現在符号化対象となっているピクチャ以降のピクチャの符号化における予測符号化処理に用いられる。つまり、再構成画像信号155は、現状符号化対象となっているピクチャ以降のピクチャを符号化する際、画素データとして参照される。ローカルバッファ104は、予測符号化部105からの読出し命令に応じて、格納する再構成画像信号155を画素データとして予測符号化部105出力する。
予測符号化部105は、ピクチャメモリ101から出力される画像信号を基に、画面内予測、または画面間予測を用いて予測画像信号156を生成する。そして、予測符号化部105は、生成した予測画像信号156を差分演算部109および加算演算部110に出力する。なお、予測符号化部105は、画面間予測を用いる際は、ローカルバッファ104に蓄積される既に符号化済みの過去のピクチャの再構成画像信号155を用いる。また予測符号化部105は、画面内予測を用いる際は、符号化対象CUに隣接する既に符号化済みのCUの現在のピクチャの再構成画像信号155を用いる。画面内予測を用いるか画面間予測を用いるかのモード判定方法については、どちらの予測方法がより残差信号の情報量を少なくすることができるかを予測して行われる。
量子化値決定部106は、ピクチャメモリ101に格納されるピクチャに基づいて、予測残差符号化部102において差分画像信号152を量子化する際の量子化値を設定する。量子化値決定部106は、設定した量子化値を予測残差符号化部102およびヘッダ符号列生成部107に出力する。なお、量子化値決定部106における量子化値の設定方法は、符号列信号159のビットレートが目標とするするビットレートに近づくように量子化値を設定する、いわゆるレート制御に基づく量子化値の設定方法を利用しても構わない。
ヘッダ符号列生成部107は、予測符号化部105が出力する予測情報信号157と、量子化値決定部106が出力する量子化値信号158と、その他の符号化制御に関する制御情報を可変長符号化することで符号列を生成する。なお、予測情報には、例えば画面内予測モード、画面間予測モード、動きベクトル、参照ピクチャを示す情報等が含まれる。また、制御情報は係数符号列生成部108における処理前までに取得可能な情報であって、CUの符号化時に適用した符号化条件を示す情報である。例えばブロック符号化タイプ、ブロック分割情報等が含まれる。
係数符号列生成部108は、予測残差符号化部102が出力する残差符号化信号153を可変長符号化して得られる符号列を、ヘッダ符号列生成部107が生成した符号列に続けて追記することで最終的な符号列信号159を生成する。
差分演算部109は、ピクチャメモリ101から読み出された画像信号と、予測符号化部105の出力である予測画像信号156との差分値である差分画像信号152を生成し、予測残差符号化部102に出力する。
加算演算部110は、予測残差復号化部103から出力される残差復号化信号154と、予測符号化部105から出力される予測画像信号156とを加算することにより再構成画像信号155を生成し、ローカルバッファ104に出力する。
以下、分解部160の詳細な動作について、図面を参照しながら説明する。
図3は、分解部160のブロック図である。分解部160は、切替部161、第1フィールド格納メモリ162、第2フィールド格納メモリ163、配置変更部164、第1ピクチャ格納メモリ165、第2ピクチャ格納メモリ166、切替部167を備える。
本装置の入力画像はインターレース画像を想定している。そのため、フレームを構成するフィールドのうち、時間的に先行する第1フィールド画像と、後行する第2フィールド画像とが、順番に本装置に入力される。
切替部161は、その入力が第1フィールド画像の場合、該入力を第1フィールド格納メモリ162へ出力する。一方、切替部161は、入力が第2フィールド画像の場合、該入力を第2フィールド格納メモ163へ出力する。
第1フィールド格納メモリ162と第1フィールド格納メモリ162とは、それぞれ、入力されたフィールド画像を保持する。
配置変更部164は、対になる2枚のフィールド画像が、第1フィールド格納メモリ162および第2フィールド格納メモリ163に格納された後、格納された2つのフィールド画像中の、対応する位置にある符号化単位ブロック毎に、処理Aおよび処理Bのうちいずれかを実行する。
処理Aは、配置を変更せず、そのまま第1ピクチャ格納メモリ165および第2ピクチャ格納メモリ166に該ブロック中の画素値を保持する動作である。
以下、処理Aを、図4を用いて説明する。
図4に示すように、第1フィールド格納メモリ162には少なくともCU401が蓄積される。また、第2フィールド格納メモリ163には少なくともCU402が蓄積される。ここで、CU401およびCU402は、水平4×垂直4画素で構成されるブロックとする。
上記のように画素が蓄積されている際、配置変更部164は、第1ピクチャ格納メモリ165におけるCU403部分にCU401の画素を格納する。さらに、配置変更部164は、第2ピクチャ格納メモリ166におけるCU404部分にCU402の画素を格納する。つまり、処理Aでは、第1フィールド格納メモリ162に格納される画素と第2フィールド格納メモリ163に格納される画素を1つのCUに混ぜることなく、第1ピクチャ格納メモリ165および第2ピクチャ格納メモリ166に配置する。
以下、処理Bを、図5を用いて説明する。
図5に示すように、第1フィールド格納メモリ162には少なくともCU501が蓄積される。また、第2フィールド格納メモリ163には少なくともCU502が蓄積される。ここで、CU501およびCU502は、水平4×垂直4画素で構成されるブロックとする。
上記のように画素が蓄積されている際、配置変更部164は、第1ピクチャ格納メモリ165におけるCU503部分に、CU501におけるライン1およびライン3ならびにCU502におけるライン2およびライン4の画素を格納する。なお、CU503に画素を格納する際、配置変更部164は、第1フィールド格納メモリ162に格納される画素と、第2フィールド格納メモリ163に格納される画素とを交互に配置する。つまり、配置変更部164は、CU503に格納される画素がフレーム画像となるように配置する。
また、配置変更部164は、第1ピクチャ格納メモリ165におけるCU504部分に、CU501におけるライン5およびライン7ならびにCU502におけるライン6およびライン8の画素を格納する。なお、CU504に画素を格納する際、配置変更部164は、第1フィールド格納メモリ162に格納される画素と、第2フィールド格納メモリ163に格納される画素とを交互に配置する。つまり、配置変更部164は、CU504に格納される画素がフレーム画像となるように配置する。
つまり、処理Bでは、第1フィールド格納メモリ162に格納される画素と第2フィールド格納メモリ163に格納される画素を1つのCUに混ぜ、第1ピクチャ格納メモリ165および第2ピクチャ格納メモリ166に配置する。
また、第1フィールド格納メモリ162および第2フィールド格納メモリ163に格納されている2枚のフィールド画像のうち、空間的に同じ位置に配置される2つCUが、処理Aまたは処理Bの処理対象となる。
また、処理Aまたは処理Bの選択方法は、H.264符号化規格におけるMBAFF方式でのフィールドペアとフレームペアの決定方法を利用することができる。例えば、処理対象のCUにおける動きが大きい場合は、処理Aを選択する。逆に、処理対象のCUにおける動きが小さい場合は、処理Bを選択する。
切替部167は、最初に、第1ピクチャ格納メモリ165に蓄えられたピクチャを出力する。その後、ピクチャメモリ101以降での符号化処理が完了した後、第2ピクチャ格納メモリ166に蓄えられたピクチャを出力する。つまり、切替部167は、第1ピクチャ格納メモリ165に格納される画素をすべて出力した後、第2ピクチャ格納メモリ166に格納される画素を出力する。
ここで、分解部160において入力画像であるフィールド画像を分解する方法について、図6のフローチャートを用いて具体的に説明する。
まず、第1フィールド格納メモリ162は、切替部161から入力される第1フィールド画像を格納する(S601)。
次に、第2フィールド格納メモリ163は、切替部161から入力される第2フィールド画像を格納する(S602)。
そして、格納された第1フィールド画像および第2フィールド画像における対となるCU毎に、処理Aおよび処理Bのうちいずれか一方を決定する(S603)。
次に、S603における決定結果に基づき、対となる2つのCUに含まれる画素から、新たな2つのCUを生成し、第1ピクチャ格納メモリ165および第2ピクチャ格納メモリ166に格納する(S604)。
すべてのブロックについて上記処理が完了したかどうか判定(S605)し、否の場合はS603,S604を繰り返す。完了した場合は、第1ピクチャ格納メモリ165の画像を出力(S606)し、ピクチャメモリ101以降での符号化処理を行う(S607)。
S607が完了したら、第2ピクチャ格納メモリ166の画像を出力(S608)し、ピクチャメモリ101以降での符号化処理を行う(S609)。
以上の動作により、本実施例によれば、ピクチャメモリ101以降の符号化処理においては、インターレース画像を構成する第1フィールド画像および第2フィールド画像をCU単位で符号化する際、フレーム構造またはフィールド構造で符号化するかを意識する必要がない。つまり、ピクチャメモリ101以降の符号化処理においては、インターレース画像であってもプログレッシブ画像であっても同じ動作を適用することができる。例えば、画面内予測における隣接画素値の取得が、処理Aまたは処理Bの如何にかかわず、常に直左の隣接ブロックの画素を取得すればよい。結果、ハードウェア実装時に複雑な回路構成が不要となる。また、このように構成した場合でも、配置変更方法が異なるブロック境界では予測誤差が大きくなる。よって、画面内予測での方向決定アルゴリズムにて、このような予測誤差が大きくなる方向は選択されないため、大きな問題が生じることはない。
以上より、本実施例によれば、従来のMBAFFよりも簡易なハードウェア構成により、ブロック毎に、フレーム形式での符号化とフィールド形式での符号化とを選択可能な動画像符号化装置を提供することができる。
(実施の形態2)
以下、本実施形態2について、図面を参照しながら説明する。本実施例は、配置変更方法に関するCU毎の情報を符号化列に含めるものである。
図7は、本実施形態に係る動画像符号化装置700のブロック図である。以下、説明の便宜上、本実施形態1と同様の構成についてはその詳細な説明を省略する。さらに、図7では、図1と同様の機能を有するブロックについては同じ番号を付す。
図7において、分解部760は、実施形態1での分解部160と同様の動作を行う。さらに、CU毎の配置変更情報をヘッダ符号列生成部707に出力する。ヘッダ符号列生成部707は、実施形態1でのヘッダ符号列生成部107と同様の動作を行い、さらに、配置変更情報を符号化列に含める。
(シンタックの説明)
図8は本実施形態によって生成される符号列のシンタックス:mb_pair_decomposition_flagの一例を示した図である。このmb_pair_decomposition_flagは、PPS(Picture Parametere Set)に格納されるフラグである。
本フラグは、例えば、値が0の場合は配置変更なし、つまり処理Aが実行されたことを示す。一方、値が1の場合はフレーム画像を構成するように配置変更、つまり処理Bが実行されたことを表す。このフラグを、入力ピクチャを構成するCUの個数分、符号列に含むよう、ループ処理を行っている。なお、CUの個数は、((pic_width_in_mbs_minus1+1)×(pic_height_in_map_units_minus1+1))と表現される。また、mb_pair_decomposition_enableにより本機能のオンもしくはオフを選択可能としている。
上記のように構成することにより、第1ピクチャ格納メモリ165または第2ピクチャ格納メモリ166から出力されるピクチャに含まれるCUが、処理Aおよび処理Bのうちどちらで処理されたかを出力する符号列に埋め込むことができる。そのため、復号化時に元のフィールド画像を単にフラグを確認するだけで復元することができる。
(その他の実施形態)
以下、他の実施形態について図面を参照しながら説明する。
図9は、ストリーム中での場所として、上述とは別の場所であるSEI(符号化に関する補助情報を格納する場所)に格納する場合である。同様に mb_pair_decomposition_flagを個数分格納するようにしている。
また、図10は、マクロブロック層に格納する場合である。この場合、macroblock_layer()自体がブロック毎であるので、このシンタックス中でのループ処理は不要である。なお、ブロック層に格納する場合には、本機能のオンもしくはオフを表すmb_pair_decomposition_enableフラグについては、PPS(図8)、もしくは、SEI(図9)のどちらかに挿入する必要がある。
なお、図8、図9、図10で説明したシンタックスおよび識別子の値については、本実施の形態を説明するための一例、つまりH.264符号化規格に基づく一例であり、ここに記載されている内容と異なるシンタックスや識別子の値を割り当てることによって同様の機能を実現してもよい。
また、符号化効率向上のため、上記したフラグを算術符号化等するようにしてもよい。
さらに、配置変更に関する情報は、第1ピクチャでの情報と第2ピクチャでの情報は同じものであるので、一方のピクチャに相当する符号列には格納しないようにしてもよい。
本構成によれば、符号列中に配置変更に関する情報が含まれているため、後述する動画像復号化装置と組み合わせることにより、第2の実施例に係る動画像符号化装置で符号化した符号列を復号し配置変更を行うことにより、動画像を復号・表示可能となる。
なお、第1の実施例に係る動画像符号化装置については、符号列に配置変更情報を含んでいないが、符号列とは別の場所に該情報を格納する、もしくは、別の伝送路を用いて伝送する、等することにより、動画像復号化装置において、復号後の画像に対して配置変更を施すことにより、動画像の復号・表示が可能となる。
(実施の形態3)
以下、本実施形態3について、図面を参照しながら説明する。
図2は、本実施形態に係る動画像復号化装置200のブロック図である。動画像復号化装置200は、実施形態2で説明した動画像符号化装置によって生成された符号列に対し、ブロック単位で復号化処理し、出力画像を生成する。
この動画像復号化装置200は、ヘッダ符号列解析部201と、係数符号列解析部202と、予測残差復化部203と、ピクチャメモリ204と、予測復号化部205と、量子化値決定部206と、加算演算部207と、復元部208とを備えている。
ヘッダ符号列解析部201は、入力されたブロック単位の符号列信号251のヘッダ領域に対して可変長復号化を施すことによりヘッダ情報の解析を行う。ヘッダ符号列解析部201は、解析して得られる予測情報信号256を予測復号化部205へ出力する。さらに、ヘッダ符号列解析部201は、解析して得られる量子化値情報を量子化値決定部206へ出力する。また、さらに、ヘッダ符号列解析部は、実施形態2で説明したシンタックス値:mb_pair_decomposition_flagを復号して得られる配置変更に係る情報を復元部208へ出力する。
係数符号列解析部202は、ヘッダ符号列解析部201によって解析されたヘッダ情報に続いて符号化されている係数符号列の解析を行う。このとき、係数符号列解析部202は、係数符号列が残差符号化信号の場合、当該残差符号化信号252を予測残差復号化部203へ出力する。
予測残差復号化部203は、係数符号列解析部202から入力された残差符号化信号252に対して、逆量子化および逆直交変換することで差分画像情報の復号を行う。そして、予測残差復号化部203は、生成した残差復号化信号253を加算演算部207に出力する。このとき予測残差復号化部203は、量子化値決定部206において決定された量子化値信号257を用いて残差符号化信号252を逆量子化する。
復元部208は、加算演算部207からブロック単位に順に入力される信号に基づき、後述する処理を行い、結果のピクチャをピクチャメモリ204に出力する。
ピクチャメモリ204は、復元部208が出力するピクチャを、表示を行う順にピクチャ単位で並び替えを行って蓄積する。そして、ピクチャメモリ204は、蓄積している信号を出力画像信号258として外部に出力する。
予測復号化部205は、ヘッダ符号列解析部201から出力された予測情報信号256を基に、画面内予測、または画面間予測を用いて予測画像信号254を生成する。そして、予測復号化部205は、生成した予測画像信号254を加算演算部207に出力する。なお、予測復号化部205は、画面間予測を用いる際、ピクチャメモリ204に蓄積される既に復号化済みの過去のピクチャの再構成画像信号255を用いる。また、予測復号化部205は、画面内予測を用いる際、復号化対象ブロックに隣接する既に復号化済みのブロックの現在のピクチャの再構成画像信号259を用いる。これは、後述する復元部208の内部メモリのうち一方からの情報を選択して用いる。画面内予測を用いるか画面間予測を用いるかの判定については、入力される予測情報信号256に従って行われる。
加算演算部207では、予測残差復号化部203から出力された残差復号化信号253と予測復号化部205から出力された予測画像信号254を加算することによって再構成画像信号255を生成する。生成された再構成画像信号255は復元部208にて後述する動作にてピクチャ毎に格納され、最終的にはピクチャメモリ204 を経由してフィールド単位の出力画像信号258として表示装置に出力される。
ここで、復元部208において、再構成画像であるフィールド毎の画像がどのように処理されるかを、図11を用いて説明する。図11に示す復元部208は、切替部2081、第1ピクチャ格納メモリ2082、第2ピクチャ格納メモリ2083、配置変更部2084、第1フィールド格納メモリ2085、第2フィールド格納メモリ2086、切替部2087、切替部2088、を備える。
第1ピクチャ格納メモリ2082は、復元部208に入力された再構成画像信号のうち、動画像符号化装置での第1ピクチャに対応するものを格納する。また、第2ピクチャ格納メモリは、第2ピクチャに対応するものを格納する。現在復号処理を行っているのがどちらであるかは、例えば、H.264符号化規格であれば、slice_header()シンタックス中のbottom_field_flagを用いて判断できる。すなわち、切替部2081は、この情報に基づき制御する。同様に、面内予測での隣接画素を予測符号化部205に供給するための切替部2088も上記情報に基づき制御する。
配置変更部2084は、第2ピクチャの復号処理が完了した後、ヘッダ符号列解析部201からの配置変更情報に基づき、処理Aまたは処理Bのどちらかを選択し、図4および図5により説明した処理の逆方向処理を行う。そして、ブロック毎に、配置変更した上で結果を第1フィールド格納メモリ2085または第2フィールド格納メモリ2086に格納する。すべてのブロックについての処理が完了した時点で、切替部2087は、第1フィールド格納メモリ2085の画像を出力した後、第2フィールド格納メモリ2086の画像を出力する。
以上の動作により、本実施例によれば、符号列に格納された配置変更方法に基づき、対応する動画像符号化装置での処理と逆の配置変更を行うため、第2の実施例で説明した効果を奏する動画像符号化装置と対になる動画像復号化装置を提供することができる。
(実施の形態4)
以下、本実施形態4について、図面を参照しながら説明する。本実施例は、配置変更に伴いデブロックフィルタ処理時点でのブロック境界での隣接画素が、入力画像での配置では隣接していない場合、すなわち、図12でのFramepair1206とFieldpair1204との境界での場合、における不都合を回避するものである。
図13は、本実施形態に係る動画像符号化装置1300のブロック図である。以下、説明の便宜上、本実施形態4と同様の構成についてはその詳細な説明を省略する。さらに、図13では、図7もしくは図1と同様の機能を有するブロックについては同じ番号を付す。
デブロックフィルタ部1301は、いわゆるループフィルタ処理の一種を行う処理部である。ループフィルタ処理とは、例えばH.264符号化規格で定められたデブロック処理等である。
ローカルバッファ1302は、デブロックフィルタ部1301が出力するフィルタ処理後のピクチャを、将来の画面間予測符号化での予測画素作成時に用いるため保持する。
実施の形態4の一つの実施形態としては、分解部760にて本機能を実施する場合、すなわち、シンタックスmb_pair_decomposition_enableが1の場合、デブロックフィルタ部1301での処理をオフにする。また、別の実施形態としては、デブロックフィルタ部1301は、隣接するブロックでのシンタックスmb_pair_decomposition_flagが異なるブロック境界については、デブロック処理を行わないようにする。
以上に説明した動作により、本実施例4によれば、ローカルバッファ1302に格納される段階では配置変更された状態(図12の分解画像)であるため、隣接画素が入力画像では隣接していない場合に、デブロックフィルタ処理を行わない。この動作により、本来関係のない画素同士により意図とは異なるフィルタ処理が行われ画質に悪影響を及ぼす、という課題を回避することができる。
(実施の形態5)
以下、本実施形態5について、図面を参照しながら説明する。本実施例は、実施の形態4にて説明した動画像符号化装置に対応する動画像復号化装置に関するものである。
図14は、本実施形態に係る動画像復号化装置1400のブロック図である。以下、説明の便宜上、本実施形態3と同様の構成についてはその詳細な説明を省略する。さらに、図14では、図2と同様の機能を有するブロックについては同じ番号を付す。
ヘッダ符号列解析部1401は、図2でのヘッダ符号列解析部と同様の動作を行い、さらに、mb_pair_decomposition_flagを出力する。
デブロックフィルタ1402は、隣接するブロックでのmb_pair_decomposition_flagが異なるブロック境界についてはデブロック処理を行わないようにする。
以上に説明した動作により、本実施例5によれば、実施例4の動画像符号化装置と対応する動画像復号化装置を提供することができる。
(さらに別の実施形態)
さらに、上記実施の形態で示した動画像符号化装置および動画像復号化装置に含まれる各手段と同等の機能を備えるプログラムを、フレキシブルディスク等の記録媒体に記録するようにすることにより、上記実施の形態で示した処理を、独立したコンピュータシステムにおいて簡単に実施することが可能となる。なお、記録媒体としてはフレキシブルディスクに限らず、光ディスク、ICカード、ROMカセット等、プログラムを記録できるものであれば同様に実施することができる。
また、上記実施の形態で示した動画像符号化装置および動画像復号化装置に含まれる各手段と同等の機能を集積回路であるLSIとして実現してもよい。これらは一部または全てを含むように1チップ化されてもよい。またLSIは集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現しても良い。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。
さらには、半導体技術の進歩または派生する別技術によりLSIなどに置き換わる集積回路の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。
また、本発明は、上述した動画像符号化装置および動画像復号化装置を含む、放送局から放送される放送波を圧縮し、記録を行うDVDレコーダー、BDレコーダー等の放送波記録装置に適用しても構わない。
また、上記実施の形態に係る、動画像符号化装置および動画像復号化装置、またはその変形例の機能のうち少なくとも一部を組み合わせてもよい。
本発明は、例えば、ビデオカメラ、デジタルカメラ、ビデオレコーダ、携帯電話、及びパーソナルコンピューター等における、入力画像を構成する各ピクチャを符号化して動画像符号化データとして出力する動画像符号化装置や、前記動画像符号化データを復号化して復号化画像を生成する動画像復号化装置として有用である。
100 動画像符号化装置
101 ピクチャメモリ
102 予測残差符号化部
103 予測残差復号化部
104 ローカルバッファ
105 予測符号化部
106 量子化値決定部
107 ヘッダ符号列生成部
108 係数符号列生成部
109 差分演算部
110 加算演算部
151 入力画像信号
152 差分画像信号
153 残差符号化信号
154 残差復号化信号
155 再構成画像信号
156 予測画像信号
157 予測情報信号
158 量子化値信号
159 符号列信号
200 動画像復号化装置
201 ヘッダ符号列解析部
202 係数符号列解析部
203 予測残差復号化部
204 ピクチャメモリ
205 予測復号化部
206 量子化値決定部
207 加算演算部
251 符号列信号
252 残差符号化信号
253 残差復号化信号
254 予測画像信号
255 再構成画像信号
256 予測情報信号
257 量子化値信号
258 出力画像信号

Claims (10)

  1. インターレース構造の動画像を符号化する動画像符号化装置であって、
    連続して入力される2つのフィールド画像であって、フレームを構成する際にペアとなる第1フィールド画像および第2フィールド画像を取得する取得部と、
    前記取得した前記第1フィールド画像および前記第2フィールド画像の画素に基づいて、前記第1フィールド画像の画素および前記第2フィールド画像の画素が混在する新たな第1ピクチャおよび第2ピクチャを生成するピクチャ生成部と、
    前記第1ピクチャを符号化単位であるブロック毎に符号化して第1符号列を生成した後、前記第2ピクチャを前記ブロック毎に符号化して第2符号列を生成する符号化部と、
    を備える動画像符号化装置。
  2. 前記ピクチャ生成部は、前記第1フィールド画像の画素と前記第2フィールド画像の画素が混在するブロックおよび前記第1フィールド画像の画素および前記第2フィールド画像の画素のうちいずれか一方の画素で構成されるブロックのうち、少なくとも一方のブロックから構成される前記第1ピクチャおよび前記第2ピクチャを生成する
    請求項1に記載の動画像符号化装置。
  3. 前記ピクチャ生成部は、前記第1フィールド画像のうち第1ブロックに含まれる画素と、前記第2フィールド画像に含まれるブロックのうち前記第1ブロックと空間的に同じ場所に位置する第2ブロックに含まれる画素と、に基づいて、前記第1ピクチャおよび前記第2ピクチャに含まれるブロックのうち前記第1ブロックと空間的に同じ場所に位置する2つのブロックを構成する
    請求項2に記載の動画像符号化装置。
  4. 前記ピクチャ生成部は、
    (A)前記第1ピクチャに含まれるブロックのうち前記第1ブロックと空間的に同じ場所に位置するブロックを、前記第1ブロックに含まれる画素で構成し、さらに前記第2ピクチャに含まれるブロックのうち前記第1ブロックと空間的に同じ場所に位置するブロックを、前記第2ブロックに含まれる画素で構成する処理Aと、
    (B)前記第1ピクチャに含まれるブロックのうち前記第1ブロックと空間的に同じ場所に位置するブロックを、前記第1ブロックに含まれる画素のうち上半分に位置する画素と前記第2ブロックに含まれる画素のうち上半分に位置する画素とを交互に配置して構成し、さらに前記第2ピクチャに含まれるブロックのうち前記第1ブロックと空間的に同じ場所に位置するブロックを、前記第1ブロックに含まれる画素のうち下半分に位置する画素と前記第2ブロックに含まれる画素のうち下半分に位置する画素とを交互に配置して構成する処理Bと、
    を切り換えて利用する
    請求項3に記載の動画像符号化装置。
  5. 前記符号化部は、前記第1符号列と、前記第1符号列を生成する際に利用した符号化条件を示す第1ヘッダ情報を対応づけた状態で出力し、前記第2符号列と、前記第2符号列を生成する際に利用した符号化条件を示す第2ヘッダ情報を対応づけた状態で出力し、
    前記第1ヘッダ情報および前記第2ヘッダ情報のうち少なくとも一方のヘッダ情報は、前記第1符号列または前記第2符号列に対応するピクチャを構成するブロックが、前記第1フィールド画像を構成する画素と前記第2フィールド画像を構成する画素が混在するブロックであるか、または前記第1フィールド画像を構成する画素および前記第2フィールド画像を構成する画素のうちいずれか一方の画素で構成されるブロックであるかを示す識別子を、前記ピクチャ内に含まれるブロックの個数分有する
    請求項2に記載の動画像符号化装置。
  6. 前記識別子は、前記ヘッダ情報におけるピクチャ層にまとめて格納される請求項5に記載の動画像符号化装置。
  7. 前記識別子は、前記ヘッダ情報におけるブロック層に各々格納される請求項5に記載の動画像符号化装置。
  8. 前記第1ヘッダ情報および前記第2ヘッダ情報のうち少なくとも一方のヘッダ情報は、ヘッダ情報と対応付けられた符号列に対応するピクチャが2つのフィールド画像の画素が混合しているピクチャであるか否かを示す判定識別子を有し、
    前記判定識別子がONである場合、当該判定識別子が含まれるヘッダ情報は、前記第1符号列または前記第2符号列に対応するピクチャを構成するブロックが、前記第1フィールド画像を構成する画素と前記第2フィールド画像を構成する画素が混在するブロックであるか、または前記第1フィールド画像を構成する画素および前記第2フィールド画像を構成する画素のうちいずれか一方の画素で構成されるブロックであるかを示す識別子を、前記ピクチャ内に含まれるブロックの個数分有する
    請求項2に記載の動画像符号化装置。
  9. 前記符号化部は、前記第1ピクチャおよび前記第2ピクチャが、前記第1フィールド画像および前記第2フィールド画像を構成する画素が混在するピクチャである場合、前記第1ピクチャおよび前記第2ピクチャを、デブロックフィルタ処理を適用することなく符号化する
    請求項1に記載の動画像符号化装置。
  10. 前記符号化部は、前記第1ピクチャおよび前記第2ピクチャを符号化する際、隣接するブロックで前記ピクチャ生成部が適用した処理方法が異なる場合、処理方法が異なるブロックの境界に対してデブロックフィルタ処理しない請求項4に記載の動画像符号化装置。
JP2011102155A 2011-04-28 2011-04-28 動画像符号化装置 Withdrawn JP2012235293A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011102155A JP2012235293A (ja) 2011-04-28 2011-04-28 動画像符号化装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011102155A JP2012235293A (ja) 2011-04-28 2011-04-28 動画像符号化装置

Publications (1)

Publication Number Publication Date
JP2012235293A true JP2012235293A (ja) 2012-11-29

Family

ID=47435202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011102155A Withdrawn JP2012235293A (ja) 2011-04-28 2011-04-28 動画像符号化装置

Country Status (1)

Country Link
JP (1) JP2012235293A (ja)

Similar Documents

Publication Publication Date Title
KR101003435B1 (ko) 영상 블록을 디코딩 하는 방법
US20240040152A1 (en) Encoding device and encoding method
US11102472B2 (en) Video decoding device and video decoding method
JP2014033460A (ja) 動画像復号化装置
JP2012235293A (ja) 動画像符号化装置
JP2012235294A (ja) 動画像復号化装置
JP2012249222A (ja) 動画像符号化装置および動画像符号化方法
JP2012191397A (ja) 動画像復号化装置および動画像復号化方法
JP2012249221A (ja) 動画像符号化装置および動画像符号化方法
JP2012191247A (ja) 動画像符号化装置および動画像符号化方法

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140701