JP2005510985A - デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化 - Google Patents

デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化 Download PDF

Info

Publication number
JP2005510985A
JP2005510985A JP2003548553A JP2003548553A JP2005510985A JP 2005510985 A JP2005510985 A JP 2005510985A JP 2003548553 A JP2003548553 A JP 2003548553A JP 2003548553 A JP2003548553 A JP 2003548553A JP 2005510985 A JP2005510985 A JP 2005510985A
Authority
JP
Japan
Prior art keywords
block
mode
macroblock
field
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003548553A
Other languages
English (en)
Other versions
JP2005510985A5 (ja
Inventor
ワン、リミン
ガンジー、ラジーブ
パヌソポン、クリト
ルトラ、アジェイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Arris Technology Inc
Original Assignee
General Instrument Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=27540869&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2005510985(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority claimed from US10/301,290 external-priority patent/US6980596B2/en
Application filed by General Instrument Corp filed Critical General Instrument Corp
Publication of JP2005510985A publication Critical patent/JP2005510985A/ja
Publication of JP2005510985A5 publication Critical patent/JP2005510985A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/112Selection of coding mode or of prediction mode according to a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction

Abstract

本発明は、デジタルビデオコンテンツを符号化又は復号する方法に関する。デジタルビデオコンテンツは、イントラピクチャ、予測ピクチャ又は両方向予測ピクチャとすることができるピクチャのストリームからなる。各ピクチャは、マクロブロックからなり、マクロブロックはより小さく分割することができる。この符号化又は復号方法では、ピクチャのストリーム内の各ピクチャ内のより小さな各ブロックをフレームモード又はフィールドモードの何れかで符号化する。

Description

本発明は、デジタルビデオコンテンツの符号化及び復号に関し、より具体的には、本発明は、MPEG−4 Part 10 AVC/H.264ビデオ符号化規格において使用され、デジタルビデオコンテンツのマクロブロックレベルにおけるフレームモード符号化及びフィールドモード符号化に関する。
ビデオ圧縮は、多くの既存の製品及び新規の製品において使用されている。ビデオ圧縮は、デジタルテレビジョンセットトップボックス(set-top boxes:STB)、デジタル衛星放送システム(digital satellite systems:DSS)、高精細度テレビジョン(high definition television :HDTV)デコーダ、デジタルバーサタイルディスク(digital versatile disk:DVD)プレーヤ、テレビ会議、インターネットビデオ及びマルチメディアコンテンツ、及び他のデジタルビデオの用途において重要である。デジタルビデオコンテンツは、ビデオ圧縮しなければ、非常にデータ量が大きいため、効率よく保存し、伝送し、表示することは不可能又は困難である。
デジタルビデオコンテンツは、テレビジョン受像機、コンピュータモニタ又はデジタルビデオコンテンツを表示可能な他の電子機器に画像として表示されるピクチャのストリームからなる。特定のピクチャの前に表示されるピクチャは、この特定ピクチャの「後方」にある。また、この特定ピクチャの後に表示されるピクチャは、この特定ピクチャの「前方」にある。
ビデオ圧縮は、各ピクチャを1つのフレーム又は2つのフィールドとして符号化するビデオ符号化処理、すなわちコーディング処理において行われる。各フレームは、空間情報の数多くのラインからなる。例えば、一般的なフレームは、480本の水平ラインを含む。各フィールドは、1フレームの半分のラインを含んでいる。例えば、フレームが480水平ラインからなるときには、各フィールドは240水平ラインからなる。代表的な構成では、一方のフィールドは、フレーム内の奇数ラインからなり、他方のフレームは、フレーム内の偶数ラインからなる。以下及び添付の特許請求の範囲では、特別に定義する場合を除いて、偶数ラインからなるフィールドを「トップ」フィールドと呼ぶ。また、以下及び添付の特許請求の範囲では、特別に定義する場合を除いて、奇数ラインからなるフィールドを「ボトム」フィールドと呼ぶ。2つのフィールドは、互いにインタレースされ、インタレースされたフレーム(以下、インタレースフレームという。)が形成される。
包括的に言えば、ビデオ符号化は、デジタルビデオコンテンツデータから「必須でない(non-essential)」データを除去することによって行われる。データ量を削減することにより、放送又は伝送時に必要とされる帯域幅が削減される。圧縮されたビデオデータは、伝送された後、復号又は伸張する必要がある。この処理では、伝送されてきたビデオデータを処理して、符号化処理において除去された「必須でない」データに代えてビデオデータに組み込むための近似データを生成する。
ビデオ符号化は、圧縮されていないデジタルビデオコンテンツよりも少ない容量で保存できるように、また狭い帯域幅で伝送できるように、デジタルビデオコンテンツを圧縮された形式に変換する。圧縮は、ビデオコンテンツのピクチャにおける時間的及び空間的な冗長を利用している。デジタルビデオコンテンツは、例えばハードディスク、DVD、他の不揮発性記憶装置等のストレージ媒体に格納することができる。
デジタルビデオコンテンツを圧縮するビデオ符号化方法には数多くのものがある。そのため、ビデオエンコーダ及びビデオデコーダの大半が認識できる形式で圧縮デジタルビデオコンテンツを表現するように、様々なデジタルビデオ符号化方法を標準化するビデオ符号化規格が開発されている。例えば、モーションピクチャエキスパートグループ(Motion Picture Experts Group :以下、MPEGという。)及び国際電気通信連合(International Telecommunication Union:以下、ITU−Tという。)は、広く使われているビデオ符号化規格化を開発している。これらの規格の例として、MPEG−1規格、MPEG−2規格、MPEG−4規格、ITU−T勧告H261、ITU−T勧告H.263がある。
MPEG及びITU−Tによって開発された規格を始めとる大部分の最新のビデオ符号化規格は、一つには、動き補償(motion compensation:以下、MCという。)アルゴリズムを有する時間的予測に基づいてる。動き補償を有する時間的予測は、デジタルビデオ放送における連続するピクチャ間の時間的冗長を削減するために、用いられる。
動き補償アルゴリズムを有する時間的予測では、通常、個々のピクチャを符号化するために1つ又は2つの参照ピクチャを用いる。参照ピクチャは、既に符号化されたピクチャである。動き補償アルゴリズムを有する時間的予測では、符号化する特定のピクチャと参照ピクチャとを比較することによって、参照ピクチャと符号化する特定のピクチャ間の時間的冗長を利用し、仮に動き補償アルゴリズムを有する時間的予測を用いなかった場合と比べ、より高い圧縮率でピクチャを符号化することができる。参照ピクチャの一方は、符号化する特定のピクチャの後方にある。他方の参照ピクチャは、符号化する特定のピクチャの前方にある。
しかしながら、より高い解像度、より複雑な画像コンテンツ、より速い伝送速度を実現する要求に応じて、より優れたビデオ圧縮方法が望まれている。このために、現在、国際標準化機構(International Organization for Standardization:以下、ISOという。)及び国際電気通信連合(International Telecommunication Union:以下、ITU−Tという。)が協力して新たなビデオ符号化規格を開発している。この新たなビデオ符号化規格は、MPEG−4 Part10 アドバンストビデオ符号化(Advanced Video Coding:以下、AVCという。)/H.264規格と呼ばれている。
可能な数多くの実施例の1つとして、本発明は、デジタルビデオコンテンツのビットストリームを符号化、復号及び生成する方法を提供する。デジタルビデオコンテンツは、イントラピクチャ、予測ピクチャ又は両方向予測ピクチャとすることができるピクチャのストリームからなる。各ピクチャは、マクロブロックからなり、マクロブロックは更により小さく分割することができる。この符号化又は復号方法では、ピクチャのストリーム内の各ピクチャ内の各ブロックをフレームモード又はフィールドモードの何れかで符号化する。
本発明は、複数のピクチャのストリーム(以下、ピクチャストリームという。)からなるデジタルビデオコンテンツのマクロブックレベルでの適応フレーム/フィールド(以下、AFFという。)符号化方法を提供する。本発明は、ピクチャブロックレベルのAFFの概念をマクロブロックに拡張する。ピクチャレベルでのAFF符号化において、符号化するピクチャストリームの各ピクチャは、他のピクチャがフレーム符号化モード又はフィールド符号化モードの何れで符号化されているかにかかわらずフレームモード又はフィールドモードで符号化される。ピクチャをフレームモードで符号化する場合、インタレースされたフレームを構成する2つのフィールドを一緒に符号化する。一方、ピクチャをフレームモードで符号化する場合、インタレースされたフレームを構成する2つのフィールドを別々に符号化する。エンコーダは、フレームモード符号化とフィールドモード符号化のうち、どちらのタイプが各ピクチャに対してより有利であるかを判定し、ピクチャの符号化タイプを選択する。フレームモードとフィールドモードとから選択する完全な方法は、本発明において重要でないので、詳細は省略する。
上述のように、MPEG−4 Part10 AVC/H.264規格は、デジタルビデオコンテンツ符号化して圧縮する新たな規格である。引用により本願に援用されるMPEG−4 Part10 AVC/H.264規格を制定している勧告書は、ジョイントビデオチーム(Joint Video Team:JVT)によって2002年8月10日に発行された「ジョイントビデオ仕様の共同最終委員会草案(Joint Final Committee Draft (JFCD) of Joint Video Specification)」を包含している(ITU−T Rec.H.264&ISO/IEC 14496−10 AVC)。JVTは、ISO又はMPEG及びITU−Tの専門家らによって構成されている。MPEG−4 Part10 AVC/H.264規格は公に知られているため、本明細書では、MPEG−4 Part10 AVC/H.264ビデオ符号化規格の特徴を全て詳細に記載することはしないが、本発明は、この規格の仕様に基づいて実現される。
ここに説明するAFF符号化法は、MPEG−4 Part10 AVC/H.264規格の定めるガイドラインと互換性があり、これに則した説明を行うが、このAFF符号化法は、特定の規格又は用途に応じて、適宜変更することができる。
以下、図面を参照して、本発明の好ましい実施例について説明する。
図1は、本発明を実現するために用いることができる3種類のピクチャのシーケンスの具体例を示しており、これらは、MPEG−4 Part10 AVC/H.264規格を始めとする代表的なビデオ符号化法において定義されている。上述のように、エンコーダはピクチャを符号化し、デコーダはピクチャを復号する。エンコーダ又はデコーダは、プロセッサ、特定用途向け集積回路(application specific integrated circuit:ASIC)、フィールドプログラマブルゲートアレー(field programmable gate array :FPGA)、エンコーダ/デコーダ(coder/decoder:CODEC)、デジタルシグナルプロセッサ(digital signal processor:DSP)、ピクチャストリームを符号化できる他の電子回路等の何れであってもよいが、以下及び添付の特許請求の範囲において、特別に定義する場合を除き、「エンコーダ」という用語は、ピクチャストリームからなるデジタルビデオコンテンツを符号化する全ての電子回路を含むものとする。また、「デコーダ」という言葉は、ピクチャストリームからなるデジタルビデオコンテンツを復号する全ての電子回路を含むものとする。
ビデオ符号化方法に用いることができるピクチャの3つのタイプを図1に示す。3つのピクチャタイプは、記憶されているデジタルビデオコンテンツへのランダムアクセスをサポートし、動き補償を有する時間的予測を使用して、最大の冗長抑圧(the maximum redundancy reduction)を探索するよう定義されている。3つのピクチャタイプには、イントラピクチャ(intra picture:以下、Iピクチャという。)(100)と、予測ピクチャ(predicted picture:以下、Pピクチャという。)(102a、102b)と、両方向予測ピクチャ(bi-predicted picture:以下、Bピクチャという。)(101a〜101d)とがある。Iピクチャ(100)は、記憶されているデジタルビデオコンテンツにランダムアクセスするためのアクセスポイントになっており、低い圧縮率で符号化される。イントラピクチャ(100)は、参照ピクチャを参照することなく符号化される。
予測ピクチャ(102a,102b)は、既に符号化されたI、P、Bピクチャを参照ピクチャとして用いて符号化される。符号化されるPピクチャに対して時間的に前方又は後方のピクチャの何れも参照ピクチャとして使用できる。予測ピクチャ(102a、102b)は、イントラピクチャ(100)よりも高い圧縮率で符号化することができる。
両方向予測ピクチャ(101a〜101d)は、前方参照ピクチャ及び後方参照ピクチャの2つの時間的な参照ピクチャを用いて符号化される。前方参照ピクチャは過去参照ピクチャと呼ばれることもあり、後方参照ピクチャは未来参照ピクチャと呼ばれることもある。本発明の実施例では、前方参照ピクチャ及び後方参照ピクチャが、符号化されるBピクチャに対して時間的に同一方向にあってもよい。両方向予測ピクチャ(101a〜101d)は、3つのピクチャタイプのうち最も高い圧縮率で符号化することができる。
図1は、3つのピクチャタイプの間の参照関係(103)を示している。例えば、Pピクチャ(102a)は、符号化されたIピクチャ(100)を参照ピクチャとして用いて符号化することができる。Bピクチャ(101a〜101d)は、図1に示すように、符号化されたIピクチャ(100)又はPピクチャ(102a)を参照ピクチャとして用いて符号化することができる。本発明の原理に基づけば、符号化されたBピクチャ(101a〜101d)は、符号化する他のBピクチャの参照ピクチャとして使用することもできる。例えば、図1に示すBピクチャ(101c)は、他の2つのBピクチャ(101b、101d)を参照ピクチャとしている。
図1に示すIピクチャ(100)、Bピクチャ(101a〜101d)、Pピクチャ(102a、102b)の各番号及び順序は、ピクチャの配置の一例を示しているに過ぎず、本発明を実現する上で必須要件ではない。特定の応用例に応じて、どのような数のIピクチャ、Bピクチャ、Pピクチャをどのような順序で用いてもよい。MPEG−4 Part 10 AVC/H.264規格は、2つの参照ピクチャ間のBピクチャの数又は2つのIピクチャ間のピクチャの数に関して何の制約も課していない。
図2に示すように、各ピクチャ(200)は、好ましくは複数のスライス(202)に分割される。各スライス(202)は、一群のマクロブロック(201)を含んでいる。マクロブロック(201)は、一群の画素である。図2に示すように、好ましいマクロブロック(201)のサイズは、16×16画素である。
図3(a)〜図3(f)は、マクロブロックが更により小さいブロックに分割できることを示している。例えば、図3(a)〜図3(f)に示すように、マクロブロックは、更に16×8画素(図3a;300)、8×16画素(図3b;301)、8×8画素(図3c;302)、8×4画素(図3d;303)、4×8画素(図3e;304)、4×4画素(図3f;305)等のブロックサイズに分割することができる。これらのより小さなブロックサイズは、動き補償アルゴリズムを有する時間的予測を行う幾つかの応用例において好適に用いられる。
図4は、本発明の実施例として示す動き補償を有する時間的予測を用いたピクチャ構造の一例を示している。動き補償を有する時間的予測では、現在のピクチャであるピクチャN(400)は、他のピクチャN−1(401)を平行移動することによって局所的に作る(model)ことができるとみなされる。ピクチャN−1は、ピクチャN(400)を符号化するための参照ピクチャであり、ピクチャN(400)に対して時間的に前方にあっても後方にあってもよい。
図4に示すように、各ピクチャは、好ましくは、マクロブロック(201a、201b)を含むスライスに分割される。ピクチャN−1(401)は、ピクチャN(400)に示される画像(403)を含んでいる。図4に示すように、画像(403)は、図4に示すように、ピクチャN(400)では、ピクチャN−1(401)における位置とは異なる時間的位置(402)になる。ピクチャN(400)の各マクロブロック(201a)の画像内容は、画像(403)がピクチャN(400)における新たな時間的位置(402)に移動するために必要とされるピクチャN−1(401)の各マクロブロック(201b)の画像内容の時間的動き量を推測することによって、ピクチャN−1(401)において一致するマクロブロック(201b)の画像内容から予測される。実際には、符号化されている元の画像(402)ではなく、画像(402)とこの画像の予測画像である(403)との間の差分(404)が符号化され、伝送される。
ピクチャN(400)内の各画像(402)に対して、時間的予測は、画像(403)がピクチャN(400)内の新たな時間的位置(402)に移動するときに必要とされる時間的動き量を示す動きベクトルによって表すことができる。動き補償を有する時間的予測に使用される動きベクトル(406)は、符号化及び伝送される必要がある。
図4は、ピクチャN(400)内の画像(402)が、画像とこの画像の予測値間の差分(404)と、関連する動きベクトル(406)とによって表現されることを示している。動きベクトルを用いた符号化の完全な方法は、特定の用途に応じて変更することができ、この変更は、当業者にとって容易である。
マクロブロックレベルのAFF符号化に関する理解を得るために、まず、ピクチャのストリームにおけるピクチャレベルのAFF符号化の概要について説明する。インタレースされたシーケンスのフレームは、トップフィールドとボトムフィールドの2つのフィールドを含み、これらの2つのフィールドは、インタリーブされ、1フィールド間隔によって時間的に分離されている。フィールド間隔は、フレーム間隔の半分の時間に相当する。ピクチャレベルのAFF符号化では、インタレースフレームの2つのフィールドを一緒に符号化してもよく、別々に符号化してもよい。これらの2つのフィールドを一緒に符号化する場合、フレーム符号化を用いる。一方、これらの2つのフィールドを別々に符号化する場合は、フィールド符号化を用いる。
一方、固定フレーム/フィールド符号化では、ピクチャのストリーム内のピクチャを1つのモードのみで符号化する。このモードは、フレームモードであってもフィールドモードであってもよい。多くの応用例において、ピクチャレベルのAFF符号化では、エンコーダが、デジタルビデオ素材の内容に基づいて、フレームモード又はフィールドモードを選択して、ピクチャのストリーム内の各ピクチャを符号化できるので、ピクチャレベルのAFF符号化は、固定フレーム/フィールド符号化よりも優れている。多くの場合、AFF符号化は、固定フレーム/フィールド符号化に比べて、より良好な圧縮率を実現できる。
本発明の実施例では、ピクチャにおけるより小さい部分に対して、AFF符号化を行う。この小さい部分は、マクロブロックであってもよく、マクロブロックの対であってもよく、マクロブロックのグループであってもよい。各マクロブロック、マクロブロックの対、又はマクロブロックのグループ、若しくはスライスは、ピクチャ内の他のマクロブロックがどのようなモードで符号化されるかにかかわらず、フレームモードでもフィールドモードでも符号化できる。これらの各ケースのAFF符号化について、以下に詳細に説明する。
第1のケースでは、AFF符号化を単一のマクロブロックに対して行う。マクロブロックをフレームモードで符号化する場合、マクロブロック内の2つのフィールドが一緒に符号化される。マクロブロックは、一旦フレームとして符号化されると、動き補償アルゴリズムを有する時間的予測に用いるために、図3a〜図3fに示すようなより小さなブロックに更に分割される。
なお、マクロブロックをフィールドモードで符号化する場合、図5に示すように、マクロブロック(500)は、トップフィールド(501)とボトムフィールド(502)とに分割される。これらの2つのフィールドは、別々に符号化される。図5に示すマクロブロック(500)は、M×N画素を有する。N及びMの好ましい値は16であり、この場合、マクロブロック(500)は、16×16画素を含む。図5では、1つおきの画素列にハッチングを施している。ハッチングされた領域は、マクロブロック(500)のトップフィールドの画素列を示し、ハッチングされていない領域は、マクロブロック(500)のボトムフィールドの画素列を示している。
図6a〜図6dに示すように、フィールドモードで符号化される画素は、4つの更なるブロックに分割することができる。1つのブロックは、単一のパリティを有する必要がある。この単一のパリティの要件のため、ブロックをトップフィールドとボトムフィールドから構成することができない。すなわち、ブロックは、単一のパリティのフィールドを含む必要がある。したがって、図6a〜図6dに示すように、フィールドモードマクロブロックは、16×8画素(図6a:600)、8×8画素(図6b:601)、4×8画素(図6c:602)、4×4画素(図6d:603)に分割できる。図6a〜図6dは、各ブロックが単一のパリティのフィールドを含んでいることを示している。
次に、マクロブロックの対に対するAFF符号化について説明する。マクロブロックの対に対するAFF符号化は、対ベースのAFF符号化(pair based AFF coding)と呼ばれることもある。図6a〜図6dに示すブロックサイズと、図3a〜図3fに示すブロックサイズとを比較することにより、フィールドモードによって符号化されるブロックは、フレームモードによって符号化されるマクロブロックより、分割できるブロックパターンが少ないことがわかる。単一のパリティの要件のため、フィールドモードで符号化されるマクロブロックでは、16×16画素、8×16画素、8×4画素のブロックサイズを用いることができない。これは、単一マクロブロックベースのAFFは、フィールドモード符号化が強く望まれる幾つかのシーケンス又はアプリケーションにおいて、好ましくないことを意味している。フィールドモードのマクロブロック符号化の性能を保証するために、幾つかの応用例では、フィールドモードで符号化されたマクロブロックが、フレームモードで符号化されたマクロブロックと同じブロックサイズを有することが望まれる。これは、単一のマクロブロックに対してではなく、マクロブロックの対に対してAFF符号化を行うことによって実現できる。
図7は、本発明の実施例に基づき、一対のマクロブックに対するAFF符号化において用いることができる、マクロブロックの対(700)を示している。マクロブロックの対(700)をフレームモードで符号化する場合、この対は、2フレームベースのマクロブロックとして符号化される。ここでは、各マクロブロックにおいて、各マクロブロックの2つのフィールドを一緒に符号化する。マクロブロックは、一旦フレームとして符号化された後、動き補償アルゴリズムを有する時間的予測に使用するために図3a〜図3fに示すより小さなブロックに更に分割される。
一方、マクロブロックの対(700)をフィールドモードで符号化する場合、図8に示すように、マクロブロックの対(700)は、16×16画素のブロックである1つのトップフィールド(800)と、16×16画素のブロックである1つのボトムフィールド(801)とに分割される。そして、2つのフィールドは、別々に符号化される。図8に示すように、マクロブロックの対(700)における各マクロブロックは、それぞれN=16の列とM=16の行を有する。したがって、マクロブロックの対(700)の大きさは、16×32画素となる。図8では、1つおきの画素列にハッチングを施している。ハッチングされた領域は、マクロブロックのトップフィールド内の画素の行を示し、ハッチングされていない領域は、マクロブロックのボトムフィールド内の画素の行を示している。これにより、トップフィールドブロック(800)と、ボトムフィールドブロック(801)は、図3a〜図3fに示すブロックサイズの何れかに分割することができる。
本発明の実施例では、マクロブロックの対(700)のAFF符号化において、2つのスキャンパス(scanning path)が可能である。スキャンパスは、ピクチャにおけるマクロブロックの対(700)に対する符号化の順序を決定する。図9は、マクロブロックの対(700)におけるAFF符号化のための2つの可能なスキャンパスを示している。スキャンパスの1つは、水平スキャンパス(900)である。水平スキャンパス(900)では、ピクチャ(200)のマクロブロックの対(700)は、図9に示すように、まず、左から右へ、そして上から下へ符号化される。もう1つのスキャンパスは、垂直スキャンパス(901)である。垂直スキャンパス(901)では、ピクチャ(200)のマクロブロックの対(700)は、図9に示すように、まず、上から下へ、そして左から右へ符号化される。フレームモード符号化では、まず、マクロブロックの対(700)のトップマクロブロックが符号化され、次に、ボトムマクロブロックが符号化される。フィールドモード符号化では、マクロブロックの対(700)のトップフィールドマクロブロックが符号化され、次に、ボトムフィールドマクロブロックが符号化される。
本発明の他の実施例では、一対のマクロブロックに対するAFF符号化を、図10に示すように、4個以上の隣り合うマクロブロックのグループ(902)のAFF符号化に拡張する。マクロブロックのグループに対するAFF符号化は、グループベースのAFF符号化(pair based AFF coding)と呼ばれることもある。ここでは、ブロックの対のスキャンに用いたものと同様のスキャンパスである水平スキャンパス(900)と垂直スキャンパス(901)を用いて、隣り合うマクロブロックのグループ(902)を符号化する。なお、図10に示す実施例では、4個のマクロブロックを示しているが、これより多いマクロブロックによりマクロブロックのグループを構成してもよい。
マクロブロックのグループ(902)をフレームモードで符号化する場合、マクロブロックのグループは、4フレームベースのマクロブロック(four frame-based macroblocks)として符号化される。各マクロブロックにおいて、各マクロブロック内の2つのフィールドが一緒に符号化される。マクロブロックは、フレームとして符号化された後、動き補償アルゴリズムを有する時間的予測に使用するために図3a〜図3fに示すより小さなブロックに更に分割される。
一方、例えば、4個のマクロブロックのグループ(902)をフィールドモードで符号化する場合、マクロブロックのグループ(902)は、32×16画素のブロックである1つのトップフィールドと、32×16画素のブロックである1つのボトムフィールドとに分割される。そして、2つのフィールドは、別々に符号化される。これにより、トップフィールドブロック及びボトムフィールドブロックは、マクロブロックに分割できるようになる。各マクロブロックは、図3a〜図3fに示す可能なブロックサイズの1つに分割できる。この処理は、図8に示す処理と同様であるため、この実施例を説明する図は省略する。
マクロブロックレベルにおけるAFF符号化において、好ましくは、ピクチャビットストリームにおいて、フレーム/フィールドフラグビットを設け、各マクロブロックを符号化する際に、フレームモードとフィールドモードの何れのモードを用いたかを示すようにする。このビットストリームは、図11に示すように、各マクロブロックに関する情報をストリーム内に含む。例えば、ビットストリームには、ピクチャヘッダ(110)、ラン情報(111)、マクロブロックタイプ情報(113)を含ませることができる。AFF符号化を個々のマクロブロックに対して行う場合は、ビットストリームにおける各マクロブロックの前にフレーム/フィールドフラグ(112)を設けることが好ましい。マクロブロックの対に対してAFF符号化を行う場合は、フレーム/フィールドフラグ(112)は、ビットストリームにおけるマクロブロックの各対の前に設けることが好ましい。そして、マクロブロックのグループに対してAFF符号化を行う場合は、フレーム/フィールドフラグ(112)は、ビットストリームにおけるマクロブロックの各グループの前に設けることが好ましい。一実施例においては、フレームモードを用いる場合、フレーム/フィールドフラグ(112)ビットを0とし、フィールドモードを用いる場合は、これを1とする。他の実施例として、フレームモードを用いる場合、フレーム/フィールドフラグ(112)ビットを1とし、フィールドモードを用いる場合は、これを0としてもよい。
本発明の他の実施例として、マクロブロックレベルのAFFにおいて、エンコーダがマクロブロックを分割するためのブロックサイズを決定する方法を説明する。理想的なブロックサイズを決定する方法は、以下に限定されるものではないが、好ましくは、バイアス又はレート歪み(rate distortion:以下、RDという。)を有する又は有しない差分絶対値の和(sum absolute difference:以下、SADという。)に基づいて行う。例えば、SADは、可能なブロックサイズの性能を検査し、その結果に基づいて理想的なブロックサイズを選択するために用いることができる。バイアス又はRDを有する又は有しないSADに基づく決定を行うことは、当業者には容易である。
本発明の実施例では、フレーム及びフィールドベースの各マクロブロックは、マクロブロックレベルのAFFにおいて、イントラ符号化又はインター符号化することができる。イントラ符号化では、マクロブロックは、他のマクロブロックを時間的に参照することなく符号化される。一方、インター符号化では、動き補償を有する時間的予測を用いて、マクロブロックを符号化する。
インター符号化を用いる場合、16×16画素、16×8画素、8×16画素又は8×8画素のサイズのブロックは、それ自体の参照ピクチャを有することができる。ブロックは、フレームベースのマクロブロックであっても、フィールドベースのマクロブロックであってもよい。MPEG−4 Part 10 AVC/H.264規格では、2つの参照ピクチャではなく、複数の参照ピクチャを参照することが許容されている。多数の参照ピクチャを用いることにより、エンコーダは、符号化するブロックに最も一致した参照ピクチャのブロックを検出することができ、これにより動き補償アルゴリズムを有する時間的予測の性能を向上させることができる。参照ピクチャは、フレームバッファ及びフィールドバッファに記憶され、符号化される現在のピクチャからの時間的距離に基づいて、参照フレーム番号及び参照フィールド番号が付される。記憶されている参照ピクチャが現在のピクチャに近い程、その参照ピクチャが選択される可能性が高い。フィールドモード符号化では、ブロック用の参照ピクチャは、参照フレームバッファ又は参照フィールドバッファの何れかにおける、いかなる参照ピクチャのトップフィールド及びボトムフィールドの何れであってもよい。
フレーム又はフィールドベースのマクロブロック内の各ブロックは、それ自体の動きベクトルを有することができる。動きベクトルは、空間予測符号化される。本発明の実施例では、インター符号化において、各ブロックに対して予測動きベクトル(prediction motion vector:以下、PMVという。)も算出する。そして、各ブロックのPMV間の代数的な差分と、そのブロックに関連した動きベクトルが算出され、符号化される。これにより、動きベクトルの圧縮ビットが生成される。
図12を用いて、マクロブロック内のブロックに関するPMVの様々な好ましい算出法を説明する。図12に示す現在のブロックEは、隣接するブロックA、B、C、Dと同様に、インター符号化される。以後、特に明示する場合を除いて、ブロックEを現在のブロックと呼び、ブロックA、B、C、Dをこれに隣接するブロックと呼ぶ。ブロックEのPMVは、隣接するブロックの動きベクトルから導出される。図12に示す実施例では、隣接するブロックとは、ブロックA、B、C、Dである。ブロックEのPMVを算出する好ましい方法としては、ブロックA、B、C、Dの動きベクトルのメジアンを算出する方法、これらの動きベクトルの平均値を算出する方法、これらの動きベクトルの重み付け平均値を算出する方法等がある。ブロックA、B、C、Dの各ブロックは、フレームモードであってもフィールドモードであってもよい。
ブロックEのPMVを算出するこの他の好ましい方法として、YES/NO法がある。YES/NO法の原理では、ブロックEのPMVの計算に動きベクトルを含ませるために、使用されるブロックは、ブロックEと同じフレームモード又はフィールドモードである必要がある。例えば、図12に示すブロックEがフレームモードである場合、ブロックEのPMVの計算にブロックAの動きベクトルを含ませるためには、ブロックAもフレームモードである必要がある。ブロックEに隣接するブロックの1つがブロックEと異なる符号化モードで符号化されている場合は、そのブロックの動きベクトルは、ブロックEのPMVの計算においては用いられない。
また、ブロックEのPMVの計算には、「常時法(always method)」を用いることもできる。常時法では、ブロックA、B、C、Dは、フレームモード又はフィールドモードの何れによって符号化されているかにかかわらず、常にブロックEのPMVの計算に用いられる。ブロックEがフレームモードであり、隣接するブロックがフィールドモードである場合、ブロックEのPMVの計算を行う前に、隣接するブロックの垂直成分を2倍にする。逆に、ブロックEがフィールドモードであり、隣接するブロックがフレームモードである場合、ブロックEのPMVの計算を行う前に、隣接するブロックの垂直成分を半分にする。
また、マクロブロックが対ベースのAFF符号化又はグループベースのAFF符号化を用いて符号化されている場合は、「選択法(selective method)」を用いて、ブロックEのPMVの計算を行うことができる。選択法では、フレームベースのブロックは、参照フレームを指すフレームベースの動きベクトルを有する。ブロックには、参照フィールドを指すフィールドベースの動きベクトルも割り当てられている。フィールドベースの動きベクトルは、そのブロックのフレームベースの動きベクトルの垂直動きベクトル成分を2で除算したものである。参照フィールド番号は、参照フレーム番号を2倍にしたものである。フィールドベースのブロックは、参照フィールドを指すフィールドベースの動きベクトルを有する。このブロックには、参照フレームを指すフレームベースの動きベクトルも割り当てられている。フレームベースの動きベクトルは、そのブロックのフィールドベースのベクトルの垂直動きベクトル成分を2倍にしたものである。参照フレーム番号は、参照フィールド番号を2で除算したものである。
選択法によってブロックのPMVを算出する方法について、図12を用いて説明する。マクロブロックの対ベースのAFFにおいて、マクロブロック内の各ブロックは、マクロブロックの対における第2のマクロブロック内の同じ幾何学的位置にある相手方ブロック(companion block)に関連付けられる。図12において、ブロックEに隣接するブロック(ブロックA、B、C、D)は、ブロックEと同じフレームモード又はフィールドモードで符号化されている場合もあり、そうでない場合もある。したがって、次のような規則が適用される。
ブロックEがフレームモードであり、隣接するブロックもフレームモードである場合、隣接するブロックのフレームベースの動きベクトルがそのままブロックEのPMVの算出に用いられる。
ブロックEがフレームモードであり、隣接するブロックがフィールドモードである場合、ブロックEのPMVの算出には、次のような規則が適用される。隣接するブロック(例えば、ブロックA)及びその相手方のフィールドベースのブロックが同じ参照フィールドを有する場合、ブロックEのPMVの算出には、これらの2つのブロックに割り当てられたフィールドベースの動きベクトルの平均値を用いる。PMVの算出に用いられる参照フレーム番号は、隣接するブロックの参照フィールド番号を2で除算したものである。一方、隣接するブロック及び相手方のフィールドブロックが異なる参照フィールドを有する場合、隣接するブロックは、ブロックEのPMVの算出には用いることができない。
ブロックEがフィールドモードであり、隣接するブロックがフレームモードである場合、ブロックEのPMVの算出には、次のような規則を適用することができる。隣接するブロック(例えば、ブロックA)及びその相手方のフレームベースのブロックが同じ参照フレームを有する場合、ブロックEのPMVの算出には、これらの2つのブロックに割り当てられたフィールドベースの動きベクトルの平均値を用いる。PMVの算出に用いられる参照フィールド番号は、隣接するブロックの参照フレーム番号を2倍にしたものである。一方、隣接するブロック及び相手方のフィールドブロックが異なる参照フレームを有する場合、隣接するブロックは、ブロックEのPMVの算出には用いることができない。
ブロックEがフィールドモードであり、隣接するブロックもフィールドモードである場合、隣接するブロックのフィールドベースの動きベクトルがそのままブロックEのPMVの算出に用いられる。
ブロックのPMVの算出に選択法を用いる場合、別の好ましいオプションを用いることもできる。図12において、ブロックEに隣接するブロック(ブロックA、B、C、D)は、ブロックEと同じフレームモード又はフィールドモードで符号化されている場合もあり、そうでない場合もある。したがって、選択法における別の好ましいオプションでは、次のような規則が適用される。
ブロックEがフレームモードであり、隣接するブロックもフレームモードである場合、隣接するブロックのフレームベースの動きベクトルがそのままブロックEのPMVの算出に用いられる。
ブロックEがフレームモードであり、隣接するブロックがフィールドモードである場合、ブロックEのPMVの算出には、隣接するブロック及びその相手方のフィールドベースのブロックの重み付け平均値を用いる。重み付け係数は、隣接するブロック及びその相手方のフィールドの参照フィールド番号に基づいて決定される。
ブロックEがフィールドモードであり、隣接するブロックがフレームモードである場合、ブロックEのPMVの算出には、隣接するブロック及びその相手方のフレームベースのブロックの重み付け平均値を用いる。重み付け係数は、隣接するブロック及びその相手方のフィールドの参照フィールド番号に基づいて決定される。
ブロックEがフィールドモードであり、隣接するブロックもフィールドモードである場合、隣接するブロックのフィールドベースの動きベクトルがそのままブロックEのPMVの算出に用いられる。
ブロックのPMVを算出する他の好ましい方法としては、「代替選択法(alt selective method)」がある。この方法は、単一のマクロブロックに対するAFF符号化、対ベースのAFF符号化、グループベースのAFF符号化の何れにも適用することができる。この方法では、各ブロックに対し、そのブロックの水平座標及び垂直座標を表す水平インデックス番号及び垂直インデックス番号を割り当てる。各ブロックには、水平フィールド座標及び垂直フィールド座標も割り当てられる。ブロックの水平フィールド座標は、そのブロックの水平座標と同じである。また、トップフィールドマクロブロック内のブロックについては、垂直フィールド座標は、ブロックの垂直座標の1/2であり、トップフィールドポラリティ(top field polarity)が割り当てられる。ボトムフィールドマクロブロック内のブロックについては、垂直フィールド座標は、ブロックの垂直座標から4を減算し、この差を2で除算することにより得られる。このブロックには、ボトムフィールドポラリティ(bottom field polarity)も割り当てられる。2つのブロックに異なるフィールドポラリティを割り当てることにより、同じ水平フィールド座標及び垂直フィールド座標を有するがフィールドポラリティが異なる2つのブロックが生成される。したがって、所定のブロックの座標から、フィールド座標及びそのフィールドポラリティを算出でき、この逆の演算も行うことができる。
代替選択法について、図12を用いて説明する。ここでは、ブロックEのPMVを算出する。この具体例におけるブロックのサイズであるブロックEの水平サイズを4で割った値をbxとする。ブロックEがフレームモードであるかフィールドモードであるかに応じて、ブロックEのPMVは、次のようにして算出される。
ブロックEがフレームモードであるとし、ブロックEの水平座標及び垂直座標を(x,y)とする。ブロックEに隣接するブロックは、次のように表すことができる。ブロックAは、(x−1,y)の座標を有するブロックである。ブロックBは、(x,y−1)の座標を有するブロックである。ブロックDは、(x−1,y−1)の座標を有するブロックである。ブロックCは、(x+bx+1,y−1)の座標を有するブロックである。ブロックA、B、C、Dの何れかがフィールドモードである場合、その垂直動きベクトルは、予測に用いる前に2で除算され、その参照フレーム番号は、その参照フィールド番号を2で除算することによって算出される。
ここで、ブロックEをトップフィールドモード又はボトムフィールドモードとし、ブロックの水平フィールド座標及び垂直フィールド座標を(xf,yf)と表すとする。この場合、ブロックEに隣接するブロックは、次のように表すことができる。ブロックAは、(xf−1,yf)の座標を有するブロックである。ブロックBは、(xf,yf−1)の座標を有するブロックである。ブロックDは、(xf−1,yf−1)の座標を有するブロックである。ブロックCは、(xf+bx+1,yf−1)の座標を有するブロックである。ブロックA、B、C、Dの何れかがフレームモードである場合、その垂直動きベクトルは、予測に用いる前に2倍にされ、その参照フィールド番号は、その参照フレーム番号を2倍にすることによって算出される。
ブロックのPMVを決定する上述した全ての方法において、水平スキャンパスが当然とみなされる。しかしながら、スキャンパスは、垂直スキャンパスであってもよい。この場合、現在のブロックEに隣接するブロックは、図13に示すような構成となる。垂直スキャンパスでは、現在のブロックEのPMVの算出に隣接する全てのブロックの情報を用いることができるため、幾つかの応用例においては、垂直スキャンパスを用いることが望ましい。
本発明の他の実施例として、方向分割予測(directional segmentation prediction)を説明する。方向分割予測では、16×8画素ブロック及び8×16画素ブロックのみがそのPMVの算出に適用される規則を有する。これらの規則は、これらのブロックサイズのための全てのPMVの算出法に適用される。これらの規則について、図12を用いて説明する。これらの規則のそれぞれにおいて、現在のブロックのPMVが算出される。
まず、16×8画素のブロックは、上ブロック(upper block)と下ブロック(lower block)から構成される。上ブロックは、上位8列の画素を含む。下ブロックは下位8列の画素を含む。以下の説明では、図12に示すブロックA〜Eは、16×8画素のブロックであるとする。16×8画素ブロックの上ブロックについては、ブロックBがブロックEと同じ参照ピクチャを有している場合は、このブロックBを用いて、ブロックEのPMVを予測する。これ以外の場合は、メジアン予測を用いて、ブロックEのPMVを予測する。16×8画素ブロックの下ブロックについては、ブロックAがブロックEと同じ参照ピクチャを有している場合は、このブロックAを用いて、ブロックEのPMVを予測する。これ以外の場合は、メジアン予測を用いて、ブロックEのPMVを予測する。
8×16画素のブロックは、右ブロック(right block)及び左ブロックに(left block)に分割される。右ブロック及び左ブロックは、何れも8×16画素から構成される。以下での説明では、図12に示すブロックA〜Eは、8×16画素のブロックであるとする。左ブロックについては、ブロックAがブロックEと同じ参照ピクチャを有している場合は、このブロックAを用いて、ブロックEのPMVを予測する。これ以外の場合は、メジアン予測を用いて、ブロックEのPMVを予測する。右ブロックについては、ブロックCがブロックEと同じ参照ピクチャを有している場合は、このブロックCを用いて、ブロックEのPMVを予測する。これ以外の場合は、メジアン予測を用いて、ブロックEのPMVを予測する。
16×8画素ブロック及び8×16画素ブロックの両方について、ブロックA、B、Cは、現在のブロックEとは異なる符号化モード(フレーム又はフィールドモード)を有している可能性がある。両方のブロックサイズについて、次のような規則が適用される。ブロックEがフレームモードであり、ブロックA、B、Cの何れかがフィールドモードである場合、ブロックA、B、Cの何れかの参照フレーム番号は、その参照フィールド番号を2で除算することによって算出される。ブロックEがフィールドモードであり、ブロックA、B、Cの何れかがフレームモードである場合、ブロックA、B、Cの何れかの参照フィールド番号は、その参照フレーム番号を2倍にすることによって算出される。
本発明の他の実施例では、Pピクチャ内のマクロブロックは、AFF符号化においてはスキップすることができる。マクロブロックをスキップすると、そのデータは、ピクチャの符号化では、伝送されない。Pピクチャ内のスキップされたマクロブロックは、フレームとして時間的に最も近く符号化されたI参照ピクチャ又はP参照ピクチャ内の動き補償により同じ位置とされた(co-located)マクロブロックをコピーすることによって再構築される。同じ位置とされたマクロブロックは、上述したPMVを用いた動き補償により、又は動きベクトルを用いずに定義されたマクロブロックである。Pピクチャ内のスキップされるマクロブロックには、次のような規則が適用される。AFF符号化がマクロブロック毎に実行されている場合、スキップされるマクロブロックは、フレームモードである。AFF符号化がマクロブロック対に対して行われている場合、及びこの対の両方のマクロブロックがスキップされる場合、これらのマクロブロックはフレームモードである。また、マクロブロック対における一方のマクロブロックのみがスキップされる場合、このブロックの符号化モードは、同じマクロブロック対におけるスキップされないマクロブロックと同じフレームモード又はフィールドモードである。AFF符号化がマクロブロックのグループに対して行われ、グループ内の全てのマクロブロックがスキップされる場合、これらの全てのマクロブロックはフレームモードである。また、少なくとも1つのスキップされないマクロブロックがある場合、マクロブロックのグループ内のスキップされるマクロブロックは、同じグループ内のスキップされないマクロブロックと同じフレームモード又はフィールドモードである。
マクロブロックのスキップに関する他の方法を説明する。マクロブロック対をスキップする場合、これをフレームモードにするかフィールドモードにするかは、左側に隣接するマクロブロック対の符号化モードに従う。左側のマクロブロック対を用いることができない場合は、上側のマクロブロック対の符号化モードに従う。左側のマクロブロック対も上側のマクロブロック対も用いることができない場合は、スキップされるマクロブロックは、フレームモードに設定される。
本発明の他の実施例では、Bピクチャ内のマクロブロックに対しダイレクトモード符号化(direct mode coding)を行う。ダイレクトモード符号化では、Bピクチャは、前方動きベクトル及び後方動きベクトルの2つの動きベクトルを有する。各動きベクトルは、参照ピクチャを指している。前方動きベクトル及び後方動きベクトルの2つの動きベクトルは、同じ時間的方向を指すこともできる。Bピクチャ内のマクロブロックに対するダイレクトモード符号化では、ブロックの前方動きベクトル及び後方動きベクトルは、後方参照ピクチャにおいて同じ位置とされたブロックから算出される。後方参照ピクチャにおいて同じ位置とされたブロックは、フレームモードで符号化されていても、フィールドモードで符号化されていてもよい。Bピクチャ内のマクロブロックに対するダイレクトモード符号化では、次のような規則が適用される。
同じ位置とされたブロックがフレームモードであり、現在のダイレクトモードマクロブロックもフレームモードである場合、ダイレクトモードマクロブロック内のブロックに関する2つの動きベクトルは、この同じ位置とされたブロックから算出される。前方参照フレームは、同じ位置とされたブロックによって使用されるフレームの1つである。後方参照フレームは、同じ位置とされたブロックが存在するフレームと同じフレームである。
同じ位置とされたブロックがフレームモードであり、現在のダイレクトモードマクロブロックがフィールドモードである場合、現在のダイレクトモードマクロブロックに関する2つの動きベクトルは、同じ位置とされたブロックの動きベクトルの垂直成分を2で除算することによって算出される。前方参照フィールドは、同じ位置とされたブロックによって用いられる参照フレームにおける同じパリティのフィールドである。後方参照フィールドは、同じ位置とされたブロックが存在する後方参照フレームにおける同じパリティのフィールドである。
同じ位置とされたブロックがフィールドモードであり、現在のダイレクトモードマクロブロックもフィールドモードである場合、現在のダイレクトモードマクロブロックに関する2つの動きベクトルは、同じフィールドのパリティを有する同じ位置とされたブロックから算出される。前方参照フィールドは、同じ位置とされたブロックによって用いられるフィールドである。後方参照フィールドは、同じ位置とされたブロックが存在する同じフィールドである。
同じ位置とされたブロックがフィールドモードであり、現在のダイレクトモードマクロブロックがフレームモードである場合、現在のダイレクトモードマクロブロックに関する2つの動きベクトルは、同じ位置とされたブロックの動きベクトルの垂直成分を2倍にすることによって算出される。前方参照フレームは、同じ位置とされたブロックによって用いられるフィールドを含むフレームである。後方参照フィールドは、同じ位置とされたブロックが存在するフィールドを含むフレームである。
変形例として、ダイレクトモードブロックの符号化モードを、強制的に、同じ位置とされたブロックのフレームモード又はフィールドモードと同じ符号化モードにしてもよい。この場合、ダイレクトモードブロックについて同じ位置とされたブロックがフレームモードである場合は、ダイレクトモードブロックも同様にフレームモードにされる。ダイレクトモードブロックのフレームベースの2つの動きベクトルは、同じ位置とされたブロックのフレームベースの前方動きベクトルから導出される。前方参照フレームは、同じ位置とされたブロックによって用いられる。後方参照フレームは、同じ位置とされたブロックが存在するフレームである。
ここで、ダイレクトモードブロックについて同じ位置とされたブロックがフィールドモードである場合、ダイレクトモードブロックもフィールドモードにされる。ダイレクトモードブロックのフィールドベースの2つの動きベクトルは、同じ位置とされたブロックのフィールドベースの前方動きベクトルから導出される。前方参照フィールドは、同じ位置とされたブロックによって用いられる。後方参照フィールドは、同じ位置とされたブロックが存在するフィールドである。
本発明の他の実施例においては、AFF符号化において、Bピクチャ内のマクロブロックをスキップすることもできる。Bピクチャ内のスキップされるマクロブロックは、符号化変換係数情報を用いることなく、通常のダイレクトモードマクロブロックとして再構築される。Bピクチャにおいてスキップされるマクロブロックには、次のような規則が適用される。AFF符号化がマクロブロック毎に実行される場合、スキップされるマクロブロックは、フレームモードで符号化してもよく、そのブロックの後方参照ピクチャにおいて同じ位置とされたブロックと同じフィールドモード又はフレームモードで符号化してもよい。AFF符号化がマクロブロック対に対して行われている場合、及びこの対の両方のマクロブロックがスキップされる場合、これらのマクロブロックは、フレームモードで符号化してもよく、そのブロックの後方参照ピクチャにおいて同じ位置とされたマクロブロックの対と同じフィールドモード又はフレームモードで符号化してもよい。また、マクロブロック対における一方のマクロブロックのみがスキップされる場合、このブロックの符号化モードは、同じマクロブロック対におけるスキップされないマクロブロックと同じフレームモード又はフィールドモードである。AFF符号化がマクロブロックのグループに対して行われ、グループ内の全てのマクロブロックがスキップされる場合、これらの全てのマクロブロックはフレームモードで符号化してもよく、そのブロックの後方参照ピクチャにおいて同じ位置とされたマクロブロックのグループと同じフィールドモード又はフレームモードで符号化してもよい。また、少なくとも1つのスキップされないマクロブロックがある場合、マクロブロックのグループ内のスキップされるマクロブロックは、同じグループ内のスキップされないマクロブロックと同じフレームモード又はフィールドモードである。また、少なくとも1つのスキップされないマクロブロックがある場合、マクロブロックのグループ内のスキップされるマクロブロックは、同じグループ内のスキップされないマクロブロックと同じフレームモード又はフィールドモードである。
上述のように、ブロックは、イントラ符号化(intra coded)することもできる。イントラブロックは、空間予測符号化される。マクロブロックレベルのAFF符号化においては、マクロブロックについて2つの可能なイントラ符号化モードがある。第1のモードは、イントラ4×4モードであり、第2のモードは、イントラ16×16モードである。何れの場合も、各画素値は、隣接するブロックから実際に再構築された画素値を用いて予測される。画素値を予測することにより、より高度な圧縮が実現できる。イントラ4×4モード及びイントラ16×16モードのそれぞれについて、以下に詳細に説明する。
イントラ4×4モードでは、図14に示すように、4×4画素ブロック内の画素の予測は、その画素の左側及び上側の画素に基づいて行われる。図14では、4×4画素ブロック内の16個の画素にa〜pのラベルを付している。更に、図14では、隣接する画素にA〜Pのラベルを付している。すなわち、隣接する画素は、大文字で表している。図15に示すように、イントラ4×4符号化においては、9個の異なる予測方向が存在する。これらは、垂直方向(0)、水平方向1(1)、DC予測(モード2)、対角左下方向(3)、対角右下方向(4)、垂直寄り左方向(5)、水平寄り下方向(6)垂直寄り右方向(7)、及び水平寄り上方向(8)である。DC予測では、隣接する画素の全てを平均して、特定の画素値を予測する。
一方、イントラ16×16モードでは、4個の異なる予測方向が存在する。予測方向は、予測モードとも呼ばれる。これらの予測方向とは、垂直予測(0)、水平予測(1)、DC予測、及び平面予測である。平面予測については、ここでは説明しない。
イントラブロック及びその隣接するブロックは、フレームモードで符号化してもフィールドモードで符号化してもよい。再構築されたブロックに対しては、イントラ予測が実行される。再構築されたブロックは、ブロックが実際にフレームモードで符号化されているか、フィールドモードで符号化されているかにかかわらず、フレームモードでもフィールドモードでも表現できる。イントラ予測では、再構築されたブロックの画素のみが用いられるため、次のような規則が適用される。
4×4画素のブロック又は16×16画素のブロックがフレームモードである場合、そのブロックの画素値の予測に用いる隣接する画素は、フレーム構造内にある。4×4画素のブロック又は16×16画素のブロックがフィールドモードである場合、そのブロックの画素値の予測に用いる隣接する画素は、同じフィールドパリティを有するフィールドモードにある。
4×4画素ブロックの選択されたイントラ予測モード(intra_pred_mode)は、隣接したブロックの予測モードに対し、高い相関性を有している。これを図16Aに示す。図16Aでは、ブロックA及びブロックBがブロックCに隣接している。ここでは、ブロックCの予測モードを決定しようとしている。図16Bは、ビットストリーム内のイントラ予測情報の順序を示している。ブロックA及びブロックBの予測モードが既知である(ブロックA又はブロックB、若しくはこの両方がスライスの外側(outside)にある場合を含む。)場合、ブロックCの最も可能性が高い予測モード(most_probable_mode)が与えられる。ブロックA又はブロックBの何れかが「外側(outside)」にある場合、最も可能性が高い予測モードは、DC予測(モード2)である。これ以外の場合は、最も可能性が高い予測モードは、ブロックA及びブロックBに用いた予測モードの最小値(minimum)である。隣接するブロックが16×16イントラモードで符号化されている場合、予測モードは、DC予測モードである。隣接するブロックがイントラマクロブロックではない場合、通常及び制約されたイントラ更新(constrained intra update)では、予測モードは「モード2:DC予測」である。
4×4画素ブロックのための予測モード番号を伝えるために、第1のパラメータuse_most_probable_modeが伝送される。このパラメータは、1ビットのコードワードによって表され、0又は1の値をとる。use_most_probable_modeが1の場合、最も可能性が高いモードが用いられる。これ以外の場合、0〜7の値をとることができる更なるパラメータremaining_mode_ selectorが3ビットコードワードとして伝送される。このコードワードは、remaining_mode_ selector値のバイナリ表現である。予測モード番号は、次のようにして算出される。
if(remaining_mode_selector < most_probable_mode)
intra_pred_mode = remaining_mode_selector ;
else
intra_pred_mode = remaining_mode_selector+1 ;
したがって、ブロックCに割り当てられる予測モードの順序は、まず、最も可能性が高いモードであり、次に残りのモードが昇順(ascending order)に割り当てられる。
本発明の実施例では、4×4画素ブロックのイントラ予測モード及び16×16画素ブロックのイントラ予測モードについて、次のような規則をイントラモード予測に適用する。ブロックC及びこれに隣接するブロックA、Bは、フレームモードであってもフィールドモードであってもよい。次の規則のうちの1つが適用される。以下に示す規則の説明では、図16A及び図16Bを用いる。
規則1:ブロックA又はブロックBがブロックCと同じフレーム/フィールドモードである場合に限って、ブロックA又はブロックBをブロックCに隣接するブロックとして用いる。これ以外の場合、ブロックA及びブロックBは、外側にあるとみなされる。
規則2:ブロックCがフィール/フレーム符号化モードの何れであるかにかかわらず、ブロックA及びブロックBをブロックCに隣接するブロックとして用いる。
規則3:ブロックCがフレームモードで符号化され、座標(x,y)を有する場合、ブロックAを座標(x,y−1)のブロックとし、ブロックBを座標(x−1,y)のブロックとする。一方、ブロックCがフィールドモードで符号化され、座標(x,y)を有する場合、ブロックAを座標(x,y−1)を有し、ブロックCと同じフィールドポラリティを有するフィールドとし、ブロックBを座標(x−1,y)を有し、ブロックCと同じフィールドポラリティを有するフィールドとする。
規則4:この規則は、マクロブロック対のみに適用される。図16Bに示す符号3,6,7,9,12,13,11,14,15が付されたブロックの予測モードを復号する場合、上側及び左側に接するブロックは、現在のブロックと同じマクロブロック内にある。一方、符号1,4,5が付されたブロックの予測モードを復号する場合、上側のブロック(ブロックA)は、現在のマクロブロック対とは異なるマクロブロック対内にある。また、ブロック2,8,10が付されたブロックの予測モードを復号する場合、左側のブロック(ブロックB)は、異なるマクロブロック対内にある。符号0が付されたブロックの予測モードを復号する場合、上側のブロックも左側のブロックも異なるマクロブロック対内にある。フィールド復号モードにおけるマクロブロックについては、符号0,1,4,5,2,8,10が付されたブロックに隣接するブロックは、次のように定義される。
図17Aに示すように、上側のマクロブロック対(170)がフィールドモードで復号されている場合、トップフィールドマクロブロック(173)における符号0,1,4,5が付されたブロックについては、上側のマクロブロック対(170)のトップフィールドマクロブロック(173)における符号10,11,14,15が付されたブロックのそれぞれを現在のマクロブロック対(171)の上側に隣接するブロックとみなす。また、図17Aに示すように、ボトムフィールドマクロブロック(174)における符号0,1,4,5が付されたブロックについては、上側のマクロブロック対(170)のボトムフィールドマクロブロック内の符号10,11,14,15が付されたブロックのそれぞれを現在のマクロブロック対(171)の上側に隣接するブロックとみなす。
また、上側のマクロブロック対(170)がフレームモードで復号されている場合、図17Bに示すように、トップフィールドマクロブロック(173)における符号0,1,4,5が付されたブロックについては、上側のマクロブロック対(170)のボトムフレームマクロブロック(176)における符号10,11,14,15が付されたブロックのそれぞれを現在のマクロブロック対(171)の上側に隣接するブロックとみなす。また、図17Bに示すように、ボトムフィールドマクロブロック(174)における符号0,1,4,5が付されたブロックについては、上側のマクロブロック対(170)のボトムフレームマクロブロック(176)内の符号10,11,14,15が付されたブロックのそれぞれを現在のマクロブロック対(171)の上側に隣接するブロックとみなす。
マクロブロック対(172)がフィールドモードで復号されている場合、図17Cに示すように、トップフィールドマクロブロック(173)における符号0,2,8,10が付されたブロックについては、左側のマクロブロック対(172)のトップフィールドマクロブロック(173)における符号5,7,13,15が付されたブロックのそれぞれを現在のマクロブロック対(171)の左側に隣接するブロックとみなす。また、図17Cに示すように、ボトムフィールドマクロブロック(174)における符号0,2,8,10が付されたブロックについては、左側のマクロブロック対(172)のボトムフィールドマクロブロック(174)における符号5,7,13,15が付されたブロックのそれぞれを現在のマクロブロック対(171)の左側に隣接するブロックとみなす。
左側のマクロブロック対(172)がフレームモードで復号されている場合、図17Dに示すように、トップフィールドマクロブロック(173)における符号0,2,8,10が付されたブロックについては、左側のマクロブロック対(172)のトップフレームマクロブロック(175)における符号5,7,13,15が付されたブロックのそれぞれを現在のマクロブロック対(171)の左側に隣接するブロックとみなす。また、図17Dに示すように、ボトムフィールドマクロブロック(174)における符号0,2,8,10が付されたブロックについては、左側のマクロブロック対(172)のボトムフレームマクロブロック(176)における符号5,7,13,15が付されたブロックのそれぞれを現在のマクロブロック対(171)の左側に隣接するブロックとみなす。
スライスの上側の境界におけるマクロブロック対については、左側のマクロブロック対(172)がフレーム復号モードである場合、フィールドマクロブロックを予測するために用いられるイントラモード予測値は、DC予測に設定される。
上述したイントラ符号化及びイントラモード予測に関する説明は、適応ブロック変換に拡張することができる。
本発明の他の実施例では、再構築されたブロックに対し、ループフィルタリングを行う。再構築されたブロックは、ブロックのフレーム/フィールド符号化モードにかかわらず、フレーム構造でもフィールド構造でも表すことができる。ループ(逆ブロック化)フィルタリングは、隣接するブロックの画素の重み付け平均を行う処理である。図12を用いて、ループフィルタリングを説明する。図12に示すブロックEを再構築されたブロックとし、ブロックA、B、C、Dを隣接する再構築されたブロックとし、これらのブロック全てがフレーム構造で表されているとする。ブロックA、B、C、D、Eは、それぞれフレーム符号化されていてもフィールド符号化されていてもよいため、次のような規則が適用される。
規則1:ブロックEがフレーム符号化されている場合、ループフィルタリングは、ブロックE及びこれに隣接するブロックA、B、C、Dの画素に亘って実行される。
規則2:ブロックEがフィールド符号化されている場合、ループフィルタリングは、ブロックE及びこれに隣接するブロックA、B、C、Dのトップフィールド画素及びボトムフィールド画素に対して別々に実行される。
本発明の他の実施例として、境界の画素を繰り返すことにより、再構築されたフレームに対してパディング処理(Padding)を施すこともできる。境界ブロックは、フレームモードで符号化されいてもフィールドモードで符号化されていてもよいため、次のような規則が適用される。
規則1:境界ブロックの左側の垂直ライン又は右側の垂直ライン上の画素を必要に応じて繰り返す。
規則2:境界ブロックがフレーム符号化されている場合、境界ブロックの上側の水平ライン又は下側の水平ライン上の画素を繰り返す。
規則3:境界ブロックがフィールド符号化されている場合、境界ブロックの2つの上側の又は2つの下側の水平ライン(2つのフィールド)の画素を交互に繰り返す。
本発明の他の実施例では、エントロピ符号化の前に、2次元変換係数を1次元の一続きの係数に変換する。スキャンパスは、ジグザグ状であっても非ジグザグ状であってもよい。ジグザグスキャンは、プログレッシブシーケンスに用いることが好ましいが、これを遅い動きでインタレースシーケンスに用いてもよい。非ジグザグスキャンは、インタレースシーケンスに用いることが好ましい。マクロブロックAFF符号化では、次のようなオプションを使用できる。
オプション1:フレームモードのマクロブロックにジグザグスキャンを用い、フィールドモードのマクロブックには非ジグザグスキャンを用いる。
オプション2:フィールドモード及びフレームモードの両方のマクロブロックにジグザグスキャンを用いる。
オプション3:フィールドモード及びフレームモードの両方のマクロブロックにジグザグスキャンを用いる。
上述の説明は、本発明の実施の形態の一例を例示的に示したものであって、発明を完全に包括し限定することを意図したものではない。上述した記載に基づいて、多くの変形及び変更が可能である。
上述の実施の形態は、本発明の原理及び幾つかの実際的な応用例を例示的に示すために選択されたものである。上述の説明により、当業者は、様々な形態で本発明を利用することができ、個々の用途に応じて様々な変形例を想到することができる。本発明は、添付の特許請求の範囲によって定義される。
MPEG−4 Part10 AVC/H.264規格を始めとする代表的なビデオ符号化規格に規定され、本発明を実施するのに用いられる代表的な3つのピクチャタイプのシーケンスを示す図である。 本発明に基づき、各ピクチャがマクロブロックを含むスライスに分割されることを示す図である。 本発明に基づき、マクロブロックを16×8画素のブロックに分割できることを示す図である。 本発明に基づき、マクロブロックを8×16画素のブロックに分割できることを示す図である。 本発明に基づき、マクロブロックを8×8画素のブロックに分割できることを示す図である。 本発明に基づき、マクロブロックを16×4画素のブロックに分割できることを示す図である。 本発明に基づき、マクロブロックを4×8画素のブロックに分割できることを示す図である。 本発明に基づき、マクロブロックを4×4画素のブロックに分割できることを示す図である。 本発明に基づく動き補償を有する時間的予測を用いたピクチャ構成の具体例を説明する図である。 マクロブロックをフィールドモードで符号化する際のマクロブロックのトップフィールドとボトムフィールドへの分割を説明する図である。 本発明に基づき、フィールドモードで符号化されるマクロブロックを16×8画素のブロックに分割できることを示す図である。 本発明に基づき、フィールドモードで符号化されるマクロブロックを8×8画素のブロックに分割できることを示す図である。 本発明に基づき、フィールドモードで符号化されるマクロブロックを4×8画素のブロックに分割できることを示す図である。 本発明に基づき、フィールドモードで符号化されるマクロブロックを4×4画素のブロックに分割できることを示す図である。 本発明に基づき、マクロブロックの対に対するAFF符号化に用いることができるマクロブロックの対の一例を示す図である。 フィールドモードで符号化されるマクロブロックの対を16×16画素ブロックからなる1つのトップフィールドと、16×16画素ブロックからなる1つのボトムフィールドとに分割する処理を説明する図である。 マクロブロックの対のAFF符号化における2つの可能なスキャンパスを示す図である。 マクロブロックの対に対するAFF符号化の概念を4個以上の隣接するマクロブロックのグループに対するAFF符号化に拡張した本発明の他の実施例を示す図である。 ストリーム内の各マクロブロックに関連する情報を含むビットストリームに含まれる幾つかの情報を示す図である。 マクロブロック内のブロックのPMVを算出するための様々な好ましい手法を説明するために用いられる、符号化するブロック及びこのブロックに隣接するブロックを示す図である。 スキャンパスが垂直スキャンパスである場合における隣接するブロックの定義を示す図である。 本発明に基づき、各画素値が隣接するブロックの画素値から予測されることを示す図である。 イントラ4×4符号化のための異なる符号化方向を示す図である。 4×4画素ブロックの選択されたイントラ予測モード(intra_pred_mode)が隣接するブロックの予測モードに強い相関関係を有することを説明する図である。 4×4画素ブロックの選択されたイントラ予測モード(intra_pred_mode)が隣接するブロックの予測モードに強い相関関係を有することを説明する図である。 符号化される現在のマクロブロックの対に関する隣接するブロックの定義を説明する図である。 符号化される現在のマクロブロックの対に関する隣接するブロックの定義を説明する図である。 符号化される現在のマクロブロックの対に関する隣接するブロックの定義を説明する図である。 符号化される現在のマクロブロックの対に関する隣接するブロックの定義を説明する図である。

Claims (7)

  1. より小さいブロックに分割されるマクロブロックを含み、イントラピクチャ、予測ピクチャ又は両方向予測ピクチャとすることができるピクチャのストリームからなるデジタルビデオコンテンツを符号化又は復号する符号化又は復号方法において、
    上記ピクチャのストリーム内の上記各ピクチャ内の各ブロックをフレームモード又はフィールドモードで符号化するステップを有する符号化又は復号方法。
  2. 上記各ブロックは、16×8画素、8×16画素、8×8画素、8×4画素、4×8画素、4×4画素の何れかからなることを特徴とする請求項1記載の符号化又は復号方法。
  3. 上記各ブロックについて、予測動きベクトルを導出するステップを更に有する請求項2記載の符号化又は復号方法。
  4. 予測ピクチャにおけるマクロブロックをスキップするステップを更に有し、該スキップされたマクロブロックのデータは伝送されないことを特徴とする請求項1記載の符号化又は復号方法。
  5. 両方向予測ピクチャにおけるマクロブロックをスキップするステップを更に有し、該スキップされたマクロブロックのデータは伝送されないことを特徴とする請求項1記載の符号化又は復号方法。
  6. 上記両方向予測ピクチャをダイレクトモードで符号化するステップを更に有する請求項1記載の符号化又は復号方法。
  7. 符号化において画素値を予測するステップを更に有する請求項1記載の符号化又は復号方法。
JP2003548553A 2001-11-21 2002-11-21 デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化 Pending JP2005510985A (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US33300401P 2001-11-21 2001-11-21
US33392101P 2001-11-27 2001-11-27
US39573402P 2002-07-12 2002-07-12
US39816102P 2002-07-23 2002-07-23
US10/301,290 US6980596B2 (en) 2001-11-27 2002-11-20 Macroblock level adaptive frame/field coding for digital video content
PCT/US2002/037739 WO2003047272A2 (en) 2001-11-21 2002-11-21 Macroblock level adaptive frame/field coding for digital video content

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008234061A Division JP2008295111A (ja) 2001-11-21 2008-09-11 デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化

Publications (2)

Publication Number Publication Date
JP2005510985A true JP2005510985A (ja) 2005-04-21
JP2005510985A5 JP2005510985A5 (ja) 2007-11-22

Family

ID=27540869

Family Applications (9)

Application Number Title Priority Date Filing Date
JP2003548553A Pending JP2005510985A (ja) 2001-11-21 2002-11-21 デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
JP2008234061A Pending JP2008295111A (ja) 2001-11-21 2008-09-11 デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
JP2009244955A Expired - Lifetime JP5320254B2 (ja) 2001-11-21 2009-10-23 デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
JP2012014662A Expired - Lifetime JP5697614B2 (ja) 2001-11-21 2012-01-26 デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
JP2014240175A Pending JP2015062314A (ja) 2001-11-21 2014-11-27 デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
JP2016055781A Pending JP2016106504A (ja) 2001-11-21 2016-03-18 デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
JP2016055783A Expired - Lifetime JP6507114B2 (ja) 2001-11-21 2016-03-18 デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
JP2016055782A Expired - Lifetime JP6681758B2 (ja) 2001-11-21 2016-03-18 デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
JP2018110961A Pending JP2018139452A (ja) 2001-11-21 2018-06-11 デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化

Family Applications After (8)

Application Number Title Priority Date Filing Date
JP2008234061A Pending JP2008295111A (ja) 2001-11-21 2008-09-11 デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
JP2009244955A Expired - Lifetime JP5320254B2 (ja) 2001-11-21 2009-10-23 デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
JP2012014662A Expired - Lifetime JP5697614B2 (ja) 2001-11-21 2012-01-26 デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
JP2014240175A Pending JP2015062314A (ja) 2001-11-21 2014-11-27 デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
JP2016055781A Pending JP2016106504A (ja) 2001-11-21 2016-03-18 デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
JP2016055783A Expired - Lifetime JP6507114B2 (ja) 2001-11-21 2016-03-18 デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
JP2016055782A Expired - Lifetime JP6681758B2 (ja) 2001-11-21 2016-03-18 デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
JP2018110961A Pending JP2018139452A (ja) 2001-11-21 2018-06-11 デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化

Country Status (10)

Country Link
EP (1) EP1449385B1 (ja)
JP (9) JP2005510985A (ja)
KR (1) KR101033398B1 (ja)
AU (1) AU2002365338A1 (ja)
CA (1) CA2468087C (ja)
DK (1) DK1449385T3 (ja)
ES (5) ES2545394T3 (ja)
MX (1) MXPA04004724A (ja)
PT (5) PT2271115E (ja)
WO (1) WO2003047272A2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008017209A (ja) * 2006-07-06 2008-01-24 Canon Inc 動きベクトル検出装置、動きベクトル検出方法、コンピュータプログラム及び記憶媒体
JP2008048289A (ja) * 2006-08-18 2008-02-28 Fujitsu Ltd フレーム間予測処理装置、画像符号化装置、及び画像復号化装置
JP2009049519A (ja) * 2007-08-14 2009-03-05 Kddi Corp 動画像符号化装置の予測動きベクトル生成装置
JP2009526456A (ja) * 2006-02-08 2009-07-16 トムソン ライセンシング ビデオマクロブロックのペアについてのフレーム/フィールド符号化モードの導出方法
US7570151B2 (en) 1997-02-27 2009-08-04 Keystone Technology Solutions, Llc System and method for locating individuals and equipment, airline reservation system, communication system
JP2010517405A (ja) * 2007-01-29 2010-05-20 サムスン エレクトロニクス カンパニー リミテッド 映像符号化方法及び装置、映像復号化方法及び装置
JP2011101416A (ja) * 2003-09-07 2011-05-19 Microsoft Corp インターレース・ビデオの符号化および復号
JP2011139525A (ja) * 2003-09-07 2011-07-14 Microsoft Corp インターレース・ビデオの進歩した双方向予測コーディング
JP4921971B2 (ja) * 2003-09-07 2012-04-25 マイクロソフト コーポレーション インターレース・ビデオおよびプログレッシブ・ビデオのマクロブロックおよび動き情報の符号化および復号における新機軸
JP2013502141A (ja) * 2009-08-13 2013-01-17 サムスン エレクトロニクス カンパニー リミテッド 動きベクトルを符号化/復号化する方法及びその装置
JP2013258752A (ja) * 2010-01-14 2013-12-26 Samsung Electronics Co Ltd 動きベクトルを符号化/復号化する方法及び装置
JP2016140090A (ja) * 2010-04-09 2016-08-04 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 適応的フィルタを用いたイントラ予測実行方法及び装置

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2601356T3 (es) 2001-11-06 2017-02-14 Panasonic Intellectual Property Corporation Of America Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento
ES2664270T3 (es) 2001-12-17 2018-04-18 Microsoft Technology Licensing, Llc Codificación por omisión de macrobloques
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
JP2004088722A (ja) 2002-03-04 2004-03-18 Matsushita Electric Ind Co Ltd 動画像符号化方法および動画像復号化方法
PT3525464T (pt) 2002-04-19 2021-04-06 Panasonic Ip Corp America Método e sistema de codificação e descodificação de imagem
CN101115199B (zh) * 2002-04-19 2010-05-12 松下电器产业株式会社 图像解码方法及图像解码装置
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
KR100693669B1 (ko) * 2003-03-03 2007-03-09 엘지전자 주식회사 피일드 매크로 블록의 레퍼런스 픽쳐 결정 방법
MXPA05014211A (es) * 2003-06-25 2006-05-31 Thomson Licensing Codificacion de decision en modo rapido para inter-estructuras.
US20050013498A1 (en) 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US8179963B2 (en) 2003-07-24 2012-05-15 Panasonic Corporation Coding mode determining apparatus, image coding apparatus, coding mode determining method and coding mode determining program
MXPA06002210A (es) 2003-08-26 2006-05-19 Thomson Licensing Metodo y aparato para la decodificacion de bloques intra-inter codificados hibridos.
US8085846B2 (en) 2004-08-24 2011-12-27 Thomson Licensing Method and apparatus for decoding hybrid intra-inter coded blocks
KR100679031B1 (ko) * 2004-12-03 2007-02-05 삼성전자주식회사 다 계층 기반의 비디오 인코딩 방법, 디코딩 방법 및 상기방법을 이용한 장치
KR100667806B1 (ko) * 2005-07-07 2007-01-12 삼성전자주식회사 영상 부호화 및 복호화 방법 및 장치
US9077960B2 (en) 2005-08-12 2015-07-07 Microsoft Corporation Non-zero coefficient block pattern coding
KR100750128B1 (ko) * 2005-09-06 2007-08-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
KR100727972B1 (ko) * 2005-09-06 2007-06-14 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
FR2894423A1 (fr) 2005-12-05 2007-06-08 Thomson Licensing Sas Procede de prediction de donnees mouvement et de texture
JP5341786B2 (ja) * 2010-01-20 2013-11-13 株式会社メガチップス 画像符号化装置及び画像変換装置
US8923395B2 (en) * 2010-10-01 2014-12-30 Qualcomm Incorporated Video coding using intra-prediction
JP7145822B2 (ja) * 2019-07-18 2022-10-03 ヤフー株式会社 情報提供装置、情報提供方法、および情報提供プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3125145B2 (ja) * 1990-08-29 2001-01-15 日立電子株式会社 画像データの高能率符号化方法及びその装置
DE4113505A1 (de) 1991-04-25 1992-10-29 Thomson Brandt Gmbh Verfahren zur bildsignalcodierung
US6226327B1 (en) * 1992-06-29 2001-05-01 Sony Corporation Video coding method and apparatus which select between frame-based and field-based predictive modes
PT2334083E (pt) * 1993-03-24 2013-09-30 Sony Corp Método para codificar e descodificar vetores de movimento e respetivo dispositivo e método para codificar e descodificar sinais de imagem e respetivo dispositivo
US5974184A (en) * 1997-03-07 1999-10-26 General Instrument Corporation Intra-macroblock DC and AC coefficient prediction for interlaced digital video
JP3559419B2 (ja) * 1997-03-18 2004-09-02 松下電器産業株式会社 画像圧縮データの伸張方法及び装置
JP2001251627A (ja) * 2000-03-03 2001-09-14 Matsushita Electric Ind Co Ltd 符号化装置、符号化方法及びプログラムを記録した記録媒体
FR2806570B1 (fr) * 2000-03-15 2002-05-17 Thomson Multimedia Sa Procede et dispositif de codage d'images video

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7570151B2 (en) 1997-02-27 2009-08-04 Keystone Technology Solutions, Llc System and method for locating individuals and equipment, airline reservation system, communication system
US8625669B2 (en) 2003-09-07 2014-01-07 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
JP2011101416A (ja) * 2003-09-07 2011-05-19 Microsoft Corp インターレース・ビデオの符号化および復号
JP2011139525A (ja) * 2003-09-07 2011-07-14 Microsoft Corp インターレース・ビデオの進歩した双方向予測コーディング
JP4921971B2 (ja) * 2003-09-07 2012-04-25 マイクロソフト コーポレーション インターレース・ビデオおよびプログレッシブ・ビデオのマクロブロックおよび動き情報の符号化および復号における新機軸
JP2009526456A (ja) * 2006-02-08 2009-07-16 トムソン ライセンシング ビデオマクロブロックのペアについてのフレーム/フィールド符号化モードの導出方法
JP2008017209A (ja) * 2006-07-06 2008-01-24 Canon Inc 動きベクトル検出装置、動きベクトル検出方法、コンピュータプログラム及び記憶媒体
JP2008048289A (ja) * 2006-08-18 2008-02-28 Fujitsu Ltd フレーム間予測処理装置、画像符号化装置、及び画像復号化装置
US8155197B2 (en) 2006-08-18 2012-04-10 Fujitsu Semiconductor Limited Interframe prediction processor with mechanism for providing locations of reference motion vectors used in macroblock adaptive field/frame mode
JP2010517405A (ja) * 2007-01-29 2010-05-20 サムスン エレクトロニクス カンパニー リミテッド 映像符号化方法及び装置、映像復号化方法及び装置
JP2009049519A (ja) * 2007-08-14 2009-03-05 Kddi Corp 動画像符号化装置の予測動きベクトル生成装置
JP2015019420A (ja) * 2009-08-13 2015-01-29 サムスン エレクトロニクス カンパニー リミテッド 映像復号化方法
JP2013502141A (ja) * 2009-08-13 2013-01-17 サムスン エレクトロニクス カンパニー リミテッド 動きベクトルを符号化/復号化する方法及びその装置
JP2013219824A (ja) * 2009-08-13 2013-10-24 Samsung Electronics Co Ltd 動きベクトルを符号化/復号化する方法及びその装置
US10110902B2 (en) 2009-08-13 2018-10-23 Samsung Electronics Co., Ltd. Method and apparatus for encoding/decoding motion vector
JP2013219826A (ja) * 2009-08-13 2013-10-24 Samsung Electronics Co Ltd 動きベクトルを符号化/復号化する方法及びその装置
US8787463B2 (en) 2009-08-13 2014-07-22 Samsung Electronics Co., Ltd. Method and apparatus for encoding/decoding motion vector
US8792558B2 (en) 2009-08-13 2014-07-29 Samsung Electronics Co., Ltd. Method and apparatus for encoding/decoding motion vector
US9883186B2 (en) 2009-08-13 2018-01-30 Samsung Electronics Co., Ltd. Method and apparatus for encoding/decoding motion vector
US9544588B2 (en) 2009-08-13 2017-01-10 Samsung Electronics Co., Ltd. Method and apparatus for encoding/decoding motion vector
JP2013219825A (ja) * 2009-08-13 2013-10-24 Samsung Electronics Co Ltd 動きベクトルを符号化/復号化する方法及びその装置
JP2015029335A (ja) * 2009-08-13 2015-02-12 サムスン エレクトロニクス カンパニー リミテッド 映像復号化方法
US8861609B2 (en) 2010-01-14 2014-10-14 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding motion vector by obtaining motion vector predictor candidate using co-located block
US8861608B2 (en) 2010-01-14 2014-10-14 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding motion vector by obtaining motion vector predictor candidate using co-located block
US8995529B2 (en) 2010-01-14 2015-03-31 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding motion vector by predicting motion vector according to mode
US9106924B2 (en) 2010-01-14 2015-08-11 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding motion vector by predicting motion vector according to mode
US9131237B2 (en) 2010-01-14 2015-09-08 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding motion vector by predicting motion vector according to mode
JP2013258752A (ja) * 2010-01-14 2013-12-26 Samsung Electronics Co Ltd 動きベクトルを符号化/復号化する方法及び装置
US8861610B2 (en) 2010-01-14 2014-10-14 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding motion vector by obtaining motion vector predictor candidate using co-located block
US8867621B2 (en) 2010-01-14 2014-10-21 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding motion vector by obtaining motion vector predictor candidate using co-located block
US10440392B2 (en) 2010-04-09 2019-10-08 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10432968B2 (en) 2010-04-09 2019-10-01 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US9838711B2 (en) 2010-04-09 2017-12-05 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US9661345B2 (en) 2010-04-09 2017-05-23 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
JP2017143542A (ja) * 2010-04-09 2017-08-17 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute ビデオデコーディング装置
JP2016140090A (ja) * 2010-04-09 2016-08-04 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 適応的フィルタを用いたイントラ予測実行方法及び装置
US9781448B2 (en) 2010-04-09 2017-10-03 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10440393B2 (en) 2010-04-09 2019-10-08 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10075734B2 (en) 2010-04-09 2018-09-11 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10560722B2 (en) 2010-04-09 2020-02-11 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10560721B2 (en) 2010-04-09 2020-02-11 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10623771B2 (en) 2010-04-09 2020-04-14 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10623769B2 (en) 2010-04-09 2020-04-14 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10623770B2 (en) 2010-04-09 2020-04-14 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10951917B2 (en) 2010-04-09 2021-03-16 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US11601673B2 (en) 2010-04-09 2023-03-07 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter

Also Published As

Publication number Publication date
JP5320254B2 (ja) 2013-10-23
AU2002365338A1 (en) 2003-06-10
JP2016106504A (ja) 2016-06-16
WO2003047272A3 (en) 2004-01-08
JP2012105348A (ja) 2012-05-31
PT2268040E (pt) 2015-10-15
CA2468087A1 (en) 2003-06-05
KR101033398B1 (ko) 2011-05-09
EP1449385B1 (en) 2015-07-22
ES2548385T3 (es) 2015-10-16
JP2016136765A (ja) 2016-07-28
JP2015062314A (ja) 2015-04-02
PT2268039E (pt) 2015-10-26
PT1449385E (pt) 2015-10-15
CA2468087C (en) 2013-06-25
JP2016123131A (ja) 2016-07-07
PT2271115E (pt) 2015-10-15
JP6507114B2 (ja) 2019-04-24
ES2545177T3 (es) 2015-09-09
JP6681758B2 (ja) 2020-04-15
ES2548384T3 (es) 2015-10-16
JP2018139452A (ja) 2018-09-06
EP1449385A2 (en) 2004-08-25
ES2545394T3 (es) 2015-09-10
ES2545213T3 (es) 2015-09-09
PT2285121E (pt) 2015-10-27
MXPA04004724A (es) 2004-07-30
JP5697614B2 (ja) 2015-04-08
DK1449385T3 (en) 2015-10-19
KR20040070176A (ko) 2004-08-06
WO2003047272A2 (en) 2003-06-05
JP2010022058A (ja) 2010-01-28
JP2008295111A (ja) 2008-12-04

Similar Documents

Publication Publication Date Title
JP6681758B2 (ja) デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
US6980596B2 (en) Macroblock level adaptive frame/field coding for digital video content
JP2005510985A5 (ja)
KR101076506B1 (ko) 복수의 픽쳐를 갖는 영상 시퀀스의 엔코딩 및 디코딩 방법
JP2005510984A5 (ja)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050712

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080311

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080611

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080618

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080711

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080718

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080811

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080821

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080911

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081125