JP5356909B2 - 動きベクトル変換を用いた飛越し走査映像符号化/復号化方法および装置 - Google Patents

動きベクトル変換を用いた飛越し走査映像符号化/復号化方法および装置 Download PDF

Info

Publication number
JP5356909B2
JP5356909B2 JP2009113965A JP2009113965A JP5356909B2 JP 5356909 B2 JP5356909 B2 JP 5356909B2 JP 2009113965 A JP2009113965 A JP 2009113965A JP 2009113965 A JP2009113965 A JP 2009113965A JP 5356909 B2 JP5356909 B2 JP 5356909B2
Authority
JP
Japan
Prior art keywords
field
reference field
motion vector
current
main reference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009113965A
Other languages
English (en)
Other versions
JP2009273132A (ja
Inventor
大 熙 金
雄 一 崔
大 星 趙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2009273132A publication Critical patent/JP2009273132A/ja
Application granted granted Critical
Publication of JP5356909B2 publication Critical patent/JP5356909B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、映像を符号化または復号化する方法および装置に関し、より詳細には、飛越し走査方式の映像を符号化または復号化する方法および装置に関する。
最近、通信環境は、映像と音声は勿論、ユーザが必要とする多様な情報をリアルタイムで提供する方向で構築されている。さらに、動画をデジタルデータに加工してリアルタイムで送信し、これを受信して表示するデジタルテレビシステムや、動画を介して移動通信サービスを提供する個人携帯端末機などが通信環境の進化を促進させている。
映像の符号化と復号化は、動画を介したサービスシステムに必ず必要な技術要素であり、このようなサービスシステムは、符号化と復号化を行うときに、多重参照映像の動きベクトルを活用して映像の画質を改善させることで、ユーザに良質のサービスを提供することができる。ただし、現在映像と最適にマッチングする参照映像を1つ1つ探索したり、複数の参照映像の動きベクトルすべてを考慮したりするということは、符号化または復号化の処理複雑度を増加させる問題となる。したがって、主参照映像に対する動きベクトルを用いて効率的に多重動き予測を実行することができる映像符号化または復号化方法の開発が求められている。
本発明は、上述した問題点を解決するために案出されたものであって、現在フィールドを基準として過去時間または未来時間のフィールドを主参照フィールドとして選択することで、より弾力的に符号化または復号化を実行する飛越し走査映像符号化/復号化方法および装置を提供することを目的とする。
また、本発明は、主参照フィールドが属する映像内の他のフィールドを補助参照フィールドとして選択することで、より効率的に処理複雑度を節減させた飛越し走査映像符号化/復号化方法および装置を提供することを目的とする。
上述した目的を解決するために、本発明の一実施形態に係る飛越し走査映像符号化方法は、主参照フィールドを基準として現在映像の半分に該当する現在フィールドの動きを推定することで、前記主参照フィールドの動きベクトルを算出するステップと、前記主参照フィールドと関連した補助参照フィールドを選択するステップと、前記主参照フィールドの動きベクトルから前記補助参照フィールドの動きベクトルを誘導するステップと、前記主参照フィールドの動きベクトルまたは前記補助参照フィールドの動きベクトルを用いて前記現在フィールドの予測フィールドを生成するステップと、前記現在フィールドおよび予測フィールドの相互間の残差フィールドを符号化するステップとを含む。
本発明の一側によれば、前記主参照フィールドは、前記現在フィールドを基準として過去時間のフィールドまたは未来時間のフィールドのうちのいずれか1つである。
また、本発明の一側によれば、主参照フィールドと関連した補助参照フィールドを選択する前記ステップは、前記主参照フィールドが属する同じ映像内の他の極性のフィールドを前記補助参照フィールドとして選択することを特徴とする。
また、本発明の一側によれば、主参照フィールドの動きベクトルから補助参照フィールドの動きベクトルを誘導する前記ステップは、前記主参照フィールドの動きベクトルを基盤として線形変換を実行し、前記補助参照フィールドの動きベクトルを誘導することを特徴とする。
また、本発明の一側によれば、飛越し走査映像符号化方法は、前記主参照フィールドの動きベクトルによる現在フィールドの圧縮率と前記補助参照フィールドの動きベクトルによる現在フィールドの圧縮率との相互間の比較結果によって、前記主参照フィールドの動きベクトルまたは前記補助参照フィールドの動きベクトルのうちのいずれか1つを選択するステップをさらに含む。
また、本発明の一実施形態に係る飛越し走査映像復号化方法は、ビットストリームから現在映像の半分に該当する現在フィールドおよび予測フィールドの相互間の残差フィールドを復元するステップと、前記現在フィールドの参照フィールドのうち、主参照フィールドの動きベクトルから補助参照フィールドの動きベクトルを誘導するステップと、前記主参照フィールドの動きベクトルまたは前記補助参照フィールドの動きベクトルを用いて前記予測フィールドを生成するステップと、前記生成された予測フィールドに前記復元した残差フィールドを加算することによって前記現在フィールドを復元するステップとを含む。
さらに、本発明の一実施形態に係る飛越し走査映像符号化装置は、主参照フィールドを基準として現在映像の半分に該当する現在フィールドの動きを推定することによって前記主参照フィールドの動きベクトルを算出し、前記主参照フィールドと関連した補助参照フィールドを選択し、前記主参照フィールドの動きベクトルから前記補助参照フィールドの動きベクトルを誘導する動き推定部と、前記主参照フィールドの動きベクトルまたは前記補助参照フィールドの動きベクトルを用いて前記現在フィールドの予測フィールドを生成する動き補償部と、前記現在フィールドおよび予測フィールドの相互間の残差フィールドを符号化する符号化部とを備える。
また、本発明の一実施形態に係る飛越し走査映像復号化装置は、ビットストリームから現在映像の半分に該当する現在フィールドおよび予測フィールドの相互間の残差フィールドを復元する復号化部と、前記現在フィールドの参照フィールドのうち、主参照フィールドの動きベクトルから補助参照フィールドの動きベクトルを誘導し、前記主参照フィールドの動きベクトルまたは前記補助参照フィールドの動きベクトルを用いて前記予測フィールドを生成する動き補償部と、前記生成された予測フィールドに前記復元した残差フィールドを加算することによって前記現在フィールドを復元する加算器とを備える。
本発明は、現在フィールドを基準として過去時間または未来時間のフィールドを主参照フィールドとして選択することで、より弾力的に符号化または復号化を実行する飛越し走査映像符号化/復号化方法および装置を提供することができる。
また、本発明は、主参照フィールドが属する映像内の他のフィールドを補助参照フィールドとして選択することで、より効率的に処理複雑度を節減させた飛越し走査映像符号化/復号化方法および装置を提供することができる。
本発明の一実施形態に係る飛越し走査映像符号化装置を示す構成図である。 主参照フィールドおよび補助参照フィールドが現在フィールドを基準として過去時間の映像に含まれる場合、現在フィールド、主参照フィールド、および補助参照フィールドの位置関係の一例を示す図である。 主参照フィールドおよび補助参照フィールドが現在フィールドを基準として未来時間の映像に含まれる場合、現在フィールド、主参照フィールド、および補助参照フィールドの位置関係の一例を示す図である。 現在フィールドと主参照フィールドの極性が同じであり、主参照フィールドが過去時間のフィールドの場合を説明するための一例を示す図である。 現在フィールドと主参照フィールドの極性が異なり、主参照フィールドが過去時間のフィールドの場合を説明するための一例を示す図である。 現在フィールドと主参照フィールドの極性が同じであり、主参照フィールドが未来時間のフィールドの場合を説明するための一例を示す図である。 現在フィールドと主参照フィールドの極性が異なり、主参照フィールドが未来時間のフィールドの場合を説明するための一例を示す図である。 本発明の一実施形態に他の飛越し走査映像復号化装置を示す構成図である。 本発明の一実施形態に他の飛越し走査映像符号化方法を説明するためのフローチャートである。 本発明の一実施形態に他の飛越し走査映像復号化方法を説明するためのフローチャートである。
以下、添付の図面および添付の図面に記載された内容を参照しながら、本発明の好ましい実施形態について詳細に説明するが、本発明が実施形態によって制限されたり限定されるものではない。特に、後述される「映像(image)」という用語は、ピクチャ(picture)やフレーム(frame)などのように同等な意味を有する異なる用語に対置して用いられることは、本実施形態が属する技術分野において通常の知識を有する者であれば容易に理解できるであろう。
本発明の一実施形態に係るスケーラブル(scalable)映像処理環境は、第1符号化装置、第1復号化装置、第2符号化装置、および第2復号化装置で構成することができる。第1符号化装置、第1復号化装置は、4:2:0映像またはビットの深さが8ビットである映像を再生することができる既存のコーデックが搭載された装置であり、第2符号化装置および第2復号化装置は、4:4:4映像、4:2:2映像、またはビットの深さが10ビットである映像を再生することができる新たなコーデックが搭載された装置である。
したがって、第1符号化装置は、4:2:0映像またはビットの深さが8ビットである映像を符号化し、この結果に該当するビットストリームを出力する。また、第2符号化装置は、4:4:4映像、4:2:2映像、またはビットの深さが10ビットである映像を符号化し、この結果に該当するビットストリームを出力する。既存のコーデックが搭載された第1復号化装置が新たなコーデックが搭載された第2符号化装置から出力されたビットストリームを再生することができる互換性を上位互換性(forward compatibility)と言う。また、新たなコーデックが搭載された第2復号化装置が既存のコーデックが搭載された第1符号化装置から出力されたビットストリームを再生することができる互換性を下位互換性(backward compatibility)と言う。特に、以下で説明する本発明の一実施形態は、上位互換性を支援する。
図1は、本発明の一実施形態に係る飛越し走査映像符号化装置を示す構成図である。図1を参照するに、本実施形態に係る飛越し走査映像符号化装置100は、動き推定部101と、動き補償部102と、第1減算器103と、第1変換部104と、量子化部105と、エントロピー符号化部106と、ビットストリーム生成部(図示せず)と、逆量子化部108と、逆変換部109と、加算器110と、バッファ111とで構成される。本実施形態における映像の処理単位に該当するブロックの大きさは、最も一般的な16×16であるものと仮定する。このような16×16の大きさのブロックをマイクロブロック(macroblock)と言う。ただし、本実施形態が属する技術分野において通常の知識を有する者であれば、上述した16×16の他にも、16×8、8×16、8×8、4×4などの多様な大きさでなされ得ることを理解できるであろう。
一般的に、映像符号化は、順次走査方式(progressive scanning)または飛越し走査方式(interlace scanning)によって実行することができる。順次走査方式とは、1つの映像を最初から最後まで順序通りに画面に表示する方式を言う。
本発明の一実施形態に係る飛越し走査映像符号化装置100は、飛越し走査方式によって映像を符号化することができる。ただし、本発明の一実施形態によれば、飛越し走査映像符号化装置100は、順次走査方式によって符号化を実行することもできる。飛越し走査方式とは、1つの映像を奇数番目のラインと偶数番目のラインに分けて画面に表示する方式を言う。すなわち、1つの映像は、奇数番目のラインで構成された上部フィールド(top field)と下部フィールド(bottom field)とに分けられるようになる。したがって、飛越し走査方式によって映像を符号化する過程で処理される多様な種類の映像は、飛越し走査映像符号化装置100に入力された映像の半分に該当する映像である。ここで、現在フィールドは、上部フィールドまたは下部フィールドのうちのいずれか1つとなる。
動き推定部101は、バッファ111に格納された参照フィールドのうちの主参照フィールドを基準として、動画に該当する一連の映像のうちの現在入力された映像の半分に該当する映像(以下、「現在フィールド」とする)の動きを推定することによって、主参照フィールドの動きベクトル(motion vector)を算出することができる。より詳細に説明すれば、動き推定部101は、バッファ111に格納された参照フィールドのうちのいずれか1つを主参照フィールドとして選択し、現在フィールドを構成するブロックそれぞれに対して現在フィールドのブロックと最適にマッチング(matching)する主参照フィールドのブロックを決定し、このように決定された主参照フィールドのブロックと現在フィールドのブロックとの間の変位を示す動きベクトルを算出することができる。特に、動き推定部101は、参照フィールドのうちの現在フィールドを基準として、過去時間の参照フィールドを主参照フィールドとして決定することができる。例えば、動き推定部101は、バッファ111に格納された過去時間の参照フィールドのうち、現在フィールドと全体的に最適にマッチングする参照フィールドを主参照フィールドとして選択することができる。このような主参照フィールドは、過去時間の参照フィールドのうちで現在フィールドに最も近い参照フィールドとなることもできるし、他の参照フィールドとなることもできる。さらに、本発明の一実施形態によれば、主参照フィールドは、過去時間の参照フィールドのうち、現在フィールドとフィールド単位の時間的距離が予め決定された距離だけ存在する参照フィールドであることができる。
また、動き推定部101は、バッファ111に格納された参照フィールドのうち、主参照フィールドと関連した参照フィールドを参照フィールドを補助参照フィールドとして選択し、算出された主参照フィールドの動きベクトルを線形変換することによって、主参照フィールドの動きベクトルから補助参照フィールドの動きベクトルを誘導することができる。具体的に、動き推定部101は、主参照フィールドが属する同じ映像内の他の極性のフィールドを補助参照フィールドとして選択することができる。これにより、動き推定部101は、バッファ111から主参照フィールドと主参照フィールドが属する映像内の他のフィールドを同時に読み取り、この他のフィールドを補助参照フィールドとして選択することによって、バッファ111に対するアクセス回数を減らすことができる。さらに、線形変換は、主参照フィールドおよび現在フィールドの相互間の時間的距離を用いて実行することができる。より具体的な動きベクトル誘導過程については、以下で詳細に説明する。
一方、従来の飛越し走査映像符号化方式は、バッファ111に格納された参照フィールドそれぞれに対して現在フィールドの動きを推定する過程、すなわち参照フィールド内で現在フィールドのブロックと最適にマッチングする参照フィールドのブロックを1つ1つ探索する過程を介して参照フィールドそれぞれの動きベクトルを算出していたため、参照フィールド数の増加に伴って動きベクトル算出過程の複雑度が大きく増加し、極めて非効率的であった。本発明の一実施形態によれば、上述したような参照フィールド探索過程は、主参照フィールドに対してのみ実施されたり、現在フィールドで予め決定された時間的距離だけ離隔した参照フィールドとして決定されたりし、他の参照フィールドの動きベクトルは、主参照フィールドの動きベクトルから下記に例示された数式などを用いて簡単に誘導することができるため、動きベクトル取得過程が極めて簡単かつ効率的である。また、本発明の一実施形態によれば、飛越し走査映像符号化装置100は、主参照フィールドの圧縮率だけではなく、主参照フィールドが属した映像内の他の参照フィールドである補助参照フィールドの圧縮率を共に考慮することによって、同じ映像内のすべてのフレームを活用することができ、圧縮効率を改善することができる。
図2は、主参照フィールドおよび補助参照フィールドが現在フィールドを基準として過去時間の映像に含まれる場合、現在フィールド、主参照フィールド、および補助参照フィールドの位置関係の一例を示す図である。
図2の構成210は、現在符号化される現在フィールドが上部フィールドであり、主参照フィールドが現在フィールドと比べて過去時間の参照映像211内の上部フィールドである場合に、補助参照フィールドが参照映像211の下部フィールドとして決定される一例を示している。これと比べて、図2の構成220は、現在符号化される現在フィールドが上部フィールドであり、主参照フィールドが現在フィールドと比べて過去時間の参照映像221内の下部フィールドである場合に、補助参照フィールドが参照映像221の上部フィールドとして決定される一例を示している。
また、図2の構成230は、現在符号化される現在フィールドが下部フィールドであり、主参照フィールドが現在フィールドと比べて過去時間の参照映像231内の上部フィールドである場合に、補助参照フィールドが参照映像211の下部フィールドとして決定される一例を示しており、図2の構成240は、現在符号化される現在フィールドが下部フィールドであり、主参照フィールドが現在フィールドと比べて過去時間の参照映像241内の下部フィールドである場合に、補助参照フィールドが参照映像211の上部フィールドとして決定される一例を示している。
ただし、飛越し走査方式の場合には、順次走査方式の場合とは異なり、主参照フィールドと補助参照フィールドが映像の垂直方向に1画素(pixel)だけずれる場合、すなわち主参照フィールドと補助参照フィールドの極性が互いに異なる場合が発生することがある。例えば、主参照フィールドが上部極性(top polarity)であり補助参照フィールドが下部極性(bottom polarity)である場合や、主参照フィールドが下部極性であり補助参照フィールドが上部極性である場合である。したがって、飛越し走査方式の主参照フィールドの動きベクトルから補助参照フィールドの動きベクトルを誘導する場合には、このような主参照フィールドと補助参照フィールドとの極性差が考慮されなければならない。ただし、主参照フィールドと補助参照フィールドの極性が同じである場合には、順次走査方式と類似した方式で、主参照フィールドの動きベクトルから補助参照フィールドの動きベクトルを誘導することができる。
順次走査方式に応じて過去時間の主参照映像の動きベクトルから補助参照映像の動きベクトルを誘導する場合に、動き推定部101は、補助参照映像が主参照映像よりも現在映像から時間的に離隔した場合に、主参照映像の動きベクトルに主参照映像と現在映像の間の時間的距離に1を足した値と、主参照映像と現在映像の間の時間的距離の比とを乗算することによって、補助参照映像の動きベクトルを誘導することができる。これに比べて、動き推定部101は、補助参照映像が主参照映像よりも現在映像から時間的に近い場合に、主参照映像の動きベクトルに主参照映像と現在映像の間の時間的距離から1を引いた値と、主参照映像と現在映像との間の時間的距離の比とを乗算することによって、補助参照映像の動きベクトルを誘導することができる。
結論的に、動き推定部101は、主参照フィールドと現在フィールドの間の時間的距離と主参照フィールドと補助参照フィールドの極性の差を用いて主参照フィールドの動きベクトルを線形変換することによって、補助参照フィールドの動きベクトルを誘導することができる。以下、図4および図5を参照しながら、飛越し走査方式で参照映像が現在フィールドを基準として過去時間の映像である場合に、現在フィールドと主参照フィールドとの極性が同じであるか否かによって、主参照フィールドの動きベクトルから補助参照フィールドの動きベクトルを誘導することについて詳しく説明する。
また、動き推定部101は、参照フィールドのうちで現在フィールドを基準として、未来時間の参照フィールドを主参照フィールドとして決定することができる。例えば、動き推定部101は、バッファ111に格納された未来時間の参照フィールドのうち、現在フィールドと全体的に最適にマッチングする参照フィールドを主参照フィールドとして選択することができる。このような主参照フィールドは、未来時間の参照フィールドのうち、現在フィールドに最も近い参照フィールドとなることもできるし、他の参照フィールドとなることもできる。さらに、本発明の一実施形態によれば、主参照フィールドは、未来時間の参照フィールドのうち、現在フィールドとフィールド単位の時間的距離が予め決定された距離だけ存在する参照フィールドであることができる。
また、動き推定部101は、バッファ111に格納された参照フィールドのうち、主参照フィールドと関連した参照フィールドを補助参照フィールドとして選択し、算出された主参照フィールドの動きベクトルを線形変換することによって、主参照フィールドの動きベクトルから補助参照フィールドの動きベクトルを誘導することができる。具体的に、動き推定部101は、主参照フィールドが属する同じ映像内の他の極性のフィールドを補助参照フィールドとして選択することができる。これにより、動き推定部101は、バッファ111から主参照フィールドと主参照フィールドとが属する映像内の他のフィールドを同時に読み取り、この他のフィールドを補助参照フィールドとして選択することによって、バッファ111に対するアクセス回数を減らすことができる。さらに、線形変換は、主参照フィールドおよび現在フィールドの相互間の時間的距離を用いて実行することができる。
図3は、主参照フィールドおよび補助参照フィールドが現在フィールドを基準として未来時間の映像に含まれる場合、現在フィールド、主参照フィールド、および補助参照フィールドの位置関係の一例を示す図である。
図3の構成310は、現在符号化となる現在フィールドが上部フィールドであり、主参照フィールドが現在フィールドと比べて未来時間の参照映像311内の上部フィールドである場合に、補助参照フィールドが参照映像311の下部フィールドとして決定される一例を示している。これと比べて、図3の構成320は、現在符号化となる現在フィールドが上部フィールドであり、主参照フィールドが現在フィールドと比べて未来時間の参照映像321内の下部フィールドである場合に、補助参照フィールドが参照映像321の上部フィールドとして決定される一例を示している。
また、図3の構成330は、現在符号化となる現在フィールドが下部フィールドであり、主参照フィールドが現在フィールドと比べて未来時間の参照映像331内の上部フィールドである場合に、補助参照フィールドが参照映像311の下部フィールドとして決定される一例を示しており、図3の構成340は、現在符号化となる現在フィールドが下部フィールドであり、主参照フィールドが現在フィールドと比べて未来時間の参照映像341内の下部フィールドである場合に、補助参照フィールドが参照映像311の上部フィールドとして決定される一例を示している。
上述したような脈絡によって主参照フィールドが未来時間に存在するときにも、主参照フィールドと補助参照フィールドの極性が同じである場合には、順次走査方式と類似した方式で、主参照フィールドの動きベクトルから補助参照フィールドの動きベクトルを誘導することができる。
順次走査方式によって未来時間の主参照映像の動きベクトルから補助参照映像の動きベクトルを誘導する場合に、動き推定部101は、補助参照映像が主参照映像よりも現在映像から時間的に離隔した場合に、主参照映像の動きベクトルに主参照映像と現在映像の間の時間的距離に1を足した値と、主参照映像と現在映像の間の時間的距離の比とを乗算することによって、補助参照映像の動きベクトルを誘導することができる。これに比べて、動き推定部101は、補助参照映像が主参照映像よりも現在映像から時間的に近い場合に、主参照映像の動きベクトルに主参照映像と現在映像の間の時間的距離から1を引いた値と、主参照映像と現在映像の間の時間的距離の比とを乗算することによって、補助参照映像の動きベクトルを誘導することができる。
結論的に、動き推定部101は、主参照フィールドと現在フィールドの間の時間的距離と主参照フィールドと補助参照フィールドとの極性差を用いて主参照フィールドの動きベクトルを線形変換することによって、補助参照フィールドの動きベクトルを誘導することができる。以下、図6および図7を参照しながら、飛越し走査方式で参照映像が現在フィールドを基準として未来時間の映像である場合に、現在フィールドと主参照フィールドの極性が同じであるか否かによって、主参照フィールドの動きベクトルから補助参照フィールドの動きベクトルを誘導することに対して詳細に説明する。
図4は、現在フィールドと主参照フィールドの極性が同じであり、主参照フィールドが過去時間のフィールドである場合を説明するための一例を示す図である。図4の上段410を参照するに、動き推定部101は、主参照フィールドを現在フィールドと極性が同じである上部フィールドである4番フィールドとして選定した場合に、補助参照フィールドを共に属した映像内の下部フィールドである5番フィールドとして選定することができる。このとき、動き推定部101は、下記の式(1)に示す線形変換を用いて、現在符号化される現在フィールドの主参照フィールドに対する動きベクトルから現在フィールドの補助参照フィールドに対する動きベクトルを誘導することができる。
Figure 0005356909
このとき、MV mainは、現在フィールドであるMVの主参照フィールドに対する動きベクトルのx座標を意味し、MV mainは、現在フィールドであるMVの主参照フィールドに対する動きベクトルのy座標を意味する。また、MV auxは、現在フィールドであるMVの補助参照フィールドに対する動きベクトルのx座標を意味し、MV auxは、現在フィールドであるMVの補助参照フィールドに対する動きベクトルのy座標を意味する。また、distは、現在フィールドから主参照フィールドまでのフィールド単位距離を示す。また、
Figure 0005356909
は、除算演算の四捨五入のための調整値であり、(dist−1)は、現在フィールドから下部フィールドである補助参照フィールドまでの距離を示す。主参照フィールドと補助参照フィールドが同じ映像に属するため、(dist−1)を決定することができる。また、offsetは、極性差を補正するための値である。特に、上記の式(1)におけるoffsetは、主参照フィールドと補助参照フィールドとの間の極性差を補正するための値である。
飛越し走査方式の映像符号化過程に用いられるフィールドは、元来の映像の半分に該当するため、主参照フィールドと補助参照フィールドとの極性差を補正するオフセットの大きさは、元来の映像を構成する画素単位の半画素単位となる。一般的に、映像補間(interpolation)などを介して映像をより精密に復元するために、動きベクトルは、半画素単位または1/4画素単位で表現される。もし、本発明の一実施形態における動きベクトルが半画素単位で表現されれば、オフセットの大きさ単位は1となり、1/4画素単位に表現されれば、offsetの大きさ単位は2となる。
図4の上段410のように、現在フィールドが上部フィールドであり、補助参照フィールドが下部フィールドであれば、offsetは陰の値を有する。したがって、動きベクトルが半画素単位で表現されれば、上記の式(1)におけるoffsetは−1となることができる。
図4の下段420を参照するに、動き推定部101は、主参照フィールドを現在フィールドと極性が同じである下部フィールドである4番フィールドとして選定した場合に、補助参照フィールドを共に属した映像内の上部フィールドである3番フィールドとして選定することができる。このとき、動き推定部101は、下記の式(2)に示す線形変換を用いて、現在符号化される現在フィールドの主参照フィールドに対する動きベクトルから現在フィールドの補助参照フィールドに対する動きベクトルを誘導することができる。
Figure 0005356909
このとき、MV mainは、現在フィールドであるMVの主参照フィールドに対する動きベクトルのx座標を意味し、MV mainは、現在フィールドであるMVの主参照フィールドに対する動きベクトルのy座標を意味する。また、MV auxは、現在フィールドであるMVの補助参照フィールドに対する動きベクトルのx座標を意味し、MV auxは、現在フィールドであるMVの補助参照フィールドに対する動きベクトルのy座標を意味する。また、distは、現在フィールドから主参照フィールドまでのフィールド単位距離を示す。また、
Figure 0005356909
は、除算演算の四捨五入のための調整値であり、(dist+1)は、現在フィールドから上部フィールドである補助参照フィールドまでの距離を示す。主参照フィールドと補助参照フィールドが同じ映像に属するため、(dist+1)を決定することができる。また、offsetは、極性差を補正するための値である。特に、上記の式(2)におけるoffsetは、主参照フィールドと補助参照フィールドとの間の極性差を補正するための値である。
飛越し走査方式の映像符号化過程に用いられるフィールドは、元来の映像の半分に該当するため、主参照フィールドと補助参照フィールドとの極性差を補正するオフセットの大きさは、元来の映像を構成する画素単位の半画素単位となる。一般的に、映像補間などを介して映像をより精密に復元するために、動きベクトルは、半画素単位または1/4画素単位で表現される。もし、本発明の一実施形態における動きベクトルが半画素単位で表現されれば、オフセットの大きさ単位は1となり、1/4画素単位で表現されれば、offsetの大きさ単位は2となる。
図4の下段420のように、現在フィールドが下部フィールドであり、補助参照フィールドが上部フィールドであれば、offsetは陽の値を有する。したがって、動きベクトルが半画素単位で表現されれば、上記の式(2)におけるoffsetは1となることができる。
図5は、現在フィールドと主参照フィールドとの極性が異なり、主参照フィールドが過去時間のフィールドである場合を説明するための一例を示す図である。図5の上段510を参照するに、動き推定部101は、主参照フィールドを現在フィールドと極性が異なる下部フィールドである3番フィールドとして選定した場合に、補助参照フィールドを共に属した映像内の上部フィールドである2番フィールドとして選定することができる。このとき、動き推定部101は、下記の式(3)に示す線形変換を用いて、現在符号化される現在フィールドの主参照フィールドに対する動きベクトルから現在フィールドの補助参照フィールドに対する動きベクトルを誘導することができる。
Figure 0005356909
このとき、MV mainは、現在フィールドであるMVの主参照フィールドに対する動きベクトルのx座標を意味し、MV mainは、現在フィールドであるMVの主参照フィールドに対する動きベクトルのy座標を意味する。また、MV auxは、現在フィールドであるMVの補助参照フィールドに対する動きベクトルのx座標を意味し、MV auxは、現在フィールドであるMVの補助参照フィールドに対する動きベクトルのy座標を意味する。また、distは、現在フィールドから主参照フィールドまでのフィールド単位距離を示す。また、
Figure 0005356909
は、除算演算の四捨五入のための調整値であり、(dist+1)は、現在フィールドから上部フィールドである補助参照フィールドまでの距離を示す。主参照フィールドと補助参照フィールドが同じ映像に属するため、(dist+1)を決定することができる。また、offsetは、極性差を補正するための値である。特に、上記の式(3)におけるoffsetは、主参照フィールドと現在フィールドとの間の極性差の補正のために変換を実行する前に用いられ、offsetは、変換前の現在フィールドの極性差を補正することができる。
また、動きベクトルを半画素単位で表現する場合に、符号は、主参照フィールドの動きベクトルを補助参照フィールドの動きベクトルと同じ上部フィールドの場合として換算しなければならないため、陽の値を有することができ、上記の式(3)におけるoffsetは1となる。
図5の下段520を参照するに、動き推定部101は、主参照フィールドを現在フィールドと極性が異なる上部フィールドである3番フィールドとして選定した場合に、補助参照フィールドを共に属した映像内の下部フィールドである4番フィールドとして選定することができる。このとき、動き推定部101は、下記の式(4)に示す線形変換を用いて、現在符号化される現在フィールドの主参照フィールドに対する動きベクトルから現在フィールドの補助参照フィールドに対する動きベクトルを誘導することができる。
Figure 0005356909
このとき、MV mainは、現在フィールドであるMVの主参照フィールドに対する動きベクトルのx座標を意味し、MV mainは、現在フィールドであるMVの主参照フィールドに対する動きベクトルのy座標を意味する。また、MV auxは、現在フィールドであるMVの補助参照フィールドに対する動きベクトルのx座標を意味し、MV auxは、現在フィールドであるMVの補助参照フィールドに対する動きベクトルのy座標を意味する。また、distは、現在フィールドから主参照フィールドまでのフィールド単位距離を示す。また、
Figure 0005356909
は、除算演算の四捨五入のための調整値であって、(dist−1)は、現在フィールドから上部フィールドである補助参照フィールドまでの距離を示す。主参照フィールドと補助参照フィールドが同じ映像に属するため、(dist−1)を決定することができる。また、offsetは、極性差を補正するための値である。特に、上記の式(4)におけるoffsetは、主参照フィールドと現在フィールドとの間の極性差の補正のために変換を実行する前に用いられ、offsetは、変換前の現在フィールドの極性差を補正することができる。
また、動きベクトルを半画素単位で表現する場合に、符号は、主参照フィールドの動きベクトルを補助参照フィールドの動きベクトルと同じ下部フィールドの場合として換算しなければならないため、陰の値を有することができ、上記の式(4)におけるoffsetは−1となる。
図6は、現在フィールドと主参照フィールドの極性が同じであり、主参照フィールドが未来時間のフィールドである場合を説明するための一例を示す図である。図6の上段610を参照するに、動き推定部101は、主参照フィールドを現在フィールドと極性が同じである上部フィールドである5番フィールドとして選定した場合に、補助参照フィールドを共に属した映像内の下部フィールドである6番フィールドとして選定することができる。このとき、動き推定部101は、下記の式(5)に示す線形変換を用いて、現在符号化される現在フィールドの主参照フィールドに対する動きベクトルから現在フィールドの補助参照フィールドに対する動きベクトルを誘導することができる。
Figure 0005356909
このとき、MV mainは、現在フィールドであるMVの主参照フィールドに対する動きベクトルのx座標を意味し、MV mainは、現在フィールドであるMVの主参照フィールドに対する動きベクトルのy座標を意味する。また、MV auxは、現在フィールドであるMVの補助参照フィールドに対する動きベクトルのx座標を意味し、MV auxは、現在フィールドであるMVの補助参照フィールドに対する動きベクトルのy座標を意味する。また、distは、現在フィールドから主参照フィールドまでのフィールド単位距離を示す。また、
Figure 0005356909
は、除算演算の四捨五入のための調整値であり、(dist+1)は、現在フィールドから下部フィールドである補助参照フィールドまでの距離を示す。主参照フィールドと補助参照フィールドが同じ映像に属するため、(dist+1)を決定することができる。特に、上記の式(1)における(dist−1)と上記の式(5)における(dist+1)との差は、現在フィールドから主参照フィールドと補助参照フィールドそれぞれの距離差が原因となる。また、offsetは、極性差を補正するための値である。特に、上記の式(5)におけるoffsetは、主参照フィールドと補助参照フィールドとの間の極性差を補正するための値である。
また、上述によれば、半画素単位の動きベクトル表現法を用いる場合に、上記の式(5)におけるoffsetは−1である。
図6の下段620を参照するに、動き推定部101は、主参照フィールドを現在フィールドと極性が同じである下部フィールドである5番フィールドとして選定した場合に、補助参照フィールドを共に属した映像内の上部フィールドである4番フィールドとして選定することができる。このとき、動き推定部101は、下記の式(6)に示す線形変換を用いて、現在符号化される現在フィールドの主参照フィールドに対する動きベクトルから現在フィールドの補助参照フィールドに対する動きベクトルを誘導することができる。
Figure 0005356909
このとき、MV mainは、現在フィールドであるMVの主参照フィールドに対する動きベクトルのx座標を意味し、MV mainは、現在フィールドであるMVの主参照フィールドに対する動きベクトルのy座標を意味する。また、MV auxは、現在フィールドであるMVの補助参照フィールドに対する動きベクトルのx座標を意味し、MV auxは、現在フィールドであるMVの補助参照フィールドに対する動きベクトルのy座標を意味する。また、distは、現在フィールドから主参照フィールドまでのフィールド単位距離を示す。また、
Figure 0005356909
は、除算演算の四捨五入のための調整値であり、(dist−1)は、現在フィールドから下部フィールドである補助参照フィールドまでの距離を示す。主参照フィールドと補助参照フィールドが同じ映像に属するため、(dist−1)を決定することができる。特に、上記の式(2)における(dist+1)と上記の式(6)における(dist−1)の差は、現在フィールドから主参照フィールドと補助参照フィールドそれぞれの距離差が原因である。また、offsetは、極性差を補正するための値である。特に、上記の式(6)におけるoffsetは、主参照フィールドと補助参照フィールドとの間の極性差を補正するための値である。また、上述によれば、半画素単位の動きベクトル表現法を用いる場合に、上記の式(6)におけるoffsetは1である。
図7は、現在フィールドと主参照フィールドの極性が異なり、主参照フィールドが未来時間のフィールドである場合を説明するための一例を示す図である。図7の上段710を参照するに、動き推定部101は、主参照フィールドを現在フィールドと極性が異なる下部フィールドである6番フィールドとして選定した場合に、補助参照フィールドを共に属した映像内の上部フィールドである5番フィールドとして選定することができる。このとき、動き推定部101は、下記の式(7)に示す線形変換を用いて、現在符号化される現在フィールドの主参照フィールドに対する動きベクトルから現在フィールドの補助参照フィールドに対する動きベクトルを誘導することができる。
Figure 0005356909
このとき、MV mainは、現在フィールドであるMVの主参照フィールドに対する動きベクトルのx座標を意味し、MV mainは、現在フィールドであるMVの主参照フィールドに対する動きベクトルのy座標を意味する。また、MV auxは、現在フィールドであるMVの補助参照フィールドに対する動きベクトルのx座標を意味し、MV auxは、現在フィールドであるMVの補助参照フィールドに対する動きベクトルのy座標を意味する。また、distは、現在フィールドから主参照フィールドまでのフィールド単位距離を示す。また、
Figure 0005356909
は、除算演算の四捨五入のための調整値であり、(dist−1)は、現在フィールドから下部フィールドである補助参照フィールドまでの距離を示す。主参照フィールドと補助参照フィールドが同じ映像に属するため、(dist−1)を決定することができる。特に、上記の式(3)における(dist+1)と上記の式(7)における(dist−1)との差は、現在フィールドから主参照フィールドと補助参照フィールドそれぞれの距離差が原因となる。また、offsetは、極性差を補正するための値である。特に、上記の式(7)におけるoffsetは、主参照フィールドと現在フィールドとの間の極性差の補正のために変換を実行する前に用いられ、offsetは、変換前の現在フィールドの極性差を補正することができる。
また、上述によれば、半画素単位の動きベクトル表現法を用いる場合に、上記の式(7)におけるoffsetは1である。図7の下段720を参照するに、動き推定部101は、主参照フィールドを現在フィールドと極性が異なる上部フィールドである4番フィールドとして選定した場合に、補助参照フィールドを共に属した映像内の下部フィールドである5番フィールドとして選定することができる。このとき、動き推定部101は、下記の式(8)に示す線形変換を用いて、現在符号化される現在フィールドの主参照フィールドに対する動きベクトルから現在フィールドの補助参照フィールドに対する動きベクトルを誘導することができる。
Figure 0005356909
このとき、MV mainは、現在フィールドであるMVの主参照フィールドに対する動きベクトルのx座標を意味し、MV mainは、現在フィールドであるMVの主参照フィールドに対する動きベクトルのy座標を意味する。また、MV auxは、現在フィールドであるMVの補助参照フィールドに対する動きベクトルのx座標を意味し、MV auxは、現在フィールドであるMVの補助参照フィールドに対する動きベクトルのy座標を意味する。また、distは、現在フィールドから主参照フィールドまでのフィールド単位距離を示す。また、
Figure 0005356909
は、除算演算の四捨五入のための調整値であり、(dist+1)は、現在フィールドから下部フィールドである補助参照フィールドまでの距離を示す。主参照フィールドと補助参照フィールドが同じ映像に属するため、(dist+1)を決定することができる。特に、上記の式(4)における(dist−1)と上記の式(8)における(dist+1)との差は、現在フィールドから主参照フィールドと補助参照フィールドそれぞれの距離差が原因となる。また、offsetは、極性差を補正するための値である。特に、上記の式(8)におけるoffsetは、主参照フィールドと現在フィールドとの間の極性差の補正のために変換を実行する前に用いられ、offsetは、変換前の現在フィールドの極性差を補正することができる。また、上述によれば、半画素単位の動きベクトル表現法を用いる場合に、上記の式(8)におけるoffsetは−1である。
また、動き推定部101は、主参照フィールドの動きベクトルによる現在フィールドの圧縮率と補助参照フィールドの動きベクトルによる現在フィールドの圧縮率とを比べ、この比較結果によって主参照フィールドの動きベクトルと補助参照フィールドの動きベクトルのうちのいずれか1つを選択する。すなわち、動き推定部101は、主参照フィールドの動きベクトルによる現在フィールドの圧縮率がさらに高い場合には、主参照フィールドの動きベクトルを選択し、補助参照フィールドの動きベクトルによる現在フィールドの圧縮率がさらに高い場合には、補助参照フィールドの動きベクトルを選択する。より詳細に説明すれば、動き推定部101は、主参照フィールドの動きベクトルが指示する主参照フィールド内のブロックと現在フィールドのブロックの差と、補助参照フィールドの動きベクトルが指示する補助参照フィールド内のブロックと現在フィールドのブロックの差とを比べ、この差がより少ない方の動きベクトルを選択する。主参照フィールドは、全体的に現在フィールドに最適にマッチングする参照フィールドや現在フィールドの動き推定はブロック単位に実行されるため、現在フィールドを構成するブロックのうちのあるブロックに対しては、主参照フィールドよりも他の参照フィールドがさらに適切にマッチングすることができる。
動き補償部102は、動き推定部101によって選択された主参照フィールドまたは補助参照フィールドの動きベクトルを用いて、バッファ111に格納された参照フィールドのうちの少なくとも1つの参照フィールドから現在フィールドの予測フィールドを生成する。より詳細に説明すれば、動き補償部102は、動き推定部101によって選択された主参照フィールドまたは補助参照フィールドの動きベクトルが指示する少なくとも1つの参照フィールドのブロックの値を現在フィールドのブロックの値として決定することで、現在フィールドの予測フィールドを生成する。
上述した動き推定部101および動き補償部102による映像圧縮方式は、いずれか1つの動画を構成する多様な映像またはフィールド間の時間的重複性を用いて映像を圧縮する方式であり、インタ(inter)符号化方式と呼ばれる。いずれか1つの映像またはフィールド内の空間的重複性を用いて映像を圧縮する方式をイントラ(intra)符号化方式と言うが、本実施形態の説明が長くなることを避けるために、本実施形態にインタ符号化方式だけが適用されるものとして設計したが、本実施形態が属する技術分野において通常の知識を有する者であれば、本実施形態にイントラ符号化方式が適用される可能性もあることを容易に理解できるであろう。さらに、イントラ符号化方式は、飛越し走査映像符号化装置100に入力される映像に適用することもできるし、第1変換部104によって変換された結果に適用することもできる。
第1減算器103は、現在フィールドから動き補償部102によって生成された予測フィールドを減算することによって、現在フィールドと予測フィールドとの間の残差フィールドを生成する。第1変換部104は、第1減算器103によって生成された残差フィールドを色空間から周波数空間に変換することで、この残差フィールドの周波数係数を生成する。例えば、第1変換部104は、DHT(Discrete Hadamard Transform)、DCT(Discrete Cosine Transform)などを用いて、第1減算器103によって生成された残差フィールドを色空間から周波数空間に変換することができる。
量子化部105は、変換部104によって生成された周波数係数を量子化する。より詳細に説明すれば、量子化部105は、変換部104によって生成された周波数係数を量子化パラメータで割り、その結果を定数値として近似化する。エントロピー符号化部107は、量子化部105によって量子化された結果に該当する定数値と現在フィールドの符号化情報をエントロピー符号化することによって、ビットストリームを生成する。例えば、エントロピー符号化部107は、CAVLC(Context−Adaptive Variable−Length Coding)、CAVAC(Context−Adaptive Binary Arithmetic Coding)などを用いて、量子化部105によって量子化された結果に該当する定数値をエントロピー符号化することができる。
ここで、現在フィールドの符号化情報は、動き推定部101などにおける映像符号化過程で発生した情報であって、映像復号化装置で現在フィールドを復元しようとするときに必要となる。このような情報としては、参照フィールドの索引、動きベクトルなどを挙げることができる。特に、本発明の一実施形態に係る飛越し走査映像符号化装置100に対応する飛越し走査映像復号化装置では、主参照フィールドの動きベクトルのみを送り、補助参照フィールドの動きベクトルに対しては主参照フィールドの動きベクトルから誘導することができる。したがって、上述したような一般的な情報の他に、補助参照フィールドの動きベクトルを誘導するための情報をさらに必要とすることができる。
ただし、飛越し走査映像符号化装置100は、飛越し映像復号化装置に補助参照フィールドの動きベクトルを誘導するための情報を送らずに、主参照フィールドと同様に、補助参照フィールドの索引と補助参照フィールドの動きベクトルを直接送ることもできる。この場合に、映像復号化装置の方における補助参照フィールドの動きベクトル誘導過程は必要なくなる。一般的に、補助参照フィールドの索引と補助参照フィールドの動きベクトルを表現するためのデータ量が大きいため、映像符号化装置100が映像復号化装置に補助参照フィールドの動きベクトルを誘導するための情報を送ることがより効率的である。
また、飛越し走査映像符号化装置100は、上述したように、主参照フィールドと補助参照フィールドを同じ映像内で決定するため、補助参照フィールドと関連した情報を飛越し映像復号化装置に送らない場合もある。すなわち、飛越し走査復号化装置は、主参照フィールドの索引、動きベクトルのみを用いて補助参照フィールドの動きベクトルを誘導することができる。ただし、本発明の一実施形態によれば、飛越し走査映像符号化装置100は、補助参照フィールドが主参照フィールドと同じ映像に含まれることを知らせる情報を飛越し走査復号化装置に送ることができる。
また、エントロピー符号化部106は、所定のシンタックスを有する主参照フィールドの動きベクトルまたは補助参照フィールド情報のうちの少なくとも1つをエントロピー符号化することができる。ただし、飛越し走査映像符号化装置100および飛越し走査映像復号化装置の相互間に主参照フィールドおよび補助参照フィールドの関係を約束して格納している場合、または動き推定部101における圧縮率比較過程でいずれの補助参照フィールドの動きベクトルも選択されなければ、エントロピー符号化部106は主参照フィールドの動きベクトルのみをエントロピー符号化することができる。
逆量子化部108は、量子化部105によって量子化された結果に該当する定数値を逆量子化することによって、現在フィールドと予測映像との間の残差フィールドの周波数係数を復元する。より詳細に説明すれば、逆量子化部108は、量子化部105によって近似化された定数値に量子化パラメータを乗算することで、現在フィールドと予測フィールドとの間の残差フィールドの周波数係数を復元する。逆変換部109は、逆量子化部108によって復元された周波数係数を周波数空間から色空間に変換することで、現在フィールドと予測フィールドとの間の残差フィールドを復元する。加算器110は、動き補償部102によって生成された予測フィールドに逆変換部109によって復元された残差フィールドを加算することで現在フィールドの復元フィールドを生成し、この復元フィールドをバッファ111に格納する。バッファ111に現在格納された復元フィールドは、現在フィールドの後に登場する未来のフィールドまたは現在フィールドの前に存在していた過去のフィールドの参照フィールドとして用いることができる。
図8は、本発明の一実施形態に他の飛越し走査映像復号化装置を示す構成図である。図8に示すように、飛越し走査映像復号化装置800は、エントロピー復号化部801と、逆量子化部802と、逆変換部803と、動き補償部804と、加算器805と、バッファ806とで構成することができる。図8に示す飛越し走査映像復号化装置800の映像復元過程は、図1に示す飛越し走査映像符号化装置100の映像復元過程と同じである。したがって、以下省略された内容であっても、図2に示す動画符号化装置100に関して上述した内容は、本実施形態に係る動画復号化装置800にも適用される。
特に、以下では、図8に示す飛越し走査映像復号化装置800において、飛越し走査方式に応じて映像を復号化する場合を説明する。
エントロピー復号化部801は、図1に示す飛越し走査映像符号化装置100から送信されたビットストリームをエントロピー復号化することによって、現在フィールドと予測フィールドとの間の残差フィールドの量子化結果に該当する定数値と現在フィールドの符号化情報とを復元する。逆量子化部802は、エントロピー復号化部801によって復元された定数値を逆量子化することによって、現在フィールドと予測フィールドとの間の残差フィールドの周波数係数を復元する。逆変換部803は、逆量子化部802によって復元された周波数係数を周波数空間から色空間に変換することで、現在フィールドと予測フィールドとの間の残差フィールドを復元する。
動き補償部804は、エントロピー復号化部801によって復元された情報に含まれた補助参照フィールドの位置に基づいて、選択的にこの情報に含まれた主参照フィールドの動きベクトルを線形変換することによって、この位置に該当する補助参照フィールドの動きベクトルを誘導することができる。もし、映像符号化装置100における動き推定過程において、いずれの補助参照フィールドの動きベクトルも選択されなければ、映像符号化装置100が映像符号化装置100から受信したビットストリームのシンタックス内には補助参照フィールドの位置の値は存在せず、この場合に、動き補償部804は補助参照フィールドの動きベクトルを誘導しない。さらに、動き補償部804は、シンタックス内で主参照フィールドの索引または位置を用いて同じ映像内に存在する補助参照フィールドの動きベクトルを誘導することができる。
より詳細に説明すれば、動き補償部804は、主参照フィールドと現在フィールドとの間の時間的距離と主参照フィールドと補助参照フィールドとの極性差を用いて、選択的に主参照フィールドの動きベクトルを線形変換することで、位置に該当する補助参照フィールドの動きベクトルを誘導することができる。上記の式(1)〜式(8)を参照したより具体的な動きベクトル誘導過程については、すでに上述したとおりであるため、重複する説明は省略する。
また、動き補償部804は、主参照フィールドまたは補助参照フィールドの動きベクトルを用いて、バッファ806に格納された参照フィールドのうちの少なくとも2つの参照フィールドから現在フィールドの予測フィールドを生成する。より詳細に説明すれば、動き補償部804は、エントロピー復号化部801に復元された情報に含まれた主参照フィールドの動きベクトルまたはこの動きベクトルから誘導された補助参照フィールドの動きベクトルが指示する少なくとも1つの参照フィールドのブロックの値を現在フィールドのブロックの値として決定することで、現在フィールドの予測フィールドを生成する。加算器805は、動き補償部804によって生成された予測フィールドに逆変換部804によって復元された残差フィールドを加算することで、現在フィールドの復元フィールドを生成し、この復元フィールドをバッファ806に格納する。
また、本発明の一実施形態によれば、飛越し走査映像符号化装置100または飛越し走査映像復号化装置800は、拡張階層でフィールド符号化または復号化を実行することができる。このとき、拡張階層内における符号化または復号化の内容は、図1〜図8を参照しながら説明した基本階層における符号化または復号化と比べて、フィールドの差が存在する場合がある。
図9は、本発明の一実施形態に他の飛越し走査映像符号化方法を説明するためのフローチャートである。図9に示すように、飛越し走査映像符号化方法は、ステップS901〜ステップS905で実行することができる。さらに、飛越し走査映像符号化方法は、図1に示す飛越し走査映像符号化装置100によって実行することができる。
ステップS901で、飛越し走査映像符号化装置100は、主参照フィールドを基準として現在映像の半分に該当する現在フィールドの動きを推定することで、主参照フィールドの動きベクトルを算出することができる。
ステップS902で、飛越し走査映像符号化装置100は、主参照フィールドと関連した補助参照フィールドを選択することができる。
ステップS903で、飛越し走査映像符号化装置100は、主参照フィールドの動きベクトルから補助参照フィールドの動きベクトルを誘導することができる。
ステップS904で、飛越し走査映像符号化装置100は、主参照フィールドの動きベクトルまたは補助参照フィールドの動きベクトルを用いて現在フィールドの予測フィールドを生成することができる。
ステップS905で、飛越し走査映像符号化装置100は、現在フィールドおよび予測フィールドの相互間の残差フィールドを符号化することができる。
また、このような飛越し走査映像符号化方法についても、図9を参照しながら説明しなかった事項は、図1〜図7を参照しながら上述した内容と同じであるか、当業者であれば説明した内容から容易に類推することができるため、以下では説明を省略する。
図10は、本発明の一実施形態に他の飛越し走査映像復号化方法を説明するためのフローチャートである。図10に示すように、飛越し走査映像復号化方法は、ステップS1001〜ステップS1004で実行することができる。さらに、飛越し走査映像符号化方法は、図8に示す飛越し走査映像復号化装置800によって実行することができる。
ステップS1001で、飛越し走査映像復号化装置800は、ビットストリームから現在映像の半分に該当する現在フィールドおよび予測フィールドの相互間の残差フィールドを復元することができる。
ステップS1002で、飛越し走査映像復号化装置800は、現在フィールドの参照フィールドのうち、主参照フィールドの動きベクトルから補助参照フィールドの動きベクトルを誘導することができる。
ステップS1003で、飛越し走査映像復号化装置800は、主参照フィールドの動きベクトルまたは補助参照フィールドの動きベクトルを用いて予測フィールドを生成することができる。
ステップS1004で、飛越し走査映像復号化装置800は、生成された予測フィールドに復元された残差フィールドを加算することで、現在フィールドを復元することができる。
また、このような飛越し走査映像復号化方法についても、図10を参照しながら説明しなかった事項は、図8を参照しながら上述した内容と同じであるか、当業者であれば上述した内容から容易に類推できるものであるため、以下では説明を省略する。
なお、本発明に係る飛越し走査映像符号化または復号化方法は、コンピュータにより実現される多様な動作を実行するためのプログラム命令を含むコンピュータ読取可能な記録媒体を含む。当該記録媒体は、プログラム命令、データファイル、データ構造などを単独または組み合わせて含むこともでき、記録媒体およびプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知であり使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれる。また、記録媒体は、プログラム命令、データ構造などを保存する信号を送信する搬送波を含む光または金属線、導波管などの送信媒体でもある。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コードを含む。前記したハードウェア要素は、本発明の動作を実行するために一以上のソフトウェアモジュールとして作動するように構成することができ、その逆もできる。
上述したように、本発明の好ましい実施形態を参照して説明したが、該当の技術分野において熟練した当業者にとっては、特許請求の範囲に記載された本発明の思想および領域から逸脱しない範囲内で、本発明を多様に修正および変更させることができることを理解することができるであろう。すなわち、本発明の技術的範囲は、特許請求の範囲に基づいて定められ、発明を実施するための最良の形態により制限されるものではない。
100 飛越し走査映像符号化装置
101 動き推定部
102、804 動き補償部
103 第1減算器
104 第1変換部
105 量子化部
106 エントロピー符号化部
108、802 逆量子化部
109、803 逆変換部
110、805 加算部
111、806 バッファ
800 飛越し走査映像復号化装置
801 エントロピー復号化部

Claims (23)

  1. 飛越し走査映像符号化方法であって、
    現在映像に対する主参照フィールドに基づいて前記現在映像の一部に該当する現在フィールドの動きを推定することで、前記現在フィールドを基準として過去時間のフィールドまたは未来時間のフィールドのいずれかである前記主参照フィールドの動きベクトルを算出するステップと、
    前記主参照フィールドと関連した補助参照フィールドを選択するステップと、
    前記主参照フィールドと現在フィールドとの間の時間的距離および主参照フィールドと補助参照フィールドとの間の極性差に基づいて主参照フィールドの動きベクトルを線形変換することによって、前記主参照フィールドの動きベクトルから前記補助参照フィールドの動きベクトルを誘導するステップと、
    前記主参照フィールドの動きベクトルまたは前記補助参照フィールドの動きベクトルのうちの少なくとも1つを用いて前記現在フィールドの予測フィールドを生成するステップと、
    符号化された飛越し走査映像を生成するために前記現在フィールドおよび予測フィールドの相互間の残差フィールドを符号化するステップと、
    を含むことを特徴とする飛越し走査映像符号化方法。
  2. 前記主参照フィールドは、
    前記現在フィールドを基準として過去時間のフィールドであることを特徴とする請求項1に記載の飛越し走査映像符号化方法。
  3. 前記主参照フィールドは、
    前記現在フィールドを基準として未来時間のフィールドであることを特徴とする請求項1に記載の飛越し走査映像符号化方法。
  4. 主参照フィールドと関連した補助参照フィールドを選択する前記ステップは、
    前記主参照フィールドと異なる極性のフィールドを前記補助参照フィールドとして選択することを特徴とする請求項1に記載の飛越し走査映像符号化方法。
  5. 主参照フィールドと関連した補助参照フィールドを選択する前記ステップは、
    前記主参照フィールドが属する同じ映像内の異なる極性のフィールドを前記補助参照フィールドとして選択することを特徴とする請求項1に記載の飛越し走査映像符号化方法。
  6. 主参照フィールドの動きベクトルから補助参照フィールドの動きベクトルを誘導する前記ステップは、
    前記主参照フィールドの動きベクトルを基盤として線形変換を実行して前記補助参照フィールドの動きベクトルを誘導することを特徴とする請求項1に記載の飛越し走査映像符号化方法。
  7. 前記線形変換は、
    前記主参照フィールドおよび前記現在フィールドの相互間の時間的距離を用いて実行されることを特徴とする請求項6に記載の飛越し走査映像符号化方法。
  8. 前記主参照フィールドの動きベクトルによる現在フィールドの圧縮率と前記補助参照フィールドの動きベクトルによる現在フィールドの圧縮率との相互間の比較結果によって、前記主参照フィールドの動きベクトルまたは前記補助参照フィールドの動きベクトルのうちのいずれか1つを選択するステップ、
    をさらに含むことを特徴とする請求項1に記載の飛越し走査映像符号化方法。
  9. 前記現在フィールドの予測フィールドを生成するステップは、
    前記主参照フィールドの動きベクトルおよび前記補助参照フィールドの動きベクトルのうちのいずれか1つを選択的に用いて前記予測フィールドを生成するステップ、
    を含むことを特徴とする請求項1に記載の飛越し走査映像符号化方法。
  10. 前記符号化された飛越し走査映像を生成するために前記補助参照フィールドの動きベクトルを符号化せずに、予め設定されたシンタックスによって前記主参照フィールドの動きベクトルを符号化するステップ、
    をさらに含むことを特徴とする請求項1に記載の飛越し走査映像符号化方法。
  11. 前記現在フィールド、前記主参照フィールド、および前記補助参照フィールドそれぞれは、上部フィールドまたは下部フィールドのうちのいずれか1つであることを特徴とする請求項1に記載の飛越し走査映像符号化方法。
  12. 飛越し走査映像復号化方法であって、
    ビットストリームから現在映像の一部に該当する現在フィールドおよび予測フィールドの相互間の残差フィールドを復元するステップと、
    前記現在フィールドの参照フィールドのうち、前記現在フィールドを基準として過去時間のフィールドまたは未来時間のフィールドのいずれかである主参照フィールドの動きベクトルから補助参照フィールドの動きベクトルを誘導するステップであって、前記誘導することは、前記主参照フィールドと現在フィールドとの間の時間的距離および主参照フィールドと補助参照フィールドとの間の極性差に基づく、ステップと、
    前記主参照フィールドの動きベクトルまたは前記補助参照フィールドの動きベクトルを用いて前記予測フィールドを生成するステップと、
    前記現在フィールドを復元するために前記生成された予測フィールドに前記復元された残差フィールドを加算することによって復号化された飛越し走査映像を生成するステップと、
    を含むことを特徴とする飛越し走査映像復号化方法。
  13. 前記主参照フィールドは、
    前記現在フィールドを基準として過去時間のフィールドであることを特徴とする請求項12に記載の飛越し走査映像復号化方法。
  14. 前記主参照フィールドは、
    前記現在フィールドを基準として未来時間のフィールドであることを特徴とする請求項12に記載の飛越し走査映像復号化方法。
  15. 前記補助参照フィールドは、
    前記主参照フィールドと異なる極性のフィールドであることを特徴とする請求項12に記載の飛越し走査映像復号化方法。
  16. 前記補助参照フィールドは、
    前記主参照フィールドが属する同じ映像内の異なる極性のフィールドであることを特徴とする請求項12に記載の飛越し走査映像復号化方法。
  17. 主参照フィールドの動きベクトルから補助参照フィールドの動きベクトルを誘導する前記ステップは、
    前記現在フィールドの参照フィールドのうち、主参照フィールドの動きベクトルを基盤として線形変換を実行して前記補助参照フィールドの動きベクトルを誘導することを特徴とする請求項12に記載の飛越し走査映像復号化方法。
  18. 前記線形変換は、
    前記主参照フィールドおよび前記現在フィールドの相互間の時間的距離を用いて実行されることを特徴とする請求項17に記載の飛越し走査映像復号化方法。
  19. 前記飛越し走査映像復号化方法は、
    前記ビットストリームから前記現在映像の符号化情報を復元するステップ、
    をさらに含み、
    主参照フィールドの動きベクトルから補助参照フィールドの動きベクトルを誘導する前記ステップは、
    前記符号化情報に含まれた主参照フィールドの動きベクトルを線形変換することによって前記補助参照フィールドの動きベクトルを誘導することを特徴とする請求項12に記載の飛越し走査映像復号化方法。
  20. 前記現在フィールド、前記主参照フィールド、および前記補助参照フィールドそれぞれは、上部フィールドまたは下部フィールドのうちのいずれか1つであることを特徴とする請求項12に記載の飛越し走査映像復号化方法。
  21. 請求項1〜20のうちのいずれか一項の方法を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
  22. 現在映像に対する主参照フィールドに基づいて前記現在映像の一部に該当する現在フィールドの動きを推定することによって前記主参照フィールドの動きベクトルを算出し、前記主参照フィールドと関連した補助参照フィールドを選択し、前記主参照フィールドの動きベクトルから前記補助参照フィールドの動きベクトルを誘導する動き推定部であって、前記主参照フィールドは、前記現在フィールドの参照フィールドのうち、前記現在フィールドを基準として過去時間のフィールドまたは未来時間のフィールドのいずれかであり前記誘導することは、前記主参照フィールドと現在フィールドとの間の時間的距離および主参照フィールドと補助参照フィールドとの間の極性差に基づく、動き推定部と、
    前記主参照フィールドの動きベクトルまたは前記補助参照フィールドの動きベクトルのうちの少なくとも1つを用いて前記現在フィールドの予測フィールドを生成する動き補償部と、
    符号化された飛越し走査映像を生成するために前記現在フィールドおよび予測フィールドの相互間の残差フィールドを符号化する符号化部と、
    を備えることを特徴とする飛越し走査映像符号化装置。
  23. ビットストリームから現在映像の半分に該当する現在フィールドおよび予測フィールドの相互間の残差フィールドを復元する復号化部と、
    前記現在フィールドの参照フィールドのうち、前記現在フィールドを基準として過去時間のフィールドまたは未来時間のフィールドのいずれかである主参照フィールドの動きベクトルから補助参照フィールドの動きベクトルを誘導し、前記主参照フィールドの動きベクトルまたは前記補助参照フィールドの動きベクトルを用いて前記予測フィールドを生成する動き補償部であって、前記誘導することは、前記主参照フィールドと現在フィールドとの間の時間的距離および主参照フィールドと補助参照フィールドとの間の極性差に基づく、動き補償部と、
    前記生成された予測フィールドに前記復元された残差フィールドを加算することによって前記現在フィールドを復元する加算器と、
    を備えることを特徴とする飛越し走査映像復号化装置。
JP2009113965A 2008-05-10 2009-05-08 動きベクトル変換を用いた飛越し走査映像符号化/復号化方法および装置 Expired - Fee Related JP5356909B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2008-0043692 2008-05-10
KR20080043692A KR101445791B1 (ko) 2008-05-10 2008-05-10 움직임 벡터 변환을 이용한 비월 주사 영상 부호화/복호화방법 및 장치

Publications (2)

Publication Number Publication Date
JP2009273132A JP2009273132A (ja) 2009-11-19
JP5356909B2 true JP5356909B2 (ja) 2013-12-04

Family

ID=40996751

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009113965A Expired - Fee Related JP5356909B2 (ja) 2008-05-10 2009-05-08 動きベクトル変換を用いた飛越し走査映像符号化/復号化方法および装置

Country Status (4)

Country Link
US (1) US20090279610A1 (ja)
EP (1) EP2117234A3 (ja)
JP (1) JP5356909B2 (ja)
KR (1) KR101445791B1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5821542B2 (ja) * 2011-11-07 2015-11-24 富士通株式会社 動画像符号化装置、および動画像復号装置
EP2805511B1 (en) 2012-01-20 2019-03-06 Sun Patent Trust Methods and apparatus for encoding and decoding video using temporal motion vector prediction
KR101996682B1 (ko) 2012-02-03 2019-07-04 선 페이턴트 트러스트 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치 및 화상 부호화 복호 장치
CA2866121C (en) 2012-03-06 2018-04-24 Panasonic Intellectual Property Corporation Of America Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5093720A (en) * 1990-08-20 1992-03-03 General Instrument Corporation Motion compensation for interlaced digital television signals
US5175618A (en) * 1990-10-31 1992-12-29 Victor Company Of Japan, Ltd. Compression method for interlace moving image signals
US5317397A (en) * 1991-05-31 1994-05-31 Kabushiki Kaisha Toshiba Predictive coding using spatial-temporal filtering and plural motion vectors
JP3201343B2 (ja) * 1992-07-03 2001-08-20 ケイディーディーアイ株式会社 インターレース動画像の動き補償予測装置
JP2852870B2 (ja) * 1994-07-11 1999-02-03 株式会社グラフィックス・コミュニケーション・ラボラトリーズ 画像符号化における動ベクトル検出方法と装置
JPH10224796A (ja) * 1997-02-04 1998-08-21 Hitachi Ltd 動きベクトル検出装置
US5825930A (en) * 1997-03-05 1998-10-20 Samsung Electronics Co., Ltd. Motion estimating method
US6980596B2 (en) * 2001-11-27 2005-12-27 General Instrument Corporation Macroblock level adaptive frame/field coding for digital video content
US20030099294A1 (en) * 2001-11-27 2003-05-29 Limin Wang Picture level adaptive frame/field coding for digital video content
JP2004007379A (ja) * 2002-04-10 2004-01-08 Toshiba Corp 動画像符号化方法及び動画像復号化方法
KR20040070490A (ko) 2003-02-03 2004-08-11 삼성전자주식회사 비월 주사 방식의 동영상 부호화/복호화 방법 및 그 장치
US7113543B2 (en) * 2003-02-03 2006-09-26 Texas Instruments Incorporated Video encoding
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US7599438B2 (en) * 2003-09-07 2009-10-06 Microsoft Corporation Motion vector block pattern coding and decoding
US7567617B2 (en) * 2003-09-07 2009-07-28 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
EP1592255A1 (en) * 2004-04-30 2005-11-02 Matsushita Electric Industrial Co., Ltd. Motion vector estimation with improved motion vector selection
WO2007040197A1 (ja) * 2005-10-05 2007-04-12 Matsushita Electric Industrial Co., Ltd. 参照画像選択方法および装置
KR101442608B1 (ko) 2008-02-05 2014-09-25 삼성전자주식회사 영상을 효율적으로 부호화/복호화하는 방법 및 장치

Also Published As

Publication number Publication date
KR101445791B1 (ko) 2014-10-02
EP2117234A2 (en) 2009-11-11
KR20090117858A (ko) 2009-11-13
JP2009273132A (ja) 2009-11-19
US20090279610A1 (en) 2009-11-12
EP2117234A3 (en) 2010-07-28

Similar Documents

Publication Publication Date Title
CN110809887B (zh) 用于多参考预测的运动矢量修正的方法和装置
KR101442608B1 (ko) 영상을 효율적으로 부호화/복호화하는 방법 및 장치
JP5174581B2 (ja) 順方向予測インターレース映像フレームのフィールド用の動きベクトルの予測
JP5485969B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
KR20130051384A (ko) 스킵모드를 이용한 동영상 부호화 및 복호화 방법 및 장치
JP2014158305A (ja) 予測映像の生成方法、装置及び記録媒体
KR20080088040A (ko) 영상의 부호화, 복호화 방법 및 장치
KR101375667B1 (ko) 영상의 부호화, 복호화 방법 및 장치
JP5356909B2 (ja) 動きベクトル変換を用いた飛越し走査映像符号化/復号化方法および装置
KR101423655B1 (ko) 필드 픽쳐 부호화/복호화 장치 및 그 방법
WO2007043613A1 (ja) 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム、および動画像復号化プログラム
JP2016158282A (ja) 動画像予測復号方法及び動画像予測復号装置
KR20060069227A (ko) 영상신호의 엔코딩/디코딩시에 영상블록을 위한 모션벡터를베이스 레이어 픽처의 모션벡터로부터 유도하는 방법 및장치
WO2014006959A1 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP5922281B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
KR20060059770A (ko) 영상신호의 엔코딩/디코딩시에 영상블록을 위한 모션벡터를베이스 레이어 픽처의 모션벡터로부터 유도하는 방법 및장치
JP6071618B2 (ja) 画像処理装置及びプログラム
JP5668169B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP5642305B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP2019033535A (ja) 動画像予測復号方法及び動画像予測復号装置
JP5645589B2 (ja) 動画像符号化装置
KR20090027091A (ko) 동영상 부호화/복호화 방법 및 장치
JP2018026726A (ja) 符号化装置及びプログラム
KR20110058677A (ko) 예측을 위한 컬러 플레인간의 상관 파라미터 추출 장치와 방법, 및 그것을 이용한 영상 부호화/복호화 장치 및 방법
JP2009071586A (ja) 画像解像度変換装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121211

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130829

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees