JP5859691B2 - 動きベクトルの予測符号化方法、予測符号化装置、及び予測符号化プログラム、並びに、動きベクトルの予測復号方法、予測復号装置、及び、予測復号プログラム - Google Patents

動きベクトルの予測符号化方法、予測符号化装置、及び予測符号化プログラム、並びに、動きベクトルの予測復号方法、予測復号装置、及び、予測復号プログラム Download PDF

Info

Publication number
JP5859691B2
JP5859691B2 JP2015026825A JP2015026825A JP5859691B2 JP 5859691 B2 JP5859691 B2 JP 5859691B2 JP 2015026825 A JP2015026825 A JP 2015026825A JP 2015026825 A JP2015026825 A JP 2015026825A JP 5859691 B2 JP5859691 B2 JP 5859691B2
Authority
JP
Japan
Prior art keywords
motion vector
candidate
reference screen
prediction
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015026825A
Other languages
English (en)
Other versions
JP2015092781A (ja
JP2015092781A5 (ja
Inventor
暁 藤林
暁 藤林
鈴木 芳典
芳典 鈴木
ブン チュンセン
チュンセン ブン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2015026825A priority Critical patent/JP5859691B2/ja
Publication of JP2015092781A publication Critical patent/JP2015092781A/ja
Publication of JP2015092781A5 publication Critical patent/JP2015092781A5/ja
Application granted granted Critical
Publication of JP5859691B2 publication Critical patent/JP5859691B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明の実施形態は、動きベクトルの予測符号化方法、予測符号化装置、及び予測符号化プログラム、並びに、動きベクトルの予測復号方法、予測復号装置、及び、予測復号プログラムに関するものである。
動画像符号化及び動画像復号においては、動き補償予測技術が用いられることがある。動き補償技術においては、動画像における処理対象のフレームが複数の区画に分割される。これら複数の区画は処理対象の区画(対象区画)として順次選択される。そして、対象区画の動きベクトルが求められる。また、動き補償予測技術においては、対象区画の隣接区画の動きベクトルを用いて予測動きベクトルを求めて、当該対象区画の動きベクトルを予測符号化又は予測復号することがある。
図1(a)及び図1(b)は、動き補償予測に使われる隣接矩形区画を例示する図である。図1(a)では、対象区画BTの形状と隣接区画BL,BA,BRAの形状は同一である。左隣接区画BLは、対象区画BT内の左上の画素に対して左側に存在する隣接画素を含んでおり、上隣接区画BAは、対象区画BT内の左上の画素に対して上側に存在する隣接画素を含んでおり、右上隣接区画BRAは、対象区画BT内の右上の画素に対して右上側に存在する隣接画素を含んでいる。従来技術のH.264/AVCにおいては、左隣接区画BL、上隣接区画BA、及び右上隣接区画BRAの動きベクトルの水平成分及び垂直成分の中間値(median value)を有する予測動きベクトルが用いられている。
一方、図1(b)は、対象区画BTの形状と異なる形状を有する複数の隣接区画が存在する場合を例示している。図1(b)の複数の隣接区画は、左隣接区画BL、上隣接区画BA、右上隣接区画BRAに加えて、隣接区画BL1,BL2,BA1,BA2,BD,BEを含んでいる。特許文献1に記載された技術によれば、複数の隣接区画が予め定められた空間的順序で探索され、対象区画の画素信号に対して最良の空間類似度を有する隣接区画をもつ隣接区画が特定され、特定された隣接区画の動きベクトルが予測動きベクトルとして利用される。特許文献1の技術では、空間的類似度として、対象区画の画素信号と隣接区画の画素信号の絶対値差分和(SAD)が用いられている。
特表2010−515399号公報
上述した特許文献1の技術は、複数の隣接区画を所定の順序で探索しつつ、空間的類似度を計算するため、予測動きベクトルの決定に多くの演算が必要となり得る。
したがって、当技術分野においては、予測動きベクトルの決定に要する演算量を低減することが要請されている。
本発明の予測符号化方法は、複数のフレーム画像の時間系列で構成される動画像の動き補償予測に用いられる動きベクトルを予測符号化する方法であって、前記動画像の符号化対象のフレーム画像内の対象区画の動きベクトルを求めるステップと、前記対象区画に対して左に位置する左隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第1予測動きベクトル候補を決定するステップと、前記対象区画に対して、上に位置する上隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第2予測動きベクトル候補を決定するステップと、前記第1予測動きベクトル候補と前記第2予測動きベクトル候補を含む一以上の予測動きベクトル候補と前記対象区画の前記動きベクトルとの比較に基づき、最適予測動きベクトルを選択し、選択した最適予測動きベクトルを特定するための予測動きベクトル指示情報を出力するステップと、前記予測動きベクトル指示情報を符号化するステップと、を含み、前記対象区画の予測信号は、参照画面リスト識別番号及び参照画面番号によって特定されるフレーム番号を有する参照フレームを参照することにより生成され、前記第1予測動きベクトル候補を決定するステップにおいては、前記対象区画用の参照画面リスト識別番号及び/又は参照画面番号と一致する参照画面リスト識別番号及び/又は参照画面番号を有する前記左隣接領域の区画の動きベクトルから、前記第1予測動きベクトル候補が決定され、前記第2予測動きベクトル候補を決定するステップにおいては、前記対象区画用の参照画面リスト識別番号及び/又は参照画面番号と一致する参照画面リスト識別番号及び/又は参照画面番号を有する前記上隣接領域の区画の動きベクトルから、前記第2予測動きベクトル候補が決定される。
また、本発明は、前記符号化するステップにおいて、前記予測動きベクトル指示情報を、前記予測動きベクトル候補の数に応じたビット数の符号化データに符号化するようにしてもよい。
また、本発明は、前記符号化するステップにおいて、前記予測動きベクトル指示情報を、前記予測動きベクトル候補の数に応じた最小数のビットの符号化データに符号化する、ようにしてもよい。
また、本発明は、前記一以上の予測動きベクトル候補の数が3以下である、ようにしてもよい。
また、本発明は、前記対象区画の動きベクトルと前記最適予測動きベクトルとの間の残差信号を符号化せず、前記最適予測動きベクトルを前記対象区画の動きベクトルとして用いる、ようにしてもよい。
また、本発明の予測符号化装置は、複数のフレーム画像の時間系列で構成される動画像の動き補償予測に用いられる動きベクトルを予測符号化する装置であって、前記動画像の符号化対象のフレーム画像内の対象区画の動きベクトルを求める手段と、前記対象区画に対して左に位置する左隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第1予測動きベクトル候補を決定する手段と、前記対象区画に対して、上に位置する上隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第2予測動きベクトル候補を決定する手段と、前記第1予測動きベクトル候補と前記第2予測動きベクトル候補を含む一以上の予測動きベクトル候補と前記対象区画の前記動きベクトルとの比較に基づき、最適予測動きベクトルを選択し、選択した最適予測動きベクトルを特定するための予測動きベクトル指示情報を出力する手段と、前記予測動きベクトル指示情報を符号化する手段と、含み、前記対象区画の予測信号は、参照画面リスト識別番号及び参照画面番号によって特定されるフレーム番号を有する参照フレームを参照することにより生成され、前記第1予測動きベクトル候補を決定する手段においては、前記対象区画用の参照画面リスト識別番号及び/又は参照画面番号と一致する参照画面リスト識別番号及び/又は参照画面番号を有する前記左隣接領域の区画の動きベクトルから、前記第1予測動きベクトル候補が決定され、前記第2予測動きベクトル候補を決定する手段においては、前記対象区画用の参照画面リスト識別番号及び/又は参照画面番号と一致する参照画面リスト識別番号及び/又は参照画面番号を有する前記上隣接領域の区画の動きベクトルから、前記第2予測動きベクトル候補が決定される。
また、本発明のプログラムは、複数のフレーム画像の時間系列で構成される動画像の動き補償予測に用いられる動きベクトルを予測符号化する方法を、コンピュータにより実行させる。
また、本発明の予測復号方法は、複数のフレーム画像の時間系列で構成される動画像を復元する動き補償予測に用いられる動きベクトルを予測復号する方法であって、復号対象のフレーム画像内の対象区画に対して左に位置する左隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第1予測動きベクトル候補を決定するステップと、前記対象区画に対して、上に位置する上隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第2予測動きベクトル候補を決定するステップと、符号化データを復号して、前記対象区画用の最適予測動きベクトルを特定するための予測動きベクトル指示情報を復元するステップと、少なくとも前記第1予測動きベクトル候補と前記第2予測動きベクトル候補を含む一以上の予測動きベクトル候補から、前記予測動きベクトル指示情報により特定される最適予測動きベクトルを選択するステップと、を含み、前記対象区画の予測信号は、参照画面リスト識別番号及び参照画面番号によって特定されるフレーム番号を有する参照フレームを参照することにより生成され、前記第1予測動きベクトル候補を決定するステップにおいては、前記対象区画用の参照画面リスト識別番号及び/又は参照画面番号と一致する参照画面リスト識別番号及び/又は参照画面番号を有する前記左隣接領域の区画の動きベクトルから、前記第1予測動きベクトル候補が決定され、前記第2予測動きベクトル候補を決定するステップにおいては、前記対象区画用の参照画面リスト識別番号及び/又は参照画面番号と一致する参照画面リスト識別番号及び/又は参照画面番号を有する前記上隣接領域の区画の動きベクトルから、前記第2予測動きベクトル候補が決定される。
また、本発明は、前記予測動きベクトル指示情報の前記符号化データのビット数は、前記予測動きベクトル候補の数に応じたビット数である、ようにしてもよい。
また、本発明は、前記予測動きベクトル指示情報の前記符号化データのビット数は、前記予測動きベクトル候補の数に応じた最小数のビット数である、ようにしてもよい。
また、本発明は、前記一以上の予測動きベクトル候補の数が3以下である、ようにしてもよい。
また、本発明は、前記最適予測動きベクトルを前記対象区画の動きベクトルとして用いる、ようにしてもよい。
また、本発明の予測復号装置は、複数のフレーム画像の時間系列で構成される動画像を復元する動き補償予測に用いられる動きベクトルを予測復号する装置であって、復号対象のフレーム画像内の対象区画に対して左に位置する左隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第1予測動きベクトル候補を決定する手段と、前記対象区画に対して、上に位置する上隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第2予測動きベクトル候補を決定する手段と、符号化データを復号して、前記対象区画用の最適予測動きベクトルを特定するための予測動きベクトル指示情報を復元する手段と、少なくとも前記第1予測動きベクトル候補と前記第2予測動きベクトル候補を含む一以上の予測動きベクトル候補から、前記予測動きベクトル指示情報により特定される最適予測動きベクトルを選択する手段と、を含み、前記対象区画の予測信号は、参照画面リスト識別番号及び参照画面番号によって特定されるフレーム番号を有する参照フレームを参照することにより生成され、前記第1予測動きベクトル候補を決定する手段においては、前記対象区画用の参照画面リスト識別番号及び/又は参照画面番号と一致する参照画面リスト識別番号及び/又は参照画面番号を有する前記左隣接領域の区画の動きベクトルから、前記第1予測動きベクトル候補が決定され、前記第2予測動きベクトル候補を決定する手段においては、前記対象区画用の参照画面リスト識別番号及び/又は参照画面番号と一致する参照画面リスト識別番号及び/又は参照画面番号を有する前記上隣接領域の区画の動きベクトルから、前記第2予測動きベクトル候補が決定される。
また、本発明のプログラムは、複数のフレーム画像の時間系列で構成される動画像を復元する動き補償予測に用いられる動きベクトルを予測復号する方法を、コンピュータにより実行させる。
以上説明したように、本発明の種々の側面及び実施形態によれば、予測動きベクトルの決定に要する演算量を低減し得る動きベクトルの予測符号化方法、予測符号化装置、及び予測符号化プログラム、並びに、動きベクトルの予測復号方法、予測復号装置、及び、予測復号プログラムが提供され得る。
動き補償予測に使われる隣接矩形区画を例示する図である。 一実施形態に係る動画像符号化装置の構成を示す図である。 動きベクトルの予測符号化方法の一実施形態を示すフローチャートである。 動き補償予測に使われる隣接矩形区画を例示する図である。 図3のステップS302の処理の第1実施形態を詳細に示すフローチャートである。 図3のステップS303の処理の第1実施形態を詳細に示すフローチャートである。 一実施形態に係る動画像復号装置の構成を示す図である。 動きベクトルの予測復号方法の一実施形態を示すフローチャートである。 第2実施形態の動きベクトルの予測符号化方法における予測動きベクトル候補の決定処理を示すフローチャートである。 第2実施形態の動きベクトルの予測復号方法を示すフローチャートである。 一実施形態に係る動画像符号化プログラムの構成を示す図である。 一実施形態に係る動画像復号プログラムの構成を示す図である。 一実施形態に係るコンピュータのハードウェア構成を示す図である。 一実施形態に係るコンピュータを示す斜視図である。
以下、図面を参照して種々の実施形態について詳細に説明する。なお、各図面において同一又は相当の部分に対しては同一の符号を附すこととする。
図2は、一実施形態に係る動画像符号化装置の構成を示す図である。図2に示す動画像符号化装置20は、本発明の一側面に係る動きベクトルを予測符号化する装置の一例である。
動画像符号化装置20に入力される動画像は、フレーム画像の時間系列で構成される。以下、符号化処理対象のフレーム画像信号を「現フレーム」と呼ぶ。動画像符号化装置20では、現フレームは、可変サイズの矩形の区画に分割され、区画単位で、以下に説明する処理が行われる。
動画像符号化装置20は、予測モードとして、画面間予測モードと複数の画面内予測モードを、区画ごとに切り替えて用いることができる。例えば、動画像符号化装置20では、区画ごとに、画面間予測モード及び複数の画面内予測モードのうち符号化効率の良い予測モードが選択される。ここで、「画面間予測モード」とは、フレーム画像信号と時間的に異なる複数の符号化済みフレーム画像信号(参照フレーム画像信号)を参照して動きベクトルを検出することにより、動き補償フレーム間予測を行うモードである。また、「画面内予測モード」とは、同一空間上の符号化済みである近傍の領域の画素値を用いた空間予測を行うモードである。なお、「画面間予測モード」においては、例えばN×N画素の区画を更に任意サイズ(例えば、N/2画素×NラインやN/4画素×N/4ライン)に分割した小区画ごとに動き検出、動き予測、及び動き補償の各処理が行われ得る。
図2に示すように、動画像符号化装置20は、入力器201、動き検出器202、予測動きベクトル候補決定器203、予測動きベクトル決定器204、動きベクトル差分器205、動き補償器206、メモリ207、空間予測器208、予測方法決定器209、減算器210、変換器211、量子化器212、エントロピー符号化器213、逆量子化器214、逆変換器215、及び、加算器216を備え得る。
入力器201は、外部から入力される動画像信号としての入力映像信号を受信し、当該動画像信号をフレーム画像信号に分解する。入力器201は、フレーム画像信号を、ラインL201a及びL201bを介して、減算器210及び動き検出器202へ出力する。
メモリ207は、過去に符号化済みのフレーム画像信号およびその予測に用いられた情報(動きベクトル、参照画面リスト識別番号、参照画面番号)等を記憶しておく部分である。
動き検出器202は、動きベクトルの検出を行う。より具体的には、動き検出器202は、ラインL207a経由でメモリ207から入力される参照フレーム画像信号を用いて、当該参照フレーム内の所定の探索範囲内で、ラインL201a経由で入力される現フレーム内の対象区画の画像信号パターンに類似する画像信号パターンを探索する。動き検出器202は、対象区画と探索した画像信号パターンとの間の空間的な変位量である動きベクトル、並びに、利用した参照フレームのフレーム番号を特定するための参照画面リスト識別番号及び参照画面番号を検出する。検出された動きベクトル、参照画面リスト識別番号、及び参照画面番号は、ラインL202a経由で動き補償器206に、また、ラインL202c経由で動きベクトル差分器205に出力される。また、動き検出器202は、検出した参照画面リスト識別番号及び参照画面番号を、ラインL202b経由で、予測動きベクトル候補決定器203に出力する。なお、動画像符号化装置20では、参照フレーム画像信号を特定するフレーム番号をリスト形式で管理することができる。フレーム番号を特定するためには、リストを特定するための参照画面リスト識別番号(Reference Picutre List)、及び、リスト内におけるフレーム番号のインデックスとなる参照画面番号(Reference Index)が用いられる。かかる技術は、H.264/AVC等で公知の技術である。
予測動きベクトル候補決定器203は、ラインL207b経由で入力される符号化済みの複数の隣接区画の動きベクトルを用いて、予測動きベクトル候補を決定する。この予測動きベクトル候補の決定に関する詳細は後述する。予測動きベクトル候補決定器203は、決定した予測動きベクトル候補をラインL203経由で予測動きベクトル決定器204に出力する。
予測動きベクトル決定器204は、ラインL203経由で入力された予測動きベクトル候補から最適予測動きベクトル(予測動きベクトル値)を決定する。より具体的には、予測動きベクトル決定器204は、予測動きベクトル候補のうち、ラインL202c経由で入力された対象区画の動きベクトルに対する差分が最も小さい予測動きベクトル候補を最適予測動きベクトルPMVoptとして決定する。決定された最適予測動きベクトルPMVoptは、ラインL204a経由で動きベクトル差分器205に送られる。また、予測動きベクトル候補の数、及び、予測動きベクトル候補から最適予測動きベクトルPMVoptを特定するための予測動きベクトル指示情報がラインL204b経由でエントロピー符号化器213に送られる。
なお、本実施形態では、対象区画の動きベクトルに対する差分が最も小さくなる予測動きベクトル候補が、最適予測動きベクトルPMVoptとして選択されているが、予測動きベクトル決定器204は、算出される動きベクトル差分に対して割り当てられる符号量が最も小さい予測動きベクトル候補を最適予測動きベクトルPMVoptとして選択してもよい。
また、本実施形態では、対象区画の動き検出の後に最適予測動きベクトルを決定したが、動き検出前に最適予測動きベクトルが検出されてもよい。具体的には、下式に示すように、実際に算出された各予測動きベクトル候補を用いて動き補償を行った際の予測画像信号と対象画像信号との絶対値差分和(SADpmv)、及び、その予測動きベクトル候補を符号化した場合の符号量Rpmvと符号量に対する重みであるλを用いたコスト関数に基づき最適予測動きベクトルが算出されてもよい。この場合には、図2の予測動きベクトル決定器204に対してラインL201aから対象区画の画像信号が入力され、ラインL207aから参照フレーム画像信号が入力されればよい。
Figure 0005859691

動きベクトル差分器205は、ラインL202c経由で入力された動きベクトルとラインL204a経由で入力された最適予測動きベクトルとの差分情報である動きベクトル差分値を算出する。動きベクトル差分器205は、算出した動きベクトル差分値と参照画面リスト識別番号及び参照画面番号とを含む信号を予測情報としてラインL205a経由でエントロピー符号化器213へ送る。また、動きベクトル差分器205は、ラインL205b経由で動きベクトルと参照画面リスト識別番号及び参照画面番号とを含む信号をメモリ207に送信する。
動き補償器206は、動き検出器202から受け取った参照画面リスト識別番号及び参照画面番号により特定されるフレーム番号の参照フレーム画像信号を参照し、動き検出器202から受け取った動きベクトルを用いて、対象区画の予測画像信号を生成する。この予測画像信号は、予測方法決定器209に出力される。
空間予測器208は、ラインL207a経由で入力される符号化済みの近傍の領域の画像信号(参照フレーム画像信号)を参照して、予測画像信号を生成する。空間予測器208は、生成した予測画像信号を予測方法決定器209に出力する。
予測方法決定器209は、動き補償器206及び空間予測器208から受信した予測画像信号を比較して、何れか一方の予測画像信号を選択し、選択した予測画像信号を減算器210に出力する。また、予測方法決定器209は、選択した予測画像信号を生成した予測方法を示す予測モード情報を、ラインL209b経由でエントロピー符号化器213に出力する。
減算器210は、ラインL201b経由で入力されるフレーム画像信号とラインL209a経由で入力される予測画像信号との差分値(予測残差信号)を生成し、当該予測残差信号を変換器211に出力する。
変換器211は、ラインL210経由で入力される予測残差信号を直交変換することにより、直交変換係数を生成して、当該直交変換係数を量子化器212に出力する。量子化器212は、ラインL211経由で入力される直交変換係数を量子化することにより、量子化直交変換係数を生成し、量子化直交変換係数をエントロピー符号化器213及び逆量子化器214に送る。
エントロピー符号化器213は、ラインL212経由で入力される量子化直交変換係数と、予測方法決定器209から受けた予測モード情報と、動きベクトル差分器205から送信された予測情報と、予測動きベクトル決定器204から出力された予測動きベクトル指示情報に対してエントロピー符号化を行って、生成した符号化データを圧縮ストリームに多重化して、当該圧縮ストリームを外部へ伝送する。
逆量子化器214は、ラインL212経由で入力される量子化直交変換係数を逆量子化することにより直交変換係数を生成し、当該直交変換係数を逆変換器215に送る。そして、逆変換器215は、ラインL214経由で入力される直交変換係数に対して逆直交変換を適用することにより、予測残差信号を生成し、当該予測残差信号を加算器216に送る。
加算器216は、ラインL215経由で入力される予測残差信号とラインL209a経由で入力される予測画像信号とを加算してフレーム画像信号を生成し、当該フレーム画像信号をメモリ207に送る。このフレーム画像信号は、メモリ207に格納され、以降の符号化処理で、参照フレーム画像信号として用いられる。また、メモリ207には、ラインL205b経由で入力された動きベクトルや参照画面リスト識別番号及び参照画面番号等も参照フレーム画像信号に関連付けられて格納される。
以下、動画像符号化装置20で用いられ得る動きベクトルの予測符号化方法の一実施形態ついて、説明する。
まず、図1(b)を参照して、対象区画に隣接する区画について説明する。区画BL,BL1,BL2は、対象区画BTの左境界に接する区画である。区画BDは、対象区画BT内の左下の画素に対して左下に存在する隣接画素を含む区画である。また、区画BEは、対象区画BT内の左上の画素に対して左上に存在する隣接画素を含む区画である。区画BA,BA1,BA2は、対象区画BTの上境界に接する区画である。区画BRAは、対象区画BT内の右上の画素に対して右上に存在する隣接画素を含む区画である。なお、対象区画に隣接する区画は、図1(a)に示すように、対象区画BTと同じサイズの区画であってもよい。
次に、図3を参照する。図3は、動きベクトルの予測符号化方法の一実施形態を示すフローチャートである。図3に示すように、一実施形態の動きベクトルの予測符号化方法においては、まず、予測動きベクトル候補決定器203に、参照画面リスト識別番号及び参照画面番号が入力される(ステップS301)。
次に、予測動きベクトル候補決定器203が、対象区画BTの左隣接領域に含まれる一以上の区画の動きベクトルから予測動きベクトル候補PMV1を決定する(ステップS302)。予測動きベクトル候補PMV1の決定方法についての詳細は後述する。
次に、予測動きベクトル候補決定器203は、対象区画BTの上隣接領域に含まれる一以上の区画の動きベクトルから予測動きベクトル候補PMV2を決定する(ステップS303)。予測動きベクトル候補PMV2の決定方法についての詳細は後述する。
次に、予測動きベクトル候補決定器203は、予測動きベクトル候補PMV3を決定する(ステップS304)。本実施形態では、参照フレーム内の区画であって対象区画と空間的に同位置の区画の動きベクトルが、予測動きベクトル候補PMV3として決定される。
なお、予測動きベクトル候補PMV3としては、参照フレーム内の対象区画と同位置の区画の動きベクトルに代えて、その他の空間的に隣接する区画の動きベクトルが用いられてもよい。また、予測動きベクトル候補PMV1と予測動きベクトル候補PMV2に基づき計算される平均値等が、予測動きベクトル候補PMV3として用いられてもよい。
また、予測動きベクトル候補の数は、3以上であってもよい。この場合に、左隣接領域及び上隣接領域のそれぞれから異なる方法で複数の予測動きベクトル候補が決定されてもよい。より具体的には、左隣接領域及び上隣接領域のそれぞれにおいて、複数の異なるスキャン方向に各領域内の区画を探索することにより複数の予測動きベクトル候補を決定してもよい。また、その他の隣接領域の動きベクトルが予測動きベクトル候補として用いられてもよい。
図3に戻り、次いで、予測動きベクトル候補決定器203は、予測動きベクトル候補PMV1、予測動きベクトル候補PMV2、及び予測動きベクトル候補PMV3のうち、同一ではない予測動きベクトル候補のみを最終的な予測動きベクトル候補として決定する(ステップS305)。具体例を示せば、予測動きベクトル候補PMV1と予測動きベクトル候補PMV3が同一の場合には、予測動きベクトル候補としてPMV1とPMV2のみが選択される。また、ステップS302からS304において条件を満足する予測動きベクトル候補が決定されなかった場合には、零動きベクトルが予測動きベクトル候補となる。
次いで、予測動きベクトル決定器204が、予測動きベクトル候補決定器203によって決定された予測動きベクトル候補から、上述したように最適予測動きベクトルを決定する(ステップS306)。
次いで、エントロピー符号化器213が、最適予測動きベクトルが予測動きベクトル候補のうちの何れであるかを特定するための予測動きベクトル指示情報を符号化する(ステップS307)。
一実施形態においては、予測動きベクトル指示情報は、予測動きベクトル決定器204で選択された予測動きベクトル候補の数に応じたビット数の符号化データに符号化され得る。例えば、予測動きベクトル候補の数が0か1の場合には、予測動きベクトル指示情報は符号化されず伝送されない。また、予測動きベクトル候補の数が2か3の場合には、予測動きベクトル指示情報は最大で2ビットにて符号化される。
なお、予測動きベクトル候補の数とは無関係に固定の符号化テーブルに基づき予測動きベクトル指示情報が符号化されてもよい。この場合には、以下の符号化テーブルを用いて、予測動きベクトル指示情報が符号化され得る。
<表1. 符号化テーブル>
ビット値 最適予測動きベクトル
0・・・・・・予測動きベクトル候補1(PMV1)
10・・・・・予測動きベクトル候補2(PMV2)
11・・・・・予測動きベクトル候補3(PMV3)
一実施形態においては、予測動きベクトル候補PMV1、予測動きベクトル候補PMV2、予測動きベクトル候補PMV3の決定順序は変更されてもよい。例えば、対象区画を複数の小区画に分割して小区画毎に符号化処理を行う際に、この形態を利用することができる。具体的には、対象区画を上下に2分割した場合の下側の小区画及び対象区画を左右に2分割した場合の左側の小区画を対象区画とする場合には、左隣接領域、上隣接領域、その他の領域(例えば、対象区画と同位置の参照フレーム内の区画)の順に、予測動きベクトル候補が決定され得る。一方、対象区画を上下に2分割した場合の上側の小区画及び対象区画を左右に2分割した場合の右側の小区画を対象区画とする場合には、これら対象区画に対しては、上隣接領域、左隣接領域、その他の領域(例えば、対象区画と同位置の参照フレーム内の区画)の順に、予測動きベクトル候補が決定され得る。
以下、一実施形態に係る予測動きベクトル候補の決定処理に関する第1実施形態について詳細に説明する。まず、図1(b)、図4、及び図5を参照して、図3のステップS302の処理の第1実施形態について説明する。図1(b)に示すように、ここでは、対象区画に対して左下の隣接区画BD及び対象区画に対して左に隣接する区画BL,BL1,BL2が左隣接領域を構成するものとする。また、図4の(a)に示すインデックスiの昇順で左隣接領域内の区画がスキャンされるものとする。即ち、左隣接領域内の区画が下から上に順にスキャンされるものとする。
なお、左下の隣接区画BDは、左隣接領域に含まれていなくてもよい。また、左下の隣接区画BDよりも更に下方の区画が左隣接領域に含まれていてもよい。さらに、区画BEや区画BEよりも上に位置する区画が左隣接領域に含まれていてもよい。さらに、対象区画の左に位置し当該対象区画から一定距離離れた区画が左隣接領域に含まれていてもよい。
図4の(a)及び図5に戻り、ステップS302の処理においては、まず、予測動きベクトル候補決定器203は、インデックスiを0に設定する(ステップS501)。予測動きベクトル候補決定器203は、続くステップS502において、インデックスiを1だけ増分する。
次いで、予測動きベクトル候補決定器203は、スキャン順でi番目の区画が左隣接領域に存在し、且つ、当該区画が動きベクトルをもつか否かを判定する(ステップS503)。i番目の区画が左隣接領域に存在し、且つ、当該区画が動きベクトルをもつ場合には、続くステップS504において、予測動きベクトル候補決定器203は、i番目の区画と対象区画が同一の参照画面リスト識別番号及び参照画面番号をもつか否かを判定する。ステップS504の判定条件が満たされる場合には、続くステップS505において、予測動きベクトル候補決定器203は、i番目の区画の動きベクトルを予測動きベクトル候補PMV1として決定し、続くステップS506において、予測動きベクトル候補PMV1を出力し、処理を終了する。
一方、ステップS503の判定条件が満たされない場合、又は、ステップS504の判定条件が満たされない場合には、処理はステップS507に移行する。ステップS507においては、予測動きベクトル候補決定器203は、インデックスiが左隣接領域の区画の個数Nを超えているか否かを判定する。ステップS507の判定条件が満たされない場合、予測動きベクトル候補決定器203は、ステップS502からの処理を続行する。一方、ステップS507の判定条件が満たされた場合、予測動きベクトル候補決定器203は、処理を終了する。
なお、図4の(a)に示す形態では、左隣接領域の区画が下から順にスキャンされるが、一実施形態においては、図4の(c)に示すように、上から順にスキャンされてもよい。
また、一実施形態においては、図4の(a)に示すスキャン順と図4の(c)に示すスキャン順が適応的に選択されてもよい。例えば、隣接区画の動きベクトルの関係に基づき、スキャン順序が決定されてもよい。具体的には、図1(b)の区画BLの動きベクトルと区画BAの動きベクトルの絶対値差分αと、区画BRAの動きベクトルと区画BDの動きベクトルの絶対値差分βを比較し、絶対値差分αが絶対値差分βより小さい場合には、図4の(c)のスキャン順が選択されてもよい。一方、逆の場合には、図4の(a)のスキャン順が選択されてもよい。
また、一実施形態においては、ステップS502にて、インデックスiを2以上の数値で増分することにより、スキャンする区画を間引いてもよい。
以下、図1(b)、図4、及び図6を参照して、図3のステップS303の処理の第1実施形態について詳細に説明する。図1(b)に示すように、ここでは、対象区画に対して左上の隣接区画BE及び対象区画に対して上に隣接する区画BA,BA1,BA2が上隣接領域を構成するものとする。また、図4の(a)に示すインデックスjの昇順で上隣接領域内の区画がスキャンされるものとする。即ち、上隣接領域内の区画が右から左に順にスキャンされるものとする。
なお、左上の隣接区画BEは、上隣接領域に含まれていなくてもよい。また、左上の隣接区画BEよりも更に左の区画が上隣接領域に含まれていてもよい。さらに、対象区画の上に位置し当該対象区画から一定距離離れた区画が上隣接領域に含まれていてもよい。
図4の(a)及び図6に戻り、ステップS303の処理においては、まず、予測動きベクトル候補決定器203は、インデックスjを0に設定する(ステップS601)。予測動きベクトル候補決定器203は、続くステップS602において、インデックスjを1だけ増分する。
次いで、予測動きベクトル候補決定器203は、スキャン順でj番目の区画が上隣接領域に存在し、且つ、当該区画が動きベクトルをもつか否かを判定する(ステップS603)。j番目の区画が上隣接領域に存在し、且つ、当該区画が動きベクトルをもつ場合には、続くステップS604において、予測動きベクトル候補決定器203は、j番目の区画と対象区画が同一の参照画面リスト識別番号及び参照画面番号をもつか否かを判定する。ステップS604の判定条件が満たされる場合には、続くステップS605において、予測動きベクトル候補決定器203は、j番目の区画の動きベクトルが予測動きベクトル候補PMV1と同一であるか否かを判定する。j番目の区画の動きベクトルが予測動きベクトル候補PMV1と異なる場合には、続くステップS606において、予測動きベクトル候補決定器203は、j番目の区画の動きベクトルを予測動きベクトル候補PMV2として決定し、続くステップS607において、予測動きベクトル候補PMV2を出力し、処理を終了する。
一方、ステップS603の判定条件が満たされない場合、ステップS604の判定条件が満たされない場合、又は、ステップS605の判定条件が満たされる場合には、処理は、ステップS608に移行する。
ステップS608においては、予測動きベクトル候補決定器203は、インデックスjが上隣接領域の区画の個数Mを超えているか否かを判定する。ステップS608の判定条件が満たされない場合、予測動きベクトル候補決定器203は、ステップS602からの処理を続行する。一方、ステップS608の判定条件が満たされた場合、予測動きベクトル候補決定器203は、処理を終了する。
なお、図4の(a)に示す形態では、上隣接領域の区画が右から順にスキャンされるが、一実施形態においては、図4の(c)に示すように、左から順にスキャンされてもよい。
また、一実施形態においては、図4の(a)に示すスキャン順と図4の(c)に示すスキャン順が適応的に選択されてもよい。例えば、隣接区画の動きベクトルの関係に基づき、スキャン順序が決定されてもよい。具体的には、図1(b)の区画BLの動きベクトルと区画BAの動きベクトルの絶対値差分αと、区画BRAの動きベクトルと区画BDの動きベクトルの絶対値差分βを比較し、絶対値差分αが絶対値差分βより小さい場合には、図4の(c)のスキャン順が選択されてもよい。一方、逆の場合には、図4の(a)のスキャン順が選択されてもよい。
また、上述した実施形態では、区画BEを上隣接領域に含めているが、区画BEを左隣接領域に含めてもよい。また、区画BEを上隣接領域及び左隣接領域とは独立した領域とし、区画BEの動きベクトルを別個の予測動きベクトル候補として取り扱ってもよい。
また、上述した実施形態では、隣接領域の区画の動きベクトルを予測動きベクトル候補として選択するための判定条件に、参照画面リスト識別番号及び参照画面番号の双方を用いているが、これに限定されるものではない。例えば、当該判定条件に、参照画面リスト識別番号及び参照画面番号の一方が用いられてもよい。また、参照画面番号を用いない場合には、参照フレームと対象フレーム間の距離に応じて隣接領域の区画の動きベクトルのスケーリングを行ってもよい。また、その他の画面内予測の情報を用いてもよい。具体的には、対象区画の大きさと隣接区画の大きさを上述した判定条件の1つとしてもよい。具体的には対象区画のサイズがN×N画素の場合、隣接領域内の区画のサイズがN×N画素であることを判定条件としたり、又は、N/2×N/2画素から2N×2N画素のサイズの区画であることを判定条件としてもよい。
また、上述した実施形態では、左隣接領域の予測動きベクトル候補PMV1が算出された後に、上隣接領域の予測動きベクトル候補PMV2の算出が行われているが、これに限定されるものではない。左隣接領域の予測動きベクトル候補PMV1の決定より先に上隣接領域の予測動きベクトル候補PMV2が決定されてもよい。この場合、左隣接領域の予測動きベクトル候補PMV1の決定する処理において、左隣接領域に含まれる区画の動きベクトルが上隣接領域の予測動きベクトル候補PMV2と同一であることを判定する処理を行い得る。
また、上述した実施形態では、ステップS605において、上隣接領域のj番目の区画の動きベクトルが左隣接領域の予測動きベクトル候補PMV1と同一であるか否かが判定されているが、この判定は実施されなくてもよい。この場合、ステップS604の判定条件が満たされる場合に、直接ステップS606の処理を行えばよい。
また、一実施形態においては、ステップS602にて、インデックスjを2以上の数値で増分することにより、スキャンする区画を間引いてもよい。
以下、動画像符号化装置20によって生成された圧縮ストリームを復号して動画像を復元する動画像復号装置について説明する。図7は、一実施形態に係る動画像復号装置の構成を示す図である。図7に示す動画像復号装置30は、本発明の一側面に係る動きベクトルを予測復号する装置の一例である。
図7に示すように、動画像復号装置30は、エントロピー復号器301と、予測動きベクトル候補決定器302と、予測動きベクトル決定器303と、動きベクトル加算器304と、動き補償器305と、フレームメモリ306と、空間予測器307と、予測方法決定器308と、逆量子化器309と、逆直交変換器310と、加算器311と、を備え得る。
エントロピー復号器301は、圧縮ストリームを受信した後、当該圧縮ストリームにおいて各フレームの先頭を表す同期ワードを検出した後、分割区画単位で、当該圧縮ストリーム内の符号化データから予測モード情報と量子化直交変換係数を復元する。また、予測モード情報によって特定される予測モードが「画面間予測モード」である場合には、エントロピー復号器301は、圧縮ストリーム内の符号化データを復号して、動きベクトル差分値、参照画面リスト識別番号、及び参照画面番号の復元も行う。
エントロピー復号器301は、復元した量子化直交変換係数をラインL301a経由で逆量子化器309に送る。また、エントロピー復号器301は、予測モード情報、参照画面リスト識別番号、及び参照画面番号をラインL301b経由で予測動きベクトル候補決定器302に送る。さらに、エントロピー復号器301は、復元した動きベクトル差分値を、ラインL301d経由で動きベクトル加算器304に送る。また、エントロピー復号器301は、復元した予測モード情報をラインL301e経由で予測方法決定器308に送る。
予測動きベクトル候補決定器302は、受け取った予測モード情報によって特定される予測モードが「画面間予測モード」である場合に、復号済みの隣接区画の動きベクトルから予測動きベクトル候補を決定する。予測動きベクトル候補決定器302によって行われる予測動きベクトル候補の決定に関する処理は、予測動きベクトル候補決定器203について上述した処理と同様であるので、ここでは、その説明を割愛する。この予測動きベクトル候補決定器302は、決定した予測動きベクトル候補をラインL302b経由で予測動きベクトル決定器303に出力する。さらに、予測動きベクトル候補決定器302は、予測動きベクトル候補の数をラインL302a経由でエントロピー復号器301に出力する。
エントロピー復号器301は、ラインL302a経由で予測動きベクトル候補の数を受け取ると、当該数に応じて圧縮ストリーム内の符号化データを復号して、予測動きベクトル指示情報を復元する。エントロピー復号器301は、復元した予測ベクトル指示情報を予測動きベクトル決定器303に送る。より具体的には、予測動きベクトル候補の数が0か1の場合には、予測動きベクトル指示情報は伝送されてこないため、復元処理は行われない。また、予測動きベクトル候補の数が2か3の場合には、最大で2ビットの符号化データをエントロピー復号化することにより、予測動きベクトル指示情報が復元される。
なお、エントロピー復号器301は、予測動きベクトル候補決定器302で選択された予測動きベクトル候補の数に応じて符号化データを復号することにより予測動きベクトル指示情報の復元を行っているが、これに限定されるものではない。例えば、予測動きベクトル候補の数とは関係なく上述した表1の固定の符号化テーブルを用いて予測動きベクトル指示情報が復元されてもよい。なお、固定符号化テーブルの設定はこれに限定されるものではない。また、予測動きベクトル候補の算出の前に、予測動きベクトル指示情報が復元されてもよい。
予測動きベクトル決定器303は、ラインL302b経由で入力された予測動きベクトル候補の中から、ラインL301c経由で入力される予測動きベクトル指示情報に基づき最適予測動きベクトルPMVoptを決定する。決定された最適予測動きベクトルPMVoptは、ラインL303経由で動きベクトル加算器304に送られる。
動きベクトル加算器304は、エントロピー復号器301から送信された動きベクトル差分値と予測動きベクトル決定器303から送信された最適予測動きベクトルPMVoptとを加算して、動きベクトルを復元する。動きベクトル加算器304は、復元した動きベクトルを含む信号をラインL304経由で動き補償器305に送る。
動き補償器305は、動きベクトル加算器304から送られた動きベクトルとラインL301d経由でエントロピー復号器301から送信される予測モード情報、参照画面リスト識別番号、及び参照画面番号に基づいてメモリ306内の参照フレーム画像信号を選択し、選択した参照フレーム画像信号を用いて、予測画像信号を生成する。動き補償器305は、ラインL305a経由で、予測画像信号を予測方法決定器308に送る。また、動き補償器305は、予測画像信号の生成に利用した予測モード情報、参照画面リスト識別番号、及び参照画面番号をラインL305b経由でメモリ306に出力する。なお、メモリ306には、過去に復号済みのフレーム画像信号、予測モード情報、参照画面リスト識別番号、及び参照画面番号が格納されている。
また、空間予測器307は、ラインL301e経由で入力される予測モード情報によって特定される予測モードが「画面内予測モード」である場合に、復号済みの近傍ブロックの画像信号(参照フレーム画像信号)を参照して予測画像信号を生成し、当該予測画像信号を予測方法決定器308に送る。
予測方法決定器308は、エントロピー復号器301から送信された予測モード情報に基づいて、画面間予測によって生成された予測画像信号及び画面内予測によって生成された予測画像信号のいずれかを選択し、選択した予測画像信号を、ラインL308経由で加算器311に送る。
逆量子化器309は、エントロピー復号器301により送信された量子化直交変換係数を逆量子化して、直交変換係数を復元する。逆量子化器309は、復元した直交変換係数をラインL309経由で逆直交変換器310に送る。
逆直交変換器310は、受け取った直交変換係数に逆直交変換を適用して、予測残差信号を復元する。逆直交変換器310は、復元した予測残差信号をラインL310経由で加算器311に送る。
加算器311は、予測方法決定器308から送信された予測画像信号と、逆直交変換器310から送信された予測残差信号とを加算して、フレーム画像信号を復元する。
復元されたフレーム画像信号は所定の表示タイミングで表示デバイス(図示せず)へ出力され、入力映像信号(動画像信号)が再生され得る。また、フレーム画像信号は、以降の復号化処理に用いられるため、参照フレーム画像信号としてメモリ306に格納される。ここで、フレーム画像信号は、動画像符号化装置20における同一番号のフレーム画像信号と同一の値となり得る。また、動きベクトルや参照フレーム番号に関する情報も参照フレーム画像信号に関連付けて同時に格納される。
以下、動画像復号装置30で用いられる動きベクトルの予測復号方法の一実施形態ついて、図8を参照して説明する。図8は、動きベクトルの予測復号方法の一実施形態を示すフローチャートである。
図8に示すように、一実施形態に係る予測動きベクトルの予測復号方法においては、まず、予測動きベクトル候補決定器302に、参照画面リスト識別番号及び参照画面番号が入力される(ステップS801)。
次に、予測動きベクトル候補決定器302が、対象区画BTの左隣接領域に含まれる一以上の区画の動きベクトルから予測動きベクトル候補PMV1を決定する(ステップS302)。
次に、予測動きベクトル候補決定器302は、対象区画BTの上隣接領域に含まれる一以上の区画の動きベクトルから予測動きベクトル候補PMV2を決定する(ステップS303)。
次に、予測動きベクトル候補決定器302は、予測動きベクトル候補PMV3を決定する(ステップS304)。なお、図8におけるステップS302〜ステップS304の処理は、図3におけるステップS302〜ステップS304の処理と同様である。
次に、ステップS805において、予測動きベクトル候補決定器302は、予測動きベクトル候補PMV1、予測動きベクトル候補PMV2、予測動きベクトル候補PMV3のうち、同一ではない予測動きベクトル候補のみを予測動きベクトル候補とする。具体例を示せば、予測動きベクトル候補PMV1と予測動きベクトル候補PMV3が同一の場合には、予測動きベクトル候補として予測動きベクトル候補PMV1と予測動きベクトル候補PMV2のみが選択される。また、ステップS805までの処理で有効な予測動きベクトル候補が決定されなかった場合には、零動きベクトルが予測動きベクトル候補とされる。
ステップS806において、上述したように、エントロピー復号器301が予測動きベクトル候補の数に基づいて予測動きベクトル指示情報を復元する。次いで、ステップS807において、予測動きベクトル決定器303が、予測動きベクトル指示情報に基づいて、予測動きベクトル候補から最適予測動きベクトルを選択する。
以下、動きベクトルの予測符号化方法の第2実施形態について説明する。図9は、第2実施形態の動きベクトルの予測符号化方法における予測動きベクトル候補の決定処理を示すフローチャートである。第2実施形態の動きベクトルの予測符号化方法では、図3のステップS302〜ステップS304の代わりに、図9に示すフローが用いられる。
まず、本実施形態では、ステップS901において、予測動きベクトル候補決定器203は、対象区画の左隣接領域に含まれる区画を下方向にスキャンして、これら区画の動きベクトルから予測動きベクトル候補PMVaを決定する。ステップS901においては、予測動きベクトル候補決定器203は、図4の(c)に示す左隣接領域のスキャン順に従って第1実施形態で説明した予測動きベクトル候補PMV1の決定方法(ステップS302)を実施することにより、予測動きベクトル候補PMVaを検出することができる。なお、予測動きベクトル候補PMVaの決定のために、予測動きベクトル候補決定器203は、第1実施形態と同様に、入力される参照画面リスト識別番号及び参照画面番号を用いることができる。
次に、ステップS902において、予測動きベクトル候補決定器203は、対象区画の左隣接領域に含まれる区画を上方向にスキャンして、これら区画の動きベクトルから予測動きベクトル候補PMVbを決定する。ステップS902においては、予測動きベクトル候補決定器203は、図4の(a)に示す左隣接領域のスキャン順に従って第1実施形態で説明した予測動きベクトル候補PMV1の決定方法(ステップS302)を実施することにより、予測動きベクトル候補PMVbを検出することができる。なお、予測動きベクトル候補PMVbの決定にも、予測動きベクトル候補決定器203は、参照画面リスト識別番号及び参照画面番号を用いることができる。
次に、ステップS903において、予測動きベクトル候補決定器203は、予測動きベクトル候補PMVaおよび予測動きベクトル候補PMVbから左隣接領域の予測動きベクトル候補PMVXを選択する。また、予測動きベクトル候補決定器203は、選択した予測動きベクトル候補を求めるために用いたスキャン方向Xを示すスキャン方向指示情報を生成する。具体的には、予測動きベクトル候補決定器203は、予測動きベクトル候補PMVa及び予測動きベクトル候補PMVbのうち、対象区画の予測動きベクトルに対する誤差が最も小さい予測動きベクトル候補を、予測動きベクトル候補PMVXとして決定する。また、予測動きベクトル候補決定器203は、予測動きベクトル候補PMVXとして予測動きベクトル候補PMVaが選択された場合には、下方向を示すスキャン方向指示情報を生成し、予測動きベクトル候補PMVbが選択されている場合には、上方向を示すスキャン方向指示情報を生成する。
次に、ステップS904において、予測動きベクトル候補決定器203は、対象区画の上隣接領域に含まれる区画を右方向にスキャンして、これら区画の動きベクトルから予測動きベクトル候補PMVcを決定する。ステップS904においては、予測動きベクトル候補決定器203は、図4の(c)に示す上隣接領域のスキャン順に従って第1実施形態で説明した予測動きベクトル候補PMV2の決定方法(ステップS303)を実施することにより、予測動きベクトル候補PMVcを検出することができる。なお、予測動きベクトル候補PMVcの決定のために、予測動きベクトル候補決定器203は、第1実施形態と同様に、入力される参照画面リスト識別番号及び参照画面番号を用いることができる。
次に、ステップS905において、予測動きベクトル候補決定器203は、対象区画の上隣接領域に含まれる区画を左方向にスキャンして、これら区画の動きベクトルから予測動きベクトル候補PMVdを決定する。ステップS905においては、予測動きベクトル候補決定器203は、図4の(a)に示す上隣接領域のスキャン順に従って第1実施形態で説明した予測動きベクトル候補PMV2の決定方法(ステップS303)を実施することにより、予測動きベクトル候補PMVdを検出することができる。なお、予測動きベクトル候補PMVdの決定にも、予測動きベクトル候補決定器203は、参照画面リスト識別番号及び参照画面番号を用いることができる。
次に、ステップS906において、予測動きベクトル候補決定器203は、予測動きベクトル候補PMVcおよび予測動きベクトル候補PMVdから上隣接領域の予測動きベクトル候補PMVYを選択する。また、予測動きベクトル候補決定器203は、選択した予測動きベクトル候補を求めるために用いたスキャン方向Yを示すスキャン方向指示情報を生成する。具体的には、予測動きベクトル候補決定器203は、予測動きベクトル候補PMVc及び予測動きベクトル候補PMVdのうち、対象区画の予測動きベクトルに対する誤差が最も小さい予測動きベクトル候補を、予測動きベクトル候補PMVYとして決定する。また、予測動きベクトル候補決定器203は、予測動きベクトル候補PMVYとして予測動きベクトル候補PMVcが選択された場合には、右方向を示すスキャン方向指示情報を生成し、予測動きベクトル候補PMVdが選択されている場合には、左方向を示すスキャン方向指示情報を生成する。
次に、ステップS907において、予測動きベクトル候補決定器203は、ステップS304の処理と同様に、対象区画と空間的に同位置の参照フレーム内の区画の予測動きベクトル候補PMVZを取得する。このステップS907における処理は、第1実施形態のステップS304の処理の上述した変形形態と同様であってもよい。
次に、ステップS908において、予測動きベクトル候補決定器203は、予測動きベクトル候補PMVX、予測動きベクトル候補PMVY、予測動きベクトル候補PMVZのうち、同一ではない予測動きベクトル候補のみを予測動きベクトル候補とする。そして、予測動きベクトル候補決定器203は、予測動きベクトル候補、予測動きベクトル候補の数、及び、スキャン方向指示情報を出力する。具体例を示せば、予測動きベクトル候補PMVXと予測動きベクトル候補PMVZが同一の場合には、予測動きベクトル候補として予測動きベクトル候補PMVXと予測動きベクトル候補PMVYのみが選択される。また、ステップS901〜ステップS907において有効な予測動きベクトル候補が決定されなかった場合、零動きベクトルが予測動きベクトル候補とされる。
次いで、第2実施形態では、第1実施形態のステップS306と同様の処理が行われる。最後に、ステップS307において、符号化器213が、最適予測動きベクトルが予測動きベクトル候補のうちの何れであるかを特定するための予測動きベクトル指示情報を符号化する。なお、第2実施形態においては、ステップS307において、符号化器213は、スキャン方向指示情報も符号化する。
なお、第2実施形態においても、左隣接領域を構成する区画、及び、上隣接領域を構成する区画は、第1実施形態について上述したように変更されてもよい。また、予測動きベクトルの個数についても、第1実施形態について上述したように変更されてもよい。また、第1実施形態について上述したように、予測動きベクトル候補PMVX,PMVY,PMVZの決定順序を、対象区画を小区画に分割する態様及び当該小区画の位置に基づいて、変更してもよい。
以下、第2実施形態の動きベクトルの予測復号方法について説明する。図10は、第2実施形態の動きベクトルの予測復号方法を示すフローチャートである。図10に示す予測復号方法は、第2実施形態の動きベクトルの予測符号化方法によって生成された符号化データから動きベクトルを予測するものである。
図10に示すように、本実施形態では、まず、ステップS1001において、予測動きベクトル候補決定器302に、復元された参照画面リスト識別番号、参照画面番号、スキャン方向指示情報(スキャン方向X,スキャン方向Y)が入力される。
次に、ステップS1002において、予測動きベクトル候補決定器302が、参照画面リスト識別番号、参照画面番号、及び、スキャン方向Xを特定するためのスキャン方向指示情報に応じて、左隣接領域の予測動きベクトル候補PMVXを決定する。予測動きベクトル候補PMVXは、スキャン方向指示情報によって特定されるスキャン方向Xに左隣接領域内の区画を順次スキャンすることにより、第1の実施形態の予測動きベクトル候補PMV1の決定と同様の処理により決定される。
次に、ステップS1003において、予測動きベクトル候補決定器302は、参照画面リスト識別番号、参照画面番号、及び、スキャン方向Yを特定するためのスキャン方向指示情報に応じて、上隣接領域の予測動きベクトル候補PMVYを決定する。予測動きベクトル候補PMVYは、スキャン方向指示情報によって特定されるスキャン方向Yに上隣接領域内の区画を順次スキャンすることにより、第1の実施形態の予測動きベクトル候補PMV2の決定と同様の処理により決定される。
次いで、ステップS1004において、予測動きベクトル候補決定器302は、対象区画と空間的に同一の参照フレーム内の区画の予測動きベクトル候補PMVZを決定する。ステップS1004の処理は、ステップS304の処理と同様である。
次いで、ステップS1005において、予測動きベクトル候補決定器302は、予測動きベクトル候補PMVX、予測動きベクトル候補PMVY、予測動きベクトル候補PMVZの内、同一ではない予測動きベクトル候補のみを予測動きベクトル候補とする。具体例を示せば、予測動きベクトル候補PMVXと予測動きベクトル候補PMVZが同一の場合には、予測動きベクトル候補として予測動きベクトル候補PMVXと予測動きベクトル候補PMVYのみが選択される。また、ステップS1005までの処理で有効な予測動きベクトル候補が決定されなかった場合には、零動きベクトルが予測動きベクトル候補とされる。
次いで、ステップS1006において、復号器301が予測動きベクトル候補の数に基づいて予測動きベクトル指示情報を復元する。次いで、ステップS1007において、予測動きベクトル決定器303が、予測動きベクトル指示情報に基づいて、予測動きベクトル候補から最適予測動きベクトルを選択する。
なお、第2実施形態においても、第1実施形態について上述したように、予測動きベクトル候補PMVX,PMVY,PMVZの決定順序を、対象区画を小区画に分割する態様及び当該小区画の位置に基づいて、変更してもよい。
以上、説明した動画像符号化装置20及び動画像復号装置30によれば、予測動きベクトルの候補を絞り込んだ後に、それら予測動きベクトル候補から最適予測動きベクトルが検出される。したがって、最適予測動きベクトルの決定に要する演算量が削減され得る。また、最適予測動きベクトルを特定するための予測動きベクトル指示情報を少ないビット数で符号化し得る。
また、第2実施形態の予測符号化及び予測復号を用いる動画像符号化装置20及び動画像復号装置30によれば、対象区画の動きベクトルからの誤差がより少ない予測動きベクトル候補を求めることができる。
以下、コンピュータを動画像符号化装置20として機能させるための動画像符号化プログラム1000と、コンピュータを上述した動画像復号装置30として機能させるための動画像復号プログラム1100について説明する。
図11は、一実施形態に係る動画像符号化プログラムの構成を示す図である。図12は、一実施形態に係る動画像復号プログラムの構成を示す図である。図13は、一実施形態に係るコンピュータのハードウェア構成を示す図である。図14は、一実施形態に係るコンピュータを示す斜視図である。
図11に示す動画像符号化プログラム1000は、記録媒体SMに格納されて提供され得る。また、図12に示す動画像復号プログラム1100も、記録媒体SMに格納されて提供され得る。なお、記録媒体SMとしては、フロッピーディスク、CD−ROM、DVD、あるいはROM等の記録媒体、あるいは半導体メモリ等が例示される。
図13に示すように、コンピュータC10は、フロッピーディスクドライブ装置、CD−ROMドライブ装置、DVDドライブ装置等の読取装置C12と、オペレーティングシステムを常駐させた作業用メモリ(RAM)C14と、記録媒体SMに記憶されたプログラムを記憶するメモリC16と、ディスプレイといった表示装置C18と、入力装置であるマウスC20及びキーボードC22と、データ等の送受を行うための通信装置C24と、プログラムの実行を制御するCPU C26と、を備え得る。
コンピュータC10は、記録媒体SMが読取装置C12に挿入されると、読取装置C12から記録媒体SMに格納された動画像符号化プログラム1000にアクセス可能になり、当該プログラム1000によって、動画像符号化装置20として動作することが可能になる。
また、コンピュータC10は、記録媒体SMが読取装置C12に挿入されると、読取装置C12から記録媒体SMに格納された動画像復号プログラム1100にアクセス可能になり、当該プログラム1100によって、動画像復号装置30として動作することが可能になる。
図11に示すように、動画像符号化プログラム1000は、処理を統括するメインモジュール1001、入力モジュール1002、動き検出モジュール1003、予測動きベクトル候補決定モジュール1004、予測動きベクトル決定モジュール1005、動きベクトル差分モジュール1006、動き補償モジュール1007、空間予測モジュール1008、予測方法決定モジュール1009、減算モジュール1010、直交変換モジュール1011、量子化モジュール1012、エントロピー符号化モジュール1013、逆量子化モジュール1014、逆直交変換モジュール1015、及び、加算モジュール1016を備えている。入力モジュール1002、動き検出モジュール1003、予測動きベクトル候補決定モジュール1004、予測動きベクトル決定モジュール1005、動きベクトル差分モジュール1006、動き補償モジュール1007、空間予測モジュール1008、予測方法決定モジュール1009、減算モジュール1010、直交変換モジュール1011、量子化モジュール1012、エントロピー符号化モジュール1013、逆量子化モジュール1014、逆直交変換モジュール1015、加算モジュール1016がコンピュータに行わせる機能は、上述した入力器201、動き検出器202、予測動きベクトル候補決定器203、予測動きベクトル決定器204、動きベクトル差分器205、動き補償器206、空間予測器208、予測方法決定器209、減算器210、変換器211、量子化器212、エントロピー符号化器213、逆量子化器214、逆直交変換器215、加算器216の機能と、それぞれ同様である。
図12に示すように、動画像復号プログラム1100は、処理を統括するメインモジュール1101、エントロピー復号モジュール1102、予測動きベクトル候補決定モジュール1103、予測動きベクトル決定モジュール1104、動きベクトル加算モジュール1105、動き補償モジュール1106、空間予測モジュール1107、予測方法決定モジュール1108、逆量子化モジュール1109、逆直交変換モジュール1110、及び、加算モジュール1111を備える。エントロピー復号モジュール1102、予測動きベクトル候補決定モジュール1103、予測動きベクトル決定モジュール1104、動きベクトル加算モジュール1105、動き補償モジュール1106、空間予測モジュール1107、予測方法決定モジュール1108、逆量子化モジュール1109、逆直交変換モジュール1110、加算モジュール1111がコンピュータに実現させる機能は、上述したエントロピー復号器301、予測動きベクトル候補決定器302、予測動きベクトル決定器303、動きベクトル加算器304、動き補償器305、空間予測器307、予測方法決定器308、逆量子化器309、逆直交変換器310、加算器311の機能と、それぞれ同様である。
以上、種々の実施形態について説明したが、本発明は上述した実施形態に限定されることなく種々の変形が可能である。例えば、上述した実施形態では、対象区画の動きベクトルと予測動きベクトル(最適予測動きベクトル)との間の差分である動きベクトル差分値の符号化データが符号化装置から復号装置に送信されているが、符号化装置から復号装置に送信動きベクトル差分値の符号化データを送信することなく、最適予測動きベクトルを対象区画の動きベクトルとして採用してもよい。
また、予測動きベクトル候補PMVXの決定においては、予測動きベクトル候補PMVa及びPMVbを用いて予測画像信号を作成し、予測動きベクトル候補PMVa及びPMVbのうち、予測画像信号と対象区画の画像信号との間の絶対値差分和(SAD)をより小さくする予測動きベクトル候補を予測動きベクトル候補PMVXとして採用してもよい。また、予測動きベクトル候補PMVYの決定においては、予測動きベクトル候補PMVc及びPMVdを用いて予測画像信号を作成し、予測動きベクトル候補PMVc及びPMVdのうち、予測画像信号と対象区画の画像信号との間の絶対値差分和(SAD)をより小さくする予測動きベクトル候補を予測動きベクトル候補PMVYとして採用してもよい。また、SADの代わりに、差分絶対値和(SATD)又は差分二乗和(SSD)が用いられてもよい。
つぎに、本発明の一側面の作用効果について説明する。本発明の一側面は、動きベクトルの予測符号化技術に関するものである。
本発明の一側面に係る動きベクトルの予測符号化方法は、複数のフレーム画像の時間系列で構成される動画像の動き補償予測に用いられる動きベクトルを予測符号化する方法であって、(a)上記動画像の符号化対象のフレーム画像内の対象区画の動きベクトルを求めるステップと、(b)上記対象区画に対して左に位置する左隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第1予測動きベクトル候補を決定するステップと、(c)上記対象区画に対して、上に位置する上隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第2予測動きベクトル候補を決定するステップと、(d)上記第1予測動きベクトル候補と上記第2予測動きベクトル候補を含む一以上の予測動きベクトル候補と上記対象区画の上記動きベクトルとの比較に基づき、最適予測動きベクトルを選択し、選択した最適予測動きベクトルを特定するための予測動きベクトル指示情報を出力するステップと、(e)上記予測動きベクトル指示情報を符号化するステップと、を含んでいる。
また、本発明の一側面に係る動きベクトルの予測符号化装置は、複数のフレーム画像の時間系列で構成される動画像の動き補償予測に用いられる動きベクトルを予測符号化する装置であって、上記動画像の符号化対象のフレーム画像内の対象区画の動きベクトルを求める動き検出手段と、上記対象区画に対して左に位置する左隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第1予測動きベクトル候補を決定する第1予測動きベクトル候補決定手段と、上記対象区画に対して、上に位置する上隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第2予測動きベクトル候補を決定する第2予測動きベクトル候補決定手段と、上記第1予測動きベクトル候補と上記第2予測動きベクトル候補を含む一以上の予測動きベクトル候補と上記対象区画の上記動きベクトルとの比較に基づき、最適予測動きベクトルを選択し、選択した最適予測動きベクトルを特定するための予測動きベクトル指示情報を出力する予測動きベクトル決定手段と、上記予測動きベクトル指示情報を符号化する符号化手段と、を備えている。
また、本発明の一側面に係る動きベクトルの予測符号化プログラムは、複数のフレーム画像の時間系列で構成される動画像の動き補償予測に用いられる動きベクトルを予測符号化する装置としてコンピュータを動作させるプログラムであって、該コンピュータを、上述した動き検出手段、第1予測動きベクトル候補決定手段、第2予測動きベクトル候補決定手段、予測動きベクトル決定手段、及び、符号化手段として機能させる。
上述した本発明の一側面に係る動きベクトルの予測符号化技術によれば、予測動きベクトル候補を絞り込んだ後に、対象区画の動きベクトルと予測動きベクトル候補との比較に基づき予測動きベクトルが決定される。したがって、予測動きベクトルの決定に要する演算量が削減され得る。
一実施形態においては、対象区画の画素信号の予測信号は、参照画面リスト識別番号及び参照画面番号によって特定されるフレーム番号を有する参照フレームを参照することにより生成され、対象区画用の参照画面リスト識別番号及び/又は参照画面番号と一致する参照画面リスト識別番号及び/又は参照画面番号を有する左隣接領域の区画の動きベクトルから、第1予測動きベクトル候補が決定され、対象区画用の参照画面リスト識別番号及び/又は参照画面番号と一致する参照画面リスト識別番号及び/又は参照画面番号を有する上隣接領域の区画の動きベクトルから、第2予測動きベクトル候補が決定されてもよい。
一実施形態においては、予測動きベクトル指示情報は、予測動きベクトル候補の数に応じたビット数の符号化データに符号化されてもよい。例えば、予測動きベクトル指示情報は、予測動きベクトル候補の数に応じた最小数のビットの符号化データに符号化されてもよい。この形態によれば、予測動きベクトル指示情報の符号化データの符号量が低減され得る。
一実施形態においては、左隣接領域は、対象区画の左下の隣接区画を含んでいてもよい。この左下の隣接区画は、対象区画内の左下の画素に対して左下側に存在する隣接画素を含む区画である。この形態は、左下の隣接区画の動きベクトルを独立した予測動きベクトル候補とせず、左下の隣接区画を左隣接領域に含めて当該左隣接領域から第1予測動きベクトル候補を決定する。これにより、予測動きベクトル候補の数が低減され得る。その結果、予測動きベクトル指示情報の符号化データの符号量が低減され得る。
一実施形態においては、上隣接領域は、対象区画の右上の隣接区画を含んでいてもよい。この右上の隣接区画は、対象区画内の右上の画素に対して右上側に存在する隣接画素を含む区画である。この形態は、右上の隣接区画の動きベクトルを独立した予測動きベクトル候補とせず、右上の隣接区画を上隣接領域に含めて当該上隣接領域から第2予測動きベクトル候補を決定する。これにより、予測動きベクトル候補の数が低減され得る。その結果、予測動きベクトル指示情報の符号化データの符号量が低減され得る。
一実施形態においては、左隣接領域又は上隣接領域の何れか一方が、対象区画の左上の隣接区画を含んでいてもよい。この左上の隣接区画は、対象区画内の左上の画素に対して左上側に存在する隣接画素を含む区画である。この形態は、左上の隣接区画の動きベクトルを独立した予測動きベクトル候補とせず、左上の隣接区画を左隣接領域又は上隣接領域に含めて予測動きベクトル候補を決定する。これにより、予測動きベクトル候補の数が低減され得る。その結果、予測動きベクトル指示情報の符号化データの符号量が低減され得る。
一実施形態においては、左隣接領域内に含まれる一以上の区画を下から上方向にスキャンすることにより、当該一以上の区画の動きベクトルから所定の予測動きベクトル候補決定基準を満たす動きベクトルを第1予測動きベクトル候補として決定してもよい。また、所定の予測動きベクトル候補決定基準を満たす動きベクトルが検出されたときに、以後の左隣接領域のスキャンを停止してもよい。本願発明者が多数の動画像に対して行った調査に基づく知見によれば、左隣接領域の区画のうち対象区画の動きベクトルとの誤差の少ない動きベクトルを有する区画は、左隣接領域内において下側に存在する傾向がある。したがって、かかるスキャン順序で左隣接領域をスキャンすることにより、対象区画の動きベクトルとの誤差の少ない第1予測動きベクトル候補が、効率良く求められ得る。
一実施形態においては、上隣接領域内に含まれる一以上の区画を右から左方向にスキャンすることにより、当該一以上の区画の動きベクトルから所定の予測動きベクトル候補決定基準を満たす動きベクトルを第2予測動きベクトル候補として決定してもよい。また、所定の予測動きベクトル候補決定基準を満たす動きベクトルが検出されたときに、以後の上隣接領域のスキャンを停止してもよい。本願発明者が多数の動画像に対して行った調査に基づく知見によれば、上隣接領域の区画のうち対象区画の動きベクトルとの誤差の少ない動きベクトルを有する区画は、上隣接領域内において右側に存在する傾向がある。したがって、かかるスキャン順序で上隣接領域をスキャンすることにより、対象区画の動きベクトルとの誤差の少ない第2予測動きベクトル候補が、効率良く求められ得る。
一実施形態においては、第1予測動きベクトル候補を決定するために左隣接領域内に含まれる一以上の区画をスキャンする方向を示す第1スキャン方向指示情報を決定し、第2予測動きベクトル候補を決定するために上隣接領域内に含まれる一以上の区画をスキャンする方向を示す第2スキャン方向指示情報を決定し、第1スキャン方向指示情報及び第2スキャン方向指示情報を更に符号化してもよい。この形態においては、左隣接領域内において上下両方向にスキャンが行われ、所定の予測動きベクトル候補決定基準を満たす動きベクトルが選択される。上下両方向において選択された動きベクトルのうち、最適な動きベクトルが第1予測動きベクトル候補とされ、当該第1予測動きベクトル候補が探索されたスキャン方向を示す情報が第1スキャン方向指示情報となる。また、上隣接領域内において左右両方向にスキャンが行われ、所定の予測動きベクトル候補決定基準を満たす動きベクトルが選択される。左右両方向において選択された動きベクトルのうち、最適な動きベクトルが第2予測動きベクトル候補とされ、当該第2予測動きベクトル候補が探索された方向を示す情報が第2スキャン方向指示情報となる。かかる形態によれば、符号化効率を更に向上させ得る第1予測動きベクトル候補及び第2予測動きベクトル候補が決定され得る。
一実施形態においては、一以上の予測動きベクトル候補の数が3以下であってもよい。この形態によれば、予測動きベクトル指示情報の符号化データの符号量がより低減され得る。
一実施形態においては、対象区画の動きベクトルと最適予測動きベクトルとの間の残差信号を符号化せず、最適予測動きベクトルを対象区画の動きベクトルとして用いてもよい。かかる形態では、動きベクトルの残差信号が符号化されないので、符号化効率が更に向上され得る。
本発明の別の一側面は、動きベクトルの予測復号技術に関するものである。
本発明の一側面に係る動きベクトルを予測復号する方法は、複数のフレーム画像の時間系列で構成される動画像を復元する動き補償予測に用いられる動きベクトルの予測復号方法であって、(a)復号対象のフレーム画像内の対象区画に対して左に位置する左隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第1予測動きベクトル候補を決定するステップと、(b)上記対象区画に対して、上に位置する上隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第2予測動きベクトル候補を決定するステップと、(c)符号化データを復号して、上記対象区画用の最適予測動きベクトルを特定するための予測動きベクトル指示情報を復元するステップと、(d)少なくとも上記第1予測動きベクトル候補と上記第2予測動きベクトル候補を含む一以上の予測動きベクトル候補から、上記予測動きベクトル指示情報により特定される最適予測動きベクトルを選択するステップと、を含んでいる。
また、本発明の一側面に係る動きベクトルを予測復号する装置は、複数のフレーム画像の時間系列で構成される動画像を復元する動き補償予測に用いられる動きベクトルを予測復号する装置であって、復号対象のフレーム画像内の対象区画に対して左に位置する左隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第1予測動きベクトル候補を決定する第1予測動きベクトル候補決定手段と、上記対象区画に対して、上に位置する上隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第2予測動きベクトル候補を決定する第2予測動きベクトル候補決定手段と、符号化データを復号して、上記対象区画用の最適予測動きベクトルを特定するための予測動きベクトル指示情報を復元する復号手段と、少なくとも上記第1予測動きベクトル候補と上記第2予測動きベクトル候補を含む一以上の予測動きベクトル候補から、上記予測動きベクトル指示情報により特定される最適予測動きベクトルを選択する最適予測ベクトル決定手段と、を備えている。
また、本発明の一側面に係る動きベクトルを予測復号するプログラムは、コンピュータを、複数のフレーム画像の時間系列で構成される動画像を復元する動き補償予測に用いられる動きベクトルを予測復号する装置として動作させるプログラムであって、当該コンピュータを、上述した第1予測動きベクトル候補決定手段、第2予測動きベクトル候補決定手段と、復号手段、及び、最適予測ベクトル決定手段と、として機能させる。
上述した本発明の一側面に係る動きベクトルの予測復号技術によれば、予測動きベクトル候補を絞り込んだ後に、対象区画の動きベクトルと予測動きベクトル候補との比較に基づき予測動きベクトルが決定される。したがって、予測動きベクトルの決定に要する演算量が削減され得る。
一実施形態においては、対象区画の画像信号の予測信号は、参照画面リスト識別番号及び参照画面番号によって特定されるフレーム番号を有する参照フレームを参照することにより生成され、対象区画用の参照画面リスト識別番号及び/又は参照画面番号と一致する参照画面リスト識別番号及び/又は参照画面番号を有する左隣接領域の区画の動きベクトルから、第1予測動きベクトル候補が決定され、対象区画用の参照画面リスト識別番号及び/又は参照画面番号と一致する参照画面リスト識別番号及び/又は参照画面番号を有する上隣接領域の区画の動きベクトルから、第2予測動きベクトル候補が決定されてもよい。
一実施形態においては、予測動きベクトル指示情報の符号化データのビット数は、予測動きベクトル候補の数に応じたビット数であってもよい。例えば、予測動きベクトル指示情報の符号化データのビット数は、予測動きベクトル候補の数に応じた最小数のビット数であってもよい。この形態によれば、予測動きベクトル指示情報の符号化データの符号量が低減され得る。
一実施形態においては、左隣接領域が、対象区画の左下の隣接区画を含んでいてもよい。この形態は、左下の隣接区画の動きベクトルを独立した予測動きベクトル候補とせず、左下の隣接区画を左隣接領域に含めて当該左隣接領域から第1予測動きベクトル候補を決定する。これにより、予測動きベクトル候補の数が低減され得る。その結果、予測動きベクトル指示情報の符号化データの符号量が低減され、符号化データから予測動きベクトル指示情報を復元する復号処理の演算量が削減され得る。
一実施形態においては、上隣接領域が、対象区画の右上の隣接区画を含んでいてもよい。この形態は、右上の隣接区画の動きベクトルを独立した予測動きベクトル候補とせず、右上の隣接区画を上隣接領域に含めて当該上隣接領域から第2予測動きベクトル候補を決定する。これにより、予測動きベクトル候補の数が低減され得る。その結果、予測動きベクトル指示情報の符号化データの符号量が低減され、符号化データから予測動きベクトル指示情報を復元する復号処理の演算量が削減され得る。
一実施形態においては、左隣接領域又は上隣接領域の何れか一方が、対象区画の左上の隣接区画を含んでいてもよい。この形態は、左上の隣接区画の動きベクトルを独立した予測動きベクトル候補とせず、左上の隣接区画を左隣接領域又は上隣接領域に含めて予測動きベクトル候補を決定する。これにより、予測動きベクトル候補の数が低減され得る。その結果、予測動きベクトル指示情報の符号化データの符号量が低減され、符号化データから予測動きベクトル指示情報を復元する復号処理の演算量が削減され得る。
一実施形態においては、左隣接領域内に含まれる一以上の区画を下から上方向にスキャンすることにより、当該一以上の区画の動きベクトルから所定の予測動きベクトル候補決定基準を満たす動きベクトルを第1予測動きベクトル候補として決定してもよい。また、所定の予測動きベクトル候補決定基準を満たす動きベクトルが検出されたときに、以後の左隣接領域のスキャンを停止してもよい。かかるスキャン順序で左隣接領域をスキャンすることにより、対象区画の動きベクトルとの誤差の少ない第1予測動きベクトル候補が、効率良く求められ得る。
一実施形態においては、上隣接領域内に含まれる一以上の区画を右から左方向にスキャンすることにより、当該一以上の区画の動きベクトルから所定の予測動きベクトル候補決定基準を満たす動きベクトルを第2予測動きベクトル候補として決定してもよい。また、所定の予測動きベクトル候補決定基準を満たす動きベクトルが検出されたときに、以後の上隣接領域のスキャンを停止してもよい。かかるスキャン順序で上隣接領域をスキャンすることにより、対象区画の動きベクトルとの誤差の少ない第2予測動きベクトル候補が、効率良く求められ得る。
一実施形態においては、符号化データを復号して、左隣接領域内に含まれる一以上の区画をスキャンする方向を特定するための第1スキャン方向指示情報、及び、上隣接領域内に含まれる一以上の区画をスキャンする方向を特定するための第2スキャン方向指示情報を復元し、第1スキャン方向指示情報によって特定される方向に左隣接領域に含まれる一以上の区画をスキャンして、第1予測動きベクトル候補を決定し、第2スキャン方向指示情報によって特定される方向に上隣接領域に含まれる一以上の区画をスキャンして、第2予測動きベクトル候補を決定してもよい。かかる形態によれば、対象区画の動きベクトルに対する誤差がより少ない第1予測動きベクトル候補及び第2予測動きベクトル候補が決定され得る。
一実施形態においては、一以上の予測動きベクトル候補の数が3以下であってもよい。この形態によれば、予測動きベクトル指示情報の符号量がより低減され得る。
一実施形態においては、最適予測動きベクトルを対象区画の動きベクトルとして用いてもよい。かかる形態では、動きベクトルの残差信号が符号化されないので、符号化データのデータ量が低減され得る。
20…動画像符号化装置、30…動画像復号装置、201…入力器、202…動き検出器、203…予測動きベクトル候補決定器、204…予測動きベクトル決定器、205…動きベクトル差分器、206…動き補償器、207…メモリ、208…空間予測器、209…予測方法決定器、210…減算器、211…変換器、212…量子化器、213…エントロピー符号化器、214…逆量子化器、215…逆変換器、216…加算器、301…エントロピー復号器、302…予測動きベクトル候補決定器、303…予測動きベクトル決定器、304…動きベクトル加算器、305…動き補償器、306…フレームメモリ、307…空間予測器、308…予測方法決定器、309…逆量子化器、310…逆直交変換器、311…加算器。

Claims (14)

  1. 複数のフレーム画像の時間系列で構成される動画像の動き補償予測に用いられる動きベクトルを予測符号化する方法であって、
    前記動画像の符号化対象のフレーム画像内の対象区画の動きベクトルを求めるステップと、
    前記対象区画に対して左に位置する左隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第1予測動きベクトル候補を決定するステップと、
    前記対象区画に対して、上に位置する上隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第2予測動きベクトル候補を決定するステップと、
    前記第1予測動きベクトル候補と前記第2予測動きベクトル候補を含む一以上の予測動きベクトル候補と前記対象区画の前記動きベクトルとの比較に基づき、最適予測動きベクトルを選択し、選択した最適予測動きベクトルを特定するための予測動きベクトル指示情報を出力するステップと、
    前記予測動きベクトル指示情報を符号化するステップと、を含み、
    前記対象区画の予測信号は、参照画面リスト識別番号及び参照画面番号によって特定されるフレーム番号を有する参照フレームを参照することにより生成され、
    前記第1予測動きベクトル候補を決定するステップにおいては、前記対象区画用の参照画面リスト識別番号及び参照画面番号と一致する参照画面リスト識別番号及び参照画面番号を有する前記左隣接領域の区画の動きベクトルから、前記第1予測動きベクトル候補が決定され、
    前記第2予測動きベクトル候補を決定するステップにおいては、前記対象区画用の参照画面リスト識別番号及び参照画面番号と一致する参照画面リスト識別番号及び参照画面番号を有する前記上隣接領域の区画の動きベクトルから、前記第2予測動きベクトル候補が決定される、方法。
  2. 前記符号化するステップにおいて、前記予測動きベクトル指示情報を、前記予測動きベクトル候補の数に応じたビット数の符号化データに符号化する、請求項1に記載の方法。
  3. 前記符号化するステップにおいて、前記予測動きベクトル指示情報を、前記予測動きベクトル候補の数に応じた最小数のビットの符号化データに符号化する、請求項2に記載の方法。
  4. 前記一以上の予測動きベクトル候補の数が3以下である、請求項1〜3の何れか一項に記載の方法。
  5. 前記対象区画の動きベクトルと前記最適予測動きベクトルとの間の残差信号を符号化せず、前記最適予測動きベクトルを前記対象区画の動きベクトルとして用いる、請求項1〜4の何れか一項に記載の方法。
  6. 複数のフレーム画像の時間系列で構成される動画像の動き補償予測に用いられる動きベクトルを予測符号化する装置であって、
    前記動画像の符号化対象のフレーム画像内の対象区画の動きベクトルを求める手段と、
    前記対象区画に対して左に位置する左隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第1予測動きベクトル候補を決定する手段と、
    前記対象区画に対して、上に位置する上隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第2予測動きベクトル候補を決定する手段と、
    前記第1予測動きベクトル候補と前記第2予測動きベクトル候補を含む一以上の予測動きベクトル候補と前記対象区画の前記動きベクトルとの比較に基づき、最適予測動きベクトルを選択し、選択した最適予測動きベクトルを特定するための予測動きベクトル指示情報を出力する手段と、
    前記予測動きベクトル指示情報を符号化する手段と、含み、
    前記対象区画の予測信号は、参照画面リスト識別番号及び参照画面番号によって特定されるフレーム番号を有する参照フレームを参照することにより生成され、
    前記第1予測動きベクトル候補を決定する手段においては、前記対象区画用の参照画面リスト識別番号及び参照画面番号と一致する参照画面リスト識別番号及び参照画面番号を有する前記左隣接領域の区画の動きベクトルから、前記第1予測動きベクトル候補が決定され、
    前記第2予測動きベクトル候補を決定する手段においては、前記対象区画用の参照画面リスト識別番号及び参照画面番号と一致する参照画面リスト識別番号及び参照画面番号を有する前記上隣接領域の区画の動きベクトルから、前記第2予測動きベクトル候補が決定される、装置。
  7. 請求項1〜5のいずれか一項に記載の、複数のフレーム画像の時間系列で構成される動画像の動き補償予測に用いられる動きベクトルを予測符号化する方法を、コンピュータにより実行させるプログラム。
  8. 複数のフレーム画像の時間系列で構成される動画像を復元する動き補償予測に用いられる動きベクトルを予測復号する方法であって、
    復号対象のフレーム画像内の対象区画に対して左に位置する左隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第1予測動きベクトル候補を決定するステップと、
    前記対象区画に対して、上に位置する上隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第2予測動きベクトル候補を決定するステップと、
    符号化データを復号して、前記対象区画用の最適予測動きベクトルを特定するための予測動きベクトル指示情報を復元するステップと、
    少なくとも前記第1予測動きベクトル候補と前記第2予測動きベクトル候補を含む一以上の予測動きベクトル候補から、前記予測動きベクトル指示情報により特定される最適予測動きベクトルを選択するステップと、を含み、
    前記対象区画の予測信号は、参照画面リスト識別番号及び参照画面番号によって特定されるフレーム番号を有する参照フレームを参照することにより生成され、
    前記第1予測動きベクトル候補を決定するステップにおいては、前記対象区画用の参照画面リスト識別番号及び参照画面番号と一致する参照画面リスト識別番号及び参照画面番号を有する前記左隣接領域の区画の動きベクトルから、前記第1予測動きベクトル候補が決定され、
    前記第2予測動きベクトル候補を決定するステップにおいては、前記対象区画用の参照画面リスト識別番号及び参照画面番号と一致する参照画面リスト識別番号及び参照画面番号を有する前記上隣接領域の区画の動きベクトルから、前記第2予測動きベクトル候補が決定される、方法。
  9. 前記予測動きベクトル指示情報の前記符号化データのビット数は、前記予測動きベクトル候補の数に応じたビット数である、請求項8に記載の方法。
  10. 前記予測動きベクトル指示情報の前記符号化データのビット数は、前記予測動きベクトル候補の数に応じた最小数のビット数である、請求項9に記載の方法。
  11. 前記一以上の予測動きベクトル候補の数が3以下である、請求項8〜10の何れか一項に記載の方法。
  12. 前記最適予測動きベクトルを前記対象区画の動きベクトルとして用いる、請求項8〜11の何れか一項に記載の方法。
  13. 複数のフレーム画像の時間系列で構成される動画像を復元する動き補償予測に用いられる動きベクトルを予測復号する装置であって、
    復号対象のフレーム画像内の対象区画に対して左に位置する左隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第1予測動きベクトル候補を決定する手段と、
    前記対象区画に対して、上に位置する上隣接領域に属する一以上の区画の動きベクトルから、所定の予測動きベクトル候補決定基準を満たす一つの第2予測動きベクトル候補を決定する手段と、
    符号化データを復号して、前記対象区画用の最適予測動きベクトルを特定するための予測動きベクトル指示情報を復元する手段と、
    少なくとも前記第1予測動きベクトル候補と前記第2予測動きベクトル候補を含む一以上の予測動きベクトル候補から、前記予測動きベクトル指示情報により特定される最適予測動きベクトルを選択する手段と、を含み、
    前記対象区画の予測信号は、参照画面リスト識別番号及び参照画面番号によって特定されるフレーム番号を有する参照フレームを参照することにより生成され、
    前記第1予測動きベクトル候補を決定する手段においては、前記対象区画用の参照画面リスト識別番号及び参照画面番号と一致する参照画面リスト識別番号及び参照画面番号を有する前記左隣接領域の区画の動きベクトルから、前記第1予測動きベクトル候補が決定され、
    前記第2予測動きベクトル候補を決定する手段においては、前記対象区画用の参照画面リスト識別番号及び参照画面番号と一致する参照画面リスト識別番号及び参照画面番号を有する前記上隣接領域の区画の動きベクトルから、前記第2予測動きベクトル候補が決定される、方法。
  14. 請求項8〜12のいずれか一項に記載の複数のフレーム画像の時間系列で構成される動画像を復元する動き補償予測に用いられる動きベクトルを予測復号する方法を、コンピュータにより実行させるプログラム。
JP2015026825A 2011-01-07 2015-02-13 動きベクトルの予測符号化方法、予測符号化装置、及び予測符号化プログラム、並びに、動きベクトルの予測復号方法、予測復号装置、及び、予測復号プログラム Active JP5859691B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015026825A JP5859691B2 (ja) 2011-01-07 2015-02-13 動きベクトルの予測符号化方法、予測符号化装置、及び予測符号化プログラム、並びに、動きベクトルの予測復号方法、予測復号装置、及び、予測復号プログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011002205 2011-01-07
JP2011002205 2011-01-07
JP2015026825A JP5859691B2 (ja) 2011-01-07 2015-02-13 動きベクトルの予測符号化方法、予測符号化装置、及び予測符号化プログラム、並びに、動きベクトルの予測復号方法、予測復号装置、及び、予測復号プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012551827A Division JP5698767B2 (ja) 2011-01-07 2011-12-20 動きベクトルの予測符号化方法、予測符号化装置、及び予測符号化プログラム、並びに、動きベクトルの予測復号方法、予測復号装置、及び、予測復号プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015245384A Division JP6099729B2 (ja) 2011-01-07 2015-12-16 動きベクトルの予測復号方法、および予測復号装置

Publications (3)

Publication Number Publication Date
JP2015092781A JP2015092781A (ja) 2015-05-14
JP2015092781A5 JP2015092781A5 (ja) 2015-06-25
JP5859691B2 true JP5859691B2 (ja) 2016-02-10

Family

ID=46457445

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2012551827A Active JP5698767B2 (ja) 2011-01-07 2011-12-20 動きベクトルの予測符号化方法、予測符号化装置、及び予測符号化プログラム、並びに、動きベクトルの予測復号方法、予測復号装置、及び、予測復号プログラム
JP2015026825A Active JP5859691B2 (ja) 2011-01-07 2015-02-13 動きベクトルの予測符号化方法、予測符号化装置、及び予測符号化プログラム、並びに、動きベクトルの予測復号方法、予測復号装置、及び、予測復号プログラム
JP2015245384A Active JP6099729B2 (ja) 2011-01-07 2015-12-16 動きベクトルの予測復号方法、および予測復号装置
JP2017015603A Active JP6246962B2 (ja) 2011-01-07 2017-01-31 動きベクトルの予測復号方法、および予測復号装置
JP2017219846A Active JP6411615B2 (ja) 2011-01-07 2017-11-15 予測復号方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2012551827A Active JP5698767B2 (ja) 2011-01-07 2011-12-20 動きベクトルの予測符号化方法、予測符号化装置、及び予測符号化プログラム、並びに、動きベクトルの予測復号方法、予測復号装置、及び、予測復号プログラム

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2015245384A Active JP6099729B2 (ja) 2011-01-07 2015-12-16 動きベクトルの予測復号方法、および予測復号装置
JP2017015603A Active JP6246962B2 (ja) 2011-01-07 2017-01-31 動きベクトルの予測復号方法、および予測復号装置
JP2017219846A Active JP6411615B2 (ja) 2011-01-07 2017-11-15 予測復号方法

Country Status (19)

Country Link
US (5) US9693052B2 (ja)
EP (6) EP2938082B1 (ja)
JP (5) JP5698767B2 (ja)
KR (6) KR102066543B1 (ja)
CN (5) CN103283235B (ja)
AU (1) AU2011353904B2 (ja)
BR (1) BR112013017208B1 (ja)
CA (4) CA3079646C (ja)
DK (2) DK3826306T3 (ja)
ES (4) ES2622732T3 (ja)
FI (2) FI3826306T3 (ja)
HU (2) HUE061239T2 (ja)
MX (4) MX352533B (ja)
PL (4) PL3826306T3 (ja)
PT (4) PT3826306T (ja)
RU (7) RU2649770C1 (ja)
SG (1) SG191232A1 (ja)
TW (3) TWI621352B (ja)
WO (1) WO2012093585A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101456499B1 (ko) * 2010-07-09 2014-11-03 삼성전자주식회사 움직임 벡터의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9300970B2 (en) 2010-07-09 2016-03-29 Samsung Electronics Co., Ltd. Methods and apparatuses for encoding and decoding motion vector
EP2938082B1 (en) 2011-01-07 2017-03-22 Ntt Docomo, Inc. Predictive encoding method, predictive encoding device, and predictive encoding program of motion vector, and predictive decoding method, predictive decoding device, and predictive decoding program of motion vector
US9319716B2 (en) 2011-01-27 2016-04-19 Qualcomm Incorporated Performing motion vector prediction for video coding
KR102232113B1 (ko) 2011-03-21 2021-03-25 엘지전자 주식회사 움직임 벡터 예측자 선택 방법 및 이를 이용하는 장치
PL3879831T3 (pl) 2011-05-31 2024-07-29 Jvckenwood Corporation Urządzenie do kodowania ruchomego obrazu wizyjnego, sposób kodowania ruchomego obrazu wizyjnego i program do kodowania ruchomego obrazu wizyjnego, a także urządzenie do dekodowania ruchomego obrazu wizyjnego, sposób dekodowania ruchomego obrazu wizyjnego i program do dekodowania ruchomego obrazu wizyjnego
PL2728878T3 (pl) * 2011-06-30 2020-06-15 Sun Patent Trust Sposób dekodowania obrazów, sposób kodowania obrazów, urządzenie do dekodowania obrazów, urządzenie do kodowania obrazów oraz urządzenie do kodowania/dekodowania obrazów
JP2013098711A (ja) * 2011-10-31 2013-05-20 Mitsubishi Electric Corp 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
CN103079067B (zh) * 2013-01-09 2016-03-09 华为技术有限公司 运动矢量预测值列表构建方法和视频编解码方法及装置
US9300906B2 (en) * 2013-03-29 2016-03-29 Google Inc. Pull frame interpolation
TWI536811B (zh) * 2013-12-27 2016-06-01 財團法人工業技術研究院 影像處理方法與系統、解碼方法、編碼器與解碼器
KR101944683B1 (ko) 2017-02-21 2019-04-17 (주)제이하우스 아틀리에 클러스터 건물구조
CN108810531B (zh) * 2017-05-03 2019-11-19 腾讯科技(深圳)有限公司 视频编码处理方法、装置及电子设备
US10356439B2 (en) * 2017-06-29 2019-07-16 Intel Corporation Flexible frame referencing for display transport
WO2019049912A1 (ja) * 2017-09-08 2019-03-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
CN109963155B (zh) 2017-12-23 2023-06-06 华为技术有限公司 图像块的运动信息的预测方法、装置及编解码器
MX2021002557A (es) * 2018-09-07 2021-04-29 Panasonic Ip Corp America Sistema y metodo para codificacion de video.
JP7288964B2 (ja) 2018-12-28 2023-06-08 テレフオンアクチーボラゲット エルエム エリクソン(パブル) 動きベクトル予測因子リストを生成すること
CN113647105B (zh) * 2019-01-28 2024-08-27 Op方案有限责任公司 指数分区的帧间预测
US11375243B2 (en) * 2019-07-17 2022-06-28 Tencent America LLC Method and apparatus for video coding
KR20210039553A (ko) 2019-10-02 2021-04-12 주식회사 디맥스 치과용 지르코니아 소재의 표면 처리방법

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2703802A1 (fr) * 1993-04-07 1994-10-14 Philips Electronique Lab Dispositif d'estimation de mouvement entre des images successives d'une séquence d'images animées subdivisées en blocs bidimensionnels d'éléments d'image.
DE69424909T2 (de) 1993-04-09 2000-12-14 Sony Corp., Tokio/Tokyo Verfahren und vorrichtung zur bildkodierung
KR100523908B1 (ko) * 1997-12-12 2006-01-27 주식회사 팬택앤큐리텔 격행주사 영상에 대한 영상신호 부호화 장치 및 그 방법
US20040001546A1 (en) * 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
JP2005223631A (ja) 2004-02-05 2005-08-18 Sony Corp データ処理装置およびその方法と符号化装置および復号装置
JP4543971B2 (ja) * 2005-03-07 2010-09-15 ソニー株式会社 符号化方法、符号化装置、符号化処理のプログラム及び符号化処理のプログラムを記録した記録媒体
JP4712643B2 (ja) * 2006-08-17 2011-06-29 富士通セミコンダクター株式会社 フレーム間予測処理装置、フレーム間予測方法、画像符号化装置及び画像復号装置
KR101365567B1 (ko) * 2007-01-04 2014-02-20 삼성전자주식회사 영상의 예측 부호화 방법 및 장치, 그 복호화 방법 및 장치
CN101622877A (zh) * 2006-12-22 2010-01-06 高通股份有限公司 用于有效空间帧内可预测性确定(或评估)的系统和方法
US8331448B2 (en) * 2006-12-22 2012-12-11 Qualcomm Incorporated Systems and methods for efficient spatial intra predictabilty determination (or assessment)
KR101383540B1 (ko) 2007-01-03 2014-04-09 삼성전자주식회사 복수의 움직임 벡터 프리딕터들을 사용하여 움직임 벡터를추정하는 방법, 장치, 인코더, 디코더 및 복호화 방법
KR101365574B1 (ko) * 2007-01-29 2014-02-20 삼성전자주식회사 영상 부호화 방법 및 장치, 복호화 방법 및 장치
US8619853B2 (en) * 2007-06-15 2013-12-31 Qualcomm Incorporated Separable directional transforms
US8908765B2 (en) * 2007-11-15 2014-12-09 General Instrument Corporation Method and apparatus for performing motion estimation
JP5194833B2 (ja) * 2008-01-23 2013-05-08 ソニー株式会社 符号化装置および方法、記録媒体、並びにプログラム
US8098957B2 (en) * 2008-02-13 2012-01-17 Qualcomm Incorporated Shared block comparison architechture for image registration and video coding
US8385404B2 (en) * 2008-09-11 2013-02-26 Google Inc. System and method for video encoding using constructed reference frame
JP5401071B2 (ja) * 2008-10-09 2014-01-29 株式会社Nttドコモ 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、動画像復号プログラム、動画像処理システムおよび動画像処理方法
EP3678374A1 (fr) 2009-07-03 2020-07-08 Orange Prédiction d'un vecteur mouvement d'une partition d'image courante de forme géometrique ou de taille différente de celle d'au moins une partition d'image de référence voisine, codage et decodage utilisant une telle prediction
KR20120016991A (ko) * 2010-08-17 2012-02-27 오수미 인터 프리딕션 방법
US9137544B2 (en) * 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
EP2938082B1 (en) 2011-01-07 2017-03-22 Ntt Docomo, Inc. Predictive encoding method, predictive encoding device, and predictive encoding program of motion vector, and predictive decoding method, predictive decoding device, and predictive decoding program of motion vector

Also Published As

Publication number Publication date
BR112013017208A2 (pt) 2016-09-20
CN105812821A (zh) 2016-07-27
CA2933341C (en) 2020-06-30
EP3826306B1 (en) 2022-12-28
FI4120686T3 (fi) 2023-09-12
CA2823880C (en) 2016-08-16
EP4120686B1 (en) 2023-08-23
CN105812820A (zh) 2016-07-27
US20190110065A1 (en) 2019-04-11
HUE063372T2 (hu) 2024-01-28
PT2938082T (pt) 2017-04-07
JP2018026879A (ja) 2018-02-15
TW201701669A (zh) 2017-01-01
KR102066543B1 (ko) 2020-01-15
PL3826306T3 (pl) 2023-03-20
US20130294517A1 (en) 2013-11-07
EP2938082B1 (en) 2017-03-22
JP6411615B2 (ja) 2018-10-24
CN103283235B (zh) 2016-10-26
DK3826306T3 (da) 2023-01-23
CA3079646A1 (en) 2012-07-12
TWI562611B (ja) 2016-12-11
CN105812820B (zh) 2019-03-15
JP2016036186A (ja) 2016-03-17
MX2013007540A (es) 2013-08-21
EP4120685B1 (en) 2024-10-02
JP5698767B2 (ja) 2015-04-08
MX339663B (es) 2016-06-03
DK4120686T3 (da) 2023-09-25
EP2663077A1 (en) 2013-11-13
KR20180128098A (ko) 2018-11-30
RU2649770C1 (ru) 2018-04-04
EP2663077B1 (en) 2017-01-11
CA2823880A1 (en) 2012-07-12
ES2614821T3 (es) 2017-06-02
KR20140011475A (ko) 2014-01-28
US10154280B2 (en) 2018-12-11
TWI621352B (zh) 2018-04-11
PT4120686T (pt) 2023-09-07
MX352533B (es) 2017-11-29
TW201244499A (en) 2012-11-01
CN105791857B (zh) 2018-12-07
KR101672790B1 (ko) 2016-11-04
PL2938082T3 (pl) 2017-09-29
CN103283235A (zh) 2013-09-04
RU2676245C1 (ru) 2018-12-26
CA2933341A1 (en) 2012-07-12
TW201818725A (zh) 2018-05-16
CN106878741A (zh) 2017-06-20
ES2622732T3 (es) 2017-07-07
JP2015092781A (ja) 2015-05-14
JP6099729B2 (ja) 2017-03-22
PT3826306T (pt) 2023-01-16
US20190075316A1 (en) 2019-03-07
US10511856B2 (en) 2019-12-17
BR112013017208B1 (pt) 2019-01-29
AU2011353904A1 (en) 2013-07-11
MX2020001492A (es) 2020-03-20
PL4120686T3 (pl) 2023-12-11
KR20160087402A (ko) 2016-07-21
KR101803886B1 (ko) 2017-12-04
JP6246962B2 (ja) 2017-12-13
US10511855B2 (en) 2019-12-17
CA3079646C (en) 2022-09-13
CN105812821B (zh) 2017-10-27
EP4120686A1 (en) 2023-01-18
EP2663077A4 (en) 2015-11-04
ES2936314T3 (es) 2023-03-16
PL2663077T3 (pl) 2017-04-28
AU2011353904B2 (en) 2015-09-10
EP4120685A1 (en) 2023-01-18
KR20200006194A (ko) 2020-01-17
KR20170132361A (ko) 2017-12-01
KR20160036671A (ko) 2016-04-04
JPWO2012093585A1 (ja) 2014-06-09
RU2731026C1 (ru) 2020-08-28
TWI660623B (zh) 2019-05-21
RU2699404C1 (ru) 2019-09-05
RU2697738C1 (ru) 2019-08-19
KR101931276B1 (ko) 2018-12-20
PT2663077T (pt) 2017-02-13
RU2013136900A (ru) 2015-02-20
EP3826306A1 (en) 2021-05-26
FI3826306T3 (fi) 2023-01-31
US20170155898A9 (en) 2017-06-01
EP2938082A1 (en) 2015-10-28
SG191232A1 (en) 2013-07-31
HUE061239T2 (hu) 2023-06-28
JP2017108433A (ja) 2017-06-15
RU2580090C2 (ru) 2016-04-10
US9877040B2 (en) 2018-01-23
US9693052B2 (en) 2017-06-27
ES2957772T3 (es) 2024-01-25
CN106878741B (zh) 2019-08-06
RU2744696C1 (ru) 2021-03-15
US20170150169A1 (en) 2017-05-25
EP2938081A1 (en) 2015-10-28
WO2012093585A1 (ja) 2012-07-12
CA3167001A1 (en) 2012-07-12
US20180146209A1 (en) 2018-05-24
CN105791857A (zh) 2016-07-20
KR102165666B1 (ko) 2020-10-14

Similar Documents

Publication Publication Date Title
JP6411615B2 (ja) 予測復号方法
AU2015217509B2 (en) Predictive encoding method, predictive encoding device, and predictive encoding program of motion vector, and, predictive decoding method, predictive decoding device, and predictive decoding program of motion vector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151216

R150 Certificate of patent or registration of utility model

Ref document number: 5859691

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250