JP2018121354A - 画像予測復号装置、及び、画像予測復号方法 - Google Patents

画像予測復号装置、及び、画像予測復号方法 Download PDF

Info

Publication number
JP2018121354A
JP2018121354A JP2018051220A JP2018051220A JP2018121354A JP 2018121354 A JP2018121354 A JP 2018121354A JP 2018051220 A JP2018051220 A JP 2018051220A JP 2018051220 A JP2018051220 A JP 2018051220A JP 2018121354 A JP2018121354 A JP 2018121354A
Authority
JP
Japan
Prior art keywords
prediction
information
block
signal
motion information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018051220A
Other languages
English (en)
Other versions
JP6535780B2 (ja
Inventor
鈴木 芳典
Yoshinori Suzuki
芳典 鈴木
順也 瀧上
Junya Takigami
順也 瀧上
ブン チュンセン
Chunsen Bun
チュンセン ブン
タン ティオ ケン
Tio Ken Tang
ティオ ケン タン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45496857&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2018121354(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JP2018121354A publication Critical patent/JP2018121354A/ja
Application granted granted Critical
Publication of JP6535780B2 publication Critical patent/JP6535780B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Abstract

【課題】符号化効率を向上する。
【解決手段】一実施形態においては、画像内の符号化対象領域は、複数の予測領域に分割される。対象領域に隣接する隣接領域の予測情報と当該対象領域内の符号化済み予測領域の数と当該対象領域の符号化済み予測情報に基づいて、次の予測領域である対象予測領域の予測信号の生成に用いる動き情報の候補が、当該対象予測領域に隣接する領域の符号化済み動き情報から選出される。選出された動き情報の候補の数に応じて、選出された動き情報の候補を用いた対象予測領域の予測信号の生成を指示するマージブロック情報及び予測情報推定手段にて検出された動き情報、又は、当該マージブロック情報と当該動き情報の何れか一方が符号化され、対象予測領域の予測信号の生成に用いる動き情報が予測情報保存手段に保存される。
【選択図】図1

Description

本発明の一側面は、画像予測符号化装置、画像予測符号化方法、及び、画像予測符号化プログラムに関するものである。また、本発明の別の一側面は、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムに関するものである。とりわけ、これらの側面は、周囲ブロックの動き情報を用いて対象ブロックの予測信号を生成する画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムに関するものである。また、本発明の更に別の一側面は、動きベクトルによる動き補償によって予測信号の生成を行う動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び、動画像復号プログラムに関するものである。
静止画像や動画像データの伝送や蓄積を効率よく行うために、圧縮符号化技術が用いられる。動画像の場合では、MPEG−1〜4やITU(International Telecommunication Union)H.261〜H.264の方式が広く用いられている。
これらの符号化方式では、符号化の対象となる画像を複数のブロックに分割した上で符号化処理又は復号処理を行う。画面内の予測符号化では、対象ブロックと同じ画面内にある隣接する既再生の画像信号(圧縮された画像データが復元されたもの)を用いて予測信号を生成した上で、その予測信号を対象ブロックの信号から引き算することによって得られる差分信号を符号化する。画面間の予測符号化では、対象ブロックと異なる画面内にある隣接する既再生の画像信号を参照し、動きの補正を行ない、予測信号を生成し、その予測信号を対象ブロックの信号から引き算することによって得られる差分信号を符号化する。
例えば、H.264の画面内予測符号化では、符号化の対象となるブロックに隣接する既再生の画素値を所定の方向に外挿して予測信号を生成する方法を採用している。図22は、ITU H.264に用いられる画面内予測方法を説明するための模式図である。図22の(A)において、対象ブロック802は符号化の対象となるブロックであり、その対象ブロック802の境界に隣接する画素P〜Pからなる画素群801は隣接領域であり、過去の処理において既に再生された画像信号である。
図22の(A)に示す場合には、対象ブロック802の真上にある隣接画素である画素群801を下方に引き伸ばすことにより予測信号を生成する。また図22の(B)に示す場合では、対象ブロック804の左にある既再生画素(P〜P)を右に引き伸ばすことにより予測信号を生成する。予測信号を生成する具体的な方法は、例えば特許文献1に記載されている。このように図22の(A)〜(I)に示す方法で生成された9つの予測信号のそれぞれと対象ブロックの画素信号との差分をとり、差分値が最も小さいものを最適な予測信号とする。以上のように、画素を外挿することにより予測信号を生成することができる。以上の内容については、下記特許文献1に記載されている。
通常の画面間予測符号化では、符号化の対象となるブロックについて、その画素信号に類似する信号を既に再生済みの画面から探索するという方法で予測信号を生成する。そして、対象ブロックと探索した信号が構成する領域との間の空間的な変位量である動きベクトルと、対象ブロックの画素信号と予測信号との残差信号とを符号化する。このようにブロック毎に動きベクトルを探索する手法はブロックマッチングと呼ばれる。
図21は、ブロックマッチング処理を説明するための模式図である。以下、符号化対象の画面701上の対象ブロック702を例に予測信号の生成手順を説明する。画面703は既に再生済みであり、領域704は対象ブロック702と空間的に同一位置の領域である。ブロックマッチングでは、領域704を囲む探索範囲705を設定し、この探索範囲の画素信号から対象ブロック702の画素信号との絶対値誤差和が最小となる領域706を検出する。この領域706の信号が予測信号となり、領域704から領域706への変位量が動きベクトル707として検出される。また、参照画面703を複数用意し、対象ブロック毎にブロックマッチングを実施する参照画面を選択し、参照画面選択情報を検出する方法も用いられることがある。H.264では、画像の局所的な特徴の変化に対応するため、動きベクトルを符号化するブロックサイズが異なる複数の予測タイプを用意している。H.264の予測タイプについては、例えば特許文献2に記載されている。
動画像データの圧縮符号化では、各画面(フレーム、フィールド)の符号化順序は任意でよい。そのため、再生済み画面を参照して予測信号を生成する画面間予測にも、符号化順序について3種類の手法がある。第1の手法は、再生順で過去の再生済み画面を参照して予測信号を生成する前方向予測であり、第2の手法は、再生順で未来の再生済み画面を参照して予測信号を生成する後方向予測であり、第3の手法は、前方向予測と後方向予測を共に行い、2つの予測信号を平均化する双方向予測である。画面間予測の種類については、例えば特許文献3に記載されている。
次世代符号化映像符号化方式として標準化が始まったHEVC(Highefficiency video coding)では、予測ブロックの分割タイプとして、図20の(B)と(C)に示す矩形2分割、図20の(D)に示す正方4分割に加えて、図20の(E)〜(F)に示すように非対称分割の導入も検討されている。さらに、HEVCでは、このように分割された予測ブロックの予測信号を生成する際に、予測対象となる対象予測ブロックに隣接するブロックの動き情報(動きベクトルや参照画面情報ならびに前方向/後方向/双方向を識別する画面間予測モード)を利用する手法が検討されている。この予測手法はブロックマージングと呼ばれており、動き情報を効率良く符号化できるという特徴がある。図2の(A)は、符号化ブロック400を縦分割して生成した予測ブロックT1にブロックマージングする際の隣接ブロックを模式的に説明する図である。予測ブロックT1の予測信号は、1)隣接ブロックAの動き情報、2)隣接ブロックBの動き情報あるいは、3)ブロックマッチングにて検出した動き情報のいずれかを用いて生成される。たとえば、符号化器が隣接ブロックAの動き情報を選択した場合、符号化器は、第1に、隣接ブロックの動き情報を利用することを示すマージ識別情報(merge_flag)を”merge_flag=1”とし、当該マージ識別情報(merge_flag)を復号器に送る。第2に、符号化器は、隣接ブロックAと隣接ブロックBから隣接ブロックAを利用することを示すマージブロック選択情報(merge_flag_left)を”merge_flag_left=1”とし、当該マージブロック選択情報(merge_flag_left)を復号器に送る。復号器は、この2つの情報を受信することにより、対象予測ブロックの予測信号を隣接ブロックAの動き情報を用いて生成すべきことを識別できる。同様に、復号器は”merge_flag=1”、”merge_flag_left=0”(隣接ブロックBを選択)を受信したときには、対象予測ブロックの予測信号を隣接ブロックBの動き情報を用いて生成し、”merge_flag=0”を受信したときには、さらに符号化器から動き情報を受信して対象予測ブロックの動き情報を復元すべきことを識別できる。ここで示したブロックマージングについては、非特許文献1に記載されている。
また、MPEG−1,2やMPEG−4等の規格におけるフレーム間予測では、それぞれのピクチャは互いに重ならない矩形のブロックのセットに分割され、ブロックのそれぞれに動きベクトルが関連付けられる。動きベクトルは、ブロックごとの動き探索によって得られものであり、現在のブロックの画像信号を予測するために使用する第2のブロックからの現在のブロックの水平変位及び垂直変位を示している。
下記特許文献4には、ブロック内に斜め方向に動きの境界が存在する場合に、より精度の高い動き補償予測を行うための方法が記載されている。この方法は、ブロックを更に非矩形の小区画に区切り、当該小区画ごとに動き補償予測を行うものである。
また、下記特許文献5には、ブロックを更に小さな矩形の小区画に区切り、当該小区画ごとに動き補償予測を行う方法が記載されている。この方法は、処理対象の小区画の動きベクトルを符号化する際に、処理対象の小区画に接するブロックであって当該小区画より処理順で前のブロックの動きベクトルから予測動きベクトルを生成し、処理対象の小区画の動きベクトルと予測動きベクトルの差分、即ち差分動きベクトルのみを符号化するものである。この方法では、処理対象の小区画が処理順で前のブロックに接していない場合には、当該処理対象の小区画を含むブロック内の処理順で前の他の小区画の動きベクトルから当該処理対象の小区画の予測動きベクトルを生成している。
米国特許公報第6765964号 米国特許公報第7003035号 米国特許公報第6259739号 特開2005−277968号公報 特開2009−246972号公報
Test Model under Consideration, JointCollaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IECJTC1/SC29/WG11, 1st Meeting: Dresden, DE, 15-23 April, 2010, Document:JCTVC-A205
上記の非特許文献1では、符号化対象の対象符号化ブロックを分割した複数の予測ブロックのブロックマージングにて利用する動き情報の候補の選出を予測ブロックとその周囲の状況に関わらず同じ方法で実施する。そのため、たとえば、図2の(B)に示すように、予測ブロックT2の予測信号を生成する際の動き情報の候補に、同じ符号化ブロックに含まれる予測ブロックT1の動き情報が含まれる。この予測ブロックT1と予測ブロックT2から成る予測ブロック分割タイプは、2つのブロックの予測信号が異なる動き情報で生成されることを想定して用意されたものである。従って、予測ブロックT2の動き情報の候補に予測ブロックT1の動き情報が含まれることは好ましくない。即ち、符号化が非効率となることがある。
そこで、本発明は、幾つかの側面においては、対象予測ブロックの予測信号の生成に用いる動き情報の候補を、対象符号化ブロックや周囲の符号化ブロックの符号化済み又は復号済み予測情報(動き情報や予測ブロック分割タイプ)に基づいて選出することにより、非効率な符号の発生を抑制する画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムを提供することを目的とする。即ち、これら側面においては、本発明は、符号化効率を向上することが可能な画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムを提供することを目的とする。
また、特許文献4又は特許文献5に記載されているように、処理対象のブロックを区切ることで得られる小区画ごとに動き補償予測を行う方法がある。このような動き補償予測においては、処理対象の小区画より処理順で前のブロックの動きベクトルに基づいて小区画用の予測動きベクトルを生成し、当該小区画の動きベクトルと当該予測動きベクトルの間の差分動きベクトルのみを符号化することが、符号量の観点から好ましい。
図23は、動き補償予測を説明するための図である。図23に示すように、処理対象のブロックPには、当該ブロックPより処理順で前の一以上のブロックCPに接する小区画SP1とブロックCPに接しない小区画SP2が存在し得る。このような小区画SP2の動きベクトルV2は、特許文献4に記載されている方法では、予測動きベクトルを用いずに、そのまま符号化される。この方法は、予測動きベクトルをゼロベクトルとする方法と等価である。
一方、特許文献5に記載される方法では、ブロックP内の他の小区画であって小区画SP2より処理順で前の小区画SP1の動きベクトルV1から、小区画SP2の予測動きベクトルが生成される。しかしながら、小区画SP1の動きベクトルと小区画SP2の動きベクトルは、本来的に互いに異なるものであると考えられる。したがって、特許文献5に記載されている方法では、小区画SP2の動きベクトルを効率良く符号化できないことがある。
そこで、本発明は、別の幾つかの側面においても、符号化効率を向上することが可能な動画像符号化装置、動画像符号化方法、及び、動画像符号化プログラム、また、当該動画像符号化に対応する動画像復号装置、動画像復号方法、及び動画像復号プログラムを提供することを目的とする。
本発明の一側面は、画像予測復号に関するものであり、以下のように、画像予測復号装置および方法として記述することができる。
本発明に係る画像予測復号装置は、複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、残差信号の符号化データとを抽出するデータ解析手段と、前記予測情報の符号化データから動き情報を復元する予測情報復号手段であって、前記予測情報の符号化データから、前記対象領域を小分割する予測領域の数を示す予測ブロック分割タイプを復元し、前記予測ブロック分割タイプが、前記対象領域を左側の第1の予測領域と右側の第2の予測領域とに垂直に2分割するタイプを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に、該第1の予測領域に隣接する隣接領域のうち画面内予測により生成された隣接領域を除く隣接領域に付随する復号済み動き情報を含む動き情報候補を利用するか否かを示す第1のマージ識別情報を復元し、前記第1のマージ識別情報が前記動き情報候補を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に用いる第1の動き情報を復元し、前記第1のマージ識別情報が前記動き情報候補を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記動き情報候補から前記第1の予測領域の予測信号の生成に用いる第1の動き情報を特定する第1の選択情報を復元し、該第1の選択情報に基づいて前記第1の動き情報を復元し、前記予測情報の符号化データを更に復号して、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第2のマージ識別情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、第2の予測領域の予測信号の生成に用いる第2の動き情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用することを示し、且つ、復号済み動き情報の候補が複数存在する場合に、前記予測情報の符号化データを更に復号して、前記第2の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を含まないと共に前記第2の予測領域の上側において該第2の予測領域に隣接する複数の上側領域の動き情報のうち前記第1の動き情報と一致する動き情報を含まない前記復号済み動き情報の候補から、前記第2の予測領域の予測信号の生成に用いる第2の動き情報を特定する第2の選択情報を復元し、該第2の選択情報に基づいて前記第2の動き情報を復元する、該予測情報復号手段と、復元した予測情報に含まれる動き情報を保存する保存手段と、復元された前記第1の動き情報と前記第2の動き情報に基づいて、前記対象領域に含まれる前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成手段と、前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元手段と、前記予測信号と前記再生残差信号とに基づいて前記対象領域の画素信号を復元し、該画素信号を既再生信号として保存する記録手段と、を具備する。
本発明に係る画像予測復号方法は、画像予測復号装置により実行される画像予測復号方法であって、複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、残差信号の符号化データとを抽出するデータ解析ステップと、前記予測情報の符号化データから動き情報を復元する予測情報復号ステップであって、前記予測情報の符号化データから、前記対象領域を小分割する予測領域の数を示す予測ブロック分割タイプを復元し、前記予測ブロック分割タイプが、前記対象領域を左側の第1の予測領域と右側の第2の予測領域とに垂直に2分割するタイプを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に、該第1の予測領域に隣接する隣接領域のうち画面内予測により生成された隣接領域を除く隣接領域に付随する復号済み動き情報を含む動き情報候補を利用するか否かを示す第1のマージ識別情報を復元し、前記第1のマージ識別情報が前記動き情報候補を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に用いる第1の動き情報を復元し、前記第1のマージ識別情報が前記動き情報候補を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記動き情報候補から前記第1の予測領域の予測信号の生成に用いる第1の動き情報を特定する第1の選択情報を復元し、該第1の選択情報に基づいて前記第1の動き情報を復元し、前記予測情報の符号化データを更に復号して、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第2のマージ識別情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、第2の予測領域の予測信号の生成に用いる第2の動き情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用することを示し、且つ、復号済み動き情報の候補が複数存在する場合に、前記予測情報の符号化データを更に復号して、前記第2の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を含まないと共に前記第2の予測領域の上側において該第2の予測領域に隣接する複数の上側領域の動き情報のうち前記第1の動き情報と一致する動き情報を含まない前記復号済み動き情報の候補から、前記第2の予測領域の予測信号の生成に用いる第2の動き情報を特定する第2の選択情報を復元し、該第2の選択情報に基づいて前記第2の動き情報を復元する、該予測情報復号ステップと、復元した予測情報に含まれる動き情報を保存する保存ステップと、復元された前記第1の動き情報と前記第2の動き情報に基づいて、前記対象領域に含まれる前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成ステップと、前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元ステップと、前記予測信号と前記再生残差信号とに基づいて前記対象領域の画素信号を復元し、該画素信号を既再生信号として保存する記録ステップと、を含む。
前記動き情報には、動きベクトル及び参照画面番号に関する情報が含まれてもよい。
本発明は、以下の態様も考えられる。本発明の第1の側面は、画像予測符号化に関する。
本発明の一側面は、画像予測符号化に関するものであり、以下のように、画像予測符号化装置、方法およびプログラムとして記述することができる。
本発明に係る画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された符号化対象とする対象領域を第1の予測領域と第2の予測領域とに小分割し、前記対象領域に適した予測領域の数と領域形状を示す予測ブロック分割タイプを決定し、前記第1、第2の予測領域との相関が高い信号を既再生信号から取得するための第1、第2の動き情報をそれぞれ予測し、前記予測ブロック分割タイプと、前記第1、第2の動き情報と、前記第1の予測領域の予測信号の生成に、該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報及び動きベクトルが0であることを示す動き情報の少なくとも一方を含む動き情報候補を利用するか否かを示す第1のマージ識別情報と、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報を利用するか否かを示す第2のマージ識別情報と、を含む予測情報を求める予測情報推定手段と、前記対象領域に付随する予測情報を符号化する予測情報符号化手段と、前記第1の動き情報と前記第2の動き情報に基づいて、前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成手段と、前記第1の予測領域と第2の予測領域の各々の予測信号と画素信号とに基づく残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された残差信号を符号化する残差信号符号化手段と、前記残差信号の符号化データを復号することにより再生残差信号を生成する残差信号復元手段と、前記予測信号と前記再生残差信号とに基づいて前記対象領域の復元画素信号を生成し、該復元画素信号を前記既再生信号として保存する記録手段と、を具備する。
本発明に係る画像予測符号化方法は、画像予測符号化装置により実行される画像予測符号化方法であって、入力画像を複数の領域に分割する領域分割ステップと、前記領域分割ステップにより分割された符号化対象とする対象領域を第1の予測領域と第2の予測領域とに小分割し、前記対象領域に適した予測領域の数と領域形状を示す予測ブロック分割タイプを決定し、前記第1、第2の予測領域との相関が高い信号を既再生信号から取得するための第1、第2の動き情報をそれぞれ予測し、前記予測ブロック分割タイプと、前記第1、第2の動き情報と、前記第1の予測領域の予測信号の生成に、該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報及び動きベクトルが0であることを示す動き情報の少なくとも一方を含む動き情報候補を利用するか否かを示す第1のマージ識別情報と、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報を利用するか否かを示す第2のマージ識別情報と、を含む予測情報を求める予測情報推定ステップと、前記対象領域に付随する予測情報を符号化する予測情報符号化ステップと、前記第1の動き情報と前記第2の動き情報に基づいて、前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成ステップと、前記第1の予測領域と第2の予測領域の各々の予測信号と画素信号とに基づく残差信号を生成する残差信号生成ステップと、前記残差信号生成ステップにより生成された残差信号を符号化する残差信号符号化ステップと、前記残差信号の符号化データを復号することにより再生残差信号を生成する残差信号復元ステップと、前記予測信号と前記再生残差信号とに基づいて前記対象領域の復元画素信号を生成し、該復元画素信号を前記既再生信号として保存する記録ステップと、を含む。
本発明に係る画像予測符号化プログラムは、コンピュータを、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された符号化対象とする対象領域を第1の予測領域と第2の予測領域とに小分割し、前記対象領域に適した予測領域の数と領域形状を示す予測ブロック分割タイプを決定し、前記第1、第2の予測領域との相関が高い信号を既再生信号から取得するための第1、第2の動き情報をそれぞれ予測し、前記予測ブロック分割タイプと、前記第1、第2の動き情報と、前記第1の予測領域の予測信号の生成に、該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報及び動きベクトルが0であることを示す動き情報の少なくとも一方を含む動き情報候補を利用するか否かを示す第1のマージ識別情報と、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報を利用するか否かを示す第2のマージ識別情報と、を含む予測情報を求める予測情報推定手段と、前記対象領域に付随する予測情報を符号化する予測情報符号化手段と、前記第1の動き情報と前記第2の動き情報に基づいて、前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成手段と、前記第1の予測領域と第2の予測領域の各々の予測信号と画素信号とに基づく残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された残差信号を符号化する残差信号符号化手段と、前記残差信号の符号化データを復号することにより再生残差信号を生成する残差信号復元手段と、前記予測信号と前記再生残差信号とに基づいて前記対象領域の復元画素信号を生成し、該復元画素信号を前記既再生信号として保存する記録手段、として機能させる。
本発明の一側面は、画像予測復号に関するものであり、以下のように、画像予測復号装置、方法およびプログラムとして記述することができる。
本発明に係る画像予測復号装置は、複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、残差信号の符号化データとを抽出するデータ解析手段と、前記予測情報の符号化データから動き情報を復元する予測情報復号手段であって、前記予測情報の符号化データから、前記対象領域を小分割する予測領域の数を示す予測ブロック分割タイプを復元し、前記予測ブロック分割タイプが、前記対象領域が第1の予測領域と第2の予測領域を含むことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に、該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報及び動きベクトルが0であることを示す動き情報の少なくとも一方を含む動き情報候補を利用するか否かを示す第1のマージ識別情報を復元し、前記第1のマージ識別情報が前記動き情報候補を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に用いる第1の動き情報を復元し、前記第1のマージ識別情報が前記動き情報候補を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記動き情報候補から前記第1の予測領域の予測信号の生成に用いる第1の動き情報を特定する第1の選択情報を復元し、該第1の選択情報に基づいて前記第1の動き情報を復元し、前記予測情報の符号化データを更に復号して、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第2のマージ識別情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、第2の予測領域の予測信号の生成に用いる第2の動き情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記第2の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報の候補から、前記第2の予測領域の予測信号の生成に用いる第2の動き情報を特定する第2の選択情報を復元し、該第2の選択情報に基づいて前記第2の動き情報を復元する、該予測情報復号手段と、復元した予測情報に含まれる動き情報を保存する保存手段と、復元された前記第1の動き情報と前記第2の動き情報に基づいて、前記対象領域に含まれる前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成手段と、前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元手段と、前記予測信号と前記再生残差信号とに基づいて前記対象領域の画素信号を復元し、該画素信号を既再生信号として保存する記録手段と、を具備する。
本発明に係る画像予測復号方法は、画像予測復号装置により実行される画像予測復号方法であって、複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、残差信号の符号化データとを抽出するデータ解析ステップと、前記予測情報の符号化データから動き情報を復元する予測情報復号ステップであって、前記予測情報の符号化データから、前記対象領域を小分割する予測領域の数を示す予測ブロック分割タイプを復元し、前記予測ブロック分割タイプが、前記対象領域が第1の予測領域と第2の予測領域を含むことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に、該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報及び動きベクトルが0であることを示す動き情報の少なくとも一方を含む動き情報候補を利用するか否かを示す第1のマージ識別情報を復元し、前記第1のマージ識別情報が前記動き情報候補を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に用いる第1の動き情報を復元し、前記第1のマージ識別情報が前記動き情報候補を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記動き情報候補から前記第1の予測領域の予測信号の生成に用いる第1の動き情報を特定する第1の選択情報を復元し、該第1の選択情報に基づいて前記第1の動き情報を復元し、前記予測情報の符号化データを更に復号して、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第2のマージ識別情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、第2の予測領域の予測信号の生成に用いる第2の動き情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記第2の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報の候補から、前記第2の予測領域の予測信号の生成に用いる第2の動き情報を特定する第2の選択情報を復元し、該第2の選択情報に基づいて前記第2の動き情報を復元する、該予測情報復号ステップと、復元した予測情報に含まれる動き情報を保存する保存ステップと、復元された前記第1の動き情報と前記第2の動き情報に基づいて、前記対象領域に含まれる前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成ステップと、前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元ステップと、前記予測信号と前記再生残差信号とに基づいて前記対象領域の画素信号を復元し、該画素信号を既再生信号として保存する記録ステップと、を含む。
本発明に係る画像予測復号プログラムは、コンピュータを、複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、残差信号の符号化データとを抽出するデータ解析手段と、前記予測情報の符号化データから動き情報を復元する予測情報復号手段であって、前記予測情報の符号化データから、前記対象領域を小分割する予測領域の数を示す予測ブロック分割タイプを復元し、前記予測ブロック分割タイプが、前記対象領域が第1の予測領域と第2の予測領域を含むことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に、該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報及び動きベクトルが0であることを示す動き情報の少なくとも一方を含む動き情報候補を利用するか否かを示す第1のマージ識別情報を復元し、前記第1のマージ識別情報が前記動き情報候補を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に用いる第1の動き情報を復元し、前記第1のマージ識別情報が前記動き情報候補を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記動き情報候補から前記第1の予測領域の予測信号の生成に用いる第1の動き情報を特定する第1の選択情報を復元し、該第1の選択情報に基づいて前記第1の動き情報を復元し、前記予測情報の符号化データを更に復号して、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第2のマージ識別情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、第2の予測領域の予測信号の生成に用いる第2の動き情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記第2の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報の候補から、前記第2の予測領域の予測信号の生成に用いる第2の動き情報を特定する第2の選択情報を復元し、該第2の選択情報に基づいて前記第2の動き情報を復元する、該予測情報復号手段と、復元した予測情報に含まれる動き情報を保存する保存手段と、復元された前記第1の動き情報と前記第2の動き情報に基づいて、前記対象領域に含まれる前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成手段と、前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元手段と、前記予測信号と前記再生残差信号とに基づいて前記対象領域の画素信号を復元し、該画素信号を既再生信号として保存する記録手段、として機能させる。
本発明は、以下の態様も考えられる。本発明の第1の側面は、画像予測符号化に関する。
本発明の第1の側面は、画像予測符号化に関するものであり、以下のように、画像予測符号化装置、方法およびプログラムとして記述することができる。
本発明に係る画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された符号化対象とする対象領域を第1の予測領域と第2の予測領域とに小分割し、前記対象領域に適した予測領域の数と領域形状を示す予測ブロック分割タイプを決定し、前記第1、第2の予測領域との相関が高い信号を既再生信号から取得するための第1、第2の動き情報をそれぞれ予測し、前記予測ブロック分割タイプと、前記第1、第2の動き情報と、前記第1の予測領域の予測信号の生成に該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第1のマージ識別情報と、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報を利用するか否かを示す第2のマージ識別情報と、を含む予測情報を求める予測情報推定手段と、前記対象領域に付随する予測情報を符号化する予測情報符号化手段と、前記第1の動き情報と前記第2の動き情報に基づいて、前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成手段と、前記第1の予測領域と第2の予測領域の各々の予測信号と画素信号とに基づく残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された残差信号を符号化する残差信号符号化手段と、前記残差信号の符号化データを復号することにより再生残差信号を生成する残差信号復元手段と、前記予測信号と前記再生残差信号とに基づいて前記対象領域の復元画素信号を生成し、該復元画素信号を前記既再生信号として保存する記録手段と、を具備する。
本発明に係る画像予測符号化方法は、画像予測符号化装置により実行される画像予測符号化方法であって、入力画像を複数の領域に分割する領域分割ステップと、前記領域分割ステップにより分割された符号化対象とする対象領域を第1の予測領域と第2の予測領域とに小分割し、前記対象領域に適した予測領域の数と領域形状を示す予測ブロック分割タイプを決定し、前記第1、第2の予測領域との相関が高い信号を既再生信号から取得するための第1、第2の動き情報をそれぞれ予測し、前記予測ブロック分割タイプと、前記第1、第2の動き情報と、前記第1の予測領域の予測信号の生成に該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第1のマージ識別情報と、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報を利用するか否かを示す第2のマージ識別情報と、を含む予測情報を求める予測情報推定ステップと、前記対象領域に付随する予測情報を符号化する予測情報符号化ステップと、前記第1の動き情報と前記第2の動き情報に基づいて、前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成ステップと、前記第1の予測領域と第2の予測領域の各々の予測信号と画素信号とに基づく残差信号を生成する残差信号生成ステップと、前記残差信号生成ステップにより生成された残差信号を符号化する残差信号符号化ステップと、前記残差信号の符号化データを復号することにより再生残差信号を生成する残差信号復元ステップと、前記予測信号と前記再生残差信号とに基づいて前記対象領域の復元画素信号を生成し、該復元画素信号を前記既再生信号として保存する記録ステップと、を含む。
本発明に係る画像予測符号化プログラムは、コンピュータを、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された符号化対象とする対象領域を第1の予測領域と第2の予測領域とに小分割し、前記対象領域に適した予測領域の数と領域形状を示す予測ブロック分割タイプを決定し、前記第1、第2の予測領域との相関が高い信号を既再生信号から取得するための第1、第2の動き情報をそれぞれ予測し、前記予測ブロック分割タイプと、前記第1、第2の動き情報と、前記第1の予測領域の予測信号の生成に該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第1のマージ識別情報と、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報を利用するか否かを示す第2のマージ識別情報と、を含む予測情報を求める予測情報推定手段と、前記対象領域に付随する予測情報を符号化する予測情報符号化手段と、前記第1の動き情報と前記第2の動き情報に基づいて、前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成手段と、前記第1の予測領域と第2の予測領域の各々の予測信号と画素信号とに基づく残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された残差信号を符号化する残差信号符号化手段と、前記残差信号の符号化データを復号することにより再生残差信号を生成する残差信号復元手段と、前記予測信号と前記再生残差信号とに基づいて前記対象領域の復元画素信号を生成し、該復元画素信号を前記既再生信号として保存する記録手段、として機能させる。
本発明の第2の側面は、画像予測復号に関するものであり、以下のように、画像予測復号装置、方法およびプログラムとして記述することができる。
本発明に係る画像予測復号装置は、複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、残差信号の符号化データとを抽出するデータ解析手段と、前記予測情報の符号化データから動き情報を復元する予測情報復号手段であって、前記予測情報の符号化データから、前記対象領域を小分割する予測領域の数を示す予測ブロック分割タイプを復元し、前記予測ブロック分割タイプが、前記対象領域が第1の予測領域と第2の予測領域を含むことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第1のマージ識別情報を復元し、前記第1のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に用いる第1の動き情報を復元し、前記第1のマージ識別情報が復号済み動き情報を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報から前記第1の予測領域の予測信号の生成に用いる第1の動き情報を特定する第1の選択情報を復元し、該第1の選択情報に基づいて前記第1の動き情報を復元し、前記予測情報の符号化データを更に復号して、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第2のマージ識別情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、第2の予測領域の予測信号の生成に用いる第2の動き情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記第2の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報の候補から、前記第2の予測領域の予測信号の生成に用いる第2の動き情報を特定する第2の選択情報を復元し、該第2の選択情報に基づいて前記第2の動き情報を復元する該予測情報復号手段と、復元した予測情報に含まれる動き情報を保存する保存手段と、復元された前記第1の動き情報と前記第2の動き情報に基づいて、前記対象領域に含まれる前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成手段と、前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元手段と、前記予測信号と前記再生残差信号とに基づいて前記対象領域の画素信号を復元し、該画素信号を既再生信号として保存する記録手段と、を具備する。
本発明に係る画像予測復号方法は、画像予測復号装置により実行される画像予測復号方法であって、複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、残差信号の符号化データとを抽出するデータ解析ステップと、前記予測情報の符号化データから動き情報を復元する予測情報復号ステップであって、前記予測情報の符号化データから、前記対象領域を小分割する予測領域の数を示す予測ブロック分割タイプを復元し、前記予測ブロック分割タイプが、前記対象領域が第1の予測領域と第2の予測領域を含むことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第1のマージ識別情報を復元し、前記第1のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に用いる第1の動き情報を復元し、前記第1のマージ識別情報が復号済み動き情報を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報から前記第1の予測領域の予測信号の生成に用いる第1の動き情報を特定する第1の選択情報を復元し、該第1の選択情報に基づいて前記第1の動き情報を復元し、前記予測情報の符号化データを更に復号して、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第2のマージ識別情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、第2の予測領域の予測信号の生成に用いる第2の動き情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記第2の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報の候補から、前記第2の予測領域の予測信号の生成に用いる第2の動き情報を特定する第2の選択情報を復元し、該第2の選択情報に基づいて前記第2の動き情報を復元する該予測情報復号ステップと、復元した予測情報に含まれる動き情報を保存する保存ステップと、復元された前記第1の動き情報と前記第2の動き情報に基づいて、前記対象領域に含まれる前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成ステップと、前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元ステップと、前記予測信号と前記再生残差信号とに基づいて前記対象領域の画素信号を復元し、該画素信号を既再生信号として保存する記録ステップと、を含む。
本発明に係る画像予測復号プログラムは、コンピュータを、複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、残差信号の符号化データとを抽出するデータ解析手段と、前記予測情報の符号化データから動き情報を復元する予測情報復号手段であって、前記予測情報の符号化データから、前記対象領域を小分割する予測領域の数を示す予測ブロック分割タイプを復元し、前記予測ブロック分割タイプが、前記対象領域が第1の予測領域と第2の予測領域を含むことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第1のマージ識別情報を復元し、前記第1のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に用いる第1の動き情報を復元し、前記第1のマージ識別情報が復号済み動き情報を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報から前記第1の予測領域の予測信号の生成に用いる第1の動き情報を特定する第1の選択情報を復元し、該第1の選択情報に基づいて前記第1の動き情報を復元し、前記予測情報の符号化データを更に復号して、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第2のマージ識別情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、第2の予測領域の予測信号の生成に用いる第2の動き情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記第2の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報の候補から、前記第2の予測領域の予測信号の生成に用いる第2の動き情報を特定する第2の選択情報を復元し、該第2の選択情報に基づいて前記第2の動き情報を復元する該予測情報復号手段と、復元した予測情報に含まれる動き情報を保存する保存手段と、復元された前記第1の動き情報と前記第2の動き情報に基づいて、前記対象領域に含まれる前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成手段と、前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元手段と、前記予測信号と前記再生残差信号とに基づいて前記対象領域の画素信号を復元し、該画素信号を既再生信号として保存する記録手段、として機能させる。
本発明は、以下の態様も考えられる。本発明の第1の側面は、画像予測符号化に関する。
本発明の第1の側面に係る画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、上記領域分割手段により分割された符号化対象とする対象領域を複数の予測領域に小分割し、上記対象領域に適した予測領域の数と領域形状を示す予測ブロック分割タイプを決定し、該複数の予測領域との相関が高い信号を既再生信号から取得するための動き情報をそれぞれ予測し、上記予測ブロック分割タイプと上記動き情報を含む予測情報を求める予測情報推定手段と、上記対象領域に付随する予測情報を符号化する予測情報符号化手段と、上記対象領域に付随する予測情報に基づいて、上記対象領域の予測信号を生成する予測信号生成手段と、上記対象領域の予測信号と上記対象領域の画素信号とに基づく残差信号を生成する残差信号生成手段と、上記残差信号生成手段により生成された残差信号を符号化する残差信号符号化手段と、上記残差信号の符号化データを復号することにより再生残差信号を生成する残差信号復元手段と、上記予測信号と上記再生残差信号とを加算することによって上記対象領域の復元画素信号を生成し、該復元画素信号を上記既再生信号として保存する記録手段と、を具備する。上記予測情報符号化手段は、符号化済みの予測情報を保存する予測情報保存手段を有し、上記対象領域の予測ブロック分割タイプを符号化し、該予測ブロック分割タイプを上記予測情報保存手段に保存し、上記対象領域に隣接する隣接領域の予測情報と上記対象領域内の符号化済み予測領域の数と上記対象領域の符号化済み予測情報に基づいて、次の予測領域である対象予測領域の予測信号の生成に用いる動き情報の候補を該対象予測領域に隣接する領域の符号化済み動き情報から選出し、上記選出した動き情報の候補の数に応じて、選出した動き情報の候補を用いた上記対象予測領域の予測信号の生成を指示するマージブロック情報及び上記予測情報推定手段にて検出した動き情報、又は、該マージブロック情報と該動き情報の何れか一方を符号化し、上記対象予測領域の予測信号の生成に用いる動き情報を上記予測情報保存手段に保存する。
本発明の第1の側面に係る画像予測符号化方法は、入力画像を複数の領域に分割する領域分割ステップと、上記領域分割ステップにより分割された符号化対象とする対象領域を複数の予測領域に小分割し、上記対象領域に適した予測領域の数と領域形状を示す予測ブロック分割タイプを決定し、該複数の予測領域との相関が高い信号を既再生信号から取得するための動き情報をそれぞれ予測し、上記予測ブロック分割タイプと上記動き情報を含む予測情報を求める予測情報推定ステップと、上記対象領域に付随する予測情報を符号化する予測情報符号化ステップと、上記対象領域に付随する予測情報に基づいて、上記対象領域の予測信号を生成する予測信号生成ステップと、上記対象領域の予測信号と上記対象領域の画素信号とに基づく残差信号を生成する残差信号生成ステップと、上記残差信号生成ステップにより生成された残差信号を符号化する残差信号符号化ステップと、上記残差信号の符号化データを復号することにより再生残差信号を生成する残差信号復元ステップと、上記予測信号と上記再生残差信号とを加算することによって上記対象領域の復元画素信号を生成し、該復元画素信号を上記既再生信号として保存する記録ステップと、を含む。予測情報符号化ステップでは、上記対象領域の予測ブロック分割タイプを符号化し、該予測ブロック分割タイプを、符号化済みの予測情報を保存する予測情報保存手段に保存し、上記対象領域に隣接する隣接領域の予測情報と上記対象領域内の符号化済み予測領域の数と上記対象領域の符号化済み予測情報に基づいて、次の予測領域である対象予測領域の予測信号の生成に用いる動き情報の候補を該対象予測領域に隣接する領域の符号化済み動き情報から選出し、上記選出した動き情報の候補の数に応じて、選出した動き情報の候補を用いた上記対象予測領域の予測信号の生成を指示するマージブロック情報及び上記予測情報推定ステップにて検出した動き情報、又は、該マージブロック情報と該動き情報の何れか一方を符号化し、上記対象予測領域の予測信号の生成に用いる動き情報を上記予測情報保存手段に保存する。
また、本発明の第1の側面に係る画像予測符号化プログラムは、コンピュータを上述した画像予測符号化装置の各手段として機能させる。
本発明の第1の側面によれば、対象予測ブロックの予測信号の生成に用いる動き情報の候補が、対象符号化ブロックや周囲の符号化ブロックの符号化済みの予測情報(動き情報や予測ブロック分割タイプ)に基づいて選出されるので、非効率な符号の発生が抑制される。
一実施形態においては、上記対象領域内の符号化済み予測領域の数と上記対象領域の予測ブロック分割タイプと上記対象領域に隣接する隣接領域の予測ブック分割タイプに基づいて、次の予測領域である対象予測領域の動き情報の候補が、対象予測領域に隣接する領域の符号化済み動き情報から選出され得る。
一実施形態においては、上記対象領域内の符号化済み予測領域の数と上記対象領域の予測ブロック分割タイプに基づいて、次の予測領域である対象予測領域の動き情報の候補が、該対象予測領域に隣接する領域の符号化済み動き情報から選出され、上記対象領域が2つの予測領域に分割されて、上記対象予測領域が上記対象領域内で2番目に符号化される予測領域であるとき、上記対象予測領域に隣接し、上記対象領域に含まれない領域の動き情報が、該対象予測領域の予測信号の生成に用いる動き情報の候補として選出され得る。
また、一実施形態においては、上記対象領域内の符号化済み予測領域の数と上記対象領域の予測ブロック分割タイプと上記対象領域内の符号化済み動き情報と上記対象領域に隣接する隣接領域の動き情報とに基づいて、次の予測領域である対象予測領域の予測信号の生成に用いる動き情報の候補が、該対象予測領域に隣接する領域の符号化済み動き情報から選出され、上記対象領域が2つの予測領域に分割されており、上記対象予測領域が上記対象領域内で2番目に符号化される予測領域であり、上記対象領域の1番目に符号化された予測領域の動き情報が、上記対象予測領域に隣接し、上記対象領域に含まれない領域の動き情報と同じであるとき、上記対象予測領域に隣接する領域の動き情報が、上記対象予測領域の予測信号の生成に利用しないと判断して、動き情報が符号化され得る。
本発明の第2の側面は画像予測復号に関する。
本発明の第2の側面に係る画像予測復号装置は、複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、上記対象領域の予測信号の符号化データと、残差信号の符号化データとを抽出するデータ解析手段と、上記予測情報の符号化データを復号して、上記対象領域の小分割領域である複数の予測領域の数と領域形状を示す予測ブロック分割タイプと、各予測領域の予測信号を既再生信号から取得するための動き情報を復元する予測情報復号手段と、上記対象領域に付随する予測情報に基づいて、上記対象領域の予測信号を生成する予測信号生成手段と、上記残差信号の符号化データから上記対象領域の再生残差信号を復元する残差信号復元手段と、上記予測信号と上記再生残差信号とを加算することによって上記対象領域の画素信号を復元し、該画素信号を上記既再生信号として保存する記録手段と、を具備する。予測情報復号手段は、復号済みの予測情報を保存する予測情報保存手段を有し、上記対象領域の予測ブロック分割タイプを復号して上記予測情報保存手段に保存し、上記対象領域に隣接する隣接領域の予測情報と上記対象領域内の復号済み予測領域の数と上記対象領域の復号済み予測情報に基づいて、次の予測領域である対象予測領域の予測信号の生成に用いる動き情報の候補を該対象予測領域に隣接する領域の復号済み動き情報から選出し、上記選出した動き情報の候補の数に応じて、選出した動き情報の候補を用いた上記対象予測領域の予測信号の生成を指示するマージブロック情報及び動き情報、又は該マージブロック情報と該動き情報の何れか一方を復号し、上記対象予測領域の予測信号の生成に用いる動き情報を上記予測情報保存手段に保存する。
本発明の第2の側面に係る画像予測復号方法は、複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、上記対象領域の予測信号の符号化データと、残差信号の符号化データとを抽出するデータ解析ステップと、上記予測情報の符号化データを復号して、上記対象領域の小分割領域である複数の予測領域の数と領域形状を示す予測ブロック分割タイプと、各予測領域の予測信号を既再生信号から取得するための動き情報を復元する予測情報復号ステップと、上記対象領域に付随する予測情報に基づいて、上記対象領域の予測信号を生成する予測信号生成ステップと、上記残差信号の符号化データから上記対象領域の再生残差信号を復元する残差信号復元ステップと、上記予測信号と上記再生残差信号とを加算することによって上記対象領域の画素信号を復元し、該画素信号を上記既再生信号として保存する記録ステップと、を含む。予測情報復号ステップでは、上記対象領域の予測ブロック分割タイプを復号して、該予測ブロック分割タイプを、復号済みの予測情報を保存する予測情報保存手段に保存し、上記対象領域に隣接する隣接領域の予測情報と上記対象領域内の復号済み予測領域の数と上記対象領域の復号済み予測情報に基づいて、次の予測領域である対象予測領域の予測信号の生成に用いる動き情報の候補を該対象予測領域に隣接する領域の復号済み動き情報から選出し、上記選出した動き情報の候補の数に応じて、選出した動き情報の候補を用いた上記対象予測領域の予測信号の生成を指示するマージブロック情報及び動き情報、又は該マージブロック情報と該動き情報の何れか一方を復号し、上記対象予測領域の予測信号の生成に用いる動き情報を上記予測情報保存手段に保存する。
また、本発明の第2の側面に係る画像予測復号プログラムは、コンピュータを上述した画像予測復号装置の各手段として機能させる。
本発明の第2の側面によれば、上述した画像予測符号化によって生成される圧縮データから画像を復号することができる。
一実施形態においては、上記対象領域内の復号済み予測領域の数と上記対象領域の予測ブロック分割タイプと上記対象領域に隣接する隣接領域の予測ブック分割タイプに基づいて、次の予測領域である対象予測領域の動き情報の候補が、該対象予測領域に隣接する領域の復号済み動き情報から選出され得る。
一実施形態においては、上記対象領域内の復号済み予測領域の数と上記対象領域の予測ブロック分割タイプに基づいて、次の予測領域である対象予測領域の予測信号の生成に用いる動き情報の候補が、該対象予測領域に隣接する領域の復号済み動き情報から選出され、上記対象領域が2つの予測領域に分割されており、上記対象予測領域が上記対象領域内で2番目に復号される予測領域であるとき、上記対象予測領域に隣接し、上記対象領域に含まれない領域の動き情報が、対象予測領域の動き情報の候補として選出され得る。
また、一実施形態においては、上記対象領域内の復号済み予測領域の数と上記対象領域の予測ブロック分割タイプと上記対象領域内の復号済み動き領域と上記対象領域に隣接する隣接領域の動き情報とに基づいて、次の予測領域である対象予測領域の予測信号の生成に用いる動き情報の候補が、該対象予測領域に隣接する領域の復号済み動き情報から選出され、上記対象領域が2つの予測領域に分割されており、上記対象予測領域が上記対象領域内で2番目に復号される予測領域であり、上記対象領域の1番目に復号された予測領域の動き情報が、上記対象予測領域に隣接し、上記対象領域に含まれない領域の動き情報と同じであるとき、上記対象予測領域に隣接する領域の動き情報を上記対象予測領域の予測信号の生成に利用しないと判断して、動き情報が復号され得る。
また、本発明の第3の側面は、動画像符号化に関する。
第3の側面に係る動画像符号化装置は、分割手段、小区画生成手段、動き検出手段、予測信号生成手段、動き予測手段、差分動きベクトル生成手段、残差信号生成手段、加算手段、記憶手段、及び、符号化手段を備える。分割手段は、動画像中の入力画像を複数の区画に分割する。小区画生成手段は、分割手段によって生成された処理対象の区画を複数の小区画に区切り、該小区画の形状を特定する形状情報を生成する。動き検出手段は、処理対象の区画の動きベクトルを検出する。予測信号生成手段は、動き検出手段により検出された動きベクトルを用いて、処理対象の区画の予測信号を既再生の画像信号から生成する。動き予測手段は、小区画生成手段によって生成された形状情報と、処理対象の区画より処理順で前の区画又は小区画である処理済みの部分領域の動きベクトルに基づいて、処理対象の区画の予測動きベクトルを生成する。差分動きベクトル生成手段は、処理対象の区画の予測信号の生成に用いた動きベクトルと、予測動きベクトルとの差分に基づき、差分動きベクトルを生成する。残差信号生成手段は、予測信号と処理対象の区画の画素信号との差分に基づく残差信号を生成する。加算手段は、残差信号と予測信号とを加算して再生画像信号を生成する。記憶手段は、再生画像信号を既再生の画像信号として記憶する。符号化手段は、残差信号生成手段により生成された残差信号と、差分ベクトル生成手段により生成された差分動きベクトルと、小区画生成手段により生成された形状情報と、を符号化して圧縮データを生成する。動き予測手段は、処理対象の区画内の処理対象の小区画が当該処理対象の小区画より処理順で前の区画に接しない場合に、当該処理対象の小区画と当該処理対象の区画内の他の小区画との間の境界の延長線に対して一方側の領域と他方側の領域のうち処理対象の小区画が含まれる領域に属する処理済みの部分領域の動きベクトルに基づいて、当該処理対象の小区画の予測動きベクトルを生成する。
第3の側面に係る動画像符号化方法は、(a)動画像からの入力画像を複数の区画に分割する分割ステップと、(b)分割ステップにおいて生成された処理対象の区画を複数の小区画に区切り、当該小区画の形状を特定する形状情報を生成する小区画生成ステップと、(c)処理対象の区画の動きベクトルを検出する動き検出ステップと、(d)動き検出ステップにおいて検出された動きベクトルを用いて、処理対象の区画の予測信号を既再生の画像信号から生成する予測信号生成ステップと、(e)小区画生成ステップにおいて生成された形状情報と、処理対象の区画より処理順で前の区画又は小区画である処理済みの部分領域の動きベクトルに基づいて、処理対象の区画の予測動きベクトルを生成する動き予測ステップと、(f)処理対象の区画の予測信号の生成に用いた動きベクトルと予測動きベクトルとの差分に基づき、差分動きベクトルを生成する差分動きベクトル生成ステップと、(g)予測信号と処理対象の区画の画素信号との差分に基づく残差信号を生成する残差信号生成ステップと、(h)残差信号と予測信号とを加算して再生画像信号を生成する加算ステップと、(i)再生画像信号を既再生の画像信号として記憶する記憶ステップと、(j)残差信号生成ステップにおいて生成された残差信号と、差分動きベクトル生成ステップにおいて生成された差分動きベクトルと、小区画生成ステップにおいて生成された形状情報と、を符号化して圧縮データを生成する符号化ステップと、を含む。動き予測ステップにおいては、処理対象の区画内の処理対象の小区画が当該処理対象の小区画より処理順で前の区画に接しない場合に、処理対象の小区画と処理対象の区画内の他の小区画との間の境界の延長線に対して一方側の領域と他方側の領域のうち処理対象の小区画が含まれる領域に属する処理済みの部分領域の動きベクトルに基づいて、処理対象の小区画の予測動きベクトルが生成される。
また、第3の側面に係る動画像符号化プログラムは、コンピュータを上述した動画像符号化装置の各手段として機能させる。
上述した境界の延長線によって画成される二つの領域のうち、処理順で前の区画に接していない小区画を含む領域は、当該小区画の動きに類似する動きを有している可能性が高い。したがって、第3の側面によれば、予測動きベクトルの精度が向上し、差分動きベクトルの値が小さくなり、少ない符号量で動きベクトルが符号化される。故に、符号化効率が向上される。
本発明の第4の側面は動画像復号に関する。
第4の側面に係る動画像復号装置は、復号手段、動き予測手段、ベクトル加算手段、予測信号生成手段、加算手段、及び、記憶手段を備える。復号手段は、圧縮データを復号して、画像内の処理対象の区画の再生残差信号と、処理対象の区画の差分動きベクトルと、処理対象の区画内の複数の小区画の形状を特定する形状情報を生成する。動き予測手段は、形状情報と、処理対象の区画より処理順で前の区画又は小区画である処理済みの部分領域の動きベクトルに基づいて、処理対象の区画の予測動きベクトルを生成する。ベクトル加算手段は、動き予測手段により生成された予測動きベクトルと、復号手段によって生成された差分動きベクトルとを加算して、処理対象の区画の動きベクトルを生成する。予測信号生成手段は、処理対象の区画の動きベクトルに基づいて、処理対象の区画の予測信号を既再生の画像信号から生成する。加算手段は、予測信号と、復号手段によって生成された再生残差信号とを加算して、再生画像信号を生成する。記憶手段は、再生画像信号を既再生の画像信号として記憶する。動き予測手段は、処理対象の区画内の処理対象の小区画が当該処理対象の小区画より処理順で前の区画に接しない場合に、処理対象の小区画と処理対象の区画内の他の小区画との間の境界の延長線に対して一方側の領域と他方側の領域のうち処理対象の小区画が含まれる領域に属する処理済みの部分領域の動きベクトルに基づいて、処理対象の小区画の予測動きベクトルを生成する。
第4の側面に係る動画像復号方法は、圧縮データを復号して動画像を生成する方法であって、(a)圧縮データを復号して、画像内の処理対象の区画の再生残差信号と、処理対象の区画の差分動きベクトルと、処理対象の区画内の複数の小区画の形状を特定する形状情報を生成する復号ステップと、(b)形状情報と、処理対象の区画より処理順で前の区画又は小区画である処理済みの部分領域の動きベクトルに基づいて、処理対象の区画の予測動きベクトルを生成する動き予測ステップと、(c)動き予測ステップにおいて生成された予測動きベクトルと復号ステップにおいて生成された差分動きベクトルを加算して、処理対象の区画の動きベクトルを生成するベクトル加算ステップと、(d)処理対象の区画の動きベクトルに基づいて、処理対象の区画の予測信号を既再生の画像信号から生成する予測信号生成ステップと、(e)予測信号と、復号ステップにおいて生成された再生残差信号とを加算して、再生画像信号を生成する加算ステップと、(f)再生画像信号を既再生の画像信号として記憶する記憶ステップと、を含む。動き予測ステップにおいては、処理対象の区画内の処理対象の小区画が当該処理対象の小区画より処理順で前の区画に接しない場合に、処理対象の小区画と処理対象の区画内の他の小区画との間の境界の延長線に対して一方側の領域と他方側の領域のうち処理対象の小区画が含まれる領域に属する処理済みの部分領域の動きベクトルに基づいて、処理対象の小区画の予測動きベクトルが生成される。
第4の側面にかかる動画像復号プログラムは、コンピュータを上述した動画像復号装置の各手段として機能させる。
第4の側面によれば、処理順で前の区画に接していない小区画を含む領域の復号済みの動きベクトルから当該小区画の予測動きベクトルが生成される。この予測動きベクトルは、当該小区画の動きベクトルに類似する可能性が高い。したがって、上述した実施形態によれば、予測動きベクトルの精度が向上し、差分動きベクトルの値が小さくなり、少ないビット量の圧縮データからの復号が可能となる。故に、効率の良い復号が実現される。
本発明の幾つかの側面に係る画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムによれば、対象予測ブロックの予測信号生成に利用する動き情報の候補を周囲の符号化済み又は復号済み情報に基づいて選出できるので、より効率良く動き情報が符号化できるという効果がある。
また、本発明の別の幾つかの側面によれば、符号化効率を向上することが可能な動画像符号化装置、動画像符号化方法、及び、動画像符号化プログラムが提供される。また、これら動画像符号化に対応する動画像復号装置、動画像復号方法、及び動画像復号プログラムが提供される。
一実施形態に係る画像予測符号化装置を示すブロック図である。 従来のブロックマージングにおける動き情報の候補を説明するための模式図である。 一実施形態に係るブロックマージングにおける動き情報の候補を説明するための模式図である。 図1に示す予測情報符号化器の処理を説明するフローチャートである。 図1に示す画像予測符号化装置の画像予測符号化方法の手順を示すフローチャートである。 一実施形態に係る画像予測復号装置を示すブロック図である。 図6に示す予測情報復号器の処理を説明するフローチャートである。 図6に示す画像予測復号装置の画像予測復号方法の手順を示すフローチャートである。 対象予測ブロックに隣接する複数の隣接ブロックの動き情報を対象予測ブロックの動き情報として利用する処理を説明するための第1の模式図である。 対象予測ブロックに隣接する複数の隣接ブロックの動き情報を対象予測ブロックの動き情報として利用する処理を説明するための第2の模式図である。 対象予測ブロックに隣接する複数の隣接ブロックの動き情報を対象予測ブロックの動き情報として利用する処理を説明するフローチャートである。 対象予測ブロックに隣接する複数の隣接ブロックの動き情報を対象予測ブロックの動き情報として利用する処理を説明するための第3の模式図である。 対象予測ブロックに隣接する複数の隣接ブロックの動き情報を対象予測ブロックの動き情報として利用する処理を説明するフローチャートの第2例である。 一実施形態に係るブロックマージングにおける動き情報の候補を説明するための模式図の第2例である。 一実施形態に係るブロックマージングにおける動き情報の候補を説明するための模式図の第3例である。 一実施形態に係る画像予測符号化方法を実行することができるプログラムを示すブロック図である。 一実施形態に係る画像予測復号方法を実行することができるプログラムを示すブロック図である。 記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図である。 記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。 符号化ブロックの予測ブロック分割タイプを説明するための模式図である。 画面間予測における動き推定処理(A)とテンプレートマッチング処理(B)に関する模式図である。 従来の画面内予測方法を説明するための模式図である。 動き補償予測を説明するための図である。 一実施形態に係る動画像符号化装置の構成を概略的に示す図である。 小区画の生成を説明するための図である。 一実施形態に動き予測器の構成を示す図である。 一実施形態に係る動画像符号化方法のフローチャートである。 一実施形態に係る動き予測器の処理を示すフローチャートである。 対象ブロックの小区画と周囲の部分領域の一例を示す図である。 対象ブロックの小区画と周囲の部分領域の別の一例を示す図である。 対象ブロックの小区画と周囲の部分領域の更に別の例を示す図である。 対象ブロックの小区画と周囲の部分領域の更に別の例を示す図である。 対象ブロックの小区画と周囲の部分領域の更に別の例を示す図である。 一実施形態に係る動画像復号装置の構成を概略的に示す図である。 一実施形態に係る動き予測器の構成を示す図である。 一実施形態に係る動画像復号方法のフローチャートである。 一実施形態に係る動き予測器の処理を示すフローチャートである。 一実施形態に係る動画像符号化プログラムの構成を示す図である。 一実施形態に係る動画像復号プログラムの構成を示す図である。
以下、添付図面を参照しながら種々の実施形態について詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
図1は、一実施形態に係る画像予測符号化装置100を示すブロック図である。この画像予測符号化装置100は、入力端子101、ブロック分割器102、予測信号生成器103、フレームメモリ104、減算器105、変換器106、量子化器107、逆量子化器108、逆変換器109、加算器110、量子化変換係数符号化器111、出力端子112、予測ブロック分割タイプ選択器113、動き情報推定器114、予測情報用メモリ115、予測情報符号化器116を備えている。
変換器106、量子化器107及び量子化変換係数符号化器111は、残差信号符号化手段として機能し、逆量子化器及び逆変換器は残差信号復元手段として機能する。また、予測ブロック分割タイプ選択器113と動き情報推定器114は、予測情報推定手段として機能し、予測情報用メモリ115と予測情報符号化器116は予測情報符号化手段として機能する。
入力端子101は、複数枚の画像からなる動画像の信号を入力する端子である。
ブロック分割器102は、入力端子101から入力された信号で表される、符号化処理の対象となる画像を複数の領域(符号化ブロック)に分割する。本実施形態では、符号化対象の画像を16x16の画素からなるブロックに分割するが、それ以外の大きさ又は形状のブロックに分割してもよい。また、画面内にサイズの異なるブロックが混在してもよい。
予測ブロック分割タイプ選択器113は、符号化処理の対象となる対象領域(対象符号化ブロック)を予測処理が行われる予測領域に分割する。例えば、符号化ブロック毎に図20の(A)〜(H)の何れかを選択して当該符号化ブロックを小分割する。分割された領域を予測領域(予測ブロック)と呼び、図20の(A)〜(H)の各分割方法を予測ブロック分割タイプと呼ぶ。予測ブロック分割タイプの選択方法は限定されるものではない。例えば、ラインL102を経由して入力された対象符号化ブロックの信号に対して各小分割を実施し、後述する予測処理や符号化処理を実際に実施して、符号化ブロックの原信号と再生信号との間の符号化誤差信号電力と符号化ブロックの符号化に要する符号量から算出されるレート歪値が最小となる分割タイプを選択する方法などが利用できる。対象符号化ブロックの予測ブロック分割タイプはラインL113aとラインL113bとラインL113cを経由してそれぞれ、予測情報用メモリ115と動き情報推定器114と予測信号生成器103に出力される。
動き情報推定器114は、対象符号化ブロック内の各予測ブロックの予測信号を生成するために必要な動き情報を検出する。予測信号の生成方法(予測方法)については、限定されるものではないが、背景技術で説明したような画面間予測や画面内予測(画面内予測については図示せず)が適用可能である。ここでは、図21に示したブロックマッチングにて動き情報を検出するものと考える。予測対象の対象予測ブロックの原信号はラインL102a経由で入力された符号化ブロックの原信号とラインL113b経由で入力された対象符号化ブロックの予測ブロック分割タイプから生成できる。この対象予測ブロックの原信号に対する絶対値誤差和が最小となる予測信号をラインL104経由で取得される画像信号から検出する。この場合、動き情報には、動きベクトル、画面間予測モード(前方向/後方向/双方向)、参照画面番号などが含まれる。検出された動き情報はラインL114を経由して、それぞれ予測情報用メモリ115と予測情報符号化器116に出力される。
予測情報用メモリ115は、入力された動き情報と予測ブロック分割タイプを保存する。
予測情報符号化器116は、各予測ブロックのブロックマージングに用いる動き情報の候補を選出すると共に、対象符号化ブロックの予測情報をエントロピー符号化し、符号化データをラインL116経由で出力端子112に出力する。エントロピー符号化の方法は限定されないが、算術符号化や可変長符号化などが適用できる。なお、予測情報には、対象符号化ブロックの予測ブロック分割タイプ、予測ブロックの動き情報に加えて、予測ブロックに隣接するブロックの動き情報を用いてブロックマージングを実施するためのブロックマージング情報が含まれる。予測情報符号化器116の処理については後述する。
予測信号生成器103では、ラインL114経由で入力された対象符号化ブロック内の各予測ブロックの動き情報とラインL113c経由で入力された予測ブロック分割タイプに基づいて、フレームメモリ104から既再生信号を取得し、対象符号化ブロック内の各予測ブロックの予測信号を生成する。
予測信号生成器103にて生成された予測信号は、ラインL103経由で減算器105と加算器110に出力される。
減算器105は、ブロック分割器102で分割されてラインL102bを経由して入力された対象符号化ブロックの画素信号からラインL103を経由して入力される対象符号化ブロックに対する予測信号を減算して、残差信号を生成する。減算器105は、減算して得た残差信号を、ラインL105を経由して変換器106に出力する。
変換器106は、入力された残差信号を離散コサイン変換する部分である。また、量子化器107は、変換器106により離散コサイン変換された変換係数を量子化する部分である。量子化変換係数符号化器111は、量子化器107により量子化された変換係数をエントロピー符号化する。符号化データはラインL111を経由して出力端子112に出力される。エントロピー符号化の方法は限定されないが、算術符号化や可変長符号化などが適用できる。
出力端子112は、予測情報符号化器116及び量子化変換係数符号化器111から入力された情報をまとめて外部に出力する。
逆量子化器108は、量子化された変換係数を逆量子化する。逆変換器109は、逆離散コサイン変換により残差信号を復元する。加算器110は、復元された残差信号とラインL103経由で入力される予測信号とを加算し、対象符号化ブロックの信号を再生し、再生された信号をフレームメモリ104に格納する。本実施形態では、変換器106と逆変換器109とを用いているが、これらの変換器に代わる他の変換処理を用いてもよい。また、変換器106及び逆変換器109は必須ではない。このように、後続の対象符号化ブロックの予測信号生成に用いるため、符号化された対象符号化ブロックの再生信号は、逆処理にて復元されフレームメモリ104に記憶される。
次に、予測情報符号化器116の処理について説明する。予測情報符号化器116は、まず、各予測ブロックのブロックマージングに用いる動き情報の候補(対象予測領域の予測信号生成に用いる動き情報の候補)を対象予測ブロックに隣接するブロックの動き情報から選出する。ブロックマージングとは、対象予測ブロックの予測信号を隣接ブロックの動き情報を用いて生成することを示す。次に、予測情報符号化器116は、動き情報推定器114にて検出した動き情報と選出された動き情報の候補を比較し、ブロックマージングの実施の可否を判断する。そして、予測情報符号化器116は、ブロックマージングに用いる動き情報の候補の数とブロックマージングの実施の可否に応じて、ブロックマージング情報と動き情報のいずれか或いは両方を予測ブロック分割タイプと共にエントロピー符号化する。ブロックマージング情報は、隣接ブロックの動き情報を利用して対象予測ブロックの予測信号を生成するか否か、すなわちブロックマージングの実施の可否を指示するマージ識別情報(merge_flag)と対象予測ブロックに隣接する2つのブロックの動き情報のうち、いずれを用いて対象予測ブロックの予測信号を生成するかを示すマージブロック選択情報(merge_flag_left)にて構成される。
各予測ブロックのブロックマージングに用いる動き情報の候補が0個の場合にはこれら2つの情報、即ち、マージ識別情報及びマージブロック選択情報は符号化する必要がない。動き情報の候補が1個の場合には、マージ識別情報を符号化し、動き情報の候補が2個以上であり、ブロックマージングを実施する場合には、2つの情報、即ち、マージ識別情報及びマージブロック選択情報を符号化する。動き情報の候補が2個以上であっても、ブロックマージングを実施しない場合には、マージブロック選択情報の符号化は必要ない。
図3は、一実施形態の予測ブロックのブロックマージングに用いる動き情報の候補の選出処理を説明するための模式図である。図3は、図20の(B)に示すブロック301と同様に、符号化ブロックを縦に2分割する(左右の二つのブロックに分割する)予測ブロック分割タイプの例を示している。以降、このブロック301を例に説明するが、ブロック302、304、305、306、307でも同様の説明が可能である。
動き情報の候補の選出は、以下の情報に基づいて実施する。
1)対象符号化ブロック内の符号化済み/復号済み予測ブロックの数
2)対象符号化ブロックの予測ブロック分割タイプ
3)対象予測ブロックに隣接するブロックの予測ブロック分割タイプ
4)対象符号化ブロック内の符号化済み/復号済み予測ブロックの動き情報
5)対象予測ブロックに隣接するブロックの動き情報と予測モード(画面内予測/画面間予測)
図3の例では、1)と2)と4)と5)の情報を用いて、ブロックマージングに用いる動き情報の候補を選出する。
まず、2)の情報より、対象符号化ブロック400内の予測ブロックの総数が予測ブロックT1とT2の2個であり、符号化ブロックが縦に2分割されることが分かる。次の予測ブロックが予測ブロックT1であるか予測ブロックT2であるかは、1)の情報より分かる。
次の予測ブロックが予測ブロックT1(対象符号化ブロック内の符号化済み/復号済み予測ブロックの数が0)のときは、隣接ブロックAと隣接ブロックBの動き情報がブロックマージングの動き情報の候補となる(図面内の矢印は、隣接ブロックAとBの動き情報が、予測ブロックT1の予測信号の生成に用いる動き情報の候補であることを示す)。この際、隣接ブロックA又はBが画面内予測にて生成されたブロックや画面外のブロックである場合には、そのブロックの動き情報をブロックマージングの動き情報の候補から除外するようにしてもよい(擬似的に動き情報をデフォルト値とすることも可能。例えば、動きベクトルを0とし、参照画面番号を0とする)。また、2つの隣接ブロックAとBの動き情報が一致する場合には、一方の隣接ブロックの動き情報を候補から外すようにしてもよい。
次の予測ブロックが予測ブロックT2(対象符号化ブロック内の符号化済み/復号済み予測ブロックの数が1個)のときは、図3の(A)に示すように、隣接ブロックであるT1の動き情報はブロックマージングの動き情報の候補から除外される。これは、予測ブロックT1と予測ブロックT2は、本来異なる動き情報にて予測信号が生成されることを想定して2つに分割されているためである。つまり、これは、予測ブロックT1の動き情報と予測ブロックT2の動き情報が同じ動き情報となることを避けるためである。この処理により、予測ブロックT2のブロックマージングの動き情報が1個となるため、マージブロック選択情報の符号化に要するコストを削減できる(図面内の矢印は、隣接ブロックDの動き情報は予測ブロックT2の予測信号の生成に利用可能であることを示す)。
さらに、上記4)と5)の情報に基づいて、予測ブロックT1と隣接ブロックDの動き情報を比較し、予測ブロックT1と隣接ブロックDの動き情報が一致する場合には、図3の(B)に示すように隣接ブロックDの動き情報もブロックマージングの動き情報の候補から除外される。この理由は、隣接ブロックDの動き情報を用いて予測ブロックT2の予測信号を生成した場合、予測ブロックT1とT2の動き情報が同じとなるためである。この処理により、予測ブロックT2のブロックマージングの動き情報が0個となり、マージ識別情報とマージブロック選択情報の符号化に要するコストが削減できる。
図4は、図3の処理を実現する予測情報符号化器116のフローチャートである。
最初に予測情報符号化器116は、対象符号化ブロックの予測ブロック分割タイプを符号化し、当該予測ブロック分割タイプを予測情報用メモリ115に保存する。同時に、予測情報符号化器116は、対象符号化ブロック内の予測ブロック数Nを符号化した予測ブロック分割タイプに基づいて設定し、対象予測ブロック番号iを0にリセットする(ステップS151)。次に、予測情報符号化器116は、対象予測ブロックが対象符号化ブロック内で最後に符号化される予測ブロックであり、対象符号化ブロック内の予測ブロック数が2以上であるかを判断する(ステップS152)。例えば、N=2の場合では、i=1のとき、判定が可となり、処理はステップS157に進む。N=4(図20の(D))の場合では、i=3のとき、判定が可となる。判定が否の場合には、処理はステップS153に進む。図3の場合では、対象予測ブロックが予測ブロックT1のときには処理はステップS153に進み、予測ブロックT2のときには処理はステップS157に進む。
ステップS153では、マージ識別情報が符号化される。マージ識別情報は、対象予測ブロックの動き情報とブロックマージングの動き情報の候補が一致する場合には、可(merge_flag=1,動き情報の候補を用いて対象予測ブロックの予測信号を生成)となり、一致しない場合には否(merge_flag=0,符号化した動き情報を用いて対象予測ブロックの予測信号を生成)となる。次に、対象予測ブロックの動き情報とブロックマージングの動き情報の候補が一致する場合には処理はステップS164に進む。ステップS164では、予測情報符号化器116は、動き情報の候補が2個であるかを判定し、動き情報の候補の数が2個である場合には、マージブロック選択情報を符号化し、処理はステップS155に進む。動き情報の候補の数が1個である場合には、処理はステップS165に進む。一方、対象予測ブロックの動き情報とブロックマージングの動き情報の候補が一致しない場合には処理はステップS156に進み、予測情報符号化器116は、動き情報推定器114にて検出した動き情報を符号化し、ステップS165に進む。
ステップS157では、予測情報符号化器116は、対象符号化ブロックの全ての符号化済み動き情報と対象符号化ブロックに属さない隣接ブロックの動き情報が一致するかを判定する。このステップS157の説明は、N=2の場合には、図3に示す予測ブロックT1と隣接ブロックDの動き情報を比較することを意味する。また、ステップS157の説明は、N=4(図20の(D))の場合には、対象予測ブロックが右下の分割ブロックであり、それ以外の3つの予測ブロック(左上、右上、左下)の動き情報を比較することを意味する。判定が可(比較した動き情報が一致)の場合には、図3の(B)の例で示したように、対象予測ブロックのブロックマージングに用いる動き情報の候補の数が0個となるため、予測情報符号化器116は、ブロックマージング情報を送らずに、動き情報推定器114にて検出した動き情報を符号化し、処理はステップS165に進む(ステップS160)。一方、判定が否(比較した動き情報が不一致)の場合、処理はステップS163に進む。なお、N=4のときは,対象符号化ブロック内の右上と左下のブロックの動き情報が対象予測ブロックの隣接ブロックとなる。そのため、3つの予測ブロック(左上、右上、左下)の動き情報が一致するときに対象予測ブロック(右下)にブロックマージングを適用することは、対象符号化ブロック内の4つの予測ブロックの予測信号が全て同じ動き情報で生成されることを意味する。そのため、N=4で3つの予測ブロック(左上、右上、左下)の動き情報が同じ場合には,対象予測ブロック(右下)の動き情報の候補を0個とする。
ステップS163では、予測情報符号化器116は、対象符号化ブロックの予測ブロック分割タイプが2分割のタイプであるかを判定し、判定が否の場合には処理はステップS153に進む(以降説明を割愛)。ステップS163の判定が可の場合には処理はステップS158に進み、予測情報符号化器116は、マージ識別情報を符号化する。この場合には、図3の(A)の例のように、対象予測ブロックのブロックマージングに用いる動き情報の候補の数が1個であるため、マージブロック選択情報の符号化は不要である。次いで、対象予測ブロックの動き情報とブロックマージングの動き情報の候補が一致する場合には、処理はステップS165に進む。対象予測ブロックの動き情報とブロックマージングの動き情報の候補が一致しない場合には、処理はステップS160に進み、予測情報符号化器116は、動き情報推定器114にて検出した動き情報を符号化し、処理はステップS165に進む。
ステップS165では、対象ブロックの動き情報を予測情報用メモリ115に保存する。続いて、予測情報符号化器116は、ステップS161にて対象符号化ブロック内のすべての予測ブロックの符号化が終了したか(i=N-1であるか)を判定し、i=N-1のときは、この対象符号化ブロックの予測情報符号化処理を終了し、i<N-1のときには、ステップS162にてiを更新し(i=i+1)、次の予測ブロックの動き情報符号化処理のためステップS152に戻る。
このように、下記の情報を用いて予測ブロックのブロックマージングに用いる動き情報の候補を事前に選出できるため、ブロックマージング情報を効率よく伝送することが可能となる。
1)対象符号化ブロック内の符号化済み/復号済み予測ブロックの数
2)対象符号化ブロックの予測ブロック分割タイプ
4)対象符号化ブロック内の符号化済み/復号済み予測ブロックの動き情報
5)対象予測ブロックに隣接するブロックの動き情報と予測モード(画面内予測/画面間予測)
図5は、本実施形態に係る画像予測符号化装置100における画像予測符号化方法の手順を示すフローチャートである。まず、ブロック分割器102にて入力画像を16x16の符号化ブロックに分割する(それ以外の大きさ又は形状のブロックに分割してもよい。また、画面内にサイズの異なるブロックが混在してもよい)。そして、予測ブロック分割タイプ選択器113と動き情報推定器114は、符号化対象となる対象符号化ブロックの予測ブロック分割タイプと各予測ブロックの動き情報を決定する(ステップS101)。次に、予測情報符号化器116が予測情報を符号化する(ステップS102、図4)。
次に、予測信号生成器103では、対象符号化ブロックの予測ブロック分割タイプと各予測ブロックの動き情報に基づいて、対象符号化ブロックの予測信号が生成され、対象符号化ブロックの画素信号と予測信号との差分を示す残差信号は、変換器106、量子化器107及び量子化変換係数符号化器111により変換符号化される(ステップS103)。そして、予測情報と量子化変換係数の符号化データは出力端子112を介して出力される(ステップS104)。
後続の対象符号化ブロックを予測符号化するため、これら処理の後に又はこれらの処理と並行して符号化された残差信号が逆量子化器108及び逆変換器109により復号される。そして、加算器110にて、復号された残差信号と予測信号とが加算され、対象符号化ブロックの信号が再生される。再生信号はフレームメモリ104に参照画面として記憶される(ステップS105)。そして、すべての対象符号化ブロックの処理が完了していない場合には処理はステップS101に戻り、次の対象符号化ブロックに対する処理が行われる。すべての対象符号化ブロックの処理が完了している場合には、処理を終了する(ステップS106)。
次に、一実施形態に係る画像予測復号について説明する。図6は、一実施形態に係る画像予測復号装置200を示すブロック図である。この画像予測復号装置200は、入力端子201、データ解析器202、逆量子化器203、逆変換器204、加算器205、出力端子206、量子化変換係数復号器207、予測情報復号器208、フレームメモリ104、予測信号生成器103、予測情報用メモリ115を備えている。
逆量子化器203、逆変換器204及び量子化変換係数復号器207は、残差信号復号手段として機能する。逆量子化器203及び逆変換器204による復号手段は、これらのもの以外を用いて行ってもよい。また、逆変換器204はなくてもよい。また、予測情報用メモリ115と予測情報復号器208は予測情報復号手段として機能する。
入力端子201は、上述した画像予測符号化方法で圧縮符号化された圧縮データを入力する。この圧縮データには、複数に分割された符号化ブロックについて、誤差信号を変換量子化してエントロピー符号化した量子化変換係数の情報と、ブロックの予測信号を生成するための予測情報の符号化データが含まれている。ここで予測情報には、対象符号化ブロックの予測ブロック分割タイプ、予測ブロックの動き情報に加えて、ブロックマージングの候補となる動き情報を用いてブロックマージングを実施するためのブロックマージング情報が含まれる。また、動き情報には、動きベクトル、画面間予測モード(前方向/後方向/双方向)、参照画面番号などが含まれる。
データ解析器202は、入力端子201に入力された圧縮データを解析し、復号対象の対象符号化ブロックに関して、量子化変換係数の符号化データ、予測情報の符号化データに分離して、ラインL202a、ラインL202b経由で、それぞれ、量子化変換係数復号器207、予測情報復号器208に出力する。
予測情報復号器208は、各予測ブロックのブロックマージングに用いる動き情報の候補を選出すると共に、対象符号化ブロックに付随する予測情報の符号化データをエントロピー復号する。復号された予測情報はラインL208a、ラインL208b経由で、それぞれ予測情報用メモリ115と予測信号生成器103に出力される。予測情報用メモリ115は、入力された予測情報を保存する。予測情報復号器208の処理については後述する。
予測信号生成器103では、ラインL208a経由で入力される対象符号化ブロックの予測情報に基づいて、フレームメモリ104から既再生信号を取得し、対象符号化ブロック内の各予測ブロックの予測信号を生成する。生成された予測信号はラインL103経由で加算器205に出力される。
量子化変換係数復号器207は、対象符号化ブロックにおける残差信号の量子化変換係数の符号化データをエントロピー復号し、ラインL207経由で逆量子化器203に出力する。
逆量子化器203は、ラインL207経由で入力した対象符号化ブロックの残差信号情報を逆量子化する。逆変換器204は、逆量子化したデータを逆離散コサイン変換する。
加算器205は、予測信号生成器103で生成された予測信号を、逆量子化器203および逆変換器204により復元された残差信号に加算して、対象符号化ブロックの再生画素信号をラインL205経由で出力端子206およびフレームメモリ104に出力する。出力端子206は、外部に(例えばディスプレイ)出力する。
フレームメモリ104は、次の復号処理のための参照用の再生画像として、加算器205から出力された再生画像を参照画面として記憶する。
図7は、図3の処理を実現する予測情報復号器208のフローチャートである。
最初に予測情報復号器208は、対象符号化ブロックの予測ブロック分割タイプを復号し、予測情報用メモリ115に保存する。同時に、予測情報復号器208は、復号した予測ブロック分割タイプに基づいて、対象符号化ブロック内の予測ブロック数Nを設定し、対象予測ブロック番号iを0にリセットする(ステップS251)。次に、予測情報復号器208は、対象予測ブロックが対象符号化ブロック内で最後に復号される予測ブロックであり、対象符号化ブロック内の予測ブロック数が2以上であるかを判断する(ステップS252)。例えば、N=2の場合では、i=1のとき、判定が可となり、処理はステップS258に進む。N=4(図20の(D))の場合では、i=3のとき、判定が可となる。判定が否の場合には処理はステップS253に進む。図3では、対象予測ブロックが予測ブロックT1のとき処理はステップS253に進み、対象予測ブロックが予測ブロックT2のとき処理はステップS258に進む。
ステップS253では、マージ識別情報が復号される。ここで、マージ識別情報が可(merge_flag=1)であるときは、マージ識別情報は、動き情報の候補を用いて対象予測ブロックの予測信号を生成することを示す。一方、マージ識別情報が否(merge_flag=0)であるときは、復号した動き情報を用いて対象予測ブロックの予測信号を生成することを示す。次のステップS254では、予測情報復号器208は、マージ識別情報が動き情報の復号を指示しているか、つまりmerge_flagの値が0であるかを判定する。復号したmerge_flagの値が0の場合には、予測情報復号器208は、対象予測ブロックの予測信号を生成するための動き情報を復号し(ステップS257)、処理はステップS267に進む。merge_flagの値が1の場合には、予測情報復号器208は、ステップS266において、ブロックマージングに用いる動き情報の候補の数が2個であるかを判定し、候補の数が2個の場合にはマージブロック選択情報を復号し、処理はステップS256に進む(ステップS255)。対象予測ブロックのブロックマージングに用いる動き情報の候補の数が1個の場合には、処理はステップS256に進む。ステップS256では、動き情報の候補の数が1個の場合には、予測情報復号器208は、その動き情報を対象予測ブロックの動き情報に決定する。動き情報の候補の数が2個の場合には、予測情報復号器208は、マージブロック選択情報にて指示される隣接ブロックの動き情報を対象予測ブロックの動き情報に決定する。
ステップS258では、予測情報復号器208は、対象符号化ブロックの全ての復号済み動き情報と対象符号化ブロックに属さない隣接ブロックの動き情報が一致するかを判定する。このステップS258の説明は、N=2の場合には、図3に示す予測ブロックT1と隣接ブロックDの動き情報を比較することを意味する。また、このステップS258の説明は、N=4(図20の(D))の場合には、対象予測ブロックが右下の分割ブロックであり、それ以外の3つの予測ブロック(左上、右上、左下)の動き情報を比較することを意味する。判定が可(比較した動き情報が一致)の場合には、図3の(B)の例で示したように、対象予測ブロックのブロックマージングに用いる動き情報の候補の数が0個となるため、予測情報復号器208は、ブロックマージング情報を復号せずに、対象予測ブロックの予測信号生成に用いる動き情報を復号し、処理はステップS267に進む(ステップS262)。一方、判定が否(比較した動き情報が不一致)の場合、処理はステップS265に進む。なお、N=4のときは、対象符号化ブロック内の、右上と左下のブロックの動き情報が対象予測ブロックの隣接ブロックとなる。そのため、3つの予測ブロック(左上、右上、左下)の動き情報が一致するときに対象予測ブロック(右下)にブロックマージングを適用することは、対象符号化ブロック内の4つの予測ブロックの予測信号が全て同じ動き情報で生成されることを意味する。そのため、N=4で3つの予測ブロック(左上、右上、左下)の動き情報が同じ場合には、対象予測ブロック(右下)の動き情報の候補を0個とする。
ステップS265では、予測情報復号器208は、対象符号化ブロックの予測ブロック分割タイプが2分割のタイプであるかを判定し、判定が否の場合には処理はステップS253に進む(以降説明を割愛)。ステップS265の判定が可の場合には処理はステップS259に進み、予測情報復号器208はマージ識別情報を復号する。この場合、図3の(A)の例のように、対象予測ブロックのブロックマージングに用いる動き情報の候補の数が1個であるため、マージブロック選択情報の復号は不要である。
次のステップS260では、予測情報復号器208は、マージ識別情報が動き情報の復号を指示しているか、つまりmerge_flagの値が0であるかを判定する。復号したmerge_flagの値が0の場合には、予測情報復号器208は、対象予測ブロックの予測信号を生成するための動き情報を復号し(ステップS262)、処理はステップS267に進む。merge_flagの値が1の場合には、処理はステップS261に進む。ステップS261では、動き情報の候補が1個であるため、図3の(A)に示すように、予測情報復号器208は、隣接ブロックDの動き情報を対象予測ブロックの動き情報に決定し、処理はステップS267に進む。
ステップS267では、復元した予測ブロックの動き情報を予測情報用メモリ115に保存する。続いて、ステップS263にて、予測情報復号器208は、対象符号化ブロック内のすべての予測ブロックの復号が終了したか(i=N-1であるか)を判定し、i=N-1のときは、この対象符号化ブロックの予測情報復号処理を終了し、i<N-1のときには、ステップS264にてiを更新し(i=i+1)、次の予測ブロックの動き情報復号処理のためステップS252に戻る。
次に、図8を用いて、図6に示す画像予測復号装置200における画像予測復号方法を説明する。まず、入力端子201を介して、圧縮データが入力される(ステップS201)。そして、データ解析器202にて圧縮データのデータ解析を行い、復号対象の対象領域に関する予測情報と量子化変換係数の符号化データを抽出する。予測情報は予測情報復号器208にて復号される(S203)。
その後、復元された予測情報に基づいて、予測信号生成器103が対象符号化ブロックの予測信号を生成する(S204)。
量子化変換係数復号器207にて復号された量子化変換係数は、逆量子化器203において逆量子化され、逆変換器204において逆変換が行われ、再生残差信号が生成される(S205)。そして、生成された予測信号と再生残差信号とが加算されることで再生信号が生成され、この再生信号が次の対象符号化ブロックを再生するためにフレームメモリ104に格納される(ステップS206)。次の圧縮データがある場合には、S204〜S206のプロセスを繰り返し(S207)、全データが最後まで処理される。
ここまでは、予測ブロックに隣接する隣接ブロックの数は2個以下の例で説明してきたが、次に、予測ブロックの上と左のブロック境界に接する隣接ブロックの数が3個以上の場合に注目する。
図3の例では、予測ブロックに接する隣接ブロックは2個であったが、符号化ブロックとその隣接ブロックの予測ブロック分割タイプの組み合わせによっては、予測ブロックが2つ以上の隣接ブロックと接する場合も発生する。図9は予測ブロックに3つの隣接ブロックが接する場合の例を示している。ここでは図20のブロック301を例に説明するが、ブロック302、304、305、306、307でも同様の説明が可能である。
図9の(A)と(B)では、対象符号化ブロック400が当該ブロック400を縦に2分割した2つの予測ブロックを有しているのに対して、予測ブロックT1の左辺に接するブロック401は横に2分割(上下の二つのブロックに分割)されている。そのため、予測ブロックT1は3個の隣接ブロックAとBとCに接する。この場合、対象予測ブロックの左上頂点に接する2つの隣接ブロックAとBを代表とするように符号化側と復号側で予め決めておけば、隣接ブロックの数が必ず2個に限定できるため、上記で説明した手法が利用できる。
一方、図9の(B)に示すように、予測ブロックT1を隣接ブロック401の予測ブロック分割タイプに併せて仮想的に横に2分割する手法も利用できる。この場合、対象予測ブロックT1をT1aとT1bに分割し、隣接ブロックAとブロックCに属する2つの動き情報を用いてブロックT1aの予測信号とT1bの予測信号をそれぞれ生成する。
この際、マージブロック選択情報の選択候補を、図9の(A)の隣接ブロックBの動き情報と、図9の(B)の隣接ブロックAとCの動き情報の組み合わせの2つとすれば、ブロックマージング情報の構成を変更することなく、効率良くマージブロック選択情報が符号化できる。
一方、マージブロック選択情報にて図9の(A)と図9の(B)のいずれかを識別し、図9の(B)を選択した場合には、さらに仮想ブロック毎に第2のマージ識別情報を伝送し、隣接ブロックの動き情報で仮想ブロックの予測信号を生成するか、動き情報を符号化/復号するかを識別するようにしてもよい。
なお、予測ブロックT1を分割せずに、予測ブロックT1におけるマージブロック選択情報の選択候補を隣接ブロックAとBとCの3個の動き情報とし、T1の予測信号の生成に用いる動き情報を3個から選択するようにしてもよいが、この場合には下記の変更が必要である。
1.図4のステップS164と図7のステップS266の前に、「隣接ブロックの予測ブロック分割タイプを取得し、予測ブロックの隣接するブロックの数を導出する」フローを追加。
2.図4のステップS164と図7のステップS266を「選択候補の動き情報が2個以上」に変更。
3.マージブロック選択情報は3個以上の候補から1個を選択する情報に拡張。
この図9の(A)と(B)に示すブロックマージングの処理は図7のステップS256を図11に示す処理に拡張することにより実現できる。まず、ステップS256aにて、対象予測ブロックに接する符号化ブロックの予測ブロック分割タイプを取得する。次にステップS256bにて、復号されたマージブロック選択情報が指示するブロック境界に隣接する予測ブロックの数Mを、取得した予測ブロック分割タイプから導出する。例えば、図9の(B)では、M=2となる。さらにステップS256cでは、Mの値が1より大きいかどうかを判断する(M>1)。M>1の場合には、対象予測ブロックをM個の仮想ブロックに分割し、M個の隣接ブロックの動き情報を分割したM個の仮想ブロックに設定する(追加で、仮想ブロック毎にマージ識別情報を送り、動き情報を復号するか否かを判定してもよい)。M=1の場合には、対象予測ブロックの動き情報に、ブロックマージングの候補となる隣接ブロックの動き情報を設定する。
このように図7と図11によれば、図9の例における動き情報の候補の選出は、以下の情報に基づいて実施される。
1)対象符号化ブロック内の符号化済み/復号済み予測ブロックの数
2)対象符号化ブロックの予測ブロック分割タイプ
3)対象予測ブロックに隣接するブロックの予測ブロック分割タイプ
このように、動き情報の候補が3個以上となるケースでは、図3の例による動き情報の候補の選出の際には用いていない3)の情報が利用される。
図9の(C)は、予測ブロック400の左辺に隣接するブロックが非対称に2分割されている例を示している。この場合でも、予測ブロックT1を隣接ブロック401の予測ブロック分割タイプに併せて仮想的に横に2分割する(ブロックT1a及びT1bに分割する)手法が利用できる。つまり、図9の(C)の隣接ブロックAとCの動き情報の組み合わせを予測ブロックT1のブロックマージングの動き情報の候補として、対象予測ブロックT1の予測信号を生成できる。
また、図9の(D)〜(F)に示すように符号化ブロックの予測ブロック分割タイプが図20のブロック300に示すように予測ブロック数が1個のタイプである場合でも、隣接ブロック401の予測ブロック分割タイプに併せて予測ブロックT1(ブロック400)を仮想的に横分割(縦方向に並ぶ複数のブロックに分割)して予測信号を生成する手法が利用できる。さらに図示しないが、隣接ブロック402が縦分割(横方向に並ぶ複数のブロックに分割)されている場合には、隣接ブロック402の予測ブロック分割タイプに併せて予測ブロックT1(ブロック400)を仮想的に縦分割して予測信号を生成する手法が利用できる。
なお、予測ブロックに隣接するブロックに画面内予測ブロック(intra)が含まれる場合でも、予めルールを定めておく事により、予測ブロックを仮想分割して予測信号を生成する手法が利用できる。図10の(A)〜(F)は、予測ブロックの左辺に接する複数の隣接ブロックAとCとEとGに画面内予測ブロック(intra)が含まれる場合の例を示している。隣接ブロックの予測ブロック分割タイプと予測情報に含まれる予測モード(画面間/画面内)に基づいて、隣接ブロックの画面内予測ブロックを動き情報を伴う画面間予測ブロックに仮想的に統合する(図面の太線)。この例では、画面内予測ブロックは、隣接ブロックの左上頂点に近く且つ距離の近い画面間予測ブロックに仮想的に統合される。その結果、予測ブロックT1は、図10の(A)〜(F)に示すように、隣接ブロック内の画面間予測ブロックの数に応じて仮想的に分割される。このように、隣接ブロックに画面内予測ブロック(intra)が含まれる場合でも、隣接ブロック内の画面間予測ブロックの動き情報を用いてブロックマージングによる予測信号の生成が実施できる。
なお、隣接ブロックの画面内予測ブロックを画面間予測ブロックに統合するルールは限定されない。このような複数のルールを用意し、フレーム毎やスライス毎にルールを選択して符号化するようにしてもよい。
この場合、動き情報の候補の選出は、以下の情報に基づいて実施される。
1)対象符号化ブロック内の符号化済み/復号済み予測ブロックの数
2)対象符号化ブロックの予測ブロック分割タイプ
3)対象予測ブロックに隣接するブロックの予測ブロック分割タイプ
5)対象予測ブロックに隣接するブロックの予測モード(画面内予測/画面間予測)
図12は、符号化ブロック400と隣接ブロック402が同様に縦に2分割されているが、分割形状が異なる場合の例を示している。この例でも、図12の(A)の予測ブロックT1(ブロックT1a及びT1bを含むブロック)と図12の(B)の予測ブロックT2(ブロックT2a及びT2bを含むブロック)が3個の隣接ブロックを有する。図12の(A)のT1については、図11の処理フローを図7のステップS256に適用することにより、予測ブロックT1を仮想的に縦に2分割したT1aとT1bに、それぞれブロックBaとBbの動き情報を設定したブロックマージングを実施することが可能となる。また、図12の(B)のT2については、次に説明する図13の処理フローを図7のステップS261に適用することで、予測ブロックT2を仮想的に縦に2分割したT2aとT2bに、それぞれブロックBaとBbの動き情報を設定したブロックマージングを実施することが可能となる。この際、仮想ブロック毎に第2のマージ識別情報を伝送し隣接ブロックの動き情報で仮想ブロックの予測信号を生成するか、動き情報を符号化/復号するかを識別するようにしてもよい。
なお、予測ブロックT2を分割せずに、予測ブロックT2のブロックマージングに用いる動き情報の候補をブロックBaの動き情報とブロックBbの動き情報の2個とし、ブロックBaの動き情報及びブロックBbの動き情報のうち一つをT2の予測信号の生成に用いる動き情報として選択するようにしてもよいが、その場合には、図7のフローを下記のように拡張する必要がある。
1.図4のステップS158と図7のステップS259の後に、「隣接ブロックの予測ブロック分割タイプを取得し、予測ブロックに隣接するブロックの数を導出する」フローを追加。
2.図4のステップS159と図7のステップS260を「選択候補の動き情報が2個以上」に変更。
3.図4のステップS159と図7のステップS260の後にブロック選択情報の符号化/復号を行うステップを追加。
以下、図13のフローについて説明する。図13では、まず、ステップS261aにて、対象予測ブロックに接する符号化ブロックの予測ブロック分割タイプを取得する。次にステップS261bにて、対象符号化ブロックに属さない隣接ブロックが接するブロック境界に隣接する予測ブロックの数Mを、取得した予測ブロック分割タイプから導出する。例えば、図12の(B)に示す場合では、M=2となる。さらに、ステップS261cでは、Mの値が1より大きいか否かを判断する(M>1)。M>1の場合には、対象予測ブロックをM個の仮想ブロックに分割し、M個の隣接ブロックの動き情報を、分割したM個の仮想ブロックに設定する(追加で、仮想ブロック毎にマージ識別情報を送り、動き情報を復号するか否かを判定してもよい)。M=1の場合には、対象予測ブロックの動き情報としてブロックマージングの候補となる隣接ブロックの動き情報を設定する。
このように図12と図13によれば、図11の例における動き情報の候補の選出は、以下の情報に基づいて実施される。
1)対象符号化ブロック内の符号化済み/復号済み予測ブロックの数
2)対象符号化ブロックの予測ブロック分割タイプ
3)対象予測ブロックに隣接するブロックの予測ブロック分割タイプ
なお、図11では、縦分割の例を説明したが、図20のブロック306と307のように横分割(縦方向に並ぶ複数のブロックに分割)の例にも同様の処理が適用できる。
さらに下記の変形が可能である。
(動き情報の候補)
上述の説明では、予測ブロックの上辺と左辺に接するブロックの動き情報をブロックマージングの候補としているが、図14の(A)及び(B)並びに図15の(A)に示すように、対象符号化ブロックと隣接ブロックの予測ブロック分割タイプに基づいて、制限をかけることも可能である。図14の(A)と(B)は、2つの隣接ブロックが存在する場合に、予測ブロックの上辺と左辺のうち2個以上の隣接ブロックが接する辺の隣接ブロックの動き情報をブロックマージングの候補から除外する例を示している。この場合、マージブロック選択情報の符号化は不要となるため、付加情報が削減できる。図14の(A)の予測ブロックT1と図14の(B)の予測ブロックT1のブロックマージングに用いる動き情報の候補は、それぞれブロックBとブロックAの動き情報に確定する。
図15の(A)は、対象符号化ブロックの予測ブロック分割タイプにより、予測ブロックT1とT2のブロックマージングに用いる動き情報の候補を自動的に選出する手法を示している。
図15の(B)は、対象符号化ブロックの予測ブロック分割タイプと対象符号化ブロック内の符号化/復号済みブロックの数に応じて、ブロックマージングを適用する予測ブロックを制限する例を示している。図3に示す例では、ブロックT1とブロックDの動き情報が一致する場合に、ブロックT2のブロックマージングに用いる動き情報の候補からブロックDの動き情報を除外しているが、図15の(A)に示す例では、ブロックT1とブロックDの動き情報を比較することなく、対象符号化ブロック内の符号化/復号済み予測ブロックの数により、ブロックDをブロックマージングの候補から除外している。このように、対象符号化ブロックにて符号化する動きベクトルの数により、ブロックマージングを適用する予測ブロックを制限してもよい。
さらに、予測ブロックの左上端に接する2つの隣接ブロックのブロックサイズと予測ブロックのブロックサイズによって、制限をかけることも可能である。例えば、対象予測ブロックの左辺に接する隣接ブロックの右辺のサイズが、予め設定した大きさ(例えば、予測ブロックの左辺の幅の半分や1/4)より小さい場合には、その隣接ブロックの動き情報を対象予測ブロックのブロックマージングの候補から除外することも可能である。
このように、動き情報の候補を制限することにより、ブロックマージング情報の符号量が削減できる。
(動き情報の候補の選出)
動き情報の候補の選出は、以下の情報に基づいて実施するが、その利用方法は上記で説明した方法に限定されない。これらの情報を用いて動き情報の候補を選出する手段は図1並びに図6の構成にて実施できる。
1)対象符号化ブロック内の符号化済み/復号済み予測ブロックの数
2)対象符号化ブロックの予測ブロック分割タイプ
3)対象予測ブロックに隣接するブロックの予測ブロック分割タイプ
4)対象符号化ブロック内の符号化済み/復号済み予測ブロックの動き情報
5)対象予測ブロックに隣接するブロックの動き情報と予測モード(画面内予測/画面間予測)
(予測ブロックの符号化)
上述した説明では、符号化ブロック内の予測ブロックの符号化/復号は、ラスタスキャン順で実施しているが、上に説明したブロックマージングに利用する動き情報の候補の選出は、任意の順序で予測ブロックが符号化/復号される場合にも適用可能である。例えば、図3の例で、対象符号化ブロック400の予測ブロックT2を先に符号化/復号する場合には、予測ブロックT2の動きベクトルは、予測ブロックT1のブロックマージングに用いる動き情報の候補には含めない。
(ブロックの形状)
上述した説明では、符号化ブロック内の部分領域は常に矩形であったが、任意の形状であってもよい。この場合、符号化ブロックの予測情報に形状情報を含めてもよい。
(変換器、逆変換器)
残差信号の変換処理は、固定のブロックサイズで行っても良いし、部分領域にあわせて対象領域を再分割して変換処理を行ってもよい。
(予測情報)
上述した説明では、予測信号の生成方法を画面間予測(動きベクトルと参照画面情報を利用する予測)として説明したが、予測信号の生成方法はこれに限定されない。画面内予測や、輝度補償などを含む予測方法にも上述した予測信号生成処理は適用可能である。この場合、モード情報や輝度補償パラメータなどが予測情報に含まれる。
図10では、隣接ブロック内の画面内予測ブロックを画面間予測ブロックに仮想的に統合するが、隣接ブロックの予測モードに関わらず、予測ブロックを仮想的に分割し、画面内予測にて予測ブロック内の部分信号を予測するようにしてもよい。
(色信号)
上述した説明では、色フォーマットについては特に述べていないが、色信号あるいは色差信号についても、輝度信号と個別に予測信号の生成処理を行ってもよい。また、輝度信号の処理と連動して予測信号の生成処理を行ってもよい。
(ブロックノイズ除去処理)
上述した説明では述べていないが、再生画像に対してブロックノイズ除去処理を行う場合には、部分領域の境界部分に対してノイズ除去処理を行うとよい。図9、図10、図12に示した例において予測ブロックを仮想的に分割する場合には、仮想的に分割したブロックの境界にもブロックノイズ除去処理を適用してもよい。
本実施形態に係る画像予測符号化方法及び画像予測復号方法を、プログラムとして記録媒体に格納して提供することもできる。記録媒体としては、フロッピーディスク(登録商標)、CD−ROM、DVD、あるいはROM等の記録媒体、あるいは半導体メモリ等が例示される。
図16は、画像予測符号化方法を実行することができるプログラムのモジュールを示すブロック図である。画像予測符号化プログラムP100は、ブロック分割モジュールP101、動き情報推定モジュールP102、予測信号生成モジュールP103、記憶モジュールP104、減算モジュールP105、変換モジュールP106、量子化モジュールP107、逆量子化モジュールP108、逆変換モジュールP109、加算モジュールP110、量子化変換係数符号化モジュールP111、予測分割タイプ選択モジュールP112、予測情報記憶モジュールP113、及び予測情報符号化モジュールP114を備えている。上記各モジュールがコンピュータで実行されることにより実現される機能は、上述した画像予測符号化装置100の機能と同じである。すなわち、ブロック分割モジュールP101、動き情報推定モジュールP102、予測信号生成モジュールP103、記憶モジュールP104、減算モジュールP105、変換モジュールP106、量子化モジュールP107、逆量子化モジュールP108、逆変換モジュールP109、加算モジュールP110、量子化変換係数符号化モジュールP111、予測分割タイプ選択モジュールP112、予測情報記憶モジュールP113、予測情報符号化モジュールP114は、ブロック分割器102、動き情報推定器114、予測信号生成器103、フレームメモリ104、減算器105、変換器106、量子化器107、逆量子化器108、逆変換器109、加算器110、量子化変換係数符号化器111、予測ブロック分割タイプ選択器113、予測情報用メモリ115、予測情報符号化器116とそれぞれ同様の機能をコンピュータに実行させる。
また、図17は、画像予測復号方法を実行することができるプログラムのモジュールを示すブロック図である。画像予測復号プログラムP200は、量子化変換係数復号モジュールP201、予測情報復号モジュールP202,予測情報記憶モジュールP113、逆量子化モジュールP206、逆変換モジュールP207、加算モジュールP208、予測信号生成モジュールP103及び記憶モジュールP104を備えている。
上記各モジュールが実行されることにより実現される機能は、上述した画像予測復号装置200の各構成要素と同じである。すなわち、量子化変換係数復号モジュールP201、予測情報復号モジュールP202,予測情報記憶モジュールP113、逆量子化モジュールP206、逆変換モジュールP207、加算モジュールP208、予測信号生成モジュールP103、記憶モジュールP104は、量子化変換係数復号器207、予測情報復号器208、予測情報用メモリ115、逆量子化器203、逆変換器204、加算器205、予測信号生成器103、フレームメモリ104と、それぞれ同様の機能をコンピュータに実行させる。
このように構成された画像予測符号化プログラムP100または画像予測復号プログラムP200は、記録媒体SMに記憶され、後述するコンピュータで実行される。
図18は、記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図であり、図19は、記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。なお、記録媒体に記憶されたプログラムを実行するものはコンピュータに限定されず、CPUを具備しソフトウエアによる処理や制御を行なうDVDプレーヤ、セットトップボックス、携帯電話などでもよい。
図19に示すように、コンピュータC10は、フロッピーディスクドライブ装置、CD−ROMドライブ装置、DVDドライブ装置等の読取装置C12と、オペレーティングシステムを常駐させた作業用メモリ(RAM)C14と、記録媒体SMに記憶されたプログラムを記憶するメモリC16と、ディスプレイといった表示装置C18と、入力装置であるマウスC20及びキーボードC22と、データ等の送受を行うための通信装置C24と、プログラムの実行を制御するCPU C26とを備えている。コンピュータC10は、記録媒体SMが読取装置C12に挿入されると、読取装置C12から記録媒体SMに格納された画像予測符号化・復号プログラムにアクセス可能になり、当該画像符号化又は復号プログラムによって、本実施形態に係る画像符号化装置又は画像復号装置として動作することが可能になる。
図18に示すように、画像予測符号化プログラム及び画像復号プログラムは、搬送波に重畳されたコンピュータデータ信号CWとしてネットワークを介して提供されるものであってもよい。この場合、コンピュータC10は、通信装置C24によって受信した画像予測符号化プログラムもしくは画像復号プログラをメモリC16に格納し、当該画像予測符号化プログラムもしくは画像予測復号プログラムを実行することができる。
以下、更に別の実施形態について説明する。図24は、一実施形態に係る動画像符号化装置の構成を概略的に示す図である。図24に示す動画像符号化装置10は、ブロック分割器501、小区画生成器502、フレームメモリ503、動き検出器504、予測信号生成器505、動き予測器506、減算器507、残差信号生成器508、変換器509、量子化器510、逆量子化器511、逆変換器512、加算器513、及び、エントロピー符号化器514を備えている。この動画像符号化装置10に入力される入力映像信号(動画像信号)は、フレーム単位の画像信号(以下、フレーム画像信号)の時間系列で構成されている。
ブロック分割器501は、ラインL501経由で入力された入力映像信号から符号化処理の対象となるフレーム画像信号、即ち入力画像を順次選択する。ブロック分割器501は、入力画像を複数の区画、即ちブロックに分割する。ブロック分割器501は、複数のブロックを、符号化処理の対象ブロックとして順次選択して、当該対象ブロックの画素信号(以下、対象ブロック信号)を、ラインL502経由で、出力する。
動画像符号化装置10では、ブロック単位で以下の符号化処理が行われる。なお、ブロック分割器501は、例えば、入力画像を8×8の画素の複数のブロックに分割し得る。しかしながら、ブロックの大きさ及び形状は任意のものであってもよい。ブロックは、例えば32×16の画素のブロック、16×64の画素のブロックであってもよい。
小区画生成器502は、ラインL502経由で入力される対象ブロックを複数の小区画に区切る。図25は、小区画の生成を説明するための図である。図25に示すように、小区画生成器502は、式(1)の1次式で記載される直線Lnによって対象ブロックPを二つの小区画SP1及びSP2に区切る。
y=mx+k・・・(1)
例えば、小区画生成器502は、パラメータm及びkを変更しつつ、小区画SP1の予測信号及び小区画SP2の予測信号を求め、小区画SP1の予測信号と小区画SP1の画像信号との間の誤差、及び、小区画SP2の予測信号と小区画SP2の画像信号との間の誤差を最小とするm及びkを、直線Lnのパラメータとして決定することができる。
小区画生成器502は、対象ブロックP内の小区画の形状を特定するための形状情報、即ち、第1小区画SP1と第2小区画SP2の形状を特定するための形状情報として、決定した式(1)におけるパラメータm及びkを、ラインL504経由で出力する。
なお、直線Lnを表す1次式は任意のものであってもよい。例えば、直線Lnは、式(2)に示すように表現されてもよい。
y=−x/tanθ+ρ/sinθ・・・(2)
この場合には、形状情報は、θとρである。
また、形状情報は、直線Lnが通る任意の2点、例えば直線とブロックPの境界との交点を示す情報であってもよい。また、ブロックは必ずしも直線で区切られる必要はなく、予め用意された複数のパターンの中から選択されるパターンに基づき、小区画が生成されてもよい。この場合には、選択されたパターンを特定するインデックスといった情報が形状情報として利用され得る。
以下の説明では、対象ブロックの最も左上の位置が原点となるように座標を設定し、対象ブロックP内の最も左上の画素を含む小区画を第1小区画、他方を第2小区画という。しかしながら、任意の方法、例えば対象ブロック内の中心の位置を含まない小区画を第1小区画、他方を第2小区画としてもよい。この場合には、形状情報はブロック境界の交点情報やパターンの識別情報としてもよい。
フレームメモリ503は、ラインL505経由で入力される既再生の画像信号、即ち、過去に符号化済みのフレーム画像信号(以下、参照フレーム画像信号)を格納する。また、フレームメモリ503は、ラインL506経由で参照フレーム画像信号を出力する。
動き検出器504は、ラインL502を介して入力される対象ブロック信号と、ラインL504を介して入力されるブロックの形状情報と、ラインL506を介して入力される参照フレーム画像信号を受け取る。動き検出器504は、参照フレーム画像信号の所定範囲内の画像信号から、処理対象の小区画の画像信号に類似した信号を探索し、動きベクトルを算出する。この動きベクトルは、処理対象の小区画の画像信号に類似した画素信号を有する参照フレーム画像信号内の領域と対象ブロックとの間の空間的な変位量である。動き検出器504は、算出した動きベクトルを、ラインL507経由で出力する。
なお、動き検出器504は、同時に、対象ブロックについても動きベクトルを検出し、対象ブロックを二つの小区画に区切って予測信号を生成するか否かを判断してもよい。この判断は、対象ブロックの予測信号と対象ブロックの画像信号との間の誤差が、当該対象ブロックを二つの小区画に区切って生成した予測信号と二つの小区画の画像信号との間の誤差より小さい場合には、対象ブロックを小区画に区切らないという判断をなすものであってもよい。このような判断を行う場合には、判断の結果を示す情報を区画可否情報として符号化し、区画可否情報が対象ブロックを小区画に区切ることを示しているときにのみ、形状情報を符号化し得る。
予測信号生成器505は、ラインL506経由で入力される参照フレーム画像信号の所定範囲内の画像信号から、ラインL507経由で入力される動きベクトルとラインL504経由で入力されるブロックの形状情報に基づいて、処理対象の小区画の画像信号の予測信号を生成する。
予測信号生成器505は、対象ブロック内の各小区画の予測信号を合成することにより、当該対象ブロックの予測信号を生成する。予測信号生成器505は、生成した予測信号を、ラインL508経由で出力する。なお、予測信号は、画面間予測に代えて画面内予測によって生成されてもよい。
動き予測器506は、ラインL504経由で入力されるブロックの形状情報、ラインL507経由で入力された動きベクトル、及び、処理対象の小区画よりより順で前のブロック又は小区画である処理済みの部分領域の動きベクトルに基づいて、対象ブロック内の処理対象の小区画の予測動きベクトルを生成する。動き予測器506は、生成した予測動きベクトルを、ラインL509経由で出力する。
動き予測器506は、複数の予測動きベクトルの候補から一つの予測動きベクトルを選択し得る。この場合に、動き予測器506は、選択した一つの予測動きベクトルを特定する指示情報もラインL510経由で出力する。なお、復号側と共有した所定の規則に従い処理対象の小区画の予測動きベクトルの候補を一つに絞り込むことにより、指示情報の出力は省略することもできる。
減算器507はラインL507経由で入力される処理対象の小区画の動きベクトルから、ラインL509経由で入力される予測動きベクトルを減算して、差分動きベクトルを生成する。減算器507は、生成した差分動きベクトルを、ラインL511経由で出力する。
残差信号生成器508は、ラインL502経由で入力された対象ブロック信号から、ラインL508経由で入力された対象ブロックの予測信号を減算して、残差信号を生成する。残差信号生成器508は、生成した残差信号を、ラインL512経由で出力する。
変換器509は、ラインL512経由で入力された残差信号を直交変換することにより変換係数を生成する。変換器509は、生成した変換係数をラインL513経由で出力する。この直交変換には、例えば、DCTを用いることができる。しかしながら、変換器509によって用いられる変換には、任意の変換を用いることができる。
量子化器510は、ラインL513経由で入力された変換係数を量子化することにより量子化変換係数を生成する。量子化器510は、生成した量子化変換係数を、ラインL514経由で出力する。
逆量子化器511は、ラインL514経由で入力された量子化変換係数を逆量子化することにより逆量子化変換係数を生成する。逆量子化器511は、生成した逆量子化変換係数をラインL515経由で出力する。
逆変換器512は、ラインL515で経由して入力された逆量子化変換係数を逆直交変換することにより再生残差信号を生成する。逆変換器512は、生成した再生残差信号をラインL516経由で出力する。逆変換器512によって用いられる逆変換は、変換器509の変換と対称な処理である。
なお、変換は必須ではなく、動画像符号化装置は、変換器509及び逆変換器512を備えていなくてもよい。同様に量子化は必須ではなく、動画像符号化装置は、量子化器510及び逆量子化器511を備えていなくてもよい。
加算器513は、ラインL516経由で入力された再生残差信号と、ラインL508経由で入力された対象ブロックの予測信号とを加算することにより、再生画像信号を生成する。加算器513は、再生画像信号を既再生の画像信号としてラインL505経由で出力する。
エントロピー符号化器514は、ラインL514経由で入力される量子化変換係数と、ラインL504経由で入力される対象ブロックの形状情報と、ラインL510経由で入力される予測動きベクトルの指示情報と、ラインL511経由で入力される差分動きベクトルと、を符号化する。また、エントロピー符号化器514は、符号化により生成した符号を多重化することにより圧縮ストリームを生成し、当該圧縮ストリームをラインL517に出力する。
エントロピー符号化器514は、算術符号化、ランレングス符号化といった任意の符号化方法を用いることができる。また、エントロピー符号化器514はラインL504を経由して入力される対象ブロックの形状情報に基づいて、ラインL510を経由して入力される予測動きベクトルの指示情報を算術符号化する際の生起確率を適応的に決定し得る。例えば、エントロピー符号化器514は、処理対象の小区画と接している部分領域の動きベクトルを指示する指示情報の生起確率を高く設定し得る。
図26は、一実施形態に動き予測器の構成を示す図である。図26に示すように、動き予測器506は、動きベクトルメモリ5061、動き参照先候補生成器5062、及び予測動きベクトル生成器5063、を有している。
動きベクトルメモリ5061は、処理済みの部分領域の動きベクトルを格納し、処理対象の小区画の予測動きベクトルの導出のために、当該符号化済みの動きベクトルを、ラインL5061経由で出力する。
動き参照先候補生成器5062は、ラインL504経由で入力された形状情報に基づいて、後述する方法によって、ラインL5061経由で入力された部分領域の動きベクトルから、予測動きベクトルの候補を生成する。動き参照先候補生成器5062は、生成した予測動きベクトルの候補をラインL5062経由で出力する。
予測動きベクトル生成器5063は、ラインL5062経由で入力された予測動きベクトルの候補から、処理対象の小区画の動きベクトルとの差分が最小となる候補を選択する。予測動きベクトル生成器5063は、選択した候補を、予測動きベクトルとして、ラインL509経由で出力する。また、選択した候補を特定する指示情報をラインL510経由で出力する。
なお、動き参照先候補生成器において生成する候補の数を一つに限定することで、指示情報の出力を省略することができる。候補の数を一つに限定する方法は、制限するものではないが、例えば、三つの候補の中間値を用いる方法、二つの候補の平均値を用いる方法、複数の候補から一つを選択するための優先順位を決めておく方法、といった任意の方法を利用することができる。
以下、動画像符号化装置10の動作について説明し、また、一実施形態に係る動画像符号化方法について説明する。図27は、一実施形態に係る動画像符号化方法のフローチャートである。
図27に示すように、一実施形態においては、まず、ステップS501において、ブロック分割器501が、入力画像を複数のブロックに分割する。続くステップS502において、小区画生成器502が、上述したように、対象ブロックを複数の小区画に区切る。また、小区画生成器502は、上述したように形状情報を生成する。
次いで、ステップS503において、動き検出器504が、上述したように、処理対象の小区画の動きベクトルを求める。続くステップS504においては、予測信号生成器505が、上述したように、対象ブロック内の各小区画の動きベクトルと参照フレーム画像信号とを用いて、当該対象ブロックの予測信号を生成する。
次いで、ステップS505において、動き予測器506が、予測動きベクトルを求める。また、動き予測器506は、予測動きベクトルの複数の候補から選択した候補を特定するための指示情報を生成する。このステップS505の処理の詳細については、後述する。続くステップS506においては、減算器507が、上述したように各小区画の動きベクトルと予測動きベクトルとの差を求めて差分動きベクトルを生成する。
次いで、ステップS507において、残差信号生成器508が、対象ブロックの画像信号と予測信号との差を求めて残差信号を生成する。続くステップS508においては、変換器509が、残差信号を直交変換して変換係数を生成する。続くステップS509においては、量子化器510が、変換係数を量子化して量子化変換係数を生成する。続くステップS510においては、逆量子化器511が、量子化変換係数を逆量子化して逆量子化変換係数を生成する。続くステップS511においては、逆変換器512が、逆量子化変換係数を逆変換して再生残差信号を生成する。
次いで、ステップS512において、加算器513が、対象ブロックの予測信号と再生残差信号とを加算することにより、再生画像信号を生成する。続くステップS513において、再生画像信号が、フレームメモリ503によって既再生の画像信号として記憶される。
次いで、ステップS514において、エントロピー符号化器514が、量子化変換係数と、対象ブロックの形状情報と、予測動きベクトルの指示情報と、差分動きベクトルと、を符号化する。
次いで、ステップS515において、全てのブロックが処理されたか否かが判定される。全てのブロックが処理されていない場合には、未処理のブロックを対象としてステップS502からの処理が継続される。一方、全てのブロックの処理が終了している場合には、処理が終了する。
以下、動き予測器506の動作についてより詳細に説明する。図28は、一実施形態に係る動き予測器の処理を示すフローチャートである。動き予測器506は、図28に示すフローチャートに従って、予測動きベクトル(以下、PMV)、及び、PMVを特定するための指示情報を出力する。
図28に示すように、動き予測器506の処理では、まず、ステップS505−1において、カウンタiの値が0に設定される。以下、i=0のときには、第1小区画に対する処理が行われ、i=1のときには第2小区画に対する処理が行われるものとする。
次いで、ステップS505−2において、処理済みの部分領域の動きベクトルから、処理対象の小区画のPMVの候補が、後述する方法に従って生成される。PMVの候補の数は、本例では二つである。即ち、PMVの候補として、処理対象の小区画の左側の処理済みの部分領域の動きベクトル及び上側の処理済みの部分領域の動きベクトルが、処理対象の小区画の予測動きベクトルの候補として設定され得る。ステップS505−2においては、生成された候補の数がNcandに設定される。
次いで、ステップS505−3において、NCandが「0」であるか否かが判定される。NCandが「0」である場合(Yes)には、処理がステップS505−4に進む。NCandが「0」でない場合(No)には、処理はステップS505−5に進む。
ステップS505−4においては、PMVがゼロベクトルに設定され、処理はステップS505−10に進む。この際、PMVは、ゼロベクトルでなく、予め定められたブロックの動きベクトルや、処理対象の小区画の直前に処理された部分領域の動きベクトルなどに設定されてもよい。
ステップS505−5においては、NCandが「1」であるか否かが判定される。NCandが「1」である場合(Yes)には、処理はステップS505−10に進む。NCandが「1」でない場合(No)には、処理はステップS505−6に進む。
ステップS505−6においては、ステップS505−2で生成されたPMVの候補から、PMVが選択される。PMVとしては、処理対象の小区画の動きベクトルに対する差分が最小となる候補が選択され得る。
次いで、S505−7においてはステップS505−6で選択されたPMVが左側の候補、即ち、左側の部分領域の動きベクトルであるか否かが判定される。ステップS505−6で選択されたPMVが左側の候補である場合(Yes)には、処理はステップS505−8に進む。ステップS505−6で選択されたPMVが左側の候補でない場合(No)には、処理はステップS505−9に進む。
ステップS505−8においては、処理対象の小区画の左側の部分領域の動きベクトルをPMVとする指示情報pmv_left_flag=1が出力される。一方、ステップS505−9においては、処理対象の小区画の上側の部分領域の動きベクトルをPMVとする指示情報pmv_left_flag=0が出力される。
次いで、ステップS505−10においては、候補として残ったPMVが出力される。続くステップS505−11においては、カウンタiの値に「1」が加算される。
次いで、ステップS505−12において、カウンタiの値が「2」より小さいか否かが判定される。カウンタiの値が「2」より小さい場合(Yes)には、処理はステップS505−2に進む。カウンタiの値が「2」より小さくない場合(No)には処理が終了する。
なお、ステップS505−2において、生成する候補の数を一つに限定することで、ステップS505−5、S505−6、S505−7、S505−8、S505−9を省略することができる。この限定の方法は、制限されるものではないが、予測動きベクトル生成器5063の説明にて上述したように、例えば、三つの候補の中間値を用いる方法、二つの候補の平均値を用いる方法、複数の候補から一つの候補を選択するための優先順位を決めておく方法、といった方法が利用可能である。ステップS505−2において生成される候補の数が一つに限定される形態では、ステップS505−3においてNCandが「0」でない場合(No)には、処理はステップS505−10に進む。
以下、ステップS505−2における、処理対象の小区画の予測動きベクトルの候補の生成方法についてより詳細に説明する。図29は、対象ブロックの小区画と周囲の部分領域の一例を示す図である。
動き参照先候補生成器5062は、図29に示すように、第1小区画SP1に対して部分領域U1及び部分領域L1を参照し、それぞれの部分領域がフレーム間予測にて処理済みである場合には、その部分領域の動きベクトルを、第1小区画SP1の予測動きベクトルの候補とする。同様に、動き参照先候補生成器5062は、第2小区画に対して部分領域U2または部分領域L2を参照し、第2小区画の予測動きベクトルの候補を生成する。ここで、部分領域U1、L1、U2、L2は、対象ブロックPの周囲のブロック又は小区画であって、予測信号を生成する単位となる領域である。また、部分領域は、予測信号を生成する単位とは無関係に、予測動きベクトルの候補生成のために準備されるブロック(例えば、単一形状に区切ることで生成されるもの)であってもよい。
部分領域U1は、第1小区画SP1の最も左上の画素F(0、0)に上側において隣接する画素Pi1(0、−1)を含む部分領域であり、小区画SP1に接している処理済みの部分領域である。また、部分領域L1は、第1小区画SP1の最も左上の画素F(0、0)に左側において隣接する画素Pi2(−1、0)を含む部分領域であり、第1小区画SP1に接している部分領域である。部分領域U2は、画素Pi3(x1、−1)を含む部分領域に右側において隣接する部分領域であって、x軸に接している部分領域である。部分領域L2は、画素Pi4(−1、y1)を含む部分領域に下側において隣接する部分領域であって、y軸に接している部分領域である。
画素Pi3のx座標x1及び画素Pi4のy座標y1は、式(3)及び式(4)で算出され得る。
x1=ceil(−k/m)・・・(3)
y1=ceil(k)・・・(4)
式(3)及び式(4)は、第1小区画SP1と第2小区画SP2を区切る境界の延長線Lnを表す1次式(1)にy=0、x=0をそれぞれ代入した値にceil(z)関数を適用したものである。ceil(z)は、天井関数と呼ばれるものであり、実数zに対して、z以上の最小の整数を導出するための関数である。
なお、ceil関数の代わりにfloor関数が用いられてもよい。floor(z)は、床関数と呼ばれるものであり、実数zに対してz以下の最大の整数を導出するための関数である。
また、式(5)及び(6)によりx1及びy1が算出されてもよい。
x1=ceil((−1−k)/m)・・・(5)
y1=ceil(−m+k)・・・(6)
式(5)及び式(6)は、式(1)にy=−1、x=−1をそれぞれ代入することによって得られる値にceil(z)関数を適用したものである。
部分領域U2及びL2が存在するか否かは、以下に説明するように判定される。部分領域U2が存在するための条件は、画面内であること、且つ、式(7)を満たすことである。また、部分領域L2が存在するための条件は、画面内であること、且つ、式(8)を満たすことである。
0<x1・・・(7)
0<y1・・・(8)
式(7)の条件を満たしていない場合には、第2小区画SP2と部分領域U2の間に部分領域L2が存在することになる。その場合、第2小区画SP2に近い部分領域L2よりも第2小区画SP2から遠い部分領域U2の方が第2小区画SP2の動きベクトルに近い動きベクトルを有する可能性は少ない。このような場合には、式(7)の条件によって部分領域U2の動きベクトルを予測動きベクトルの候補から除外し得る。
同様に、式(8)の条件を満たしていない場合には、第2小区画SP2と部分領域L2の間に部分領域U2が存在することになる。その場合、第2小区画SP2に近い部分領域U2よりも第2小区画SP2から遠い部分領域L2の方が第2小区画SP2の動きベクトルに近い動きベクトルを有する可能性は少ない。そのような場合には、式(8)の条件によって、部分領域U2の動きベクトルを予測動きベクトルの候補から除外し得る。
なお、一例においては、式(7)及び式(8)の条件に代えて、以下の式(9)及び式(10)で規定される条件が用いられてもよい。
0<x1<blocksizeX・・・(9)
0<y1<blocksizeY・・・(10)
ここで、blocksizeX及びblocksizeYは、対象ブロックPの水平方向の画素数、垂直方向の画素数である。例えば、対象ブロックPが8×8画素のブロックである場合には、blocksizeX=8、blocksizeY=8である。
式(9)又は式(10)の条件を用いることで、部分領域U2、部分領域L2のうち、第2小区画SP2に接していない部分領域の動きベクトルを予測動きベクトルの候補から除外することができる。これにより、予測精度が高いと考えられる予測動きベクトルの候補のみが残され得る。
このように部分領域U1、L1、U2、L2を設定することで、各小区画の予測動きベクトルの候補は、小区画間の境界の延長線に対して同じ側にある処理済みの部分領域の動きベクトルから生成される。
なお、小区画SP2の予測動きベクトルの候補は、小区画SP2と小区画SP2を含む対象ブロックの他の小区画との境界の延長線Lnに対して、小区画SP2と同じ側の領域にある部分領域の動きベクトルから生成されれば、上述した実施形態の予測動きベクトルの生成方法に限定されるものではない。例えば、部分領域U2は画素Pi3を含む部分領域であってもよく、部分領域L2は画素Pi4を含む部分領域であってもよい。
また、部分領域の全体が、線Lnに対して小区画SP2と同じ側の領域にあることを、当該部分領域の動きベクトルを小区画SP2の予測動きベクトルの候補と加える条件としてもよい。この場合には、例えば、部分領域の全ての頂点の位置を検査するといった方法を用いることができる。
また、部分領域が延長線に対して小区画と同じ側の領域に完全に含まれていなくても、当該部分領域の動きベクトルを当該小区画の予測動きベクトルの候補として用いてもよい。図30は、対象ブロックの小区画と周囲の部分領域の別の一例を示す図である。図30に一例として示すように、第1小区画SP1の予測動きベクトルの候補として、部分領域R、R、R、及びRの動きベクトルが用いられてもよい。また、第2小区画SP2の予測動きベクトルの候補に、部分領域Rの予測動きベクトルを加えてもよい。
また、図28及び図29に関する説明では、予測動きベクトルの候補となる動きベクトルの数を最大二つとしたが、上述の何れかの条件によって求められる動きベクトルから二つが選択されてもよい。例えば、図29に示す部分領域U2の動きベクトルと、部分領域U2に隣接する部分領域の動きベクトルとが、予測動きベクトルの候補とされてもよい。同様に、部分領域L2の動きベクトルと、部分領域U2に隣接する部分領域の動きベクトルとが、予測動きベクトルの候補とされてもよい。さらに、上述の何れかの条件によって特定される動きベクトルから三つ以上の動きベクトルが予測動きベクトルの候補とされてもよい。さらに、複数の予測動きベクトルの候補の平均値又は中央値が予測動きベクトルの候補に加えられてもよい。
また、図28のステップS505−2において生成する予測動きベクトルの候補の数を最大で一つに限定する方法として、区画の形状情報を用いることができる。例えば、処理対象の小区画に接する符号化済みの部分領域のうち、当該小区画と接している部分の長さが最大である部分領域の動きベクトルを予測動きベクトルの候補としてもよい。また、処理対象の小区画からの最短距離が最も短い符号化済みの部分領域の動きベクトルを、当該小区画の予測動きベクトルの候補としてもよい。
また、上述の予測動きベクトルの候補の生成方法は、任意の形状の小区画に適用することができる。図31は、対象ブロックの小区画と周囲の部分領域の更に別の例を示す図である。図31の(A)は、図29に示す線Lnとはy軸と交差する座標及び傾きの異なる線Lnによって画成される小区画を示している。図31の(B)は、図29に示す線Lnとはy軸に対して傾きが略対称でありy軸と交差する座標が異なる線Lnによって画成される小区画を示している。図31の(C)は、二つの線Ln1及びLn2により画成される小区画を示している。また、図31の(D)は、互いに交差する二つの線Ln1及びLn2により画成される小区画を示している。図31の(A)〜(D)に示すような境界の延長線を基準としても、小区画SP2の予測動きベクトルの候補となり得る動きベクトルを有する部分領域L2及びU2を、上述した予測動きベクトルの候補の生成方法によって、特定することが可能である。
また、小区画は直線で区切られた小区画のみに限定されない。例えば、予め決められたパターンの中から小区画の形状を選択する場合においても、小区画間の境界の延長線に対して処理対象の小区画と同じ側の領域に属する符号化済みの部分領域の動きベクトルを予測動きベクトルの候補として用いることができる。なお、小区画の形状のパターンが予め定められている場合には、各形状パターンに対して、予測動きベクトルの候補とする動きベクトルをもつ部分領域を予め定めておくことも可能である。このパターンに対象ブロックを矩形に区切るパターンが含まれていてもよい。
また、上述した予測動きベクトルの選択方法は、符号化済みの部分領域の動きベクトルを用いて処理対象の小区画の予測信号を生成する際の動きベクトルの選択方法としても適用することができる。つまり、図28のステップS505−2にて選択された予測動きベクトルを用いて、処理対象の小区画の予測信号が生成されてもよい。この場合には、差分動きベクトルを符号化する必要がないので、動き予測器506から出力される予測動きベクトルは、減算器507ではなく、予測信号生成器505に出力される。
さらに、動画像符号化装置10は、差分動きベクトルを符号化するか否かを判断し、その判断結果を特定する適用情報を符号化してもよい。この変形態様では、動き予測器506は、適用情報に基づいて、予測動きベクトルを減算器507に出力するか、予測信号生成器505に出力するかを切り替える機能を含み得る。
なお、この変形態様では、対象ブロック内の全ての小区画の動きベクトルが同じとなることは、対象ブロックを区切る意味がなくなるので、好ましくない。つまり、図28のステップS505−2において処理対象の小区画の動きベクトルの候補を生成する際に、対象ブロックに含まれる符号化済みの小区画の動きベクトルを、候補から除外してもよい。例えば、対象ブロックが二つの小区画に区切られており、第1小区画の動きベクトルが先に符号化された場合には、第1小区画の動きベクトルは第2小区画の予測動きベクトルの候補から除外される。また、第1小区画の動きベクトルと、部分領域U2の動きベクトルが同じ場合には、部分領域U2の動きベクトルを第2小区画の予測動きベクトルの生成には用いなくてもよい。
差分動きベクトルを符号化するか否かを指示する場合には、上記の適用情報を算術符号化する際の生起確率を小区画の形状情報に応じて適応的に決定してもよい。例えば、第2小区画の差分動きベクトルを符号化しないことを示す適用情報用の生起確率よりも、第1小区画の差分動きベクトルを符号化しないことを示す適用情報用の生起確率を高く設定し得る。これは、第2小区画が符号化済みの部分領域と接しないことがあり得る一方で、第1小区画は常に符号化済みの部分領域と接するので、このように生起確率を設定することで、適用情報の符号量が削減され得るからである。
ここで、簡単化のため、対象ブロックを矩形に分割した例を示す図32を参照して、一実施形態の効果を説明する。この例では、対象ブロックPは、直線Lnにより左側の小区画SP1と右側の小区画SP2に区切られている。この例では、第1小区画SP1の動きベクトルと部分領域Rの動きベクトルが、第2小区画SP2の予測動きベクトルの候補となる。
図32に示す例では、第1小区画SP1の動きベクトルを用いて第2小区画SP2の予測信号を生成すれば、第1小区画SP1の予測信号と第2小区画SP2の予測信号は同じ動きベクトルで生成されることになり、対象ブロックを二つの小区画に分ける意味がなくなる。そのため、第2小区画SP2の予測信号は、当該小区画SP2の上側の部分領域Rの動きベクトルを用いて生成され得る。従って、符号化装置と復号装置が、図32に示す例では、第2小区画SP2の予測信号を部分領域Rの動きベクトルを用いて生成することを予め決めておくことにより、予測動きベクトルの候補が減り、複数の予測動きベクトルの候補から、一つの予測動きベクトルを指示するための指示情報を送る必要がなくなる。
さらに、動画像符号化装置10が差分動きベクトルの符号化の可否を判断する方法(動き予測器506が適用情報に基づいて予測動きベクトルを減算器507に出力するか、予測信号生成器505に出力かを切り替える)について考察する。このとき、部分領域Rの動きベクトルが第1小区画SP1の動きベクトルと同じであれば、二つの予測動きベクトルの候補のいずれを選択しても第2小区画SP2の予測動きベクトルは第1小区画SP1の動きベクトルと同じになる。従って、符号化装置と復号装置が、二つの予測動きベクトルの候補が同じ場合には、差分動きベクトルと予測動きベクトルを加算した動きベクトルにより第2小区画SP2の予測信号を生成することを予め決めておくことにより、上記指示情報に加えて、差分動きベクトルを符号化するか否かを指示する適用情報も送る必要がなくなる。
なお、図33に示すように、対象ブロックが3個以上の小区画に区切られている場合には、第1小区画SP1、第2小区画SP2、及び第3小区画SP3が同じ動きベクトルを有し、第4小区画SP4のみが異なる動きベクトルを有するのであれば、対象ブロックを区切る意味がある。従って、この場合には、第2小区画SP2の予測信号と第3小区画SP3の予測信号は、それぞれ部分領域R、部分領域Rの動きベクトルではなく、第1小区画SP1の動きベクトルを用いて生成してもよい。但し、第4小区画SP4については、第2小区画SP2の動きベクトルと第3小区画SP3の動きベクトルが同じであれば、二つの予測動きベクトルの候補が同じとなるので、予め符号化装置と復号装置でルールを決めておくことにより、一つの予測動きベクトルを指示するための指示情報を送る必要はなくなる。さらに、第1小区画SP1、第2小区画SP2、及び第3小区画SP3が同じ動きベクトルを有する場合に、第4小区画SP4の予測信号を第2小区画SP2又は第3小区画SP3の動きベクトルを用いて生成すれば、四つの区画が全て同じ動きベクトルを有することになるので、符号化装置と復号装置でルールを予め定めておくことにより、上記指示情報に加えて、差分動きベクトルを符号化するか否かを指示する適用情報も送る必要がなくなる。
以下、一実施形態に係る動画像復号装置について説明する。図34は、一実施形態に係る動画像復号装置の構成を概略的に示す図である。図34に示す動画像復号装置20は、動画像符号化装置10によって生成された圧縮ストリームを復号して動画像を生成することができる装置である。
図34に示すように、動画像復号装置20は、データ復号器601、動き予測器602、加算器603、逆量子化器604、逆変換器605、フレームメモリ606、予測信号生成器607、及び、加算器608を備えている。
データ復号器601は、ラインL601を経由して入力された圧縮ストリームを解析する。データ復号器601は、復号の対象となるブロック(以下、対象ブロック)に関して、以下の処理を順次行う。
データ復号器601は、圧縮ストリーム内の対象ブロックに関連する符号化データを復号して、対象ブロックの量子化変換係数を復元し、当該量子化変換係数をラインL602経由で出力する。また、データ復号器601は、符号化データを復号して、対象ブロックの形状情報を復元し、当該形状情報をラインL603経由で出力する。この際、対象ブロックを区切るか否かを指示する区画可否情報が復元されており、当該区画可否情報が対象ブロックを区切らないことを示している場合には、形状情報は復元されなくてもよい。
また、データ復号器601は、符号化データを復号することにより、対象ブロック内の各小区画用の指示情報、即ち、複数の予測動きベクトルの候補のうち一つを指示する情報を復元し、当該指示情報をラインL604経由で出力する。また、データ復号器601は、符号化データを復号することにより、対象ブロックの差分動きベクトルを復元し、当該差分動きベクトルをラインL605経由で出力する。また、データ復号器601は対象ブロックの形状情報に基づいて、予測動きベクトルの指示情報を復元する際の符号化データの復号における生起確率を適応的に決定し得る。この方法として、例えば、処理対象の小区画と接している部分領域の動きベクトルを予測動きベクトルとして指示する指示情報の生起確率を高くすることができる。
動き予測器602は、ラインL603経由で入力される形状情報とラインL606経由で入力された処理順で前の部分領域の動きベクトルと、ラインL604経由で入力される指示情報に基づいて、処理対象の小区画の予測動きベクトルを生成し、当該予測動きベクトルをラインL607経由で出力する。なお、所定の方法で予測動きベクトルの候補を一つに絞り込むことで、指示情報の入力は省略することもできる。
加算器603は、ラインL607経由で入力される予測動きベクトルと、ラインL605経由で入力される差分動きベクトルを加算し、対象ブロック又は当該対象ブロック内の小区画の動きベクトルを生成し、当該動きベクトルをラインL606を介して出力する。
逆量子化器604は、ラインL602経由で入力された量子化変換係数を逆量子化することにより、逆量子化変換係数を生成する。逆量子化器604は、生成した逆量子化変換係数をラインL608経由で出力する。
逆変換器605は、ラインL608経由で入力された逆量子化変換係数を逆直交変換することにより、再生残差信号を生成する。逆変換器605は、生成した再生残差信号をラインL609経由で出力する。
なお、生成された再生残差信号が量子化されていない場合には、動画像復号装置20は、逆量子化器604を備えていなくてもよい。同様に生成された再生残差信号が変換されていない場合には、動画像復号装置20は、逆変換器605を備えていなくてもよい。
フレームメモリ606は、ラインL610経由で入力される既再生の画像信号、即ち、処理対象の入力画像より処理順で前のフレーム画像信号(以下、参照フレーム画像信号)を格納する。また、フレームメモリ606は、ラインL611経由で、参照フレーム画像信号を出力する。
予測信号生成器607は、ラインL611経由で入力される参照フレーム画像信号の所定範囲内の画像信号から、ラインL606経由で入力される動きベクトルとラインL603経由で入力される形状情報に基づいて、対象ブロック内の各小区画の画像の予測信号を生成する。予測信号生成器607は、ラインL612経由で、生成した予測信号を出力する。なお、本明細書においては説明を省略したが、予測信号は画面間予測以外にも、画面内予測によって生成されてもよい。
加算器608は、ラインL609経由で入力される再生残差信号と、ラインL612経由で入力される対象ブロックの予測信号とを加算することにより、再生画像信号を生成する。加算器608は、再生画像信号をラインL610経由で出力する。
図35は、一実施形態に係る動き予測器の構成を示す図である。図35に示すように、動き予測器602は、動きベクトルメモリ6021、動き参照先候補生成器6022、及び、予測動きベクトル生成器6023を有している。
動きベクトルメモリ6021は、ラインL606経由で入力される動きベクトルを格納する。動きベクトルメモリ6021に格納される動きベクトルは、対象ブロック又は処理対象の小区画よりも処理順で前の処理済みの部分領域の動きベクトルである。動きベクトルメモリ6021は、格納した動きベクトルを、処理対象の小区画用の予測動きベクトルの導出のために、ラインL6021経由で出力する。
動き参照先候補生成器6022は、ラインL603経由で入力される形状情報に基づいて、後述する方法によって、ラインL6021経由で入力される動きベクトルから、予測動きベクトルの候補を生成し、ラインL6022を経由して出力する。
予測動きベクトル生成器6023は、ラインL6022経由で入力される予測動きベクトルの候補から、ラインL604経由で入力される予測動きベクトルの指示情報に基づいて、予測動きベクトルを決定し、決定した予測動きベクトルをラインL607経由で出力する。なお、動き参照先候補生成器において生成する候補の数を一つに限定することで、選択すべき候補を特定する指示情報の入力を省略することができる。
以下、動画像復号装置20の動作と、一実施形態に係る動画像復号方法について説明する。図36は、一実施形態に係る動画像復号方法のフローチャートである。図36に示すように、一実施形態においては、まず、ステップS621において、データ復号器601が、上述したように、対象ブロックに関して、圧縮データ内の符号化データを復号して、対象ブロックの量子化変換係数、形状情報、及び、差分動きベクトルを復元する。また、ステップS621においては、区画可否情報及び指示情報が復元され得る。さらに、ステップS621においては、逆量子化器604が、復元された量子化変換係数から逆量子化変換係数を生成し、逆変換器605が逆量子化変換係数から再生残差信号を生成し得る。
次いで、ステップS622において、動き予測器602が、対象ブロック内の各小区画を処理対象とし、処理対象の小区画の予測動きベクトルを求める。続くステップS623においては、加算器603が、処理対象の小区画の予測動きベクトルと差分動きベクトルとを加算することにより、動きベクトルを生成する。
次いで、ステップS624において、予測信号生成器607が、対象ブロックの動きベクトルを用いて、フレームメモリ606内の参照フレーム画像信号から、予測信号を生成する。続くステップS625においては、加算器608が、対象ブロックの予測信号と再生残差信号を加算することにより、再生画像信号を生成する。
次いで、ステップS626においては、ステップS625で生成された再生画像信号が既再生の画像信号としてフレームメモリ606に格納される。続くステップS627においては、全てのブロックに対して処理が行われたか否かが判定される。全てのブロックに対する処理が終了していない場合には、未処理のブロックを対象ブロックとして、ステップS621からの処理が継続される。一方、全てのブロックの処理が終了している場合には、処理は終了する。
以下、動き予測器602の動作について詳細に説明する。図37は、一実施形態に係る動き予測器の処理を示すフローチャートである。動き予測器602は、図37に示すフローチャートに従って、予測動きベクトルを生成する。
一実施形態においては、ステップS615−1において、カウンタiの値が「0」に設定される。以下、i=0のときは第1小区画に対する処理が行われ、i=1のときは第2小区画に対する処理が行われるものとする。
次いで、ステップS615−2において、処理対象の小区画より処理順で前の部分領域の動きベクトルのうち、処理対象の小区画の予測動きベクトルになり得る2通りの候補(左側の候補及び上側の候補)が、図29、図30、図31、図32、及び図33を用いて上述した方法に従って求められる。
次いで、ステップS615−3において、ステップS615−2で生成された候補の数NCandが、「0」であるか否かが判定される。NCandが「0」である場合(Yes)には、処理はステップS615−4に進む。NCandが「0」でない場合(No)には、処理はステップS615−5に進む。
ステップS615−4においては、予測動きベクトルPMVがゼロベクトルに設定され、処理はステップS615−11に進む。この際、ゼロベクトルでなく、予め定めておいたブロックの動きベクトルや処理対象の小区画に対して処理順で直前の部分領域の動きベクトルが予測動きベクトルPMVとして設定されてもよい。
ステップS615−5においては、ステップS615−2で生成された候補の数NCandが「1」であるか否かが判定される。NCandが「1」である場合(Yes)には、処理はステップS615−6に進む。NCandが「1」でない場合(No)には、処理はステップS615−7に進む。
ステップS615−6においては、ステップS615−2で生成された一つの候補が、PMVに設定される。そして、処理はステップS615−11に進む。
ステップS615−7においては、ステップS615−2で生成された候補から、選択すべきPMVを指示するための情報pmv_left_flagが取得される。そして、処理は、ステップS615−8に進む。
ステップS615−8においては、pmv_left_flagの値が「1」であるか否かが判定される。pmv_left_flagの値が「1」である場合(Yes)には、処理はステップS615−9に進む。pmv_left_flagの値が「1」でない場合(No)には、処理はステップS615−10に進む。
ステップS615−9においては、処理対象の小区画の左側の部分領域の動きベクトルがPMVに設定される。そして、処理はステップS615−11に進む。
ステップS615−10においては、処理対象の小区画の左側の部分領域の動きベクトルがPMVに設定される。そして、処理はステップS615−11に進む。
ステップS615−11においては、設定されたPMVが出力される。そして、処理はステップS615−12に進む。
次いで、ステップS615−12においては、カウンタiの値に「1」が加算される。そして、処理はステップS615−13に進む。
次いで、ステップS615−13においては、カウンタiの値が「2」より小さいか否かが判定される。カウンタiの値が「2」より小さい場合(Yes)には、処理はステップS615−2に進む。一方、カウンタiの値が2より小さくない場合(No)には、処理は終了する。
なお、ステップS615−2において、生成する予測動きベクトルの候補の数を一つに限定することで、ステップS615−5、S615−6、S615−7、S615−8、S615−9、S615−10の処理を省略することができる。この限定のための方法は、予測動きベクトル生成器6023について上述したように、制限するものではないが、例えば、三つの候補の中間値を用いる方法、二つの候補の平均値を用いる方法、複数の予測動きベクトルの候補から一つの予測動きベクトルを選択するための優先順位を決めておく方法、といった方法を利用することができる。その場合には、ステップS615−03において、NCandが「0」でない場合(No)には、処理はステップS615−6に進む。
また、上述した方法は、復号済みの動きベクトルを用いて処理対象の小区画の予測信号を生成する場合における動きベクトル選択方法として適用することができる。つまり、図37のステップS615−2にて選択された予測動きベクトルを用いて、処理対象の小区画の予測信号を生成してもよい。この場合には、差分動きベクトルを復号する必要がないため、動き予測器602から出力される予測動きベクトルは、加算器603ではなく、予測信号生成器607に出力される。
さらに、差分動きベクトルを復号するか否かを特定する適用情報をデータ復号器601にて復号してもよい。この変形態様では、適用情報に基づいて動き予測器602が、予測動きベクトルを加算器603に出力するか、予測信号生成器607に出力かを切り替える機能を含み得る。
なお、この変形態様では、対象ブロック内の全ての小区画の動きベクトルが同じとなることは、対象ブロックを区切る意味がなくなるため、好ましくない。したがって、この変形態様では、図37のステップS615−2において処理対象の小区画の予測動きベクトルの候補を生成する際に、対象ブロックに含まれる小区画であり処理対象の小区画より処理順で前の小区画の動きベクトルは予測動きベクトルの候補から除外してもよい。例えば、対象ブロックが二つの小区画に区切られており、第1小区画の動きベクトルが先に復元されている場合には、第1小区画の動きベクトルは第2小区画の予測動きベクトルの候補から除外される。また、第1小区画の動きベクトルと、部分領域U2の動きベクトルが同じ場合には、部分領域U2の動きベクトルは第2小区画の予測動きベクトルの生成には用いなくてもよい。
また、この変形態様においては、差分動きベクトルを復号するか否かを指示する適用情報を算術復号する際の生起確率を、形状情報に応じて適応的に決定し得る。この方法として、例えば、復号済みの部分領域と接しないことのある第2小区画よりも、常に符号化済みの領域と接する第1区画のほうが、差分動きベクトルを符号化しない確率を高く設定し得る。なお、この変形態様の効果については、図34と図35を用いて説明済みのためここでは割愛する。
以下、コンピュータを動画像符号化装置10として動作させるための動画像符号化プログラム、及び、コンピュータを動画像復号装置20として動作させるための動画像復号プログラムについて説明する。
図38は、一実施形態に係る動画像符号化プログラムの構成を示す図である。図39は、一実施形態に係る動画像復号プログラムの構成を示す図である。以下、図38及び、図39と共に、一実施形態に係るコンピュータのハードウェア構成を示す図18、及び、一実施形態に係るコンピュータを示す斜視図である図19を参照する。
図38に示す動画像符号化プログラムP10は、記録媒体SMに格納されて提供され得る。また、図38に示す動画像復号プログラムP20も、記録媒体SMに格納されて提供され得る。なお、記録媒体SMとしては、フロッピーディスク、CD−ROM、DVD、あるいはROM等の記録媒体、あるいは半導体メモリ等が例示される。
上述したように、コンピュータC10は、フロッピーディスクドライブ装置、CD−ROMドライブ装置、DVDドライブ装置等の読取装置C12と、オペレーティングシステムを常駐させた作業用メモリ(RAM)C14と、記録媒体SMに記憶されたプログラムを記憶するメモリC16と、ディスプレイといった表示装置C18と、入力装置であるマウスC20及びキーボードC22と、データ等の送受を行うための通信装置C24と、プログラムの実行を制御するCPU C26と、を備え得る。
コンピュータC10は、記録媒体SMが読取装置C12に挿入されると、読取装置C12から記録媒体SMに格納された動画像符号化プログラムP10にアクセス可能になり、当該プログラムP10によって、動画像符号化装置10として動作することが可能になる。
また、コンピュータC10は、記録媒体SMが読取装置C12に挿入されると、読取装置C12から記録媒体SMに格納された動画像復号プログラムP20にアクセス可能になり、当該プログラムP20によって、動画像復号装置20として動作することが可能になる。
図19に示すように、動画像符号化プログラムP10及び動画像復号プログラムP20は、搬送波に重畳されたコンピュータデータ信号CWとしてネットワークを介して提供されるものであってもよい。この場合、コンピュータC10は、通信装置C24によって受信した動画像符号化プログラムP10又は動画像復号プログラムP20をメモリC16に格納し、プログラムP10又はP20を実行することができる。
図38に示すように、動画像符号化プログラムP10は、ブロック分割モジュールM101、小区画生成器モジュールM102、記憶モジュールM103、動き検出モジュールM104、予測信号生成モジュールM105、動き予測モジュールM106、減算モジュールM107、残差信号生成モジュールM108、変換モジュールM109、量子化モジュールM110、逆量子化モジュールM111、逆変換モジュールM112、加算モジュールM113、及びエントロピー符号化モジュールM114を含んでいる。
一実施形態においては、ブロック分割モジュールM101、小区画生成器モジュールM102、記憶モジュールM103、動き検出モジュールM104、予測信号生成モジュールM105、動き予測モジュールM106、減算モジュールM107、残差信号生成モジュールM108、変換モジュールM109、量子化モジュールM110、逆量子化モジュールM111、逆変換モジュールM112、加算モジュールM113、エントロピー符号化モジュールM114は、動画像符号化装置10のブロック分割器501、小区画生成器502、フレームメモリ503、動き検出器504、予測信号生成器505、動き予測器506、減算器507、残差信号生成器508、変換器509、量子化器510、逆量子化器511、逆変換器512、加算器513、エントロピー符号化器514と同様の機能を、それぞれコンピュータC10に実行させる。かかる動画像符号化プログラムP10によれば、コンピュータC10は、動画像符号化装置10として動作することが可能となる。
図39に示すように、動画像復号プログラムP20は、データ復号モジュールM201、動き予測モジュールM202、加算モジュールM203、逆量子化モジュールM204、逆変換モジュールM205、記憶モジュールM206、予測信号生成モジュールM207、及び、加算モジュールM208を含んでいる。
一実施形態においては、データ復号モジュールM201、動き予測モジュールM202、加算モジュールM203、逆量子化モジュールM204、逆変換モジュールM205、記憶モジュールM206、予測信号生成モジュールM207、加算モジュールM208は、動画像復号装置20のデータ復号器601、動き予測器602、加算器603、逆量子化器604、逆変換器605、フレームメモリ606、予測信号生成器607、加算器608と同様の機能を、それぞれコンピュータC10に実行させる。かかる動画像復号プログラムP20によれば、コンピュータC10は、動画像復号装置20として動作することが可能となる。
以上、種々の実施形態について詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。
100…画像予測符号化装置、101…入力端子、102…ブロック分割器、103…予測信号生成器、104…フレームメモリ、105…減算器、106…変換器、107…量子化器、108…逆量子化器、109…逆変換器、110…加算器、111…量子化変換係数符号化器、112…出力端子、113…予測ブロック分割タイプ選択器、114…動き情報推定器、115…予測情報用メモリ、116…予測情報符号化器、201…入力端子、202…データ解析器、203…逆量子化器、204…逆変換器、205…加算器、206…出力端子、207…量子化変換係数復号器、208…予測情報復号器、10…動画像符号化装置、20…動画像復号装置、501…ブロック分割器、502…小区画生成器、503…フレームメモリ、504…動き検出器、505…予測信号生成器、506…動き予測器、507…減算器、508…残差信号生成器、509…変換器、510…量子化器、511…逆量子化器、512…逆変換器、513…加算器、514…エントロピー符号化器、601…データ復号器、602…動き予測器、603…加算器、604…逆量子化器、605…逆変換器、606…フレームメモリ、607…予測信号生成器、608…加算器、5061…動きベクトルメモリ、5062…動き参照先候補生成器、5063…予測動きベクトル生成器、6021…動きベクトルメモリ、6022…動き参照先候補生成器、6023…予測動きベクトル生成器。

Claims (3)

  1. 複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、残差信号の符号化データとを抽出するデータ解析手段と、
    前記予測情報の符号化データから動き情報を復元する予測情報復号手段であって、
    前記予測情報の符号化データから、前記対象領域を小分割する予測領域の数を示す予測ブロック分割タイプを復元し、
    前記予測ブロック分割タイプが、前記対象領域を左側の第1の予測領域と右側の第2の予測領域とに垂直に2分割するタイプを示す場合に、
    前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に、該第1の予測領域に隣接する隣接領域のうち画面内予測により生成された隣接領域を除く隣接領域に付随する復号済み動き情報を含む動き情報候補を利用するか否かを示す第1のマージ識別情報を復元し、
    前記第1のマージ識別情報が前記動き情報候補を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に用いる第1の動き情報を復元し、
    前記第1のマージ識別情報が前記動き情報候補を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記動き情報候補から前記第1の予測領域の予測信号の生成に用いる第1の動き情報を特定する第1の選択情報を復元し、該第1の選択情報に基づいて前記第1の動き情報を復元し、
    前記予測情報の符号化データを更に復号して、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第2のマージ識別情報を復元し、
    前記第2のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、第2の予測領域の予測信号の生成に用いる第2の動き情報を復元し、
    前記第2のマージ識別情報が復号済み動き情報を利用することを示し、且つ、復号済み動き情報の候補が複数存在する場合に、前記予測情報の符号化データを更に復号して、前記第2の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を含まないと共に前記第2の予測領域の上側において該第2の予測領域に隣接する複数の上側領域の動き情報のうち前記第1の動き情報と一致する動き情報を含まない前記復号済み動き情報の候補から、前記第2の予測領域の予測信号の生成に用いる第2の動き情報を特定する第2の選択情報を復元し、該第2の選択情報に基づいて前記第2の動き情報を復元する、
    該予測情報復号手段と、
    復元した予測情報に含まれる動き情報を保存する保存手段と、
    復元された前記第1の動き情報と前記第2の動き情報に基づいて、前記対象領域に含まれる前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成手段と、
    前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元手段と、
    前記予測信号と前記再生残差信号とに基づいて前記対象領域の画素信号を復元し、該画素信号を既再生信号として保存する記録手段と、
    を具備する画像予測復号装置。
  2. 画像予測復号装置により実行される画像予測復号方法であって、
    複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、残差信号の符号化データとを抽出するデータ解析ステップと、
    前記予測情報の符号化データから動き情報を復元する予測情報復号ステップであって、
    前記予測情報の符号化データから、前記対象領域を小分割する予測領域の数を示す予測ブロック分割タイプを復元し、
    前記予測ブロック分割タイプが、前記対象領域を左側の第1の予測領域と右側の第2の予測領域とに垂直に2分割するタイプを示す場合に、
    前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に、該第1の予測領域に隣接する隣接領域のうち画面内予測により生成された隣接領域を除く隣接領域に付随する復号済み動き情報を含む動き情報候補を利用するか否かを示す第1のマージ識別情報を復元し、
    前記第1のマージ識別情報が前記動き情報候補を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に用いる第1の動き情報を復元し、
    前記第1のマージ識別情報が前記動き情報候補を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記動き情報候補から前記第1の予測領域の予測信号の生成に用いる第1の動き情報を特定する第1の選択情報を復元し、該第1の選択情報に基づいて前記第1の動き情報を復元し、
    前記予測情報の符号化データを更に復号して、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第2のマージ識別情報を復元し、
    前記第2のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、第2の予測領域の予測信号の生成に用いる第2の動き情報を復元し、
    前記第2のマージ識別情報が復号済み動き情報を利用することを示し、且つ、復号済み動き情報の候補が複数存在する場合に、前記予測情報の符号化データを更に復号して、前記第2の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を含まないと共に前記第2の予測領域の上側において該第2の予測領域に隣接する複数の上側領域の動き情報のうち前記第1の動き情報と一致する動き情報を含まない前記復号済み動き情報の候補から、前記第2の予測領域の予測信号の生成に用いる第2の動き情報を特定する第2の選択情報を復元し、該第2の選択情報に基づいて前記第2の動き情報を復元する、
    該予測情報復号ステップと、
    復元した予測情報に含まれる動き情報を保存する保存ステップと、
    復元された前記第1の動き情報と前記第2の動き情報に基づいて、前記対象領域に含まれる前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成ステップと、
    前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元ステップと、
    前記予測信号と前記再生残差信号とに基づいて前記対象領域の画素信号を復元し、該画素信号を既再生信号として保存する記録ステップと、
    を含む画像予測復号方法。
  3. 前記動き情報には、動きベクトル及び参照画面番号に関する情報が含まれる、
    請求項2に記載の画像予測復号方法。
JP2018051220A 2010-07-20 2018-03-19 画像予測復号装置、及び、画像予測復号方法 Active JP6535780B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010163245 2010-07-20
JP2010163245 2010-07-20
JP2010174869 2010-08-03
JP2010174869 2010-08-03

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016084633A Division JP2016165135A (ja) 2010-07-20 2016-04-20 画像予測符号化装置、画像予測符号化方法、画像予測復号装置、及び、画像予測復号方法

Related Child Applications (3)

Application Number Title Priority Date Filing Date
JP2019103923A Division JP2019140704A (ja) 2010-07-20 2019-06-03 画像予測復号装置、及び、画像予測復号方法
JP2019103922A Division JP2019140703A (ja) 2010-07-20 2019-06-03 画像予測復号装置、及び、画像予測復号方法
JP2019103920A Division JP2019165499A (ja) 2010-07-20 2019-06-03 画像予測復号装置、及び、画像予測復号方法

Publications (2)

Publication Number Publication Date
JP2018121354A true JP2018121354A (ja) 2018-08-02
JP6535780B2 JP6535780B2 (ja) 2019-06-26

Family

ID=45496857

Family Applications (8)

Application Number Title Priority Date Filing Date
JP2012525384A Active JP5661114B2 (ja) 2010-07-20 2011-07-14 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び、画像予測復号プログラム
JP2014244133A Active JP5712330B2 (ja) 2010-07-20 2014-12-02 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び、画像予測復号プログラム
JP2015045725A Active JP5951063B2 (ja) 2010-07-20 2015-03-09 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び、画像予測復号プログラム
JP2016084633A Pending JP2016165135A (ja) 2010-07-20 2016-04-20 画像予測符号化装置、画像予測符号化方法、画像予測復号装置、及び、画像予測復号方法
JP2018051220A Active JP6535780B2 (ja) 2010-07-20 2018-03-19 画像予測復号装置、及び、画像予測復号方法
JP2019103922A Pending JP2019140703A (ja) 2010-07-20 2019-06-03 画像予測復号装置、及び、画像予測復号方法
JP2019103923A Pending JP2019140704A (ja) 2010-07-20 2019-06-03 画像予測復号装置、及び、画像予測復号方法
JP2019103920A Pending JP2019165499A (ja) 2010-07-20 2019-06-03 画像予測復号装置、及び、画像予測復号方法

Family Applications Before (4)

Application Number Title Priority Date Filing Date
JP2012525384A Active JP5661114B2 (ja) 2010-07-20 2011-07-14 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び、画像予測復号プログラム
JP2014244133A Active JP5712330B2 (ja) 2010-07-20 2014-12-02 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び、画像予測復号プログラム
JP2015045725A Active JP5951063B2 (ja) 2010-07-20 2015-03-09 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び、画像予測復号プログラム
JP2016084633A Pending JP2016165135A (ja) 2010-07-20 2016-04-20 画像予測符号化装置、画像予測符号化方法、画像予測復号装置、及び、画像予測復号方法

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2019103922A Pending JP2019140703A (ja) 2010-07-20 2019-06-03 画像予測復号装置、及び、画像予測復号方法
JP2019103923A Pending JP2019140704A (ja) 2010-07-20 2019-06-03 画像予測復号装置、及び、画像予測復号方法
JP2019103920A Pending JP2019165499A (ja) 2010-07-20 2019-06-03 画像予測復号装置、及び、画像予測復号方法

Country Status (19)

Country Link
US (8) US9185409B2 (ja)
EP (6) EP3661210B1 (ja)
JP (8) JP5661114B2 (ja)
KR (7) KR101770662B1 (ja)
CN (7) CN105898327B (ja)
AU (1) AU2011280629B2 (ja)
BR (1) BR112013001351B1 (ja)
CA (8) CA3011221C (ja)
DK (6) DK3661210T3 (ja)
ES (6) ES2887307T3 (ja)
FI (1) FI3661210T3 (ja)
HU (4) HUE059918T2 (ja)
MX (5) MX367864B (ja)
PL (3) PL3664453T3 (ja)
PT (6) PT2597874T (ja)
RU (8) RU2619202C1 (ja)
SG (1) SG187094A1 (ja)
TW (2) TWI469646B (ja)
WO (1) WO2012011432A1 (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2595754C2 (ru) 2009-03-23 2016-08-27 Нтт Докомо, Инк. Устройство кодирования с предсказанием изображений, способ кодирования с предсказанием изображений, программа кодирования с предсказанием изображений, устройство декодирования с предсказанием изображений, способ декодирования с предсказанием изображений, программа декодирования с предсказанием изображений
CA3011221C (en) * 2010-07-20 2019-09-03 Ntt Docomo, Inc. Video prediction encoding and decoding for partitioned regions while determining whether or not to use motion information from neighboring regions
CN108848379A (zh) * 2010-12-07 2018-11-20 韩国电子通信研究院 视频编解码方法、生成比特流的方法和存储比特流的介质
JP5698541B2 (ja) * 2011-01-12 2015-04-08 株式会社Nttドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
US8917763B2 (en) * 2011-03-07 2014-12-23 Panasonic Corporation Motion compensation apparatus, video coding apparatus, video decoding apparatus, motion compensation method, program, and integrated circuit
JP2013207402A (ja) * 2012-03-27 2013-10-07 Nippon Hoso Kyokai <Nhk> 画像符号化装置及びプログラム
TWI613906B (zh) * 2012-04-06 2018-02-01 Jvc Kenwood Corp 影像解碼裝置、影像解碼方法、及儲存有影像解碼程式之記錄媒體
TWI657696B (zh) * 2012-04-16 2019-04-21 日商Jvc建伍股份有限公司 動態影像編碼裝置、動態影像編碼方法、及記錄動態影像編碼程式之記錄媒體
GB2501535A (en) 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
JP5972687B2 (ja) * 2012-07-02 2016-08-17 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP5798539B2 (ja) * 2012-09-24 2015-10-21 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP5719401B2 (ja) 2013-04-02 2015-05-20 日本電信電話株式会社 ブロックサイズ決定方法、映像符号化装置、及びプログラム
CN103702127B (zh) * 2013-12-30 2016-10-12 清华大学 基于运动向量相关性的运动估计搜索范围预测方法和系统
WO2015100729A1 (en) * 2014-01-03 2015-07-09 Mediatek Singapore Pte. Ltd. Improved merging candidate list construction in 3dvc
CN103841405B (zh) * 2014-03-21 2016-07-06 华为技术有限公司 深度图像的编解码方法和编解码装置
WO2016044979A1 (en) * 2014-09-22 2016-03-31 Mediatek Singapore Pte. Ltd. Segmental prediction for video coding
WO2015196333A1 (en) * 2014-06-23 2015-12-30 Mediatek Singapore Pte. Ltd. Segmental prediction for video coding
CN105556968B (zh) * 2014-06-23 2018-09-04 联发科技(新加坡)私人有限公司 三维或多视图视频编码系统中预测编码的装置及方法
KR20180006411A (ko) * 2015-06-07 2018-01-17 엘지전자 주식회사 디블록킹 필터링을 수행하는 방법 및 장치
KR20180040517A (ko) * 2015-09-10 2018-04-20 삼성전자주식회사 비디오 부호화, 복호화 방법 및 장치
US10506235B2 (en) 2015-09-11 2019-12-10 Facebook, Inc. Distributed control of video encoding speeds
US10499070B2 (en) 2015-09-11 2019-12-03 Facebook, Inc. Key frame placement for distributed video encoding
US10602153B2 (en) 2015-09-11 2020-03-24 Facebook, Inc. Ultra-high video compression
US10602157B2 (en) 2015-09-11 2020-03-24 Facebook, Inc. Variable bitrate control for distributed video encoding
US10341561B2 (en) * 2015-09-11 2019-07-02 Facebook, Inc. Distributed image stabilization
US10375156B2 (en) 2015-09-11 2019-08-06 Facebook, Inc. Using worker nodes in a distributed video encoding system
US10063872B2 (en) 2015-09-11 2018-08-28 Facebook, Inc. Segment based encoding of video
FR3047379A1 (fr) * 2016-01-29 2017-08-04 Orange Procede de codage et decodage de donnees, dispositif de codage et decodage de donnees et programmes d'ordinateur correspondants
EP3469793A1 (en) * 2016-06-24 2019-04-17 Huawei Technologies Co., Ltd. Devices and methods for video coding using segmentation based partitioning of video coding blocks
US20190253624A1 (en) * 2017-07-17 2019-08-15 Ki Baek Kim Image data encoding/decoding method and apparatus
US10957068B2 (en) 2017-01-06 2021-03-23 Canon Kabushiki Kaisha Information processing apparatus and method of controlling the same
JP6894707B2 (ja) * 2017-01-06 2021-06-30 キヤノン株式会社 情報処理装置およびその制御方法、プログラム
US10218448B2 (en) * 2017-02-02 2019-02-26 Osram Sylvania Inc. System and method for determining vehicle position based upon light-based communication and time-of-flight measurements
US10531085B2 (en) * 2017-05-09 2020-01-07 Futurewei Technologies, Inc. Coding chroma samples in video compression
CN116527934A (zh) * 2017-08-22 2023-08-01 松下电器(美国)知识产权公司 图像编码器、图像解码器及非暂态计算机可读介质
CA3078905C (en) * 2017-10-20 2023-01-03 Fujitsu Limited Moving image encoding device, moving image encoding method, moving image encoding computer program, moving image decoding device, moving image decoding method, and moving image de coding computer program
CN107659804B (zh) * 2017-10-30 2019-03-12 河海大学 一种针对虚拟现实头戴式显示设备的屏幕内容视频编码算法
US11025904B2 (en) * 2018-06-08 2021-06-01 Tencent America LLC Method and apparatus for temporal motion vector prediction
WO2020003260A1 (en) * 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Boundary enhancement for sub-block
CN110677678B (zh) * 2018-07-01 2022-09-23 北京字节跳动网络技术有限公司 依赖形状的帧间编码
CN117834908A (zh) 2018-07-02 2024-04-05 英迪股份有限公司 对视频进行解码的方法和对视频进行编码的方法
US10404980B1 (en) * 2018-07-10 2019-09-03 Tencent America LLC Intra prediction with wide angle mode in video coding
EP3855739A4 (en) * 2018-09-19 2021-07-28 Fujitsu Limited VIDEO CODING DEVICE, VIDEO CODING METHOD, VIDEO CODING PROGRAM, VIDEO DECODING DEVICE, VIDEO DECODING METHOD AND VIDEO DECODING PROGRAM
CN109547781B (zh) * 2018-10-26 2020-12-22 嘉兴奥恒进出口有限公司 基于图像预测的压缩方法及设备
FR3088511B1 (fr) * 2018-11-09 2021-05-28 Fond B Com Procede de decodage d’au moins une image, procede de codage, dispositifs, signal et programmes d’ordinateur correspondants.
CN115348442A (zh) * 2018-11-30 2022-11-15 杭州海康威视数字技术股份有限公司 一种运动信息确定方法、装置及其设备
US11102513B2 (en) * 2018-12-06 2021-08-24 Tencent America LLC One-level transform split and adaptive sub-block transform
US11533506B2 (en) 2019-02-08 2022-12-20 Tencent America LLC Method and apparatus for video coding
KR20230008900A (ko) * 2019-03-12 2023-01-16 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 삼각형 예측을 위한 비디오 코딩 방법 및 장치
US11877010B2 (en) * 2019-06-23 2024-01-16 Lg Electronics Inc. Signaling method and device for merge data syntax in video/image coding system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011129067A1 (ja) * 2010-04-13 2011-10-20 パナソニック株式会社 動き補償方法、画像復号方法、画像符号化方法、動き補償装置、プログラム、及び集積回路
WO2012005520A2 (en) * 2010-07-09 2012-01-12 Samsung Electronics Co., Ltd. Method and apparatus for encoding video by using block merging, and method and apparatus for decoding video by using block merging

Family Cites Families (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3869672A (en) 1972-05-13 1975-03-04 Int Standard Electric Corp Method and arrangements for the digital control of operating functions, radio and television receivers
KR0166716B1 (ko) 1992-06-18 1999-03-20 강진구 블럭 dpcm을 이용한 부호화/복호화방법 및 장치
JPH07264598A (ja) 1994-03-23 1995-10-13 Nippon Telegr & Teleph Corp <Ntt> 動き補償方法、動きベクトル検出回路および動き補償回路
US5608458A (en) 1994-10-13 1997-03-04 Lucent Technologies Inc. Method and apparatus for a region-based approach to coding a sequence of video images
US5682204A (en) 1995-12-26 1997-10-28 C Cube Microsystems, Inc. Video encoder which uses intra-coding when an activity level of a current macro-block is smaller than a threshold level
EP1229740A3 (en) 1996-01-22 2005-02-09 Matsushita Electric Industrial Co., Ltd. Method and device for digital image encoding and decoding
EP0843484B1 (en) 1996-05-28 2002-01-02 Matsushita Electric Industrial Co., Ltd. Device predicting and decoding image
EP0817499A3 (en) 1996-06-28 2002-05-22 Matsushita Electric Industrial Co., Ltd. Image coding method using extrapolated pixels in insignificant areas of blocks
JP2004343788A (ja) 1996-10-31 2004-12-02 Toshiba Corp 画像符号化装置および画像復号化装置および画像符号化データを記録した記録媒体
US6687405B1 (en) 1996-11-13 2004-02-03 Koninklijke Philips Electronics N.V. Image segmentation
US6259739B1 (en) 1996-11-26 2001-07-10 Matsushita Electric Industrial Co., Ltd. Moving picture variable bit rate coding apparatus, moving picture variable bit rate coding method, and recording medium for moving picture variable bit rate coding program
US6359929B1 (en) 1997-07-04 2002-03-19 Matsushita Electric Industrial Co., Ltd. Image predictive decoding method, image predictive decoding apparatus, image predictive coding apparatus, and data storage medium
WO1999023834A1 (en) * 1997-11-05 1999-05-14 Sony Corporation Method for converting digital signal and apparatus for converting digital signal
US6483521B1 (en) 1998-02-02 2002-11-19 Matsushita Electric Industrial Co., Ltd. Image composition method, image composition apparatus, and data recording media
US7184482B2 (en) * 1999-04-17 2007-02-27 Altera Corporation Encoding system using motion vectors to represent frame-to-frame changes, wherein a decoder uses predictions of motion vectors in decoding
US6765964B1 (en) * 2000-12-06 2004-07-20 Realnetworks, Inc. System and method for intracoding video data
JPWO2003026315A1 (ja) 2001-09-14 2005-01-06 株式会社エヌ・ティ・ティ・ドコモ 符号化方法、復号方法、符号化装置、復号装置、画像処理システム、符号化プログラム及び復号プログラム
JP3764458B2 (ja) 2001-11-16 2006-04-05 株式会社エヌ・ティ・ティ・ドコモ 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、及びプログラム
JP3861698B2 (ja) * 2002-01-23 2006-12-20 ソニー株式会社 画像情報符号化装置及び方法、画像情報復号装置及び方法、並びにプログラム
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
ES2745058T3 (es) 2002-04-19 2020-02-27 Panasonic Ip Corp America Método de cálculo de vectores de movimiento
JP4363326B2 (ja) 2002-07-15 2009-11-11 株式会社日立製作所 動画像復号化方法
JP3504256B1 (ja) 2002-12-10 2004-03-08 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化方法、動画像復号方法、動画像符号化装置、及び動画像復号装置
KR100560843B1 (ko) 2003-04-10 2006-03-13 에스케이 텔레콤주식회사 비디오 부호기에서 적응 움직임 벡터의 탐색 영역을결정하는 방법 및 장치
JP4373702B2 (ja) 2003-05-07 2009-11-25 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
JP2005005844A (ja) 2003-06-10 2005-01-06 Hitachi Ltd 計算装置及び符号化処理プログラム
US9210441B2 (en) 2003-06-25 2015-12-08 Thomson Licensing Fast mode-decision encoding for interframes
US7646815B2 (en) * 2003-07-15 2010-01-12 Lsi Corporation Intra estimation chroma mode 0 sub-block dependent prediction
US20050013498A1 (en) 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US8064520B2 (en) 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US7400681B2 (en) 2003-11-28 2008-07-15 Scientific-Atlanta, Inc. Low-complexity motion vector prediction for video codec with two lists of reference pictures
JP4213646B2 (ja) 2003-12-26 2009-01-21 株式会社エヌ・ティ・ティ・ドコモ 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法、及び画像復号プログラム。
JP4313710B2 (ja) 2004-03-25 2009-08-12 パナソニック株式会社 画像符号化方法および画像復号化方法
JP4414904B2 (ja) 2004-04-16 2010-02-17 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム
CN101023672A (zh) * 2004-07-12 2007-08-22 诺基亚公司 在可调整视频编码中用于运动预测的系统和方法
KR100907847B1 (ko) * 2004-07-20 2009-07-14 퀄컴 인코포레이티드 순간적 비디오 압축으로 이동 벡터 예측을 위한 방법 및장치
US8085846B2 (en) 2004-08-24 2011-12-27 Thomson Licensing Method and apparatus for decoding hybrid intra-inter coded blocks
CN100471280C (zh) * 2005-01-07 2009-03-18 株式会社Ntt都科摩 运动图像编码及译码装置、方法
KR101108681B1 (ko) 2005-01-19 2012-01-25 삼성전자주식회사 동영상 코덱에서의 주파수 변환 계수 예측 방법 및 장치,이를 구비한 부호화 및 복호화 장치와 방법
US7580456B2 (en) * 2005-03-01 2009-08-25 Microsoft Corporation Prediction-based directional fractional pixel motion estimation for video coding
US20070025444A1 (en) 2005-07-28 2007-02-01 Shigeyuki Okada Coding Method
US8446954B2 (en) 2005-09-27 2013-05-21 Qualcomm Incorporated Mode selection techniques for multimedia coding
CN101361370B (zh) 2005-11-30 2010-12-01 株式会社东芝 图像编码/图像解码方法以及图像编码/图像解码装置
WO2007077116A1 (en) * 2006-01-05 2007-07-12 Thomson Licensing Inter-layer motion prediction method
TW200806040A (en) * 2006-01-05 2008-01-16 Nippon Telegraph & Telephone Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
CN102611892B (zh) 2006-03-16 2014-10-08 华为技术有限公司 在编码过程中实现自适应量化的方法及装置
JP5002286B2 (ja) 2006-04-27 2012-08-15 キヤノン株式会社 画像符号化装置、画像符号化方法、プログラム及び記憶媒体
US20090110077A1 (en) * 2006-05-24 2009-04-30 Hiroshi Amano Image coding device, image coding method, and image coding integrated circuit
US20080026729A1 (en) 2006-07-31 2008-01-31 Research In Motion Limited Method and apparatus for configuring unique profile settings for multiple services
CN101502119B (zh) 2006-08-02 2012-05-23 汤姆逊许可公司 用于视频编码的自适应几何分割方法和设备
EP2055108B1 (en) * 2006-08-25 2011-04-20 Thomson Licensing Methods and apparatus for reduced resolution partitioning
EP2079242A4 (en) * 2006-10-30 2010-11-03 Nippon Telegraph & Telephone METHOD FOR GENERATING PREDICTIVE REFERENCE INFORMATION, DYNAMIC IMAGE ENCODING AND DECODING METHOD, DEVICE THEREOF, PROGRAM THEREOF, AND STORAGE MEDIUM CONTAINING THE PROGRAM
KR101383540B1 (ko) 2007-01-03 2014-04-09 삼성전자주식회사 복수의 움직임 벡터 프리딕터들을 사용하여 움직임 벡터를추정하는 방법, 장치, 인코더, 디코더 및 복호화 방법
PT2123052E (pt) * 2007-01-18 2011-03-02 Fraunhofer Ges Forschung Corrente de dados de vídeo de qualidade escalonável
US20080240242A1 (en) 2007-03-27 2008-10-02 Nokia Corporation Method and system for motion vector predictions
KR101475365B1 (ko) 2007-04-09 2014-12-23 가부시키가이샤 엔.티.티.도코모 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램
EP2140684B1 (en) 2007-04-12 2018-08-15 Thomson Licensing DTV Method and apparatus for context dependent merging for skip-direct modes for video encoding and decoding
JP4788649B2 (ja) 2007-04-27 2011-10-05 株式会社日立製作所 動画像記録方法及びその装置
JP5188875B2 (ja) * 2007-06-04 2013-04-24 株式会社エヌ・ティ・ティ・ドコモ 画像予測符号化装置、画像予測復号装置、画像予測符号化方法、画像予測復号方法、画像予測符号化プログラム、及び画像予測復号プログラム
JP2008311781A (ja) 2007-06-12 2008-12-25 Ntt Docomo Inc 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
JP4947364B2 (ja) 2007-06-22 2012-06-06 ソニー株式会社 情報処理システムおよび方法、情報処理装置および方法、並びにプログラム
KR100901874B1 (ko) 2007-07-11 2009-06-09 한국전자통신연구원 비디오 인코딩을 위한 인터 모드 결정 방법
JP4678015B2 (ja) * 2007-07-13 2011-04-27 富士通株式会社 動画像符号化装置及び動画像符号化方法
KR101408698B1 (ko) 2007-07-31 2014-06-18 삼성전자주식회사 가중치 예측을 이용한 영상 부호화, 복호화 방법 및 장치
JP2009111691A (ja) 2007-10-30 2009-05-21 Hitachi Ltd 画像符号化装置及び符号化方法、画像復号化装置及び復号化方法
US20090168871A1 (en) * 2007-12-31 2009-07-02 Ning Lu Video motion estimation
JP4990927B2 (ja) 2008-03-28 2012-08-01 三星電子株式会社 動きベクトル情報の符号化/復号化方法及び装置
JP5406465B2 (ja) * 2008-04-24 2014-02-05 株式会社Nttドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
US8548041B2 (en) * 2008-09-25 2013-10-01 Mediatek Inc. Adaptive filter
JP5240530B2 (ja) 2008-10-02 2013-07-17 ソニー株式会社 画像処理装置および方法
CN102210151A (zh) 2008-11-07 2011-10-05 三菱电机株式会社 图像编码装置以及图像解码装置
CN102239693B (zh) * 2008-12-03 2013-12-18 株式会社日立制作所 运动图像解码方法和运动图像编码方法
RU2595754C2 (ru) 2009-03-23 2016-08-27 Нтт Докомо, Инк. Устройство кодирования с предсказанием изображений, способ кодирования с предсказанием изображений, программа кодирования с предсказанием изображений, устройство декодирования с предсказанием изображений, способ декодирования с предсказанием изображений, программа декодирования с предсказанием изображений
US9626769B2 (en) * 2009-09-04 2017-04-18 Stmicroelectronics International N.V. Digital video encoder system, method, and non-transitory computer-readable medium for tracking object regions
BR112012026400B1 (pt) * 2010-04-13 2021-08-10 Ge Video Compression, Ll Predição inter-plano
KR101484281B1 (ko) * 2010-07-09 2015-01-21 삼성전자주식회사 블록 병합을 이용한 비디오 부호화 방법 및 그 장치, 블록 병합을 이용한 비디오 복호화 방법 및 그 장치
CA3011221C (en) 2010-07-20 2019-09-03 Ntt Docomo, Inc. Video prediction encoding and decoding for partitioned regions while determining whether or not to use motion information from neighboring regions
DK3657798T3 (da) * 2010-10-06 2022-10-31 Ntt Docomo Inc Biforudsigelsesbilledafkodningsfremgangsmåde
KR20120140181A (ko) * 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
RU2694018C2 (ru) * 2011-09-23 2019-07-08 Кт Корпорейшен Способ декодирования видеосигнала

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011129067A1 (ja) * 2010-04-13 2011-10-20 パナソニック株式会社 動き補償方法、画像復号方法、画像符号化方法、動き補償装置、プログラム、及び集積回路
WO2012005520A2 (en) * 2010-07-09 2012-01-12 Samsung Electronics Co., Ltd. Method and apparatus for encoding video by using block merging, and method and apparatus for decoding video by using block merging

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SHAN LIU, XIMIN ZHANG AND SHAWMIN LEI: "Method and syntax for partial CU merge", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-E085, JPN6019001639, March 2011 (2011-03-01), pages 1 - 5 *
YOSHINORI SUZUKI AND TK TAN: "CE9: 3.1 PU Merge & Skip tools and proposed improvements", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-D233r1, JPN6019001638, January 2011 (2011-01-01), pages 1 - 7 *
YUNFEI ZHENG, WEI-JUNG CHIEN AND MARTA KARCZEWICZ: "Unified Motion Vector Predictor Selection for Merge and AMVP", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-E396, JPN6019001640, March 2011 (2011-03-01), pages 1 - 5 *

Also Published As

Publication number Publication date
MX350471B (es) 2017-09-07
CN105898326B (zh) 2019-01-29
JP2016165135A (ja) 2016-09-08
KR20170045368A (ko) 2017-04-26
JP5661114B2 (ja) 2015-01-28
EP3664453B1 (en) 2022-08-24
US20180249181A1 (en) 2018-08-30
DK2597874T3 (da) 2020-09-28
ES2785606T3 (es) 2020-10-07
US20160021389A1 (en) 2016-01-21
US10542287B2 (en) 2020-01-21
EP3661204B1 (en) 2021-08-18
CA3011236A1 (en) 2012-01-26
US9185409B2 (en) 2015-11-10
DK3661211T3 (da) 2021-09-27
US20170034531A1 (en) 2017-02-02
CA3050052A1 (en) 2012-01-26
JP2019165499A (ja) 2019-09-26
DK3661204T3 (da) 2021-09-20
JP5712330B2 (ja) 2015-05-07
KR101772183B1 (ko) 2017-08-28
PT3661204T (pt) 2021-09-22
EP2597874A4 (en) 2016-03-09
EP3664453A2 (en) 2020-06-10
PL3664453T3 (pl) 2022-11-21
BR112013001351B1 (pt) 2019-01-29
EP3661210A1 (en) 2020-06-03
CN105120280B (zh) 2018-04-20
CA3011241A1 (en) 2012-01-26
RU2685393C1 (ru) 2019-04-17
PT3661211T (pt) 2021-09-24
CN105847837B (zh) 2019-01-04
RU2685390C1 (ru) 2019-04-17
US10225580B2 (en) 2019-03-05
ES2820437T3 (es) 2021-04-21
HUE056566T2 (hu) 2022-02-28
FI3661210T3 (fi) 2023-08-31
CA3011217A1 (en) 2012-01-26
RU2685389C1 (ru) 2019-04-17
CA3011217C (en) 2021-08-03
CN105120279A (zh) 2015-12-02
PT3661210T (pt) 2023-09-04
CA2903530A1 (en) 2012-01-26
CN103004206B (zh) 2016-06-01
KR101903643B1 (ko) 2018-10-02
DK3070945T3 (da) 2020-04-06
JP2019140704A (ja) 2019-08-22
CA2805735A1 (en) 2012-01-26
KR20170098990A (ko) 2017-08-30
ES2926898T3 (es) 2022-10-31
MX338236B (es) 2016-04-08
CA3011236C (en) 2019-09-03
KR20170003736A (ko) 2017-01-09
CA3011221A1 (en) 2012-01-26
SG187094A1 (en) 2013-03-28
EP3661210B1 (en) 2023-08-09
HUE063032T2 (hu) 2023-12-28
US9497480B2 (en) 2016-11-15
MX367864B (es) 2019-09-05
PT3070945T (pt) 2020-04-22
ES2887236T3 (es) 2021-12-22
TWI519140B (zh) 2016-01-21
RU2013107368A (ru) 2014-10-20
TW201215161A (en) 2012-04-01
AU2011280629A1 (en) 2013-02-21
KR101695170B1 (ko) 2017-01-11
AU2011280629B2 (en) 2015-08-06
KR101770662B1 (ko) 2017-08-23
RU2658798C1 (ru) 2018-06-22
TWI469646B (zh) 2015-01-11
PT2597874T (pt) 2020-09-25
KR101809187B1 (ko) 2017-12-14
WO2012011432A1 (ja) 2012-01-26
JPWO2012011432A1 (ja) 2013-09-09
CN103004206A (zh) 2013-03-27
CN105120278A (zh) 2015-12-02
US20180014032A1 (en) 2018-01-11
EP3661211A1 (en) 2020-06-03
US20180278959A1 (en) 2018-09-27
EP2597874A1 (en) 2013-05-29
EP3661204B8 (en) 2021-09-22
CN105898326A (zh) 2016-08-24
US9794592B2 (en) 2017-10-17
CN105898327A (zh) 2016-08-24
KR101729051B1 (ko) 2017-04-21
KR20130041146A (ko) 2013-04-24
US10063888B1 (en) 2018-08-28
JP2015130692A (ja) 2015-07-16
CA3102661A1 (en) 2012-01-26
EP3070945A1 (en) 2016-09-21
HUE059918T2 (hu) 2023-01-28
EP3070945B1 (en) 2020-03-11
DK3664453T3 (da) 2022-09-12
JP2015065690A (ja) 2015-04-09
JP2019140703A (ja) 2019-08-22
US10230987B2 (en) 2019-03-12
PT3664453T (pt) 2022-09-20
US20130136184A1 (en) 2013-05-30
CA2903530C (en) 2018-08-28
EP3661204A1 (en) 2020-06-03
HUE056567T2 (hu) 2022-02-28
EP3661211B1 (en) 2021-08-25
US20180249180A1 (en) 2018-08-30
CA3011221C (en) 2019-09-03
CN105120280A (zh) 2015-12-02
CA3011241C (en) 2019-09-10
US9986261B2 (en) 2018-05-29
CN105120279B (zh) 2018-05-29
PL3661211T3 (pl) 2021-12-13
RU2573208C2 (ru) 2016-01-20
JP5951063B2 (ja) 2016-07-13
CN105120278B (zh) 2016-11-30
US20180332307A1 (en) 2018-11-15
RU2667716C1 (ru) 2018-09-24
EP2597874B1 (en) 2020-08-26
KR101600919B1 (ko) 2016-03-21
BR112013001351A2 (pt) 2016-05-17
EP3664453A3 (en) 2020-07-29
RU2619202C1 (ru) 2017-05-12
KR20170137962A (ko) 2017-12-13
JP6535780B2 (ja) 2019-06-26
CN105847837A (zh) 2016-08-10
MX2013000666A (es) 2013-02-26
DK3661210T3 (da) 2023-09-11
CA2805735C (en) 2016-02-09
ES2887307T3 (es) 2021-12-22
RU2685388C1 (ru) 2019-04-17
CN105898327B (zh) 2019-03-01
CA3102661C (en) 2022-05-17
PL3661210T3 (pl) 2023-11-06
TW201507445A (zh) 2015-02-16
KR20160030322A (ko) 2016-03-16
KR20170044764A (ko) 2017-04-25
ES2955687T3 (es) 2023-12-05
MX2019010472A (es) 2019-10-15

Similar Documents

Publication Publication Date Title
JP6535780B2 (ja) 画像予測復号装置、及び、画像予測復号方法
US11303917B2 (en) Image encoding and decoding method with a merge flag and motion vectors

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190603

R150 Certificate of patent or registration of utility model

Ref document number: 6535780

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250