JPWO2006019093A1 - 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム - Google Patents

画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム Download PDF

Info

Publication number
JPWO2006019093A1
JPWO2006019093A1 JP2006531804A JP2006531804A JPWO2006019093A1 JP WO2006019093 A1 JPWO2006019093 A1 JP WO2006019093A1 JP 2006531804 A JP2006531804 A JP 2006531804A JP 2006531804 A JP2006531804 A JP 2006531804A JP WO2006019093 A1 JPWO2006019093 A1 JP WO2006019093A1
Authority
JP
Japan
Prior art keywords
motion vector
image
encoding
information
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006531804A
Other languages
English (en)
Other versions
JP5052134B2 (ja
Inventor
木全 英明
英明 木全
正樹 北原
正樹 北原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2006531804A priority Critical patent/JP5052134B2/ja
Publication of JPWO2006019093A1 publication Critical patent/JPWO2006019093A1/ja
Application granted granted Critical
Publication of JP5052134B2 publication Critical patent/JP5052134B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]

Abstract

過去に符号化したフレームの画像情報から予測画像を作成して領域毎に画像情報を符号化する画像符号化において符号化効率を向上させる。動きベクトル蓄積メモリ(107)に予め複数の動きベクトルの候補を蓄積しておく。動きベクトル選択部(109)は,動きベクトル蓄積メモリ(107)に予め蓄積しておいた複数の動きベクトルから,使用する動きベクトルを選択する。予測画像作成部(104)は,選択した動きベクトルを使って参照画像から予測画像を作成する。差分符号化部(103)は,現領域の画像情報と予測画像との差分を符号化する。動きベクトル指定符号化部(110)は,動きベクトル選択部(109)で選択する動きベクトルを指定する情報を符号化する。

Description

本発明は,フレーム間予測符号化方式を使った,複数フレームの画像符号化の技術に関するものである。
本願は,2004年8月16日に出願された特願2004−236520号に対して優先権を主張するものであって,その内容をここに援用する。
MPEG−1,MPEG−2や,H.261,H.263といった国際標準動画像符号化では,各フレームの出力時刻を符号化する。これらの時刻情報はTR(Temporal Reference)と呼ばれ,フレーム毎に固定長符号化される。システムで基準となる時間間隔を予め設定しておき,その時間間隔とTRの積でシーケンス先頭からの時刻を示す。エンコーダでは,入力画像の時刻情報をTRに設定して各フレームを符号化し,デコーダでは,各フレームの復号画像をTRで指定された時刻に出力する。
他方,一般的に動画像符号化では時間方向の相関を使って高い符号化効率を実現するため,フレーム間予測符号化を用いている。フレームの符号化モードには,フレーム間の相関を使わずに符号化するIフレームと,過去に符号化した1フレームから予測するPフレームと,過去に符号化した2フレームから予測することができるBフレームがある。
Bフレームでは,参照画像メモリに2フレーム分の復号画像を蓄積しておく必要がある。特に,映像符号化方式H.263とH.264では,参照画像メモリに2フレーム以上の複数フレーム分の復号画像を蓄積しておき,そのメモリから参照画像を選択して予測することができる。参照画像はブロック毎に選択することができ,参照画像を指定する参照画像指定情報を符号化する。参照画像メモリには,短時間用(STRM)と長時間用(LTRM)があり,STRMには現フレームの復号画像を蓄積していき,LTRMにはSTRMに蓄積されている画像を選択して蓄積する。LTRMとSTRMの制御方法について記載している文献としては,例えば下記の非特許文献1が挙げられる。
MPEG−1,MPEG−2のBフレームでは,より過去のフレームから予測する方法を前方向フレーム間予測と呼び,より未来のフレームから予測する方法を後方向フレーム間予測と呼ぶ。後方向フレーム間予測における参照フレームの表示時刻は,現フレームよりも未来である。この場合には,現フレームを表示した後に後方向フレーム間予測の参照フレームを出力することになる。Bフレームで2フレームから予測する場合(両方向フレーム間予測)には,2フレームからの画像情報を補間して1フレーム分の画像情報を作成し,これを予測画像とする。
図1に,後方向フレーム間予測における参照フレームの表示時刻が未来の場合の,動画像の予測関係の例を示す。第1フレームから第7フレームの符号化モードをIBBPBBPの順序で符号化する場合には,図1の上側に示す予測関係(IBBPBBP)があるため,実際に符号化する場合には,図1の下側に示すように,1423756の順序でフレームを符号化する。この場合の符号化されるTRの順序は,符号化フレームと同様に1423756に対応した値となる。
H.264のBフレームでは,後方向フレーム間予測の概念をMPEG−1,MPEG−2よりも拡張しており,後方向フレーム間予測における参照フレームの表示時刻は,現フレームよりも過去であってもよい。この場合には,後方向フレーム間予測の参照フレームの方を先に出力することになる。上記したが,H.264では参照画像メモリに複数の復号画像を蓄積することができる。そこで前方向フレーム間予測用の参照画像指定情報L0と,後方向フレーム間予測用の参照画像指定情報L1を定義しておき,それぞれ独立に前方向フレーム間予測用の参照画像と後方向フレーム間予測用の参照画像を指定する。
ブロック毎に参照画像を指定するため,まずブロックの予測モード(前方向フレーム間予測または後方向フレーム間予測または両方向フレーム間予測)を符号化しておき,予測モードが前方向フレーム間予測の場合には,参照画像指定情報L0を符号化し,後方向フレーム間予測の場合には,参照画像指定情報L1を符号化し,両方向フレーム間予測の場合には,参照画像指定情報L0と参照画像指定情報L1とを符号化する。
このように定義すると,後方向フレーム間予測における参照フレームの表示時刻は,現フレームよりも未来である必要は無い。H.264のBフレームでは,このように後方向フレーム間予測も過去のフレームを参照画像に指定でき,さらに指定はブロック単位に変更できるため,両方向フレーム間予測の場合を除いて,Pフレームと同様な予測画像を作成することができる。
図2に,後方向フレーム間予測における参照フレームの表示時刻が過去の場合の,動画像の予測関係の例を示す。図1の場合と異なり,第1フレームから第7フレームの符号化モードをIBBPBBPの順序で符号化する場合であっても,図2の上側に示す予測関係(IBBPBBP)があるため,図2の下側に示すように1423567の順序でフレームを符号化する。
Bフレームの動きベクトル符号化方法として,時間ダイレクトモード手法が提案されている。この技術は,例えば国際標準方式H.264に採用されている。これは符号化順序で直近のPフレームの動きベクトルを蓄積しておき,その動きベクトル情報を時間間隔でスケールして動きベクトルを算出する方法である。
例えば図3に示すフレームa,b,cについて,フレームa,フレームc,フレームbの順序で符号化し,フレームaとフレームcがPフレームで符号化され,フレームbがBフレームで符号化されているとする。Pフレームの同位置ブロックの動きベクトルをmvとすると,Bフレームの現ブロックの前方向予測動きベクトルfmvと後方向予測動きベクトルbmvは,式(1)によって計算される。
fmv=(mv×TRab)/TRac
bmv=(mv×TRbc)/TRac …… (1)
TRab,TRbc,TRacは,それぞれフレームaとフレームbの時間間隔,フレームbとフレームcの時間間隔,フレームaとフレームcの時間間隔を示す。これを応用した技術として,下記の非特許文献2では,符号化順序で直近のPフレームの動きベクトルを蓄積しておき,現Pフレームの動きベクトルとして利用する方法が提案されている。これらの手法によれば,連続して符号化する複数フレームの間に動きの連続性がある場合に,動きベクトルを符号化効率よく符号化することができる。
このようなBフレームの復号画像を参照画像メモリに蓄積しない構成にすると,Bフレームを復号しなくても,次のフレームを復号することができる。これによりBフレームを復号しないことでフレームレートを下げることができ,時間スケーラブル機能を実現することができる。
またH.264では,図4に示すように,マクロブロックを2分割または4分割し,4分割した場合には,縦横8画素の領域をさらに2分割または4分割できる木構造を構成することができる。この分割した領域毎に異なる動きベクトルを持つことが可能である。参照画像はマクロブロックを2分割または4分割した単位で選択可能である。このようなマクロブロックの分割パターンは符号化モード情報として符号化される。
また,時間スケーラブル符号化を実現する手法として,MCTF(Motion Compensated Temporal Filtering)符号化がある。このMCTF符号化方法は,映像データに対して時間方向にフィルタリング(サブバンド分割)し,映像データの時間方向の相関を利用して,映像データのエネルギーをコンパクト化する手法である。
図5に時間方向で低域をオクターブ分割する概念図を示す。GOP(Group Of Picture)を設定してGOP内で時間方向にフィルタリングする。時間方向のフィルタを適用するにあたり,動き補償を行っても良い。時間方向のフィルタには,Haar基底が一般的に提案されている(非特許文献3参照)。
また,Haar基底には一般的に,図6A〜図6Bに示すようなリフティング・スキーム(Lifting Scheme)を適用できる。この手法により,演算量を少なくフィルタリングすることができる。このリフティング・スキームにおいて,「predict 」は通常の予測符号化と同様な処理であり,予測画像と原画像との残差を求める処理である。
Thomas Wiegand,Xiaozheng Zhang ,and Bernd Girod, "Long-Term Memory Motion-Compensated Prediction," IEEE Transactions on Circuits and Systems for Video Technology ,vol.9 ,no.1,pp.70-84,Feb. 1999 Alexis Michael Tourapis, "Direct Prediction for Predictive(P) and Bidirectionally Predictive(B) frames in Video Coding," JVT-C128 ,Joint Video Team(JVT) of ISO/IEC MPEG&ITU-T VCEG Meeting,May ,2002 Jens-Rainer Ohm, "Three-Dimensional Subband Coding with Motion Compensation," IEEE Trans. Image Proc. ,vol.3 ,no.5,pp.559-571,1994
従来のダイレクトモードでは,直前に符号化したフレームの動きベクトルを蓄積しておき,その動きベクトルを時間間隔でスケールして動きベクトルを算出する。そのためフレーム間で動きの連続性が無い場合には,効率の良い動きベクトルを算出することができない。
本発明は上記問題点の解決を図り,画像符号化において予め蓄積しておいた動きベクトル候補から動きベクトルを選択し,符号化効率を向上させることを目的とする。
以上の課題を解決するため,第1の発明は,過去に符号化したフレームの画像情報から予測画像を作成して,領域毎に画像情報を符号化する画像符号化方法であって,予め蓄積した複数の動きベクトルから,動きベクトルを選択する動きベクトル選択ステップと,前記動きベクトル選択ステップで選択した動きベクトルを使って参照画像から予測画像を作成する予測画像作成ステップと,現領域の画像情報と予測画像との差分を符号化する差分符号化ステップとを実行することを特徴とする画像符号化方法である。
第2の発明は,上記第1の発明における画像符号化方法において,前記動きベクトル選択ステップは,画面内の領域の位置情報に従って,前記複数の動きベクトルから動きベクトルを選択することを特徴とする。
第3の発明は,上記第1または第2の発明における画像符号化方法において,前記動きベクトル選択ステップで選択する動きベクトルを指定する情報を符号化する動きベクトル指定符号化ステップを実行することを特徴とする。
第4の発明は,過去に符号化した複数のフレームの画像情報から参照画像を選択し,予測画像を作成して,領域毎に画像情報を符号化する画像符号化方法であって,予め蓄積した複数の動きベクトルと,参照画像を指定する参照画像指定情報との対応関係を設定する参照動きベクトル設定ステップと,参照画像を選択する参照画像選択ステップと,参照画像を指定する参照画像指定情報を符号化する参照画像指定符号化ステップと,予め蓄積した複数の動きベクトルから,参照画像指定情報に対応した動きベクトルを選択する動きベクトル選択ステップと,前記動きベクトル選択ステップで選択した動きベクトルを使って参照画像から予測画像を作成する予測画像作成ステップと,現領域の画像情報と予測画像との差分を符号化する差分符号化ステップとを実行することを特徴とする画像符号化方法である。
第5の発明は,上記第1,第3または第4の発明における画像符号化方法において,現領域の画像情報と参照画像を使って動きベクトルを探索する動き探索ステップと,前記動きベクトル選択ステップで選択した動きベクトルと前記動き探索ステップで得られる動きベクトルのうち,いずれかを選択する探索動きベクトル選択ステップと,前記探索動きベクトル選択ステップにおいて,前記動き探索ステップで得られる動きベクトルを選択した場合に,その動きベクトルを符号化する探索動きベクトル符号化ステップと,前記探索動きベクトル選択ステップで選択した動きベクトルを指定する情報を符号化する探索動きベクトル指定符号化ステップとを実行することを特徴とする。
第6の発明は,上記第1,第3または第4の発明における画像符号化方法において,現領域の画像情報と参照画像を使って動きベクトルを探索する動き探索ステップと,前記動きベクトル選択ステップで選択した動きベクトルと前記動き探索ステップで得られる動きベクトルの差分を符号化する差分動きベクトル符号化ステップとを実行することを特徴とする。
第7の発明は,上記第5または第6の発明における画像符号化方法において,動きベクトルを蓄積する動きベクトル蓄積ステップと,動きベクトルを蓄積するかどうかを決定する動きベクトル蓄積決定ステップと,動きベクトルを蓄積するかどうかを指定する情報を符号化する動きベクトル蓄積指定符号化ステップとを実行することを特徴とする。
第8の発明は,上記第5または第6の発明における画像符号化方法において,動きベクトルを蓄積する動きベクトル蓄積ステップと,動きベクトルスケール情報を使って動きベクトルの値を変更する動きベクトルスケールステップとを実行することを特徴とする。
第9の発明は,上記第8の発明における画像符号化方法において,動きベクトルスケール情報を符号化するスケール符号化ステップを実行することを特徴とする。
第10の発明は,過去に復号したフレームの画像情報から予測画像を作成して,領域毎に画像情報を復号する画像復号方法であって,予め蓄積した複数の動きベクトルから,動きベクトルを選択する動きベクトル選択ステップと,前記動きベクトル選択ステップで選択した動きベクトルを使って参照画像から予測画像を作成する予測画像作成ステップと,現領域の画像情報と予測画像との差分を復号して復号画像を作成する復号画像作成ステップとを実行することを特徴とする画像復号方法である。
第11の発明は,上記第10の発明における画像復号方法において,前記動きベクトル選択ステップは,画面内の領域の位置情報に従って,前記複数の動きベクトルから動きベクトルを選択することを特徴とする。
第12の発明は,上記第10または第11の発明における画像復号方法において,前記動きベクトル選択ステップで選択する動きベクトルを指定する情報を復号する動きベクトル指定復号ステップを実行することを特徴とする。
第13の発明は,過去に復号した複数のフレームの画像情報から参照画像を選択し,予測画像を作成して,領域毎に画像情報を復号する画像復号方法であって,予め蓄積した複数の動きベクトルと参照画像を指定する参照画像指定情報との対応関係を設定する参照動きベクトル設定ステップと,参照画像を指定する参照画像指定情報を復号する参照画像指定復号ステップと,参照画像を選択する参照画像選択ステップと,予め蓄積した複数の動きベクトルから,参照画像指定情報に対応した動きベクトルを選択する動きベクトル選択ステップと,前記動きベクトル選択ステップで選択した動きベクトルを使って参照画像から予測画像を作成する予測画像作成ステップと,現領域の画像情報と予測画像との差分を復号して復号画像を作成する復号画像作成ステップとを実行することを特徴とする画像復号方法である。
第14の発明は,上記第10,第12または第13の発明における画像復号方法において,動きベクトルが符号化されているかどうかを指定する情報を復号する探索動きベクトル指定復号ステップと,動きベクトルが符号化されている場合に動きベクトルを復号する探索動きベクトル復号ステップとを実行することを特徴とする。
第15の発明は,上記第10,第12または第13の発明における画像復号方法において,差分動きベクトルを復号する差分動きベクトル復号ステップと,差分動きベクトルと前記動きベクトル選択ステップで選択した動きベクトルとから動きベクトルを算出する差分動きベクトル算出ステップとを実行することを特徴とする。
第16の発明は,上記第14または第15の発明における画像復号方法において,動きベクトルを蓄積する動きベクトル蓄積ステップと,動きベクトルを蓄積するかどうかを指定する情報を復号する動きベクトル蓄積指定復号ステップとを実行することを特徴とする。
第17の発明は,上記第14または第15の発明における画像復号方法において,動きベクトルを蓄積する動きベクトル蓄積ステップと,動きベクトルスケール情報を使って動きベクトルの値を変更する動きベクトルスケールステップとを実行することを特徴とする。
第18の発明は,上記第17の発明における画像復号方法において,動きベクトルスケール情報を復号するスケール復号ステップを実行することを特徴とする。
第1の発明による画像符号化方法あるいは第10の発明による画像復号方法によれば,予め蓄積しておいた複数の動きベクトルから,使用する動きベクトルを選択して予測画像を作成することができる。従来のダイレクトモードでは,過去に符号化したフレームの動きベクトルを1フレーム分蓄積しておき,画面内の同位置の領域の動きベクトルを使用して予測画像を作成するため,動きベクトルを選択することはできなかった。本発明によれば動きベクトル候補から動きベクトルを選択できるため,符号化効率を向上させることができる。また,この方法によれば,連続するフレーム間で動きの連続性が無い場合であっても,複数の動きベクトル候補から動きベクトルを選択するため,効率の良い動きベクトルを選択することができる。
動きベクトルは符号化対象フレームを符号化する前に予め蓄積しても良いし,符号化対象領域を符号化する前に予め蓄積しても良い。例えば,一定速度で移動するカメラで撮影した動画像を符号化する場合には,予めフレーム間の画像内容の移動距離を計測しておき,それを動きベクトルとして蓄積しておいても良い。また,複数のカメラで撮影した場合にはカメラ間の空間的な距離を計測しておき,それを動きベクトルとして蓄積しておいても良い。このように予め測定可能な動き量が得られる場合には,その動き量を動きベクトルとして蓄積しても良い。そしてこのような動きベクトル候補を複数持っておき,これを領域ごとに選択する。
複数の予め蓄積された動きベクトルから,一つの動きベクトルを選択する基準として,例えば領域の画面内での位置を利用しても良い。これは,第2の発明による画像符号化方法あるいは第11の発明による画像復号方法により実現できる。例えば,カメラの動き情報から,動きベクトルを算出する場合には,画面の上側と下側とでは動きベクトルが異なる場合がある。このような場合に,予め画面の上側と下側に合わせて動きベクトルを算出しておいてメモリに蓄積しておけば,各領域を符号化する際に,領域の位置情報を使って複数の動きベクトルから一つの動きベクトルを選択すると効率よく符号化することができる。また,動きベクトルを選択する基準として,スケーラブル符号化の場合には,符号化対象のフレームの属するレイヤ情報を利用しても良い。
例えば,図7に示すような,基本レイヤと拡張レイヤを使って時間スケーラブル符号化を行う場合には,各レイヤに対応した動きベクトルを蓄積するメモリを用意しておき,各フレームを符号化する際に,そのフレームの属するレイヤ用のメモリに蓄積されている動きベクトルを選択しても良い。この方法は,図5に示すMCTF符号化でも同様であり,各レイヤに対応した動きベクトルメモリを用意して,レイヤ情報を使って動きベクトルを選択すれば良い。
また,このような動きベクトル情報をフレームまたは複数の領域ごとに符号化しても良い。この動きベクトル情報は画像復号側で復号して蓄積しておく。
第3の発明による画像符号化方法あるいは第12の発明による画像復号方法によれば,複数の動きベクトルから選択した,動きベクトルを指定する情報を符号化することにより,画像符号化側で符号化効率の良い動きベクトルを選択することができる。
また,通常動きベクトル符号化では,縦成分と横成分を独立に符号化するため2シンボルを符号化するが,このように複数の動きベクトルから一つを選択する場合には動きベクトルを指定する情報を符号化するため,1シンボルのみを符号化することになり,符号化効率が向上する。
第4の発明による画像符号化方法あるいは第13の発明による画像復号方法によれば,複数のフレームから参照画像を選択して符号化する場合に,その参照画像を指定する情報を使って,動きベクトルも同時に指定でき,動きベクトルを指定する情報の符号量を削減することができる。予め蓄積する動きベクトルは複数のカテゴリに分類されており,各カテゴリは各参照画像に対応する。よって,参照画像を指定する情報に対して,一つの動きベクトルのカテゴリが対応付けられる。このカテゴリに属する動きベクトルのうち,従来のダイレクトモードと同様に,フレーム内の同位置の動きベクトルを選択する。なお,参照動きベクトル設定ステップは各領域で行う必要は無く,フレームまたは複数の領域ごとに一度実行するだけで良い。
参照画像を指定する参照画像指定情報と参照画像との対応関係は複数設定することが可能であり,例えばBフレームでは,前方向予測用の対応関係と,後方向予測用の対応関係をそれぞれ別に設定することができる。この場合,参照動きベクトル設定ステップは,前方向予測用と後方向予測用で二回実行する。
第5の発明による画像符号化方法あるいは第14の発明による画像復号方法によれば,動き探索を行って動きベクトルを求めて,この動きベクトルと予め蓄積する動きベクトルのうちから,動きベクトルを一つ選択して符号化する。これにより,予め蓄積した動きベクトルでは符号化効率が悪い領域においても,符号化効率を向上させることができる。探索動きベクトル指定符号化ステップでは,探索した動きベクトルを使用するのか,予め蓄積した動きベクトルを使用するのかを指定する情報を符号化するが,これを単独で符号化しても良いし,符号化モードと組み合わせて符号化しても良い。符号化モードでは,領域をイントラ符号化するのかどうか,または領域を再分割するかどうか,Bフレームの場合には予測方向はどちらか,などの情報が含まれている。この符号化モードの一つとして,例えば予め蓄積した動きベクトルを使用するかどうかを示しても良い。また,動きベクトル指定符号化ステップで,予め蓄積した動きベクトルのうちから選択する動きベクトルを指定する情報を符号化する場合には,この情報に,動き探索で得られる動きベクトルを選択するかどうかを指定する情報を組み合わせても良い。例えば,予め蓄積した動きベクトルが2つあり,これらのうちから選択する動きベクトルを指定する情報として,それぞれ数値0と1を適用するとすると,動き探索で得られる動きベクトルを数値2として指定するようにしても良い。
第6の発明による画像符号化方法あるいは第15の発明による画像復号方法によれば,動き探索を行って動きベクトルを求めて,この動きベクトルと予め蓄積する動きベクトルとの差分を符号化することにより,予め蓄積した動きベクトルでは符号化効率が悪い場合に,効率の良い動きベクトルを設定することができる。
第7の発明による画像符号化方法あるいは第16の発明による画像復号方法によれば,動き探索を行って求めた動きベクトルを蓄積することができる。これにより,予め蓄積した動きベクトルを更新することができる。動きベクトルを更新する方法として,例えば最も古く蓄積されている動きベクトルを廃棄して,新規に動きベクトルを蓄積しても良い。また,第4の発明による画像符号化方法あるいは第13の発明による画像復号方法のように,参照画像を指定する情報を使って,動きベクトルも同時に指定する場合には,選択される参照画像内で同位置の動きベクトルを廃棄して,新規に動きベクトルを蓄積しても良い。さらに,動き探索を行って求めた動きベクトルを蓄積するかどうかを判定することができる。蓄積した動きベクトルは次フレーム以後で使用されるため,次フレーム以後の符号化効率を向上できる動きベクトルのみを蓄積すると,動きベクトルを蓄積するメモリ量を削減することができる。
第8の発明による画像符号化方法あるいは第17の発明による画像復号方法によれば,動き探索を行って求めた動きベクトルを蓄積する場合に,動きベクトルスケール情報を使って値を変更してから蓄積することができる。例えば動き探索では1/4画素精度の動きベクトルを求めておき,蓄積する際には整数画素精度の動きベクトルに変更しても良い。この時,整数画素以下の精度の動きベクトル情報が失われるが,動きベクトルを表現する数値を小さくすることができる。これにより,動きベクトルを蓄積するメモリ量を削減することができる。
第9の発明による画像符号化方法あるいは第18の発明による画像復号方法によれば,動きベクトルスケール情報を符号化することにより,蓄積する動きベクトルの精度をフレームまたは領域ごとに変更することが可能である。これにより,より適切に動きベクトルを蓄積するメモリ量を削減することができる。例えば,テクスチャの細かな領域では1/4画素のような細かな精度の動きベクトルを蓄積し,テクスチャの無い領域では整数画素のような荒い精度の動きベクトルを蓄積しても良い。
本発明での差分符号化ステップでは,差分情報をロスレス符号化しても良いし,ロッシー符号化しても良い。
本発明によれば,予め蓄積しておいた複数の動きベクトルから,使用する動きベクトルを選択して予測画像を作成することができる。従来のダイレクトモードでは,過去に符号化したフレームの動きベクトルを1フレーム分蓄積しておき,画面内の同位置の領域の動きベクトルを使用して予測画像を作成するため,動きベクトルを選択することはできなかった。本発明によれば動きベクトル候補から動きベクトルを選択できるため,符号化効率を向上させることができる。また,この方法によれば,連続するフレーム間で動きの連続性が無い場合であっても,複数の動きベクトル候補から動きベクトルを選択するため,効率の良い動きベクトルを選択することができる。
予測関係の例1を示す図であって,上側はIBBPBBPの予測関係を示し,下側は符号化順序を示している。 予測関係の例2を示す図であって,上側はIBBPBBPの予測関係を示し,下側は符号化順序を示している。 ダイレクトモードでの動きベクトルを説明する図である。 H.264のブロック分割の模式図である。 MCTF符号化における時間方向のフィルタを説明する図である。 Haar基底でのリフティング・スキーム(Lifting Scheme)を説明する図であって,分析(符号化)側処理を示したものである。 Haar基底でのリフティング・スキームを説明する図であって,合成(復号)側処理を示したものである。 スケーラブル符号化のフレーム構成例を示す図である。 本発明の第1の実施の形態による画像符号化装置の構成を示すブロック図である。 本発明の第1の実施の形態による画像復号装置の構成を示すブロック図である。 本発明の第2の実施の形態による画像符号化装置の構成を示すブロック図である。 本発明の第2の実施の形態による画像復号装置の構成を示すブロック図である。 本発明の第3の実施の形態による画像符号化装置の構成を示すブロック図である。 本発明の第3の実施の形態による画像復号装置の構成を示すブロック図である。 本発明の第4の実施の形態による第3の実施の形態をもとにした画像符号化装置の構成を示すブロック図であって,スケール情報の符号化を行う場合の構成を示したものである。 本発明の第4の実施の形態による第3の実施の形態をもとにした画像復号装置の構成を示すブロック図であって,スケール情報の復号を行う場合の構成を示したものである。 本発明の第4の実施の形態による第1の実施の形態をもとにした画像符号化装置の構成を示すブロック図であって,スケール情報の符号化を行う場合の構成を示したものである。 本発明の第4の実施の形態による第1の実施の形態をもとにした画像復号装置の構成を示すブロック図であって,スケール情報の復号を行う場合の構成を示したものである。 本発明の第4の実施の形態による第2の実施の形態をもとにした画像符号化装置の構成を示すブロック図であって,スケール情報の符号化を行う場合の構成を示したものである。 本発明の第4の実施の形態による第2の実施の形態をもとにした画像復号装置の構成を示すブロック図であって,スケール情報の復号を行う場合の構成を示したものである。 本発明の第4の実施の形態による第3の実施の形態をもとにした画像符号化装置の構成を示すブロック図であって,スケール情報の符号化を行わない場合の構成を示したものである。 本発明の第4の実施の形態による第3の実施の形態をもとにした画像復号装置の構成を示すブロック図であって,スケール情報の復号を行わない場合の構成を示したものである。 本発明の第4の実施の形態による第1の実施の形態をもとにした画像符号化装置の構成を示すブロック図であって,スケール情報の符号化を行わない場合の構成を示したものである。 本発明の第4の実施の形態による第1の実施の形態をもとにした画像復号装置の構成を示すブロック図であって,スケール情報の復号を行わない場合の構成を示したものである。 本発明の第4の実施の形態による第2の実施の形態をもとにした画像符号化装置の構成を示すブロック図であって,スケール情報の符号化を行わない場合の構成を示したものである。 本発明の第4の実施の形態による第2の実施の形態をもとにした画像復号装置の構成を示すブロック図であって,スケール情報の復号を行わない場合の構成を示したものである。 本発明の第5の実施の形態による画像符号化装置の構成を示すブロック図である。 本発明の第5の実施の形態による画像復号装置の構成を示すブロック図である。 本発明の第6の実施の形態による画像符号化装置の構成を示すブロック図である。 本発明の第6の実施の形態による画像復号装置の構成を示すブロック図である。 本発明の第9の実施の形態による画像符号化装置の構成を示すブロック図である。 本発明の第9の実施の形態による画像復号装置の構成を示すブロック図である。 本発明の第9の実施の形態において,複数の動きベクトルから符号量が最小となるように動きベクトルを選択するようにした場合の画像符号化装置の構成を示すブロック図である。 本発明の第9の実施の形態において,複数の動きベクトルから符号量が最小となるように動きベクトルを選択するようにした場合の画像復号装置の構成を示すブロック図である。 本発明の第10の実施の形態による画像符号化装置の構成を示すブロック図である。 本発明の第10の実施の形態による画像復号装置の構成を示すブロック図である。
符号の説明
101 画像入力部
102 動き探索部
103 差分符号化部
104 予測画像作成部
105 復号部
106 参照画像メモリ
107 動きベクトル蓄積メモリ
108 探索動きベクトル選択部
109 動きベクトル選択部
110 動きベクトル指定符号化部
111 探索動きベクトル指定符号化部
112 探索動きベクトル符号化部
113 符号量計測部
114 参照画像選択部
115 参照画像指定符号化部
116 参照動きベクトル設定部
117 差分動きベクトル符号化部
118 動きベクトル蓄積部
119 動きベクトル蓄積決定部
120 動きベクトル蓄積指定符号化部
121 動きベクトルスケール部
122 スケール符号化部
123 参照動きベクトル対応符号化部
124 動きベクトル生成部
125 生成動きベクトル符号化部
201 復号画像作成部
202 探索動きベクトル復号部
203 探索動きベクトル指定復号部
204 動きベクトル指定復号部
205 予測画像作成部
206 参照画像メモリ
207 動きベクトル蓄積メモリ
208 探索動きベクトル選択部
209 動きベクトル選択部
210 参照画像選択部
211 参照画像指定復号部
216 参照動きベクトル設定部
217 差分動きベクトル復号部
218 差分動きベクトル算出部
219 動きベクトル蓄積部
220 動きベクトル蓄積指定復号部
221 動きベクトルスケール部
222 スケール復号部
223 参照動きベクトル対応復号部
224 生成動きベクトル復号部
図面を用いて本発明の画像符号化装置と画像復号装置の実施の形態を説明する。画像を複数のブロックに分割して符号化する場合の手順を示す。3つの動きベクトルを蓄積しておき,それらから1つを選択して符号化するものとする。
〔第1の実施の形態〕
第1の実施の形態に係る画像符号化装置の説明を行う。図8に装置概要を示す。画像情報を取り込む画像入力部101と,予測画像を作成する予測画像作成部104と,入力画像情報と予測画像との差分を符号化する差分符号化部103と,動き探索を行う動き探索部102と,動きベクトルを蓄積する動きベクトル蓄積メモリ107と,動きベクトル蓄積メモリ107から1つの動きベクトルを選択する動きベクトル選択部109と,動きベクトル選択部109で選択した動きベクトルを指定する動きベクトル指定情報を符号化する動きベクトル指定符号化部110と,動き探索部102で探索された動きベクトルまたは動きベクトル選択部109で選択した動きベクトルのいずれかを選択する探索動きベクトル選択部108と,探索動きベクトル選択部108で選択した動きベクトルを指定する探索動きベクトル指定情報を符号化する探索動きベクトル指定符号化部111と,動き探索部102で探索された動きベクトルを符号化する探索動きベクトル符号化部112と,復号画像を蓄積する参照画像メモリ106と,差分符号化部103で作成された差分符号化データを復号して復号画像を作成する復号部105と,差分符号化部103で作成された差分符号化データの符号量と動きベクトルの符号量の合計を計測する符号量計測部113とを備える。
動きベクトル蓄積メモリ107には,予め3つの動きベクトルが蓄積されているものとする。また,動きベクトル指定符号化部110では,動きベクトル蓄積メモリ107に蓄積された3つの動きベクトルを指定する動きベクトル指定情報について,それぞれ0,10,11の符号を出力するものとする。また,探索動きベクトル指定符号化部111では,動き探索部102で探索された動きベクトルの場合に0を,動きベクトル選択
部109で選択した動きベクトルの場合に1を出力するものとする。探索動きベクトル符号化部112では,動きベクトルの各成分をMPEG−4で採用されている動きベクトル符号化方法を使って符号化するものとする。また,前フレームが既に符号化されており,参照画像メモリ106に復号画像が蓄積されているものとする。
このような前提で入力画像を次のように符号化する。まず,画像入力部101はフレームを取り込み,マクロブロックに分割する。次にマクロブロック毎に次のように符号化する。
動き探索部102は,現マクロブロックについて動き探索を行う。探索動きベクトル選択部108は,動き探索で得られた動きベクトルを選択する。予測画像作成部104は,動きベクトルを用いて予測画像を作成する。差分符号化部103は,現画像と予測画像の差分を符号化する。符号量計測部113は,発生符号量を計測する。
次に,動きベクトル選択部109は,動きベクトル蓄積メモリ107から第1の動きベクトルを選択する。探索動きベクトル選択部108は,動きベクトル選択部109で選択された動きベクトルを選択する。予測画像作成部104は,動きベクトルを用いて予測画像を作成する。差分符号化部103は,現画像と予測画像の差分を符号化する。符号量計測部113は,発生符号量を計測する。
次に,動きベクトル選択部109は,動きベクトル蓄積メモリ107から第2の動きベクトルを選択する。探索動きベクトル選択部108は,動きベクトル選択部109で選択された動きベクトルを選択する。予測画像作成部104は,動きベクトルを用いて予測画像を作成する。差分符号化部103は,現画像と予測画像の差分を符号化する。符号量計測部113は,発生符号量を計測する。
次に,動きベクトル選択部109は,動きベクトル蓄積メモリ107から第3の動きベクトルを選択する。探索動きベクトル選択部108は,動きベクトル選択部109で選択された動きベクトルを選択する。予測画像作成部104は,動きベクトルを用いて予測画像を作成する。差分符号化部103は,現画像と予測画像の差分を符号化する。符号量計測部113は,発生符号量を計測する。
探索動きベクトル選択部108は,符号量計測部113で得られた発生符号量が最も少ない場合の動きベクトルを選択する。動きベクトル選択部109で選択された動きベクトルが選択される場合には,さらに動きベクトル選択部109は,符号量計測部113で得られた発生符号量が最も少ない場合の動きベクトルを選択する。
以上により得られた動きベクトルを用いて,予測画像作成部104は予測画像を作成し,差分符号化部103は差分を符号化する。探索動きベクトル指定符号化部111は,探索動きベクトル指定情報を符号化する。探索動きベクトル指定情報が動きベクトル選択部109で選択される動きベクトルを指定する場合には,動きベクトル指定符号化部110は,動きベクトル指定情報を符号化する。探索動きベクトル指定情報が動き探索部102で得られる動きベクトルを指定する場合には,探索動きベクトル符号化部112は,動きベクトルを符号化する。
以上の処理を全てのマクロブロックで実行する。復号部105は,符号化された差分を復号し,予測画像を使って復号画像を作成し,復号画像を参照画像メモリ106に蓄積する。以上により,現フレームを符号化することができる。
次に,復号装置の説明を行う。図9に装置概要を示す。予測画像を作成する予測画像作成部205と,差分情報を復号して予測画像を使って復号画像を作成する復号画像作成部201と,動きベクトルを蓄積する動きベクトル蓄積メモリ207と,動きベクトル指定情報を復号する動きベクトル指定復号部204と,動きベクトル指定情報を使って動きベクトル蓄積メモリ207から1つの動きベクトルを選択する動きベクトル選択部209と,探索動きベクトル指定情報を復号する探索動きベクトル指定復号部203と,探索動きベクトル指定情報を使って動きベクトルを選択する探索動きベクトル選択部208と,動きベクトルを復号する探索動きベクトル復号部202と,復号画像を蓄積する参照画像メモリ206とを備える。
動きベクトル蓄積メモリ207には,予め3つの動きベクトルが蓄積されているものとする。また,前フレームは既に復号されており,参照画像メモリ206に復号画像が蓄積されているものとする。
このような前提で前記画像符号化装置で符号化された符号化データを次のように復号する。まず,マクロブロック毎に次のように復号画像を作成する。探索動きベクトル指定復号部203は,探索動きベクトル指定情報を復号する。探索動きベクトル選択部208は,探索動きベクトル指定情報を使って,動きベクトルを復号するか,動きベクトル指定情報を復号するかを選択する。動きベクトルを復号する場合には,探索動きベクトル復号部202は,動きベクトルを復号する。動きベクトル指定情報を復号する場合には,動きベクトル指定復号部204は,動きベクトル指定情報を復号し,動きベクトル選択部209は,動きベクトル指定情報を使って動きベクトル蓄積メモリ207から1つの動きベクトルを選択する。そして,予測画像作成部205は,動きベクトルを使って予測画像を作成し,復号画像作成部201は,差分情報を復号して予測画像を使って復号画像を作成する。
以上の処理を全てのマクロブロックで実行する。復号画像作成部201は,復号画像を参照画像メモリ206に蓄積する。以上により,現フレームを復号することができる。
本実施の形態によれば,動きベクトル蓄積メモリ107に映像の動き情報を良く反映した動きベクトルが蓄積されている場合であって,動き探索部102で探索される動きベクトルの符号量が多い場合に,動きベクトルを符号化する代わりに動きベクトル指定情報を符号化することにより,動きベクトルの符号量を削減することができる。
〔第2の実施の形態〕
上記第1の実施の形態では,動き探索部102で探索された動きベクトルまたは動きベクトル蓄積メモリ107に蓄積された動きベクトルのいずれかを選択したが,探索された動きベクトルと,動きベクトル蓄積メモリ107に蓄積された動きベクトルとの差分を符号化するようにしても良い。図10及び図11に装置概要を示す。この場合には,図10に示すように,画像符号化装置に探索動きベクトル符号化部112と探索動きベクトル指定符号化部111と探索動きベクトル選択部108を備えず,代わりに動きベクトルの差分を符号化する差分動きベクトル符号化部117を備える。
また,図11に示すように,画像復号装置に探索動きベクトル復号部202と探索動きベクトル指定復号部203と探索動きベクトル選択部208を備えず,差分動きベクトルを復号する差分動きベクトル復号部217と,差分動きベクトルと動きベクトル選択部209で選択した動きベクトルとから動きベクトルを算出する差分動きベクトル算出部218とを備える。
画像符号化装置では,マクロブロック毎に次のようにして動きベクトルを求める。動き探索部102は,現マクロブロックについて動き探索を行う。予測画像作成部104は,探索された動きベクトルを用いて予測画像を作成する。差分符号化部103は,現画像と予測画像の差分を符号化する。そして,動きベクトル選択部109は,動きベクトル蓄積メモリ107から第1の動きベクトルを選択する。差分動きベクトル符号化部117は,動き探索で得られた動きベクトルと第1の動きベクトルとの差分を符号化する。符号量計測部113は,発生符号量を計測する。
動きベクトル選択部109は,動きベクトル蓄積メモリ107から第2の動きベクトルを選択する。差分動きベクトル符号化部117は,動き探索で得られた動きベクトルと第2の動きベクトルとの差分を符号化する。符号量計測部113は,発生符号量を計測する。
動きベクトル選択部109は,動きベクトル蓄積メモリ107から第3の動きベクトルを選択する。差分動きベクトル符号化部117は,動き探索で得られた動きベクトルと第3の動きベクトルとの差分を符号化する。符号量計測部113は,発生符号量を計測する。動きベクトル選択部109は,符号量計測部113で得られた発生符号量が最も少ない場合の動きベクトルを選択する。
画像復号装置では,マクロブロック毎に次のようにして動きベクトルを求める。動きベクトル指定復号部204は,動きベクトル指定情報を復号し,動きベクトル選択部209は,動きベクトル指定情報を使って動きベクトル蓄積メモリ207から1つの動きベクトルを選択する。差分動きベクトル復号部217は,差分動きベクトルを復号し,差分動きベクトル算出部218は,差分動きベクトルと動きベクトル選択部209で選択した動きベクトルとから動きベクトルを作成する。
第1および第2の実施の形態において,画像符号化装置は,動き探索部102で得られる動きベクトルを動きベクトル蓄積メモリ107に上書きで蓄積しても良い。
〔第3の実施の形態〕
以上の実施の形態において,動きベクトル蓄積メモリ107に蓄積するかどうかを指定する情報を符号化しても良い。第1の実施の形態をもとに本実施の形態を実現した場合の装置概要を図12及び図13に示す。この場合には,図12に示すように,動きベクトルを蓄積する動きベクトル蓄積部118と,動きベクトルを蓄積するかどうかを決定する動きベクトル蓄積決定部119と,動きベクトルを蓄積するかどうかを指定する情報を符号化する動きベクトル蓄積指定符号化部120を,図8の構成に加えて新たに備える。
動きベクトル蓄積決定部119では,例えば探索動きベクトル選択部108で,動き探索で得られる動きベクトルが選択される場合に,その動きベクトルを蓄積するように決定する。この動きベクトル蓄積決定部119で動きベクトルを蓄積すると決定した場合には,動きベクトル蓄積部118は,動きベクトル蓄積メモリ107に動きベクトルを蓄積する。動きベクトル蓄積指定符号化部120は,動きベクトルを蓄積するかどうかを指定する情報を符号化する。動きベクトル蓄積指定符号化部120は,マクロブロック毎に動きベクトル蓄積指定情報を符号化しても良いし,スライスやフレーム等の複数マクロブロックを単位に動きベクトル蓄積指定情報を符号化しても良い。
このようにして作成される符号化データを復号するためには,図13に示すように,画像復号装置は,動きベクトルを蓄積する動きベクトル蓄積部219と,動きベクトルを蓄積するかどうかを指定する情報を復号する動きベクトル蓄積指定復号部220を,図9の構成に加えて備える。動きベクトル蓄積指定復号部220は,動きベクトルを蓄積するかどうかを指定する情報を復号し,蓄積すると指定された場合に,動きベクトル蓄積部219は,動きベクトル蓄積メモリ207に動きベクトルを蓄積する。
〔第4の実施の形態〕
以上の実施の形態において,さらに動きベクトル蓄積メモリ107に蓄積する前に,動きベクトルをスケールすることによって動きベクトルの成分の値を小さくして,蓄積に要するメモリ量を減らすことも可能である。第3の実施の形態をもとに本実施の形態を実現した場合の装置概要を図14及び図15に示す。
本実施の形態を実現するためには,図14に示すように,画像符号化装置に,動きベクトルスケール情報を使って動きベクトルの値を変更する動きベクトルスケール部121を備えれば良い。予め精度の低い,例えば整数画素精度にスケールした動きベクトルを動きベクトル蓄積メモリ107に蓄積しておき,動きベクトル選択部109で動きベクトルを選択した後で,動きベクトルスケール部121が動きベクトルをより精度の高い,例えば半画素精度や1/4画素精度の動きベクトルにスケールしても良い。また,動きベクトルを蓄積する場合には,動きベクトル蓄積部118で動きベクトル蓄積メモリ107に動きベクトルを蓄積する前に,動きベクトルスケール部121が動きベクトルを精度の高い半画素精度や1/4画素精度の動きベクトルから精度の低い整数画素精度の動きベクトルにスケールしても良い。
さらに,この動きベクトルのスケール計算に必要な情報である動きベクトルスケール情報を符号化してもよい。動きベクトルスケール情報は,例えば動きベクトルスケール部121が動きベクトルを整数画素精度から半画素精度にスケールする場合には,そのスケールした値を得るための計算式を指定する情報であっても良い。これによって,例えばマクロブロックや複数マクロブロックの単位で,スケールの計算式を変更することが可能である。この場合には,画像符号化装置は,動きベクトルスケール情報を符号化するスケール符号化部122を備える。
一方,図15に示すように,画像復号装置では,動きベクトルスケール情報を使って動きベクトルの値を変更する動きベクトルスケール部221と,動きベクトルスケール情報を復号するスケール復号部222とを備える。動きベクトルスケール部221の動作は,画像符号化装置の動きベクトルスケール部121と同じである。また,スケール復号部222は,動きベクトルのスケール計算に必要な動きベクトルスケール情報を復号して,スケールの計算式を変更する。
なお,上述した説明では、第3の実施の形態をもとに本実施の形態を実現するものとしたが,例えば第1の実施の形態あるいは第2の実施の形態をもとに実現しても良い。第1の実施の形態をもとにした場合の装置概要を図16及び図17に示す。また,第2の実施の形態をもとにした場合の装置概要を図18及び図19に示す。これらの図では、第1の実施の形態または第2の実施の形態に対して、動きベクトルスケール部121及びスケール符号化部122(画像符号化装置側),ならびに,動きベクトルスケール部221及びスケール復号部222(画像復号装置側)を追加している。
また,上述した説明から分かるように、スケール情報の符号化(画像符号化装置の場合)または復号(画像復号装置の場合)は行わなくとも良く、この場合の装置概要を図20〜図25に示す。これら図20〜図25はそれぞれ図14〜図19に対応しており、図14〜図19からスケール符号化部122(画像符号化装置の場合)またはスケール復号部222(画像復号装置の場合)を削除している。
〔第5の実施の形態〕
次に第5の実施の形態として,2フレーム分の復号画像を蓄積する参照画像メモリと,2フレーム分の動きベクトルを蓄積する動きベクトル蓄積メモリを備えておき,参照画像指定情報で参照画像と同時に動きベクトルも指定する方法の例を示す。画像を複数のブロックに分割して符号化する場合の手順を示す。
第5の実施の形態の画像符号化装置の説明を行う。図26に装置概要を示す。画像情報を取り込む画像入力部101と,予測画像を作成する予測画像作成部104と,入力画像情報と予測画像との差分を符号化する差分符号化部103と,動き探索を行う動き探索部102と,動きベクトルを蓄積する動きベクトル蓄積メモリ107と,動きベクトル蓄積メモリ107から1つの動きベクトルを選択する動きベクトル選択部109と,復号画像を蓄積する参照画像メモリ106と,参照画像を選択する参照画像選択部114と,参照画像指定情報を符号化する参照画像指定符号化部115と,動きベクトル蓄積メモリ107に蓄積した動きベクトルと参照画像を指定する参照画像指定情報との対応関係を設定する参照動きベクトル設定部116と,動き探索部102で探索された動きベクトルまたは動きベクトル選択部109で選択した動きベクトルのいずれかを選択する探索動きベクトル選択部108と,探索動きベクトル選択部108で選択した動きベクトルを指定する探索動きベクトル指定情報を符号化する探索動きベクトル指定符号化部111と,動き探索部102で探索された動きベクトルを符号化する探索動きベクトル符号化部112と,差分符号化部103で作成された差分符号化データを復号して復号画像を作成する復号部105と,差分符号化部103で作成された差分符号化データの符号量と動きベクトルの符号量の合計を計測する符号量計測部113とを備える。
動きベクトル蓄積メモリ107には,予め2フレーム分の動きベクトルが蓄積されているものとする。ここで1フレームは複数のマクロブロックで構成されるため,2フレーム中の総マクロブロック数分だけ動きベクトルを蓄積する。参照画像メモリ106には,予め2フレーム分の復号画像が蓄積されているものとする。また,参照画像指定符号化部115は,参照画像指定情報について1ビット固定長符号化するものとする。また,探索動きベクトル指定符号化部111では,動き探索部102で探索された動きベクトルの場合に0を,動きベクトル選択部109で選択した動きベクトルの場合に1を出力するものとする。探索動きベクトル符号化部112では,動きベクトルの各成分をMPEG−4で採用されている動きベクトル符号化方法を使って符号化するものとする。また,動きベクトル選択部109は,参照画像指定情報で指定されるフレームの動きベクトルのうち,現マクロブロックと同位置の動きベクトルを選択するものとする。
参照動きベクトル設定部116は,第1の参照画像を指定する参照画像指定情報を第1の動きベクトルに対応付けて,第2の参照画像を指定する参照画像指定情報を第2の動きベクトルに対応付けるものとする。
このような前提で入力画像を次のように符号化する。まず,参照動きベクトル設定部116は,参照画像指定情報と動きベクトルとの対応付けを行う。そして,画像入力部101はフレームを取り込み,マクロブロックに分割する。次にマクロブロック毎に次のように符号化する。
参照画像選択部114は,第1の参照画像を参照画像メモリ106から選択する。動き探索部102は,現マクロブロックについて動き探索を行う。探索動きベクトル選択部108は,動き探索で得られた動きベクトルを選択する。予測画像作成部104は,動きベクトルを用いて予測画像を作成する。差分符号化部103は,現画像と予測画像の差分を符号化する。探索動きベクトル符号化部112は,動きベクトルを符号化する。符号量計測部113は,発生符号量を計測する。
次に,動きベクトル選択部109は,動きベクトル蓄積メモリ107から,参照画像指定情報で対応付けられた,第1の動きベクトルを選択する。探索動きベクトル選択部108は,動きベクトル選択部109で選択された動きベクトルを選択する。予測画像作成部104は,動きベクトルを用いて予測画像を作成する。差分符号化部103は,現画像と予測画像の差分を符号化する。符号量計測部113は,発生符号量を計測する。
次に,参照画像選択部114は,第2の参照画像を参照画像メモリ106から選択する。動き探索部102は,現マクロブロックについて動き探索を行う。探索動きベクトル選択部108は,動き探索で得られた動きベクトルを選択する。予測画像作成部104は,動きベクトルを用いて予測画像を作成する。差分符号化部103は,現画像と予測画像の差分を符号化する。探索動きベクトル符号化部112は,動きベクトルを符号化する。符号量計測部113は,発生符号量を計測する。
次に,動きベクトル選択部109は,動きベクトル蓄積メモリ107から,参照画像指定情報で対応付けられた,第2の動きベクトルを選択する。探索動きベクトル選択部108は,動きベクトル選択部109で選択された動きベクトルを選択する。予測画像作成部104は,動きベクトルを用いて予測画像を作成する。差分符号化部103は,現画像と予測画像の差分を符号化する。符号量計測部113は,発生符号量を計測する。
参照画像選択部114は,符号量計測部113で得られた発生符号量が最も少ない場合の参照画像を選択し,探索動きベクトル選択部108は,符号量計測部113で得られた発生符号量が最も少ない場合の動きベクトルを選択する。得られた動きベクトルと参照画像を用いて,予測画像作成部104は予測画像を作成し,差分符号化部103は差分を符号化する。参照画像指定符号化部115は,参照画像指定情報を符号化する。探索動きベクトル指定符号化部111は,探索動きベクトル指定情報を符号化する。探索動きベクトル選択部108で動き探索部102で得られた動きベクトルを符号化すると選択された場合には,探索動きベクトル符号化部112は,動きベクトルを符号化する。
以上の処理を全てのマクロブロックで実行する。復号部105は,符号化された差分を復号し,予測画像を使って復号画像を作成し,復号画像を参照画像メモリ106に蓄積する。以上により,現フレームを符号化することができる。
次に復号装置の説明を行う。図27に装置概要を示す。予測画像を作成する予測画像作成部205と,差分情報を復号して予測画像を使って復号画像を作成する復号画像作成部201と,動きベクトルを蓄積する動きベクトル蓄積メモリ207と,復号画像を蓄積する参照画像メモリ206と,参照画像指定情報を復号する参照画像指定復号部211と,動きベクトル蓄積メモリ207に蓄積した動きベクトルと参照画像を指定する参照画像指定情報との対応関係を設定する参照動きベクトル設定部216と,参照画像指定情報を使って参照画像メモリ206から参照画像を選択する参照画像選択部210と,参照画像指定情報を使って動きベクトル蓄積メモリ207から1つの動きベクトルを選択する動きベクトル選択部209と,探索動きベクトル指定情報を復号する探索動きベクトル指定復号部203と,探索動きベクトル指定情報を使って動きベクトルを選択する探索動きベクトル選択部208と,動きベクトルを復号する探索動きベクトル復号部202とを備える。
動きベクトル蓄積メモリ207には,予め2フレーム分の動きベクトルが蓄積されているものとする。参照画像メモリ206には,予め2フレーム分の復号画像が蓄積されているものとする。
このような前提で前記画像符号化装置で符号化された符号化データを次のように復号する。まず参照動きベクトル設定部216は,参照画像指定情報と動きベクトルの対応付けを行う。次にマクロブロック毎に次のように復号画像を作成する。
参照画像指定復号部211は,参照画像指定情報を復号する。参照画像選択部210は,参照画像を選択する。探索動きベクトル指定復号部203は,探索動きベクトル指定情報を復号する。探索動きベクトル選択部208は,探索動きベクトル指定情報を使って,動きベクトルを復号するかどうかを選択する。動きベクトルを復号する場合には,探索動きベクトル復号部202は,動きベクトルを復号する。動きベクトルを復号しない場合には,動きベクトル選択部209は,動きベクトル蓄積メモリ207から,参照画像指定情報で対応付けられた動きベクトルを選択する。そして予測画像作成部205は,動きベクトルを使って予測画像を作成し,復号画像作成部201は,差分情報を復号して予測画像を使って復号画像を作成する。
以上の処理を全てのマクロブロックで実行する。復号画像作成部201は,復号画像を参照画像メモリ206に蓄積する。以上により,現フレームを復号することができる。
〔第6の実施の形態〕
上記第5の実施の形態では,参照動きベクトル設定部116,216において,参照画像指定情報と動きベクトルとの対応付けは予め設定されていたが,この対応付け情報を符号化しても良い。第5の実施の形態をもとに本実施の形態を実現した場合の装置概要を図28及び図29に示す。この場合には,図28に示されるように,画像符号化装置に参照動きベクトル対応符号化部123を備え,図29に示されるように,画像復号装置に参照動きベクトル対応復号部223を備える。このような対応付け情報の更新は,マクロブロックや複数マクロブロック,または複数フレーム単位に行っても良い。
また,動きベクトル蓄積メモリ107には,2フレーム分の動きベクトルを蓄積した。すなわち,参照画像指定情報と,マクロブロックの画面内での位置情報の組み合わせに対して,動きベクトルを対応付けた。このようにマクロブロック毎に異なる動きベクトルを対応付けるのではなく,例えばスライス単位で動きベクトルを対応付けても良い。例えば画面が2つのスライスに分割される場合には,スライス番号と参照画像指定情報の組み合わせに対して動きベクトルを対応付けても良い。
また,動きベクトルと参照画像指定情報の対応付けは1つのみ設定したが,複数の対応付けを設定しても良い。この場合には,適用する対応付けを選択する情報を符号化または復号すれば良い。例えばMPEG−2のBフレームのように,マクロブロックについて前方向予測モードと後方向予測モードを定義しておき,前方向予測モードの場合の対応付けと後方向予測モードの場合の対応付けを設定する。前方向予測モードでは,参照画像指定情報1に対して第1の動きベクトルを対応付けて,参照画像指定情報2に対して第2の動きベクトルを対応付ける。そして,前方向予測モードでは,参照画像指定情報1に対して第2の動きベクトルを対応付けて,参照画像指定情報2に対して第1の動きベクトルを対応付ける。この場合には,マクロブロック毎に前方向予測モードか後方向予測モードかを指定する符号化モード情報を符号化または復号する。
〔第7の実施の形態〕
図26と図27に示した実施の形態の構成で,本発明を時間スケーラブル符号化に適用することも可能である。基本レイヤの復号画像を第1の参照画像メモリに蓄積し,拡張レイヤの復号画像を第2の参照画像メモリに蓄積する。そして,基本レイヤのフレームは第1の参照画像メモリを参照画像とし,拡張レイヤのフレームは第2の参照画像メモリと第1の参照画像メモリから参照画像を選択する。
動きベクトル蓄積メモリ107に蓄積された動きベクトルについて,上記第5の実施の形態と同様に,第1の参照画像指定情報は,第1の動きベクトルに対応付けられ,第2の参照画像指定情報は,第2の動きベクトルに対応付けられる。このようにすると,基本レイヤのフレームを符号化または復号する場合には,第1の参照画像メモリのみ使用するため,第1の動きベクトルを選択することになる。また,拡張レイヤのフレームを符号化または復号する場合で,第2の参照画像メモリから参照画像を選択する場合には,第2の動きベクトルを選択することになる。
さらに,動きベクトル蓄積メモリ107,207に1フレーム分追加して,拡張レイヤのフレームを符号化または復号する場合で,第1の参照画像メモリから参照画像を選択する場合に,この動きベクトルを選択するようにしても良い。このように,時間スケーラブル符号化に適用すると,レイヤごとに別の動きベクトルを選択することができる。基本レイヤではフレーム時間間隔が大きく,拡張レイヤではフレーム時間間隔が小さい傾向があるため,このように別の動きベクトルを選択できると有効である。
〔第8の実施の形態〕
また,図26と図27に示した実施の形態の構成で,本発明を多視点符号化やステレオ符号化に適用することも可能である。MPEG−2マルチビュープロファイルに採用されているステレオ符号化では,1視点(視点A)の映像を基本レイヤとし,別視点(視点B)の映像を拡張レイヤとして,上記の時間スケーラブル符号化と同様な方法を適用する。すなわち,視点Aの復号画像を第1の参照画像メモリに蓄積し,視点Bの復号画像を第2の参照画像メモリに蓄積する。そして,視点Aのフレームは第1の参照画像メモリを参照画像とし,視点Bのフレームは第2の参照画像メモリと第1の参照画像メモリから参照画像を選択する。
動きベクトル蓄積メモリ107に蓄積された動きベクトルについて,第5の実施の形態と同様に,第1の参照画像指定情報は第1の動きベクトルに対応付けられ,第2の参照画像指定情報は第2の動きベクトルに対応付けられる。このようにすると,視点Aのフレームを符号化または復号する場合には,第1の参照画像メモリのみ使用するため,第1の動きベクトルを選択することになる。また,視点Bのフレームを符号化または復号する場合で,第2の参照画像メモリから参照画像を選択する場合には,第2の動きベクトルを選択することになる。
さらに,動きベクトル蓄積メモリ107に1フレーム分追加して,視点Bのフレームを符号化または復号する場合で,第1の参照画像メモリから参照画像を選択する場合に,この動きベクトルを選択するようにしても良い。このように,視点ごとに別の動きベクトルを選択することができる。視点ごとに動き情報が異なる場合に有効である。また,視点間の動き情報(視差情報)も,動きベクトル蓄積メモリ107に蓄積できるため,視差が時間によって変わらない場合に,動きベクトル(視差ベクトル)の符号量を削減することができる。
また,前述した実施の形態と同様に,動き探索部102で探索された動きベクトルを蓄積したり,また蓄積する際にスケールすることで動きベクトル蓄積メモリ107のメモリ量を軽減することも好適である。また,動き探索部102で得られる動きベクトルと,動きベクトル蓄積メモリ107に蓄積された動きベクトルとの差分を符号化するようにしても良い。
〔第9の実施の形態〕 第9の実施の形態として,1フレーム分の復号画像を蓄積する参照画像メモリと,3フレーム分の動きベクトルを蓄積する動きベクトル蓄積メモリを備えておき,領域の画面内位置情報に従って動きベクトルを選択する方法の例を示す。本実施の形態はカメラで撮影した画像を符号化する例であり,動きベクトル蓄積メモリにはGPS(Global Positioning System)等を利用して得られるカメラの位置情報変化から,動き量を測定して得られる動きベクトルを蓄積する例を示す。GPS等を利用して得られるカメラの動き情報は,画面全体のグローバルな動き量に対応する。本実施の形態ではマクロブロックごとに符号化するものとする。
まず,画像符号化装置の説明を行う。図30に装置概要を示す。画像符号化装置は,画像情報を取り込む画像入力部101と,予測画像を作成する予測画像作成部104と,入力画像情報と予測画像との差分を符号化する差分符号化部103と,動きベクトルを蓄積する動きベクトル蓄積メモリ107と,動きベクトル蓄積メモリ107から1つの動きベクトルを選択する動きベクトル選択部109と,差分符号化部103で作成された差分符号化データを復号して復号画像を作成する復号部105と,復号画像を蓄積する参照画像メモリ106と,動きベクトルを生成する動きベクトル生成部124と,生成した動きベクトルを符号化する生成動きベクトル符号化部125を備える。
動きベクトル生成部124では,カメラの位置情報変化から,画面上部領域と画面中部領域と画面下部領域に対応した動き量を推定し,3つの動きベクトルを生成し,動きベクトル蓄積メモリ107に蓄積するものとする。ここで,画面上部の領域に対する動きベクトルは第一の動きベクトルとして動きベクトルメモリ107に蓄積し,画面中部の領域に対する動きベクトルは第二の動きベクトルとして動きベクトルメモリ107に蓄積し,画面下部の領域に対する動きベクトルは第三の動きベクトルとして動きベクトルメモリ107に蓄積するものとする。動きベクトル選択部109は符号化対象マクロブロックの画面内位置に従って動きベクトル蓄積メモリ107から動きベクトルを選択する。画面上部であれば第一の動きベクトルを選択し,画面中部であれば第二の動きベクトルを選択し,画面下部であれば第三の動きベクトルを選択する。
このような前提で入力画像を次のように符号化する。
まず動きベクトル生成部124は3つの動きベクトルを生成して動きベクトル蓄積メモリ107に蓄積する。生成動きベクトル符号化部125は動きベクトル生成部124が生成した3つの動きベクトルを符号化する。画像入力部101はフレームを取り込み,マクロブロックに分割する。次にマクロブロック毎に次のように符号化する。
動きベクトル選択部109は各マクロブロックの画面内位置に従って動きベクトル蓄積メモリ107から動きベクトルを選択する。予測画像作成部104は動きベクトルを用いて予測画像を作成する。差分符号化部103は現画像と予測画像の差分を符号化する。以上の処理を全てのマクロブロックで実行する。復号部105は符号化された差分を復号し,予測画像を使って復号画像を作成し,復号画像を参照画像メモリ106に蓄積する。
以上により,現フレームを符号化することが出来る。
次に復号装置の説明を行う。図31に装置概要を示す。画像復号装置は,予測画像を作成する予測画像作成部205と,差分情報を復号して予測画像を使って復号画像を作成する復号画像作成部201と,動きベクトルを蓄積する動きベクトル蓄積メモリ207と,復号画像を蓄積する参照画像メモリ206と,動きベクトル蓄積メモリ207から1つの動きベクトルを選択する動きベクトル選択部209と,生成動きベクトルを復号する生成動きベクトル復号部224を備える。
生成動きベクトル復号部224は,3つの動きベクトルを復号し,得られた動きベクトルを動きベクトル蓄積メモリ207に蓄積する。
このような前提で前記画像符号化装置で符号化された符号化データを次のように復号する。まず生成動きベクトル復号部224は動きベクトルを復号して動きベクトル蓄積メモリ207に蓄積する。
次にマクロブロック毎に次のように復号画像を作成する。動きベクトル選択部209は動きベクトル蓄積メモリ207から,マクロブロックの画面内位置情報に従って動きベクトルを選択する。そして予測画像作成部205は,選択された動きベクトルを使って予測画像を作成し,復号画像作成部201は差分情報を復号して予測画像を使って復号画像を作成する。
以上の処理を全てのマクロブロックで実行する。復号画像作成部201は復号画像を参照画像メモリ206に蓄積する。
以上により,現フレームを復号することが出来る。
本実施の形態ではマクロブロックの位置情報に従って一意に動きベクトルを選択したが,複数の動きベクトルから,符号量が最小となるように動きベクトルを選択するようにしても良い。この場合の画像符号化装置の構成を図32に示す。図30の構成に加えて,符号量を計測する符号量計測部113と,動きベクトルを指定する情報を符号化する動きベクトル指定符号化部110を備える。この構成では,マクロブロック毎に,動きベクトル蓄積メモリ107に蓄積されている3つの動きベクトルに対する符号量を測定して,符号量が最も少ない場合の動きベクトルを指定する情報を動きベクトル指定符号化部110で符号化する。また,画像復号装置の構成を図33に示す。図31の構成に加えて,動きベクトルを指定する情報を復号する動きベクトル指定復号部204を備える。動きベクトル指定復号部204で動きベクトルを指定する情報を復号して得ることで,マクロブロック毎に動きベクトルを選択することができる。
〔第10の実施の形態〕 次に第10の実施の形態として,2フレーム分の復号画像を蓄積する参照画像メモリと,2フレーム分の動きベクトルを蓄積する動きベクトル蓄積メモリを備えておき,参照画像指定情報で参照画像と同時に動きベクトルも指定する方法の例を示す。本実施の形態はカメラで撮影した画像を符号化する例であり,動きベクトル蓄積メモリにはGPS等を利用して得られるカメラの位置情報変化から,参照画像メモリに蓄積した各フレームと現フレームとの動き量を測定して得られる動きベクトルを蓄積する例を示す。GPS等を利用して得られるカメラの動き情報は,画面全体のグローバルな動き量に対応する。本実施の形態ではマクロブロックごとに符号化するものとする。
まず,画像符号化装置の説明を行う。図34に装置概要を示す。画像符号化装置は,画像情報を取り込む画像入力部と101,予測画像を作成する予測画像作成部104と,入力画像情報と予測画像との差分を符号化する差分符号化部103と,動きベクトルを蓄積する動きベクトル蓄積メモリ107と,動きベクトル蓄積メモリ107から1つの動きベクトルを選択する動きベクトル選択部109と,復号画像を蓄積する参照画像メモリ106と,参照画像を選択する参照画像選択部114と,参照画像指定情報を符号化する参照画像指定符号化部115と,動きベクトル蓄積メモリ107に蓄積した動きベクトルと参照画像を指定する参照画像指定情報との対応関係を設定する参照動きベクトル設定部116と,差分符号化部103で作成された差分符号化データを復号して復号画像を作成する復号部105と,動きベクトルを生成する動きベクトル生成部124と,生成した動きベクトルを符号化する生成動きベクトル符号化部125と,符号量を計測する符号量計測部113を備える。
動きベクトル生成部124では,カメラの位置情報変化から,参照画像メモリ106に蓄積した各フレームと現フレームとの間の動きベクトルを生成し,動きベクトル蓄積メモリ107に蓄積するものとする。参照動きベクトル設定部116では,第一の参照画像には第一の動きベクトルを対応づけし,第二の参照画像には第二の動きベクトルを対応づけしているものとする。1フレーム符号化後に,第一の参照画像の画像は第二の参照画像として参照画像メモリ106に蓄積され,復号画像は第一の参照画像として参照画像メモリ106に蓄積されるものとする。
このような前提で入力画像を次のように符号化する。
まず参照動きベクトル設定部116は,参照画像指定情報と動きベクトルの対応付けを行う。画像入力部101は入力画像をマクロブロックに分割する。動きベクトル生成部124は入力画像に対して2つの動きベクトルを生成して動きベクトル蓄積メモリ107に蓄積する。生成動きベクトル符号化部125は動きベクトル生成部124が生成した2つの動きベクトルを符号化する。次にマクロブロック毎に次のように符号化する。
参照画像選択部114は第一の参照画像を選択する。動きベクトル選択部109は,参照動きベクトル設定部116で対応づけられた参照画像指定情報に従って,動きベクトル蓄積メモリ107から動きベクトルを選択する。予測画像作成部104は動きベクトルを用いて予測画像を作成する。差分符号化部103は現画像と予測画像の差分を符号化する。符号量計測部113は符号量を計測する。
次に,参照画像選択部114は第二の参照画像を選択する。動きベクトル選択部109は,参照動きベクトル設定部116で対応づけられた参照画像指定情報に従って,動きベクトル蓄積メモリ107から動きベクトルを選択する。予測画像作成部104は選択された動きベクトルを用いて予測画像を作成する。差分符号化部103は現画像と予測画像の差分を符号化する。符号量計測部113は符号量を計測する。
そして参照画像選択部114は符号量計測部113で得られる符号量の少ない方を現フレームの符号化に用いる参照画像として選択する。動きベクトル選択部109は,参照動きベクトル設定部116で対応づけられた参照画像指定情報に従って,現フレームの符号化に用いる参照画像に対応した動きベクトルを動きベクトル蓄積メモリ107から選択する。予測画像作成部104は動きベクトルを用いて予測画像を作成する。差分符号化部103は現画像と予測画像の差分を符号化する。
以上の処理を全てのマクロブロックで実行する。復号部105は符号化された差分を復号し,予測画像を使って復号画像を作成し,復号画像を第一の参照画像として参照画像メモリ106に蓄積する。
以上により,現フレームを符号化することが出来る。
次に復号装置の説明を行う。図35に装置概要を示す。画像復号装置は,予測画像を作成する予測画像作成部205と,差分情報を復号して予測画像を使って復号画像を作成する復号画像作成部201と,動きベクトルを蓄積する動きベクトル蓄積メモリ207と,復号画像を蓄積する参照画像メモリ206と,参照画像指定情報を復号する参照画像指定復号部211と,動きベクトル蓄積メモリ207に蓄積した動きベクトルと参照画像を指定する参照画像指定情報との対応関係を設定する参照動きベクトル設定部216と,参照画像指定情報を使って参照画像メモリ206から参照画像を選択する参照画像選択部210と,参照画像指定情報を使って動きベクトル蓄積メモリ207から1つの動きベクトルを選択する動きベクトル選択部209と,生成動きベクトルを復号する生成動きベクトル復号部224を備える。
参照画像メモリ206には予め2フレーム分の復号画像が蓄積されているものとする。
このような前提で前記画像符号化装置で符号化された符号化データを次のように復号する。まず参照動きベクトル設定部216は,参照画像指定情報と動きベクトルの対応付けを行う。生成動きベクトル復号部224は動きベクトルを復号して動きベクトル蓄積メモリ207に蓄積する。
次にマクロブロック毎に次のように復号画像を作成する。参照画像指定復号部211は参照画像指定情報を復号する。参照画像選択部210は復号された参照画像指定情報に従って参照画像を選択する。動きベクトル選択部209は動きベクトル蓄積メモリ207から,参照画像指定情報で対応付けられた動きベクトルを選択する。そして予測画像作成部205は,選択された動きベクトルを使って予測画像を作成し,復号画像作成部201は差分情報を復号して予測画像を使って復号画像を作成する。
以上の処理を全てのマクロブロックで実行する。復号画像作成部201は復号画像を第一の参照画像として参照画像メモリ206に蓄積する。
以上により,現フレームを復号することが出来る。
以上の実施の形態では,差分データを不可逆符号化したが,可逆符号化しても良い。この場合には,画像符号化装置に復号部105を備えず,参照画像メモリ106に復号画像を蓄積するのではなく,原画像を蓄積しても良い。
以上説明した画像符号化および復号の処理は,コンピュータとソフトウェアプログラムとによっても実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも,ネットワークを通して提供することも可能である。
また,以上の実施の形態では画像符号化装置及び画像復号装置を中心に説明したが,これら画像符号化装置及び画像復号装置の各部の動作に対応したステップによって本発明の画像符号化方法及び画像復号方法を実現することができる。
以上,図面を参照して本発明の実施の形態を説明してきたが,上記実施の形態は本発明の例示に過ぎず,本発明が上記実施の形態に限定されるものでないことは明らかである。したがって,本発明の精神および範囲を逸脱しない範囲で構成要素の追加,省略,置換,その他の変更を行っても良い。例えば,上述した実施の形態の構成要素同士を適宜組み合わせてもよい。
本発明は,フレーム間予測符号化方式を使った複数フレームの画像符号化に用いることができる。本発明では,予め蓄積しておいた複数の動きベクトルから,使用する動きベクトルを選択して予測画像を作成するため,動きベクトル候補から動きベクトルを選択でき,符号化効率を向上させることができる。また,連続するフレーム間で動きの連続性が無い場合であっても,複数の動きベクトル候補から動きベクトルを選択するため,効率の良い動きベクトルを選択することができる。
また,動きベクトルと参照画像指定情報の対応付けは1つのみ設定したが,複数の対応付けを設定しても良い。この場合には,適用する対応付けを選択する情報を符号化または復号すれば良い。例えばMPEG−2のBフレームのように,マクロブロックについて前方向予測モードと後方向予測モードを定義しておき,前方向予測モードの場合の対応付けと後方向予測モードの場合の対応付けを設定する。前方向予測モードでは,参照画像指定情報1に対して第1の動きベクトルを対応付けて,参照画像指定情報2に対して第2の動きベクトルを対応付ける。そして,方向予測モードでは,参照画像指定情報1に対して第2の動きベクトルを対応付けて,参照画像指定情報2に対して第1の動きベクトルを対応付ける。この場合には,マクロブロック毎に前方向予測モードか後方向予測モードかを指定する符号化モード情報を符号化または復号する。

Claims (22)

  1. 過去に符号化したフレームの画像情報から予測画像を作成して,領域毎に画像情報を符号化する画像符号化方法であって,
    予め蓄積した複数の動きベクトルから,動きベクトルを選択する動きベクトル選択ステップと,
    前記動きベクトル選択ステップで選択した動きベクトルを使って参照画像から予測画像を作成する予測画像作成ステップと,
    現領域の画像情報と予測画像との差分を符号化する差分符号化ステップとを実行する
    ことを特徴とする画像符号化方法。
  2. 請求項1に記載の画像符号化方法において,
    前記動きベクトル選択ステップは,画面内の領域の位置情報に従って,前記複数の動きベクトルから動きベクトルを選択する
    ことを特徴とする画像符号化方法。
  3. 請求項1または請求項2に記載の画像符号化方法において,
    前記動きベクトル選択ステップで選択する動きベクトルを指定する情報を符号化する動きベクトル指定符号化ステップを実行する
    ことを特徴とする画像符号化方法。
  4. 過去に符号化した複数のフレームの画像情報から参照画像を選択し,予測画像を作成して,領域毎に画像情報を符号化する画像符号化方法であって,
    予め蓄積した複数の動きベクトルと参照画像を指定する参照画像指定情報との対応関係を設定する参照動きベクトル設定ステップと,
    参照画像を選択する参照画像選択ステップと,
    参照画像を指定する参照画像指定情報を符号化する参照画像指定符号化ステップと,
    予め蓄積した複数の動きベクトルから,参照画像指定情報に対応した動きベクトルを選択する動きベクトル選択ステップと,
    前記動きベクトル選択ステップで選択した動きベクトルを使って参照画像から予測画像を作成する予測画像作成ステップと,
    現領域の画像情報と予測画像との差分を符号化する差分符号化ステップとを実行する
    ことを特徴とする画像符号化方法。
  5. 請求項1,請求項3または請求項4に記載の画像符号化方法において,
    現領域の画像情報と参照画像を使って動きベクトルを探索する動き探索ステップと,
    前記動きベクトル選択ステップで選択した動きベクトルと前記動き探索ステップで得られる動きベクトルのうち,いずれかを選択する探索動きベクトル選択ステップと,
    前記探索動きベクトル選択ステップにおいて,前記動き探索ステップで得られる動きベクトルを選択した場合に,その動きベクトルを符号化する探索動きベクトル符号化ステップと,
    前記探索動きベクトル選択ステップで選択した動きベクトルを指定する情報を符号化する探索動きベクトル指定符号化ステップとを実行する
    ことを特徴とする画像符号化方法。
  6. 請求項1,請求項3または請求項4に記載の画像符号化方法において,
    現領域の画像情報と参照画像を使って動きベクトルを探索する動き探索ステップと,
    前記動きベクトル選択ステップで選択した動きベクトルと前記動き探索ステップで得られる動きベクトルの差分を符号化する差分動きベクトル符号化ステップとを実行する
    ことを特徴とする画像符号化方法。
  7. 請求項5または請求項6に記載の画像符号化方法において,
    動きベクトルを蓄積する動きベクトル蓄積ステップと,
    動きベクトルを蓄積するかどうかを決定する動きベクトル蓄積決定ステップと,
    動きベクトルを蓄積するかどうかを指定する情報を符号化する動きベクトル蓄積指定符号化ステップとを実行する
    ことを特徴とする画像符号化方法。
  8. 請求項5または請求項6に記載の画像符号化方法において,
    動きベクトルを蓄積する動きベクトル蓄積ステップと,
    動きベクトルスケール情報を使って動きベクトルの値を変更する動きベクトルスケールステップとを実行する
    ことを特徴とする画像符号化方法。
  9. 請求項8に記載の画像符号化方法において,
    動きベクトルスケール情報を符号化するスケール符号化ステップを実行する
    ことを特徴とする画像符号化方法。
  10. 過去に復号したフレームの画像情報から予測画像を作成して,領域毎に画像情報を復号する画像復号方法であって,
    予め蓄積した複数の動きベクトルから,動きベクトルを選択する動きベクトル選択ステップと,
    前記動きベクトル選択ステップで選択した動きベクトルを使って参照画像から予測画像を作成する予測画像作成ステップと,
    現領域の画像情報と予測画像との差分を復号して復号画像を作成する復号画像作成ステップとを実行する
    ことを特徴とする画像復号方法。
  11. 請求項10に記載の画像復号方法において,
    前記動きベクトル選択ステップは,画面内の領域の位置情報に従って,前記複数の動きベクトルから動きベクトルを選択する
    ことを特徴とする画像復号方法。
  12. 請求項10または請求項11に記載の画像復号方法において,
    前記動きベクトル選択ステップで選択する動きベクトルを指定する情報を復号する動きベクトル指定復号ステップを実行する
    ことを特徴とする画像復号方法。
  13. 過去に復号した複数のフレームの画像情報から参照画像を選択し,予測画像を作成して,領域毎に画像情報を復号する画像復号方法であって,
    予め蓄積した複数の動きベクトルと参照画像を指定する参照画像指定情報との対応関係を設定する参照動きベクトル設定ステップと,
    参照画像を指定する参照画像指定情報を復号する参照画像指定復号ステップと,
    参照画像を選択する参照画像選択ステップと,
    予め蓄積した複数の動きベクトルから,参照画像指定情報に対応した動きベクトルを選択する動きベクトル選択ステップと,
    前記動きベクトル選択ステップで選択した動きベクトルを使って参照画像から予測画像を作成する予測画像作成ステップと,
    現領域の画像情報と予測画像との差分を復号して復号画像を作成する復号画像作成ステップとを実行する
    ことを特徴とする画像復号方法。
  14. 請求項10,請求項12または請求項13に記載の画像復号方法において,
    動きベクトルが符号化されているかどうかを指定する情報を復号する探索動きベクトル指定復号ステップと,
    動きベクトルが符号化されている場合に動きベクトルを復号する探索動きベクトル復号ステップとを実行する
    ことを特徴とする画像復号方法。
  15. 請求項10,請求項12または請求項13に記載の画像復号方法において,
    差分動きベクトルを復号する差分動きベクトル復号ステップと,
    差分動きベクトルと前記動きベクトル選択ステップで選択した動きベクトルとから動きベクトルを算出する差分動きベクトル算出ステップとを実行する
    ことを特徴とする画像復号方法。
  16. 請求項14または請求項15に記載の画像復号方法において,
    動きベクトルを蓄積する動きベクトル蓄積ステップと,
    動きベクトルを蓄積するかどうかを指定する情報を復号する動きベクトル蓄積指定復号ステップとを実行する
    ことを特徴とする画像復号方法。
  17. 請求項14または請求項15に記載の画像復号方法において,
    動きベクトルを蓄積する動きベクトル蓄積ステップと,
    動きベクトルスケール情報を使って動きベクトルの値を変更する動きベクトルスケールステップとを実行する
    ことを特徴とする画像復号方法。
  18. 請求項17に記載の画像復号方法において,
    動きベクトルスケール情報を復号するスケール復号ステップを実行する
    ことを特徴とする画像復号方法。
  19. 過去に符号化したフレームの画像情報から予測画像を作成して,領域毎に画像情報を符号化する画像符号化装置であって,
    予め蓄積した複数の動きベクトルから,動きベクトルを選択する動きベクトル選択部と,
    前記動きベクトル選択部で選択した動きベクトルを使って参照画像から予測画像を作成する予測画像作成部と,
    現領域の画像情報と予測画像との差分を符号化する差分符号化部とを備える
    ことを特徴とする画像符号化装置。
  20. 過去に復号したフレームの画像情報から予測画像を作成して,領域毎に画像情報を復号する画像復号装置であって,
    予め蓄積した複数の動きベクトルから,動きベクトルを選択する動きベクトル選択部と,
    前記動きベクトル選択部で選択した動きベクトルを使って参照画像から予測画像を作成する予測画像作成部と,
    現領域の画像情報と予測画像との差分を復号して復号画像を作成する復号画像作成部とを備える
    ことを特徴とする画像復号装置。
  21. 請求項1から請求項9までのいずれか1項に記載の画像符号化方法を,コンピュータに実行させるための画像符号化プログラム。
  22. 請求項10から請求項18までのいずれか1項に記載の画像復号方法を,コンピュータに実行させるための画像復号プログラム。
JP2006531804A 2004-08-16 2005-08-16 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム Active JP5052134B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006531804A JP5052134B2 (ja) 2004-08-16 2005-08-16 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004236520 2004-08-16
JP2004236520 2004-08-16
JP2006531804A JP5052134B2 (ja) 2004-08-16 2005-08-16 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム
PCT/JP2005/014945 WO2006019093A1 (ja) 2004-08-16 2005-08-16 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム

Publications (2)

Publication Number Publication Date
JPWO2006019093A1 true JPWO2006019093A1 (ja) 2008-05-08
JP5052134B2 JP5052134B2 (ja) 2012-10-17

Family

ID=35907480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006531804A Active JP5052134B2 (ja) 2004-08-16 2005-08-16 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム

Country Status (7)

Country Link
US (2) US9402087B2 (ja)
EP (1) EP1781042B1 (ja)
JP (1) JP5052134B2 (ja)
KR (1) KR100941495B1 (ja)
CN (1) CN1922888B (ja)
TW (1) TWI268715B (ja)
WO (1) WO2006019093A1 (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI268715B (en) * 2004-08-16 2006-12-11 Nippon Telegraph & Telephone Picture encoding method, picture decoding method, picture encoding apparatus, and picture decoding apparatus
KR100714689B1 (ko) * 2005-01-21 2007-05-04 삼성전자주식회사 다 계층 구조 기반의 스케일러블 비디오 코딩 및 디코딩방법, 이를 위한 장치
JP5587552B2 (ja) * 2005-10-19 2014-09-10 トムソン ライセンシング スケーラブル映像符号化を用いた多視点映像符号化
KR101245251B1 (ko) 2006-03-09 2013-03-19 삼성전자주식회사 균일한 화질을 제공하는 다시점 영상 부호화 및 복호화방법 및 장치
WO2007132647A1 (ja) * 2006-05-12 2007-11-22 Panasonic Corporation 動画像復号化装置
US8532190B2 (en) * 2006-10-30 2013-09-10 Nippon Telegraph And Telephone Corporation Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media which store the programs
EP1944978A1 (en) * 2007-01-12 2008-07-16 Koninklijke Philips Electronics N.V. Method and system for encoding a video signal. encoded video signal, method and system for decoding a video signal
TW200910975A (en) * 2007-06-25 2009-03-01 Nippon Telegraph & Telephone Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
KR102139535B1 (ko) * 2007-10-16 2020-07-30 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US20090279614A1 (en) * 2008-05-10 2009-11-12 Samsung Electronics Co., Ltd. Apparatus and method for managing reference frame buffer in layered video coding
US20100008419A1 (en) * 2008-07-10 2010-01-14 Apple Inc. Hierarchical Bi-Directional P Frames
KR101377527B1 (ko) 2008-10-14 2014-03-25 에스케이 텔레콤주식회사 복수 개의 참조 픽처의 움직임 벡터 부호화/복호화 방법 및장치와 그를 이용한 영상 부호화/복호화 장치 및 방법
GB2469679B (en) * 2009-04-23 2012-05-02 Imagination Tech Ltd Object tracking using momentum and acceleration vectors in a motion estimation system
US8587721B2 (en) * 2009-08-06 2013-11-19 Telegent Systems, Inc. Circuitry and techniques to asynchronously process, output and/or display digital video data of a broadcast
KR101459714B1 (ko) * 2009-10-28 2014-11-13 에스케이텔레콤 주식회사 공간 분할을 이용한 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
KR101545877B1 (ko) * 2010-02-23 2015-08-20 니폰덴신뎅와 가부시키가이샤 움직임 벡터 추정 방법, 다시점 영상 부호화 방법, 다시점 영상 복호 방법, 움직임 벡터 추정 장치, 다시점 영상 부호화 장치, 다시점 영상 복호 장치, 움직임 벡터 추정 프로그램, 다시점 영상 부호화 프로그램 및 다시점 영상 복호 프로그램
JP2011259204A (ja) * 2010-06-09 2011-12-22 Sony Corp 画像復号化装置と画像符号装置およびその方法とプログラム
CN106210737B (zh) * 2010-10-06 2019-05-21 株式会社Ntt都科摩 图像预测解码装置、图像预测解码方法
JP5281632B2 (ja) * 2010-12-06 2013-09-04 日本電信電話株式会社 多視点画像符号化方法,多視点画像復号方法,多視点画像符号化装置,多視点画像復号装置およびそれらのプログラム
JP5092011B2 (ja) 2010-12-17 2012-12-05 株式会社東芝 動画像復号装置及び動画像復号方法
CN106851306B (zh) * 2011-01-12 2020-08-04 太阳专利托管公司 动态图像解码方法和动态图像解码装置
WO2012114694A1 (ja) 2011-02-22 2012-08-30 パナソニック株式会社 動画像符号化方法、動画像符号化装置、動画像復号方法、および、動画像復号装置
WO2012117728A1 (ja) 2011-03-03 2012-09-07 パナソニック株式会社 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、及び動画像符号化復号装置
ES2685945T3 (es) 2011-04-12 2018-10-15 Sun Patent Trust Procedimiento de codificación de video de movimiento, y aparato de codificación de video de movimiento
PT2717573T (pt) 2011-05-24 2018-06-05 Velos Media Int Ltd Método de codificação de imagem, aparelho de codificação de imagem, método de descodificação de imagem, aparelho de descodificação de imagem e aparelho de codificação/descodificação de imagem
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
PL4007276T3 (pl) 2011-05-27 2023-12-11 Sun Patent Trust Sposób kodowania obrazów, urządzenie do kodowania obrazów, sposób dekodowania obrazów, urządzenie do dekodowania obrazów, i urządzenie do kodowania i dekodowania obrazów
SG194746A1 (en) 2011-05-31 2013-12-30 Kaba Gmbh Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
US8989271B2 (en) 2011-05-31 2015-03-24 Panasonic Intellectual Property Corporation Of America Decoding method and apparatus with candidate motion vectors
TWI530161B (zh) * 2011-06-07 2016-04-11 Sony Corp Image processing apparatus and method
EP2728878B1 (en) 2011-06-30 2020-02-19 Sun Patent Trust Image decoding method, image encoding method, image decoding device, image encoding device, and image encoding/decoding device
EP3487178A1 (en) 2011-08-03 2019-05-22 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
SG11201400429RA (en) 2011-09-08 2014-04-28 Paofit Holdings Pte Ltd System and method for visualizing synthetic objects withinreal-world video clip
US9131245B2 (en) 2011-09-23 2015-09-08 Qualcomm Incorporated Reference picture list construction for video coding
WO2013057877A1 (ja) 2011-10-19 2013-04-25 パナソニック株式会社 画像符号化方法、画像符号化装置、画像復号方法、および、画像復号装置
US9264717B2 (en) 2011-10-31 2016-02-16 Qualcomm Incorporated Random access with advanced decoded picture buffer (DPB) management in video coding
JP5950541B2 (ja) * 2011-11-07 2016-07-13 キヤノン株式会社 動きベクトル符号化装置、動きベクトル符号化方法及びプログラム、動きベクトル復号装置、動きベクトル復号方法及びプログラム
US20130343459A1 (en) * 2012-06-22 2013-12-26 Nokia Corporation Method and apparatus for video coding
MX340603B (es) * 2012-09-03 2016-07-15 Sony Corp Dispositivo y metodo de procesamiento de imagenes.
JP2014082541A (ja) * 2012-10-12 2014-05-08 National Institute Of Information & Communication Technology 互いに類似した情報を含む複数画像のデータサイズを低減する方法、プログラムおよび装置
WO2014175658A1 (ko) * 2013-04-24 2014-10-30 인텔렉추얼 디스커버리 주식회사 비디오 부호화 및 복호화 방법, 그를 이용한 장치
US9131202B1 (en) 2014-05-30 2015-09-08 Paofit Holdings Pte. Ltd. Systems and methods for motion-vector-aided video interpolation using real-time smooth video playback speed variation
US9704298B2 (en) 2015-06-23 2017-07-11 Paofit Holdings Pte Ltd. Systems and methods for generating 360 degree mixed reality environments
US11385069B2 (en) * 2019-12-05 2022-07-12 Pixart Imaging Inc. Optical navigation device and optical navigation method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003036981A1 (en) * 2001-10-26 2003-05-01 Koninklijke Philips Electronics N.V. Spatial scalable compression
JP2004088737A (ja) * 2002-07-02 2004-03-18 Matsushita Electric Ind Co Ltd 画像符号化方法および画像復号化方法
JP2004194274A (ja) * 2002-07-26 2004-07-08 Matsushita Electric Ind Co Ltd 動画像符号化方法、動画像復号化方法および記録媒体
JP2004208258A (ja) * 2002-04-19 2004-07-22 Matsushita Electric Ind Co Ltd 動きベクトル計算方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PT651574E (pt) * 1993-03-24 2002-02-28 Sony Corp Processo e aparelho para codiicar/descodificar um vector de movimento e processo para codificacao/descodificacao de um sinal de imagem
US5594504A (en) 1994-07-06 1997-01-14 Lucent Technologies Inc. Predictive video coding using a motion vector updating routine
US7206346B2 (en) * 1997-06-25 2007-04-17 Nippon Telegraph And Telephone Corporation Motion vector predictive encoding method, motion vector decoding method, predictive encoding apparatus and decoding apparatus, and storage media storing motion vector predictive encoding and decoding programs
US6233356B1 (en) * 1997-07-08 2001-05-15 At&T Corp. Generalized scalability for video coder based on video objects
US6043838A (en) * 1997-11-07 2000-03-28 General Instrument Corporation View offset estimation for stereoscopic video coding
US6650783B2 (en) * 1998-01-14 2003-11-18 Canon Kabushiki Kaisha Image processing apparatus and method for processing images with different scalabilites
US6519287B1 (en) * 1998-07-13 2003-02-11 Motorola, Inc. Method and apparatus for encoding and decoding video signals by using storage and retrieval of motion vectors
KR100680452B1 (ko) * 2000-02-22 2007-02-08 주식회사 팬택앤큐리텔 움직임 벡터 메모리의 갱신방법 및 장치
US7463683B2 (en) * 2000-10-11 2008-12-09 Koninklijke Philips Electronics N.V. Method and apparatus for decoding spatially scaled fine granular encoded video signals
KR100951485B1 (ko) * 2001-11-06 2010-04-07 파나소닉 주식회사 동화상 부호화 방법 및 장치와 동화상 복호화 방법 및 장치
HUE054106T2 (hu) 2002-04-19 2021-08-30 Panasonic Ip Corp America Kép dekódoló eljárás és berendezés
US20040234143A1 (en) * 2002-07-02 2004-11-25 Makoto Hagai Image encoding method and picture decoding method
EP1422946A4 (en) 2002-07-26 2008-04-02 Matsushita Electric Ind Co Ltd MOVING IMAGE PROCEDURE, MOVABLE IMAGE DECODING METHOD AND RECORD MEDIUM
TWI268715B (en) * 2004-08-16 2006-12-11 Nippon Telegraph & Telephone Picture encoding method, picture decoding method, picture encoding apparatus, and picture decoding apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003036981A1 (en) * 2001-10-26 2003-05-01 Koninklijke Philips Electronics N.V. Spatial scalable compression
JP2004208258A (ja) * 2002-04-19 2004-07-22 Matsushita Electric Ind Co Ltd 動きベクトル計算方法
JP2004088737A (ja) * 2002-07-02 2004-03-18 Matsushita Electric Ind Co Ltd 画像符号化方法および画像復号化方法
JP2004194274A (ja) * 2002-07-26 2004-07-08 Matsushita Electric Ind Co Ltd 動画像符号化方法、動画像復号化方法および記録媒体

Also Published As

Publication number Publication date
CN1922888A (zh) 2007-02-28
EP1781042B1 (en) 2015-02-25
EP1781042A4 (en) 2011-02-02
WO2006019093A1 (ja) 2006-02-23
TW200611579A (en) 2006-04-01
KR20060123561A (ko) 2006-12-01
KR100941495B1 (ko) 2010-02-10
JP5052134B2 (ja) 2012-10-17
US20160330473A1 (en) 2016-11-10
US9402087B2 (en) 2016-07-26
TWI268715B (en) 2006-12-11
US20070183499A1 (en) 2007-08-09
CN1922888B (zh) 2010-07-21
EP1781042A1 (en) 2007-05-02

Similar Documents

Publication Publication Date Title
JP5052134B2 (ja) 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム
CN110809887B (zh) 用于多参考预测的运动矢量修正的方法和装置
EP3780614A1 (en) Method and apparatus for image motion compensation
US8559515B2 (en) Apparatus and method for encoding and decoding multi-view video
JP5021739B2 (ja) 信号処理方法及び装置
US20200404331A1 (en) Method for Deriving a Motion Vector
JP5310614B2 (ja) 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
KR20230135036A (ko) 양방향 옵티컬 플로우를 이용한 움직임 보상 방법 및 장치
KR102580910B1 (ko) 양방향 옵티컬 플로우를 이용한 움직임 보상 방법 및 장치
EP1927249B1 (en) Apparatus and method for encoding and decoding multi-view video
TW201739252A (zh) 具有仿射運動補償的視訊編碼的方法以及裝置
KR20060023989A (ko) 화상 부호화 장치, 화상 복호 장치, 화상 부호화 방법,화상 복호 방법, 화상 부호화 프로그램, 화상 복호프로그램, 화상 부호화 프로그램을 기록한 기록 매체, 화상복호 프로그램을 기록한 기록 매체
JP2007067731A (ja) 符号化方法
JP2010504010A (ja) ビデオシーケンスにおけるデータ圧縮方法
JP2004032355A (ja) 動画像符号化方法,動画像復号方法,動画像符号化装置および動画像復号装置
CN113055687B (zh) 一种编解码方法、装置及其设备
JP4759537B2 (ja) 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラム,画像復号プログラムおよびコンピュータ読み取り可能な記録媒体
JP2013009164A (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110215

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120717

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120724

R151 Written notification of patent or utility model registration

Ref document number: 5052134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150803

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350