JP2011146980A - 画像処理装置および方法 - Google Patents
画像処理装置および方法 Download PDFInfo
- Publication number
- JP2011146980A JP2011146980A JP2010006907A JP2010006907A JP2011146980A JP 2011146980 A JP2011146980 A JP 2011146980A JP 2010006907 A JP2010006907 A JP 2010006907A JP 2010006907 A JP2010006907 A JP 2010006907A JP 2011146980 A JP2011146980 A JP 2011146980A
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- block
- image
- unit
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/567—Motion estimation based on rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
【課題】動き予測による効率の向上をすることができるようにする。
【解決手段】16×16単位のマクロブロックに含まれる各4×4単位のブロックB00,B10,…,B33が示されている。各ブロックに対する動きベクトル情報を、それぞれmv00,mv10,…,mv33とすると、Warpingモードにおいては、復号側に送られる圧縮画像のヘッダには、マクロブロックの四隅のブロックB00,B30,B03,B33に対する動きベクトル情報mv00,mv30,mv03,mv33のみが付加される。その他の動きベクトル情報は、この四隅のブロックB00,B30,B03,B33に対する動きベクトル情報から、線形内挿により算出される。本発明は、例えば、H.264/AVC方式をベースに符号化する画像符号化装置に適用することができる。
【選択図】図8
【解決手段】16×16単位のマクロブロックに含まれる各4×4単位のブロックB00,B10,…,B33が示されている。各ブロックに対する動きベクトル情報を、それぞれmv00,mv10,…,mv33とすると、Warpingモードにおいては、復号側に送られる圧縮画像のヘッダには、マクロブロックの四隅のブロックB00,B30,B03,B33に対する動きベクトル情報mv00,mv30,mv03,mv33のみが付加される。その他の動きベクトル情報は、この四隅のブロックB00,B30,B03,B33に対する動きベクトル情報から、線形内挿により算出される。本発明は、例えば、H.264/AVC方式をベースに符号化する画像符号化装置に適用することができる。
【選択図】図8
Description
本発明は画像処理装置および方法に関し、特に、動き予測による効率の向上を実現させるようにした画像処理装置および方法に関する。
近年、画像情報をデジタルとして取り扱い、その際、効率の高い情報の伝送、蓄積を目的とし、画像情報特有の冗長性を利用して、離散コサイン変換等の直交変換と動き補償により圧縮する符号化方式を採用して画像を圧縮符号する装置が普及しつつある。この符号化方式には、例えば、MPEG(Moving Picture Experts Group)などがある。
特に、MPEG2(ISO/IEC 13818-2)は、汎用画像符号化方式として定義されており、飛び越し走査画像及び順次走査画像の双方、並びに標準解像度画像及び高精細画像を網羅する標準である。例えば、MPEG2は、プロフェッショナル用途及びコンシューマ用途の広範なアプリケーションに現在広く用いられている。MPEG2圧縮方式を用いることにより、例えば720×480画素を持つ標準解像度の飛び越し走査画像であれば4乃至8Mbpsの符号量(ビットレート)が割り当てられる。また、MPEG2圧縮方式を用いることにより、例えば1920×1088画素を持つ高解像度の飛び越し走査画像であれば18乃至22 Mbpsの符号量(ビットレート)が割り当てられる。これにより、高い圧縮率と良好な画質の実現が可能である。
MPEG2は主として放送用に適合する高画質符号化を対象としていたが、MPEG1より低い符号量(ビットレート)、つまりより高い圧縮率の符号化方式には対応していなかった。携帯端末の普及により、今後そのような符号化方式のニーズは高まると思われ、これに対応してMPEG4符号化方式の標準化が行われた。画像符号化方式に関しては、1998年12月にISO/IEC 14496-2としてその規格が国際標準に承認された。
さらに、近年、当初テレビ会議用の画像符号化を目的として、H.26L (ITU-T Q6/16 VCEG)という標準の規格化が進んでいる。H.26LはMPEG2やMPEG4といった従来の符号化方式に比べ、その符号化、復号化により多くの演算量が要求されるものの、より高い符号化効率が実現されることが知られている。また、現在、MPEG4の活動の一環として、このH.26Lをベースに、H.26Lではサポートされない機能をも取り入れ、より高い符号化効率を実現する標準化がJoint Model of Enhanced-Compression Video Codingとして行われている。標準化のスケジュールとしては、2003年3月にはH.264及びMPEG-4 Part10 (Advanced Video Coding、以下H.264/AVCと記す)という国際標準となっている。
さらに、その拡張として、RGBや4:2:2、4:4:4といった、業務用に必要な符号化ツールや、MPEG-2で規定されていた8x8DCTや量子化マトリクスをも含んだFRExt (Fidelity Range Extension) の標準化が2005年2月に完了した。これにより、H.264/AVCを用いて、映画に含まれるフィルムノイズをも良好に表現することが可能な符号化方式となって、Blu-Ray Disc(商標)等の幅広いアプリケーションに用いられる運びとなった。
しかしながら、昨今、ハイビジョン画像の4倍の、4000×2000画素程度の画像を圧縮したい、あるいは、インターネットのような、限られた伝送容量の環境において、ハイビジョン画像を配信したいといった、更なる高圧縮率符号化に対するニーズが高まっている。このため、先述の、ITU-T傘下のVCEG (=Video Coding Expert Group) において、符号化効率の改善に関する検討が継続され行なわれている。
ところで、例えば、MPEG2方式においては、フレーム動き補償モードの場合には、16×16画素、フィールド動き補償モードの場合には、第1フィールド、第2フィールドのそれぞれに対し、16×8画素を単位として動き予測・補償処理が行われている。
これに対して、H.264/AVC方式の動き予測補償においては、マクロブロックサイズは、16×16画素であるが、ブロックサイズを可変にして、動き予測・補償が行われる。
図1は、H.264/AVC方式における動き予測・補償のブロックサイズの例を示す図である。
図1の上段には、左から、16×16画素、16×8画素、8×16画素、および8×8画素のパーティションに分割された16×16画素で構成されるマクロブロックが順に示されている。また、図1の下段には、左から、8×8画素、8×4画素、4×8画素、および4×4画素のサブパーティションに分割された8×8画素のパーティションが順に示されている。
すなわち、H.264/AVC方式においては、1つのマクロブロックを、16×16画素、16×8画素、8×16画素、あるいは8×8画素のいずれかのパーティションに分割して、それぞれ独立した動きベクトル情報を持つことが可能である。また、8×8画素のパーティションに関しては、8×8画素、8×4画素、4×8画素、あるいは4×4画素のいずれかのサブパーティションに分割し、それぞれ独立した動きベクトル情報を持つことが可能である。
ここで、図1を参照して上述したように、H.264/AVC方式において、マクロブロックサイズは16×16画素である。しかしながら、マクロブロックサイズを16×16画素とするのは、次世代符号化方式の対象となるようなUHD(Ultra High Definition;4000×2000画素)といった大きな画枠に対しては最適ではない。
そこで、非特許文献1などにおいては、マクロブロックサイズを、例えば、32×32画素といった大きさに拡張することも提案されている。
図2は、非特許文献1で提案されているブロックサイズの例を示す図である。非特許文献1では、マクロブロックサイズが32×32画素に拡張されている。
図2の上段には、左から、32×32画素、32×16画素、16×32画素、および16×16画素のブロック(パーティション)に分割された32×32画素で構成されるマクロブロックが順に示されている。図2の中段には、左から、16×16画素、16×8画素、8×16画素、および8×8画素のブロックに分割された16×16画素で構成されるブロックが順に示されている。また、図2の下段には、左から、8×8画素、8×4画素、4×8画素、および4×4画素のブロックに分割された8×8画素のブロックが順に示されている。
すなわち、32×32画素のマクロブロックは、図2の上段に示される32×32画素、32×16画素、16×32画素、および16×16画素のブロックでの処理が可能である。
上段の右側に示される16×16画素のブロックは、H.264/AVC方式と同様に、中段に示される16×16画素、16×8画素、8×16画素、および8×8画素のブロックでの処理が可能である。
中段の右側に示される8×8画素のブロックは、H.264/AVC方式と同様に、下段に示される8×8画素、8×4画素、4×8画素、および4×4画素のブロックでの処理が可能である。
これらのブロックは、以下の3階層に分類することができる。すなわち、図2の上段に示される32×32画素、32×16画素、および16×32画素のブロックを第1階層と呼ぶ。上段の右側に示される16×16画素のブロック、並びに、中段に示される16×16画素、16×8画素、および8×16画素のブロックを、第2階層と呼ぶ。中段の右側に示される8×8画素のブロック、並びに、下段に示される8×8画素、8×4画素、4×8画素、および4×4画素のブロックを、第3階層と呼ぶ。
図2のような、階層構造を採用することにより、16×16画素ブロック以下に関しては、現在のAVCにおけるマクロブロックと互換性を保ちながら、そのスーパーセットとして、より大きなブロックが定義されている。
なお、非特許文献1は、インタースライスに対して拡張されたマクロブロックを適用する提案であるが、非特許文献2には、拡張されたマクロブロックを、イントラスライスに適用することが提案されている。
"Video Coding Using Extended Block Sizes",VCEG-AD09,ITU-Telecommunications Standardization Sector STUDY GROUP Question 16 - Contribution 123, Jan 2009
"Intra Coding Using Extended Block Sizes",VCEG-AL28, July 2009
ところで、上述した非特許文献1において提案されているように、動き補償ブロックサイズが大きくなると、ブロック内における最適動きベクトル情報は、必ずしも均一のものではない。しかしながら、非特許文献1に記載の提案では、それに対応した動き補償処理を行うことが困難であるため、符号化効率を低下させる要因となっている。
本発明は、このような状況に鑑みてなされたものであり、動き予測による効率の向上を実現させることができるものである。
本発明の第1の側面の画像処理装置は、符号化対象のマクロブロックから、マクロブロックサイズに応じて、複数のサブブロックを選択し、選択されたサブブロックの動きベクトルを探索する動き探索手段と、前記選択されたサブブロックの動きベクトルおよび前記マクロブロックにおける位置関係に応じた重み係数を用いて、選択されていないサブブロックの動きベクトルを算出する動きベクトル算出手段と、前記マクロブロックの画像および前記選択されたサブブロックの動きベクトルを符号化する符号化手段とを備える。
前記動き探索手段は、前記マクロブロックから、四隅のサブブロックを選択することができる。
前記動きベクトル算出手段は、前記マクロブロックにおける前記選択されたサブブロックと前記選択されていないサブブロックとの前記位置関係に応じた重み係数を算出し、算出した前記重み係数を、前記選択されたサブブロックの動きベクトルに乗じて合計することにより、前記選択されていないサブブロックの動きベクトルを算出することができる。
前記動きベクトル算出手段は、前記重み係数の算出方法として、線形内挿を用いることができる。
前記動きベクトル算出手段は、前記重み係数を乗じた後、予め規定されている動きベクトルの精度に、算出した前記選択されていないサブブロックの動きベクトルの丸め処理を行うことができる。
前記動き探索手段は、前記選択されたサブブロックのブロックマッチングにより、前記選択されたサブブロックの動きベクトルを探索することができる。
前記動き探索手段は、前記選択されたサブブロックに対して、探索範囲内のあらゆる動きベクトルの組み合わせに対する残差信号を算出し、算出した残差信号を用いたコスト関数値を最小にする動きベクトルの組み合わせを求めることで、前記選択されたサブブロックの動きベクトルを探索することができる。
前記符号化手段は、前記選択されたサブブロックの動きベクトルのみ符号化するモードであることを示すWarpingモード情報を符号化することができる。
本発明の第1の側面の画像処理方法は、画像処理装置の動き探索手段が、符号化対象のマクロブロックから、マクロブロックサイズに応じて、複数のサブブロックを選択し、選択されたサブブロックの動きベクトルを探索し、前記画像処理装置の動きベクトル算出手段が、前記選択されたサブブロックの動きベクトルおよび前記マクロブロックにおける位置関係に応じた重み係数を用いて、選択されていないサブブロックの動きベクトルを算出し、前記画像処理装置の符号化手段が、前記マクロブロックの画像および前記選択されたサブブロックの動きベクトルを符号化する。
本発明の第2の側面の画像処理装置は、復号対象のマクロブロックの画像、および符号化の際に前記マクロブロックからマクロブロックサイズに応じて選択されたサブブロックの動きベクトルを復号する復号手段と、前記復号手段により復号された前記選択されたサブブロックの動きベクトルおよび前記マクロブロックにおける位置関係に応じた重み係数を用いて、選択されていないサブブロックの動きベクトルを算出する動きベクトル算出手段と、前記復号手段により復号された前記選択されたサブブロックの動きベクトルおよび前記動きベクトル算出手段により算出された前記選択されていないサブブロックの動きベクトルを用いて、前記マクロブロックの予測画像を生成する予測画像生成手段とを備える。
前記選択されたサブブロックは、四隅のサブブロックである。
前記動きベクトル算出手段は、前記マクロブロックにおける前記選択されたサブブロックと前記選択されていないサブブロックとの前記位置関係に応じた重み係数を算出し、算出した前記重み係数を、前記選択されたサブブロックの動きベクトルに乗じて合計することにより、前記選択されていないサブブロックの動きベクトルを算出することができる。
前記動きベクトル算出手段は、前記重み係数の算出方法として、線形内挿を用いることができる。
前記動きベクトル算出手段は、前記重み係数を乗じた後、予め規定されている動きベクトルの精度に、算出した前記選択されていないサブブロックの動きベクトルの丸め処理を行うことができる。
前記選択されたサブブロックの動きベクトルは、前記選択されたサブブロックのブロックマッチングにより探索されて符号化されている。
前記選択されたサブブロックの動きベクトルは、前記選択されたサブブロックに対して、探索範囲内のあらゆる動きベクトルの組み合わせに対する残差信号を算出し、算出した残差信号を用いたコスト関数値を最小にする動きベクトルの組み合わせを求めることで、探索されて符号化されている。
前記復号手段は、前記選択されたサブブロックの動きベクトルのみ符号化するモードであることを示すWarpingモード情報を復号することができる。
本発明の第2の側面の画像処理方法は、画像処理装置の復号手段が、復号対象のマクロブロックの画像、および符号化の際に前記マクロブロックからマクロブロックサイズに応じて選択されたサブブロックの動きベクトルを復号し、前記画像処理装置の動きベクトル算出手段が、復号された前記選択されたサブブロックの動きベクトルおよび前記マクロブロックにおける位置関係に応じた重み係数を用いて、選択されていないサブブロックの動きベクトルを算出し、前記画像処理装置の予測画像生成手段が、復号された前記選択されたサブブロックの動きベクトルおよび算出された前記選択されていないサブブロックの動きベクトルを用いて、前記マクロブロックの予測画像を生成する。
本発明の第1の側面においては、符号化対象のマクロブロックから、マクロブロックサイズに応じて、複数のサブブロックが選択され、選択されたサブブロックの動きベクトルが探索され、前記選択されたサブブロックの動きベクトルおよび前記マクロブロックにおける位置関係に応じた重み係数を用いて、選択されていないサブブロックの動きベクトルが算出される。そして、前記マクロブロックの画像および前記選択されたサブブロックの動きベクトルが符号化される。
本発明の第2の側面においては、号対象のマクロブロックの画像、および符号化の際に前記マクロブロックからマクロブロックサイズに応じて選択されたサブブロックの動きベクトルが復号され、復号された前記選択されたサブブロックの動きベクトルおよび前記マクロブロックにおける位置関係に応じた重み係数を用いて、選択されていないサブブロックの動きベクトルが算出される。そして、復号された前記選択されたサブブロックの動きベクトルおよび算出された前記選択されていないサブブロックの動きベクトルを用いて、前記マクロブロックの予測画像が生成される。
なお、上述の画像処理装置のそれぞれは、独立した装置であっても良いし、1つの画像符号化装置または画像復号装置を構成している内部ブロックであってもよい。
本発明によれば、動き予測による効率の向上を実現することができる。また、本発明によれば、オーバーヘッドが削減されるので、符号化効率を改善することができる。
以下、図を参照して本発明の実施の形態について説明する。
[画像符号化装置の構成例]
図3は、本発明を適用した画像処理装置としての画像符号化装置の一実施の形態の構成を表している。
図3は、本発明を適用した画像処理装置としての画像符号化装置の一実施の形態の構成を表している。
この画像符号化装置51は、例えば、H.264及びMPEG-4 Part10(Advanced Video Coding)(以下H.264/AVCと記す)方式をベースに、画像を圧縮符号化する。すなわち、画像符号化装置51においては、H.264/AVC方式において規定されている動き補償ブロックモードだけでなく、図2を参照して上述した拡張マクロブロックも用いられる。
図3の例において、画像符号化装置51は、A/D変換部61、画面並べ替えバッファ62、演算部63、直交変換部64、量子化部65、可逆符号化部66、蓄積バッファ67、逆量子化部68、逆直交変換部69、演算部70、デブロックフィルタ71、フレームメモリ72、スイッチ73、イントラ予測部74、動き予測・補償部75、動きベクトル内挿部76、予測画像選択部77、およびレート制御部78により構成されている。
A/D変換部61は、入力された画像をA/D変換し、画面並べ替えバッファ62に出力し、記憶させる。画面並べ替えバッファ62は、記憶した表示の順番のフレームの画像を、GOP(Group of Picture)に応じて、符号化のためのフレームの順番に並べ替える。
演算部63は、画面並べ替えバッファ62から読み出された画像から、予測画像選択部77により選択されたイントラ予測部74からの予測画像または動き予測・補償部75からの予測画像を減算し、その差分情報を直交変換部64に出力する。直交変換部64は、演算部63からの差分情報に対して、離散コサイン変換、カルーネン・レーベ変換等の直交変換を施し、その変換係数を出力する。量子化部65は直交変換部64が出力する変換係数を量子化する。
量子化部65の出力となる、量子化された変換係数は、可逆符号化部66に入力され、ここで可変長符号化、算術符号化等の可逆符号化が施され、圧縮される。
可逆符号化部66は、イントラ予測を示す情報をイントラ予測部74から取得し、インター予測モードを示す情報などを動き予測・補償部75から取得する。なお、イントラ予測を示す情報およびインター予測を示す情報は、以下、それぞれ、イントラ予測モード情報およびインター予測モード情報とも称する。
可逆符号化部66は、量子化された変換係数を符号化するとともに、イントラ予測を示す情報、インター予測モードを示す情報などを符号化し、圧縮画像におけるヘッダ情報の一部とする。可逆符号化部66は、符号化したデータを蓄積バッファ67に供給して蓄積させる。
例えば、可逆符号化部66においては、可変長符号化または算術符号化等の可逆符号化処理が行われる。可変長符号化としては、H.264/AVC方式で定められているCAVLC(Context-Adaptive Variable Length Coding)などがあげられる。算術符号化としては、CABAC(Context-Adaptive Binary Arithmetic Coding)などがあげられる。
蓄積バッファ67は、可逆符号化部66から供給されたデータを、H.264/AVC方式で符号化された圧縮画像として、例えば、後段の図示せぬ記録装置や伝送路などに出力する。
また、量子化部65より出力された、量子化された変換係数は、逆量子化部68にも入力され、逆量子化された後、さらに逆直交変換部69において逆直交変換される。逆直交変換された出力は演算部70により予測画像選択部77から供給される予測画像と加算されて、局部的に復号された画像となる。デブロックフィルタ71は、復号された画像のブロック歪を除去した後、フレームメモリ72に供給し、蓄積させる。フレームメモリ72には、デブロックフィルタ71によりデブロックフィルタ処理される前の画像も供給され、蓄積される。
スイッチ73はフレームメモリ72に蓄積された参照画像を動き予測・補償部75またはイントラ予測部74に出力する。
この画像符号化装置51においては、例えば、画面並べ替えバッファ62からのIピクチャ、Bピクチャ、およびPピクチャが、イントラ予測(イントラ処理とも称する)する画像として、イントラ予測部74に供給される。また、画面並べ替えバッファ62から読み出されたBピクチャおよびPピクチャが、インター予測(インター処理とも称する)する画像として、動き予測・補償部75に供給される。
イントラ予測部74は、画面並べ替えバッファ62から読み出されたイントラ予測する画像とフレームメモリ72から供給された参照画像に基づいて、候補となる全てのイントラ予測モードのイントラ予測処理を行い、予測画像を生成する。その際、イントラ予測部74は、候補となる全てのイントラ予測モードに対してコスト関数値を算出し、算出したコスト関数値が最小値を与えるイントラ予測モードを、最適イントラ予測モードとして選択する。
イントラ予測部74は、最適イントラ予測モードで生成された予測画像とそのコスト関数値を、予測画像選択部77に供給する。イントラ予測部74は、予測画像選択部77により最適イントラ予測モードで生成された予測画像が選択された場合、最適イントラ予測モードを示す情報を、可逆符号化部66に供給する。可逆符号化部66は、この情報を符号化し、圧縮画像におけるヘッダ情報の一部とする。
動き予測・補償部75には、画面並べ替えバッファ62から読み出されたインター処理する画像と、スイッチ73を介してフレームメモリ72から参照画像が供給される。動き予測・補償部75は、候補となる全てのインター予測モードの動き探索(予測)を行い、探索した動きベクトルを用いて、参照画像に補償処理を施し、予測画像を生成する。
ここで、画像符号化装置51においては、インター予測モードの1つとして、Warpingモードが設けられている。画像符号化装置51においては、Warpingモードについても動き探索が行われ、予測画像が生成されるが、このモードの場合、動き予測・補償部75は、マクロブロックから、一部のブロック(サブブロックとも言う)を選択し、選択された一部のブロックの動きベクトルのみを探索し、探索した一部のブロックの動きベクトルを、動きベクトル内挿部76に供給する。そして、動き予測・補償部75は、探索した一部のブロックの動きベクトルと動きベクトル内挿部76により算出される残りのブロックの動きベクトルを用いて、参照画像に補償処理を施し、予測画像を生成する。
動き予測・補償部75は、探索または算出した動きベクトルを用いて、候補となる全てのインター予測モード(Warpingモードを含む)に対してコスト関数値を算出する。動き予測・補償部75は、算出したコスト関数値のうち、最小値を与える予測モードを、最適インター予測モードとして決定し、最適インター予測モードで生成された予測画像とそのコスト関数値を、予測画像選択部77に供給する。動き予測・補償部75は、予測画像選択部77により最適インター予測モードで生成された予測画像が選択された場合、最適インター予測モードを示す情報(インター予測モード情報)を可逆符号化部66に出力する。
このとき、動きベクトル情報、参照フレーム情報なども可逆符号化部66に出力される。なお、Warpingモードの場合には、マクロブロックのうち、探索を行った一部のブロックの動きベクトルのみが可逆符号化部66に出力される。可逆符号化部66は、動き予測・補償部75からの情報をやはり可変長符号化、算術符号化といった可逆符号化処理し、圧縮画像のヘッダ部に挿入する。
動きベクトル内挿部76には、動き予測・補償部75から、探索された一部のブロックの動きベクトル情報と、マクロブロック内の対応するブロックのブロックアドレスが供給される。動きベクトル内挿部76は、供給されたブロックアドレスを参照し、一部のブロックの動きベクトル情報を用いて、マクロブロックにおける残りのブロック(すなわち、動き予測・補償部75において選択されていないサブブロック)の動きベクトル情報を算出する。そして、動きベクトル内挿部76は、算出した残りのブロックの動きベクトル情報を動き予測・補償部75に供給する。
予測画像選択部77は、イントラ予測部74または動き予測・補償部75より出力された各コスト関数値に基づいて、最適イントラ予測モードと最適インター予測モードから、最適予測モードを決定する。そして、予測画像選択部77は、決定された最適予測モードの予測画像を選択し、演算部63,70に供給する。このとき、予測画像選択部77は、予測画像の選択情報を、イントラ予測部74または動き予測・補償部75に供給する。
レート制御部78は、蓄積バッファ67に蓄積された圧縮画像に基づいて、オーバーフローあるいはアンダーフローが発生しないように、量子化部65の量子化動作のレートを制御する。
[H.264/AVC方式の説明]
次に、画像符号化装置51においてベースにされているH.264/AVC方式について説明する。
次に、画像符号化装置51においてベースにされているH.264/AVC方式について説明する。
例えば、MPEG2方式においては、線形内挿処理により1/2画素精度の動き予測・補償処理が行われている。これに対して、H.264/AVC方式においては、内挿フィルタとして、6タップのFIR (Finite Impulse Response Filter)フィルタを用いた1/4画素精度の予測・補償処理が行われている。
図4は、H.264/AVC方式における1/4画素精度の予測・補償処理を説明する図である。H.264/AVC方式においては、6タップのFIR (Finite Impulse Response Filter)フィルタを用いた1/4画素精度の予測・補償処理が行われている。
図4の例において、位置Aは、整数精度画素の位置、位置b,c,dは、1/2画素精度の位置、位置e1,e2,e3は、1/4画素精度の位置を示している。まず、以下においては、Clip()を次の式(1)のように定義する。
位置cにおける画素値は、水平方向および垂直方向に6タップのFIRフィルタを適用し、次の式(3)のように生成される。
なお、Clip処理は、水平方向および垂直方向の積和処理の両方を行った後、最後に1度のみ実行される。
また、このような1/4画素精度で求められる動きベクトルを、どのような処理により選択するかも、符号化効率の高い圧縮画像を得るためには重要である。H.264/AVC方式においては、この処理の一例として、公開されているJM(Joint Model)と呼ばれる参照ソフトウエア(reference software)に実装されている方法が用いられる。
次に、図5を参照して、JMにおいて実装されている動き探索方法について説明する。
図5の例において、画素A乃至Iは、整数画素精度の画素値を有する画素(以下、整数画素精度の画素と称する)を表している。画素1乃至8は、画素E周辺における1/2画素精度の画素値を有する画素(以下、1/2画素精度の画素と称する)を表している。画素a乃至hは、画素6周りの1/4画素精度の画素値を有する画素(以下、1/4画素精度の画素と称する)を表している。
JMでは、第1のステップとして、所定の探索範囲内において、SAD(Sum of Absolute Difference)などのコスト関数値を最小にする整数画素精度の動きベクトルが求められる。これにより、求められた動きベクトルに対する画素が、画素Eであるとする。
次に、第2のステップとして、画素E、および画素E周辺の1/2画素精度の画素1乃至8のうち、上述したコスト関数値を最小にする画素値の画素が求められ、この画素(図2の例の場合、画素6)が、1/2画素精度の最適動きベクトルに対する画素とされる。
そして、第3のステップとして、画素6、および画素6周辺の1/4画素精度の画素a乃至hのうち、上述したコスト関数値を最小にする画素値の画素が求められる。これにより、求められた画素に対する動きベクトルが、1/4画素精度の最適動きベクトルとなる。
さらに、より高い符号化効率を達成するには、適切な予測モードの選択が重要である。H.264/AVC方式においては、例えば、JMにおいて定められているHigh Complexity Modeと、Low Complexity Modeの2通りのモード判定方法を選択する方法が用いられている。この方法の場合、どちらも、それぞれの予測モードModeに関するコスト関数値を算出し、これを最小にする予測モードを当該ブロック乃至マクロブロックに対する最適モードとして選択する。
High Complexity Modeにおけるコスト関数値は、以下の式(5)のように求めることができる。
Cost(Mode∈Ω)=D+λ×R ・・・(5)
式(5)において、Ωは、当該ブロック乃至マクロブロックを符号化するための候補モードの全体集合である。また、Dは、当該予測モードModeで符号化した場合の、復号画像と入力画像の差分エネルギーである。さらに、λは、量子化パラメータの関数として与えられるLagrange未定乗数である。また、Rは、直交変換係数を含んだ、当該モードModeで符号化した場合の総符号量である。
つまり、High Complexity Modeでの符号化を行なうには、上記パラメータD及びRを算出するため、全ての候補モードModeにより、一度、仮エンコード処理を行う必要があり、より高い演算量を要する。
これに対してLow Complexity Modeにおけるコスト関数値は、以下の式(6)のように求めることができる。
Cost(Mode∈Ω)=D+QP2Quant(QP)×HeaderBit ・・・(6)
となる。式(6)において、Dは、High Complexity Modeの場合と異なり、予測画像と入力画像の差分エネルギーとなる。また、QP2Quant(QP)は、量子化パラメータQPの関数として与えられる。さらに、HeaderBitは、直交変換係数を含まない、動きベクトルや、モードといった、Headerに属する情報に関する符号量である。
すなわち、Low Complexity Modeにおいては、それぞれの候補モードModeに関して、予測処理を行う必要があるが、復号画像までは必要ないため、符号化処理まで行う必要はない。このため、High Complexity Modeより低い演算量での実現が可能である。
また、H.264/AVC方式においては、マルチ参照フレームの予測・補償処理も行われている。
図6は、H.264/AVC方式におけるマルチ参照フレームの予測・補償処理を説明する図である。H.264/AVC方式においては、マルチ参照フレーム(Multi-Reference Frame) の動き予測・補償方式が定められている。
図6の例においては、いまから符号化される対象フレームFnと、符号化済みのフレームFn-5,…,Fn-1が示されている。フレームFn-1は、時間軸上、対象フレームFnの1つ前のフレームであり、フレームFn-2は、対象フレームFnの2つ前のフレームであり、フレームFn-3は、対象フレームFnの3つ前のフレームである。また、フレームFn-4は、対象フレームFnの4つ前のフレームであり、フレームFn-5は、対象フレームFnの5つ前のフレームである。一般的には、対象フレームFnに対して時間軸上に近いフレームほど、小さい参照ピクチャ番号(ref_id)が付加される。すなわち、フレームFn-1が一番参照ピクチャ番号が小さく、以降、Fn-2,…, Fn-5の順に参照ピクチャ番号が小さい。
対象フレームFnには、ブロックA1とブロックA2が示されており、ブロックA1は、2つ前のフレームFn-2のブロックA1’と相関があるとされて、動きベクトルV1が探索されている。また、ブロックA2は、4つ前のフレームFn-4のブロックA1’と相関があるとされて、動きベクトルV2が探索されている。
以上のように、H.264/AVC方式においては、複数の参照フレームをメモリに格納しておき、1枚のフレーム(ピクチャ)において、異なる参照フレームを参照することが可能である。すなわち、例えば、ブロックA1がフレームFn-2を参照し、ブロックA2がフレームFn-4を参照しているというように、1枚のピクチャにおいて、ブロック毎にそれぞれ独立した参照フレーム情報(参照ピクチャ番号(ref_id))を持つことができる。
ここで、ブロックとは、図1を参照して上述した16×16画素、16×8画素、8×16画素、および8×8画素のパーティションのいずれかを示す。8×8サブブロック内における参照フレームは同一でなければならない。
以上のように、H.264/AVC方式においては、図4を参照して上述した1/4画素精度の動き予測・補償処理、および図1および図6を参照して上述したような動き予測・補償処理が行われることにより、膨大な動きベクトル情報が生成される。この膨大な動きベクトル情報をこのまま符号化することは、符号化効率の低下を招いてしまう。これに対して、H.264/AVC方式においては、図7に示す方法により、動きベクトルの符号化情報の低減が実現されている。
図7は、H.264/AVC方式による動きベクトル情報の生成方法について説明する図である。
図7の例において、これから符号化される対象ブロックE(例えば、16×16画素)と、既に符号化済みであり、対象ブロックEに隣接するブロックA乃至Dが示されている。
すなわち、ブロックDは、対象ブロックEの左上に隣接しており、ブロックBは、対象ブロックEの上に隣接しており、ブロックCは、対象ブロックEの右上に隣接しており、ブロックAは、対象ブロックEの左に隣接している。なお、ブロックA乃至Dが区切られていないのは、それぞれ、図1で上述した16×16画素乃至4×4画素のうちのいずれかの構成のブロックであることを表している。
例えば、X(=A,B,C,D,E)に対する動きベクトル情報を、mvXで表す。まず、対象ブロックEに対する予測動きベクトル情報pmvEは、ブロックA,B,Cに関する動きベクトル情報を用いて、メディアン予測により次の式(7)のように生成される。
pmvE = med(mvA,mvB,mvC) ・・・(7)
ブロックCに関する動きベクトル情報が、画枠の端であったり、あるいは、まだ符号化されていないなどの理由により、利用可能でない(unavailableである)場合がある。この場合には、ブロックCに関する動きベクトル情報は、ブロックDに関する動きベクトル情報で代用される。
ブロックCに関する動きベクトル情報が、画枠の端であったり、あるいは、まだ符号化されていないなどの理由により、利用可能でない(unavailableである)場合がある。この場合には、ブロックCに関する動きベクトル情報は、ブロックDに関する動きベクトル情報で代用される。
対象ブロックEに対する動きベクトル情報として、圧縮画像のヘッダ部に付加されるデータmvdEは、pmvEを用いて、次の式(8)のように生成される。
mvdE = mvE - pmvE ・・・(8)
mvdE = mvE - pmvE ・・・(8)
なお、実際には、動きベクトル情報の水平方向、垂直方向のそれぞれの成分に対して、独立に処理が行われる。
このように、予測動きベクトル情報を生成し、隣接するブロックとの相関で生成された予測動きベクトル情報と動きベクトル情報との差分を、圧縮画像のヘッダ部に付加することにより、動きベクトル情報が低減される。
[詳細な構成例]
図3の画像符号化装置51においては、画像符号化処理に、Warpingモードが適用される。画像符号化装置51においては、Warpingモードを用いることにより、マクロブロックから、一部のブロック(サブブロック)が選択され、選択された一部のブロックの動きベクトルのみが予測される。そして、予測された一部のブロックの動きベクトルのみが復号側に送られる。また、マクロブロックにおける残りのブロック(すなわち、選択されていないサブブロック)の動きベクトルについては、予測した一部のブロックの動きベクトルを用いての算出処理が行われる。
図3の画像符号化装置51においては、画像符号化処理に、Warpingモードが適用される。画像符号化装置51においては、Warpingモードを用いることにより、マクロブロックから、一部のブロック(サブブロック)が選択され、選択された一部のブロックの動きベクトルのみが予測される。そして、予測された一部のブロックの動きベクトルのみが復号側に送られる。また、マクロブロックにおける残りのブロック(すなわち、選択されていないサブブロック)の動きベクトルについては、予測した一部のブロックの動きベクトルを用いての算出処理が行われる。
図8を参照して、Warpingモードについて説明する。図8の例においては、16×16単位のマクロブロックに含まれる、それぞれの4×4単位のブロックB00,B10,…,B33が示されている。なお、これらのブロックは、マクロブロックに対してサブブロックとも言う。
これらのブロックは、動き予測補償ブロックであり、各ブロックに対する動きベクトル情報を、それぞれmv00,mv10,…,mv33とする。この場合、Warpingモードにおいては、復号側に送られる圧縮画像のヘッダには、マクロブロックの四隅のブロックB00,B30,B03,B33に対する動きベクトル情報mv00,mv30,mv03,mv33のみが付加される。その他の動きベクトル情報は、この動きベクトル情報mv00,mv30,mv03,mv33から、式(9)に示されるように、四隅のブロックと残りのブロックとの位置関係に応じて重み係数を算出し、算出した重み係数を、四隅のブロックの動きベクトルに乗じて合計することにより算出される。重み係数の算出方法としては、例えば、線形内挿が用いられる。
なお、H.264/AVC方式に基づく場合、動きベクトル情報は、図4を参照して上述したように、1/4画素精度で表現されるため、式(9)の内挿処理を行った後で、それぞれの動きベクトル情報に対して、1/4画素精度に丸める処理が行われる。
従来のH.264/AVC方式においては、マクロブロック内のすべてのブロックB00乃至B33に異なる動きベクトル情報を持たせるためには、それぞれ、mv00乃至mv33の16個の動きベクトル情報を復号側に送る必要があった。
これに対して、画像符号化装置51においては、式(9)を参照して上述したように、4つの動きベクトル情報mv00,mv30,mv03,mv33を用いて、マクロブロック内のすべてのブロックB00乃至B33に異なる動きベクトル情報を持たせることが可能となり、復号側へ送る圧縮画像中のオーバーヘッドを削減することが可能になる。
特に、図2を参照して上述したように、動き補償ブロックサイズとして、従来のH.264/AVC方式よりも大きなブロックサイズが用いられる場合、当該動き補償ブロック内における動きが一様なものでない確率は、より小さな動き補償ブロックサイズに比して高いといえる。したがって、Warpingモードによる効率改善が大きいものとなる。
さらに、画素単位で、動きベクトルの内挿処理を行うと、フレームメモリ72へのアクセス効率が低下するが、Warpingモードにおいては、ブロック単位で、動きベクトルの内挿処理を行うので、フレームメモリ72へのアクセス効率の低下を防ぐことができる。
なお、図8の例においては、メモリアクセスの単位が4×4画素ブロックとなっているが、これは、図1に示されたH.264/AVC方式における最小の動き補償ブロックの大きさと同一であるため、H.264/AVC方式において動き補償に用いられるキャッシュを利用することが可能である。
また、図8を参照した上記説明においては、特に、動きベクトル情報を送るブロックが、すなわち、動き探索の際に選択されたブロックが、B00,B30,B03,B33の四隅であるとしたが、四隅である必要は必ずしもなく、少なくとも2つ以上のブロックであれば、どのブロックを選択してもよい。例えば、四隅のうちの対角にある2つ(二隅)のブロックでもよいし、隅でない対角のブロックであってもよいし、対角でなくてもよい。また、必ずしも偶数である必要もなく、3つや5つのブロックであってもよい。
特に、四隅としたのは、図7を参照して上述した動きベクトル情報のメディアン予測処理を行う場合、上述したWarpingモードにより符号化されたブロックが隣接に存在するとき、内挿により生成される動きベクトル情報でなく、復号側に送られる動きベクトル情報を用いることにより、メディアン予測による演算量をより少ないものにすることが可能であるためである。
図8の例においては、当該マクロブロックが16×16画素、当該動き補償ブロックサイズが4×4画素である場合について説明したが、本発明は、図8の例に限らず、次の図9に示されるように、あらゆるマクロブロックサイズおよびあらゆるブロックサイズに対して適用が可能である。
図9の例においては、64×64単位のマクロブロックに含まれる、それぞれの4×4単位のブロックが示されている。この例の場合、それぞれ、4×4画素ブロックに対して動きベクトル情報をすべて復号側へ送ると、256個の動きベクトル情報が必要になる。これに対して、Warpingモードを用いれば、4個を復号側へ送ればいいので、圧縮画像中におっける大幅なオーバーヘッドの削減を行うことができる。これにより、符号化効率を改善することができる。
なお、図9の例の場合も、マクロブロックを構成する動き補償ブロックサイズを、4×4画素の例を説明したが、例えば、8×8画素や、16×16画素のブロックサイズとすることもできる。
また、復号側へ送る動きベクトル情報を固定するのではなく、可変にすることもできる。その際、動きベクトルの数やブロック位置などをWarpingモード情報とともに送るようにしてもよい。さらに、マクロブロックサイズに応じて、いくつのブロックの動きベクトル情報を送るかを選択可能(可変)にすることも可能である。
さらに、Warpingモードを、図1および図2に示される全てのブロックサイズにではなく、ある程度より大きいブロックサイズにのみ適用するようにしてもよい。
以上説明してきた動き補償方式が、インターマクロブロックタイプの1つとして、Warpingモードとして規定され、画像符号化装置51においては、インター予測の候補モードの1つとして加えられる。そして、当該マクロブロックにおいて、上述したコスト関数値などが用いられて、Warpingモードが、最も高い符号化効率を実現すると判定された場合、選択されることになる。
[動き予測・補償部および動きベクトル内挿部の構成例]
図10は、動き予測・補償部75および動きベクトル内挿部76の詳細な構成例を示すブロック図である。なお、図10においては、図3のスイッチ73が省略されている。
図10は、動き予測・補償部75および動きベクトル内挿部76の詳細な構成例を示すブロック図である。なお、図10においては、図3のスイッチ73が省略されている。
図10の例において、動き予測・補償部75は、動き探索部81、動き補償部82、コスト関数算出部83、および最適インターモード判定部84により構成されえいる。
動きベクトル内挿部76は、ブロックアドレスバッファ91および動きベクトル算出部92により構成されている。
動き探索部81には、画面並べ替えバッファ62からの入力画像画素値と、フレームメモリ72からの参照画像画素値が入力される。動き探索部81は、Warpingモードを含むすべてのインター予測モードの動き探索処理を行い、それぞれのインター予測モードに対する最適動きベクトル情報を決定して、それを、動き補償部82に供給する。
このとき、動き探索部81は、Warpingモードに関しては、例えば、マクロブロックにおけるコーナー(四隅)のブロックについてのみ動き探索処理を行い、コーナー以外のブロックのブロックアドレスを、ブロックアドレスバッファ91に供給し、探索した動きベクトル情報を、動きベクトル算出部92に供給する。
動き探索部81には、動きベクトル算出部92により算出された動きベクトル情報(以下、Warping動きベクトル情報と称する)が供給される。動き探索部81は、探索した動きベクトル情報とWarping動きベクトル情報から、Warpingモードに対する最適動きベクトル情報を決定して、それを、動き補償部82および最適インターモード判定部84に供給する。なお、これらの動きベクトル情報は、最終的に、図7を参照して上述したように生成されるようにしてもよい。
動き補償部82は、動き探索部81からの動きベクトル情報を用いて、フレームメモリ72からの参照画像に補償処理を施して、予測画像を生成し、生成した予測画像をコスト関数算出部83に出力する。
コスト関数算出部83は、画面並べ替えバッファ62からの入力画像画素値と、動き補償部82からの予測画像を用いて、上述した式(5)または式(6)により、すべてのインター予測モードに対するコスト関数値を算出し、算出したコスト関数値と対応する予測画像を、最適インターモード判定部84に出力する。
最適インターモード判定部84には、コスト関数算出部83により算出されたコスト関数値および対応する予測画像、並びに、動き探索部81からの動きベクトル情報が入力される。最適インターモード判定部84は、入力されるコスト関数値のうち、最小のものを、当該マクロブロックに対する最適インターモードとして決定し、この予測モードに対応する予測画像を、予測画像選択部77に出力する。
予測画像選択部77により最適インターモードの予測画像が選択された場合には、それを示す信号が予測画像選択部77から供給されるので、最適インターモード判定部84は、最適インターモード情報、および動きベクトル情報を、可逆符号化部66に供給する。
ブロックアドレスバッファ91には、マクロブロックにおけるコーナー以外のブロックのブロックアドレスが動き探索部81から入力される。このブロックアドレスは、動きベクトル算出部92に供給される。
動きベクトル算出部92は、ブロックアドレスバッファ91からのブロックアドレスのブロックのWarping動きベクトル情報を、上述した式(9)を用いて算出し、算出したWarping動きベクトル情報を、動き探索部81に供給する。
[画像符号化装置の符号化処理の説明]
次に、図11のフローチャートを参照して、図3の画像符号化装置51の符号化処理について説明する。
次に、図11のフローチャートを参照して、図3の画像符号化装置51の符号化処理について説明する。
ステップS11において、A/D変換部61は入力された画像をA/D変換する。ステップS12において、画面並べ替えバッファ62は、A/D変換部61より供給された画像を記憶し、各ピクチャの表示する順番から符号化する順番への並べ替えを行う。
ステップS13において、演算部63は、ステップS12で並び替えられた画像と予測画像との差分を演算する。予測画像は、インター予測する場合は動き予測・補償部75から、イントラ予測する場合はイントラ予測部74から、それぞれ予測画像選択部77を介して演算部63に供給される。
差分データは元の画像データに較べてデータ量が小さくなっている。したがって、画像をそのまま符号化する場合に較べて、データ量を圧縮することができる。
ステップS14において、直交変換部64は演算部63から供給された差分情報を直交変換する。具体的には、離散コサイン変換、カルーネン・レーベ変換等の直交変換が行われ、変換係数が出力される。ステップS15において、量子化部65は変換係数を量子化する。この量子化に際しては、後述するステップS26の処理で説明されるように、レートが制御される。
以上のようにして量子化された差分情報は、次のようにして局部的に復号される。すなわち、ステップS16において、逆量子化部68は量子化部65により量子化された変換係数を量子化部65の特性に対応する特性で逆量子化する。ステップS17において、逆直交変換部69は逆量子化部68により逆量子化された変換係数を直交変換部64の特性に対応する特性で逆直交変換する。
ステップS18において、演算部70は、予測画像選択部77を介して入力される予測画像を局部的に復号された差分情報に加算し、局部的に復号された画像(演算部63への入力に対応する画像)を生成する。ステップS19においてデブロックフィルタ71は、演算部70より出力された画像をフィルタリングする。これによりブロック歪みが除去される。ステップS20においてフレームメモリ72は、フィルタリングされた画像を記憶する。なお、フレームメモリ72にはデブロックフィルタ71によりフィルタ処理されていない画像も演算部70から供給され、記憶される。
画面並べ替えバッファ62から供給される処理対象の画像がイントラ処理されるブロックの画像である場合、参照される復号済みの画像がフレームメモリ72から読み出され、スイッチ73を介してイントラ予測部74に供給される。
これらの画像に基づいて、ステップS21において、イントラ予測部74は処理対象のブロックの画素を、候補となる全てのイントラ予測モードでイントラ予測する。なお、参照される復号済みの画素としては、デブロックフィルタ71によりデブロックフィルタリングされていない画素が用いられる。
ステップS21におけるイントラ予測処理の詳細は、図12を参照して後述するが、この処理により、候補となる全てのイントラ予測モードでイントラ予測が行われ、候補となる全てのイントラ予測モードに対してコスト関数値が算出される。そして、算出されたコスト関数値に基づいて、最適イントラ予測モードが選択され、最適イントラ予測モードのイントラ予測により生成された予測画像とそのコスト関数値が予測画像選択部77に供給される。
画面並べ替えバッファ62から供給される処理対象の画像がインター処理される画像である場合、参照される画像がフレームメモリ72から読み出され、スイッチ73を介して動き予測・補償部75に供給される。これらの画像に基づいて、ステップS22において、動き予測・補償部75は、インター動き予測処理を行う。
ステップS22におけるインター動き予測処理の詳細は、図13を参照して後述する。この処理により、候補となるWarpingモードを含む全てのインター予測モードで動き探索処理が行われ、候補となる全てのインター予測モードに対してコスト関数値が算出され、算出したコスト関数値に基づいて、最適インター予測モードが決定される。そして、最適インター予測モードにより生成された予測画像とそのコスト関数値が予測画像選択部77に供給される。
ステップS23において、予測画像選択部77は、イントラ予測部74および動き予測・補償部75より出力された各コスト関数値に基づいて、最適イントラ予測モードと最適インター予測モードのうちの一方を、最適予測モードに決定する。そして、予測画像選択部77は、決定した最適予測モードの予測画像を選択し、演算部63,70に供給する。この予測画像が、上述したように、ステップS13,S18の演算に利用される。
なお、この予測画像の選択情報は、イントラ予測部74または動き予測・補償部75に供給される。最適イントラ予測モードの予測画像が選択された場合、イントラ予測部74は、最適イントラ予測モードを示す情報(すなわち、イントラ予測モード情報)を、可逆符号化部66に供給する。
最適インター予測モードの予測画像が選択された場合、動き予測・補償部75は、最適インター予測モードを示す情報と、さらに、必要に応じて、最適インター予測モードに応じた情報を可逆符号化部66に出力する。最適インター予測モードに応じた情報としては、動きベクトル情報や参照フレーム情報などがあげられる。
ステップS24において、可逆符号化部66は量子化部65より出力された量子化された変換係数を符号化する。すなわち、差分画像が可変長符号化、算術符号化等の可逆符号化され、圧縮される。このとき、上述したステップS21において可逆符号化部66に入力された、イントラ予測部74からのイントラ予測モード情報、または、ステップS22において、動き予測・補償部75からの最適インター予測モードに応じた情報なども符号化され、ヘッダ情報に付加される。
例えば、Warpingモードを含むインター予測モードを示す情報は、マクロブロック毎に符号化される。動きベクトル情報や参照フレーム情報は、対象となるブロック毎に符号化される。Warpingモードの場合、動きベクトル情報は、動き探索部81により探索された動きベクトル情報(すなわち、図8の例の場合、コーナーのブロックの動きベクトル情報)のみが符号化され、復号側に送信される。
ステップS25において蓄積バッファ67は差分画像を圧縮画像として蓄積する。蓄積バッファ67に蓄積された圧縮画像が適宜読み出され、伝送路を介して復号側に伝送される。
ステップS26においてレート制御部78は、蓄積バッファ67に蓄積された圧縮画像に基づいて、オーバーフローあるいはアンダーフローが発生しないように、量子化部65の量子化動作のレートを制御する。
[イントラ予測処理の説明]
次に、図12のフローチャートを参照して、図11のステップS21におけるイントラ予測処理を説明する。なお、図12の例においては、輝度信号の場合を例として説明する。
次に、図12のフローチャートを参照して、図11のステップS21におけるイントラ予測処理を説明する。なお、図12の例においては、輝度信号の場合を例として説明する。
イントラ予測部74は、ステップS41において、4×4画素、8×8画素、および16×16画素の各イントラ予測モードに対してイントラ予測を行う。
輝度信号のイントラ予測モードには、9種類の4×4画素および8×8画素のブロック単位、並びに4種類の16×16画素のマクロブロック単位の予測モードがあり、色差信号のイントラ予測モードには、4種類の8×8画素のブロック単位の予測モードがある。色差信号のイントラ予測モードは、輝度信号のイントラ予測モードと独立に設定が可能である。輝度信号の4×4画素および8×8画素のイントラ予測モードについては、4×4画素および8×8画素の輝度信号のブロック毎に1つのイントラ予測モードが定義される。輝度信号の16×16画素のイントラ予測モードと色差信号のイントラ予測モードについては、1つのマクロブロックに対して1つの予測モードが定義される。
具体的には、イントラ予測部74は、処理対象のブロックの画素を、フレームメモリ72から読み出され、スイッチ73を介して供給される復号済みの画像を参照して、イントラ予測する。このイントラ予測処理が、各イントラ予測モードで行われることで、各イントラ予測モードでの予測画像が生成される。なお、参照される復号済みの画素としては、デブロックフィルタ71によりデブロックフィルタリングされていない画素が用いられる。
イントラ予測部74は、ステップS42において、4×4画素、8×8画素、および16×16画素の各イントラ予測モードに対するコスト関数値を算出する。ここで、コスト関数値を求めるためのコスト関数としては、上述した式(5)または式(6)のコスト関数が用いられる。
イントラ予測部74は、ステップS43において、4×4画素、8×8画素、および16×16画素の各イントラ予測モードに対して、それぞれ最適モードを決定する。すなわち、上述したように、イントラ4×4予測モードおよびイントラ8×8予測モードの場合には、予測モードの種類が9種類あり、イントラ16×16予測モードの場合には、予測モードの種類が4種類ある。したがって、イントラ予測部74は、ステップS42において算出されたコスト関数値に基づいて、それらの中から、最適イントラ4×4予測モード、最適イントラ8×8予測モード、最適イントラ16×16予測モードを決定する。
イントラ予測部74は、ステップS44において、4×4画素、8×8画素、および16×16画素の各イントラ予測モードに対して決定された各最適モードの中から、ステップS42において算出されたコスト関数値に基づいて、最適イントラ予測モードを選択する。すなわち、4×4画素、8×8画素、および16×16画素に対して決定された各最適モードの中から、コスト関数値が最小値であるモードを、最適イントラ予測モードとして選択する。そして、イントラ予測部74は、最適イントラ予測モードで生成された予測画像とそのコスト関数値とを、予測画像選択部77に供給する。
[インター動き予測処理の説明]
次に、図13のフローチャートを参照して、図11のステップS22のインター動き予測処理について説明する。
次に、図13のフローチャートを参照して、図11のステップS22のインター動き予測処理について説明する。
動き探索部81は、ステップS51において、16×16画素乃至4×4画素からなる8種類の各インター予測モードに対して動きベクトルと参照画像をそれぞれ決定する。すなわち、各インター予測モードの処理対象のブロックについて、動きベクトルと参照画像がそれぞれ決定され、動きベクトル情報は、動き補償部82と最適インターモード判定部84に供給される。
動き補償部82は、ステップS52において、16×16画素乃至4×4画素からなる8種類の各インター予測モードについて、ステップS61で決定された動きベクトルに基づいて、参照画像に補償処理を行う。この補償処理により、各インター予測モードでの予測画像が生成され、生成された予測画像は、コスト関数算出部83に出力される。
コスト関数算出部83は、ステップS53において、16×16画素乃至4×4画素からなる8種類の各インター予測モードに対して、上述した式(5)または式(6)で示されるコスト関数値を算出する。算出したコスト関数値と対応する予測画像は、最適インターモード判定部84に出力される。
また、動き探索部81は、ステップS54において、Warpingモード動き予測処理を行う。このWarpingモード動き予測処理の詳細は、図14を参照して後述するが、この処理により、Warpingモードの動きベクトル情報(探索された動きベクトル情報とWarping動きベクトル情報)が求められ、それらに基づいて、予測画像が生成され、コスト関数値がされる。このWarpingモードのコスト関数値と対応する予測画像は、最適インターモード判定部84に出力される。
ステップS55において、最適インターモード判定部84は、ステップS53において算出されたインター予測モードとWarpingモードに対してのコスト関数値を比較し、最小値を与える予測モードを、最適インター予測モードとして決定する。そして、最適インターモード判定部84は、最適インター予測モードで生成された予測画像とそのコスト関数値を、予測画像選択部77に供給する。
なお、図13においては、Warpingモードを詳しく説明するため、説明の便宜上、既存のインター予測モードとWarpingモードの処理を別々のステップとして説明したが、もちろん、Warpingモードも、他のインター予測モードと同じステップで処理されるようにしてもよい。
次に、図14のフローチャートを参照して、図13のステップS53のWarpingモード動き予測処理を説明する。なお、図14の例の場合、動きベクトル情報を探索して、復号側に送る必要のあるブロックが、図8の例のように、コーナーのブロックである例が示されている。
ステップS61において、動き探索部81は、マクロブロックのコーナーに存在するブロックB00,B03,B30,B33についてのみ、ブロックマッチングなどの方法により、動き探索を行う。探索された動きベクトル情報は、動き探索部81に供給される。また、動き探索部81は、コーナー以外に存在するブロックのブロックアドレスを、ブロックアドレスバッファ91に供給する。
ステップS62において、動きベクトル算出部92は、コーナー以外に存在するブロックに対する動きベクトル情報を算出する。すなわち、動きベクトル算出部92は、ブロックアドレスバッファ91の当該ブロックのブロックアドレスを参照し、動き探索部81により探索されたコーナーのブロックの動きベクトル情報を用いて、上述した式(9)により、Warping動きベクトル情報を算出する。算出されたWarping動きベクトル情報は、動き探索部81に供給される。
動き探索部81は、探索したコーナーに存在するブロックの動きベクトル情報とWarping動きベクトル情報を、動き補償部82および最適インターモード判定部84に出力する。
動き補償部82は、ステップS63において、探索したコーナーに存在するブロックの動きベクトル情報とWarping動きベクトル情報を用いて、マクロブロックの全てのブロックに対して、フレームメモリ72からの参照画像に動き補償を行い、予測画像を生成する。そして、生成された予測画像は、コスト関数算出部83に出力される。
コスト関数算出部83は、ステップS64において、Warpingモードに対して、上述した式(5)または式(6)で示されるコスト関数値を算出する。算出したWarpingモードのコスト関数値と対応する予測画像は、最適インターモード判定部84に出力される。
以上のように、図14の方法においては、マクロブロックにおけるコーナーに存在するブロックのみ、動き探索および動き補償が行われ、それ以外のブロックについては、動き探索を行われず、動き補償のみが行われる。
次に、図15のフローチャートを参照して、図13のステップS53のWarpingモード動き予測処理の他の例を説明する。なお、図15の例の場合も、動きベクトル情報を探索して、復号側に送る必要のあるブロックが、図8の例のように、コーナーのブロックである例が示されている。
また、図15の例においては、図5を参照して上述したように、まず、ステップS81およびS82において整数画素精度の動き探索処理が行われ、次にステップS83およびS84において1/2画素精度の動き探索処理が行われる。そして、最後に、ステップS85およびS86において1/4画素精度の動き探索が行われる。なお、動きベクトル情報は、本来、水平方向成分と垂直方向成分を持つ2次元データであるが、以下では、説明の便宜上、1次元データとして説明する。
ここで、Rを整数として、図8のB00,B03,B30,B33のぞれぞれのブロックに関して、動きベクトルの探索範囲として、整数画素単位で、-R≦x<Rが指定されているものとする。
まず、動き予測・補償部75の動き探索部81は、ステップS81において、マクロブロックのコーナーに存在するブロックに対する整数画素精度の動きベクトルの組み合わせを設定する。整数画素単位の動き探索においては、ブロックB00,B03,B30,B33に対する動きベクトルの全ての組み合わせとしては、(2R)4通りあり得る。
動き予測・補償部75は、ステップS82において、マクロブロック全体の残差を最小にする組み合わせを決定する。すなわち、動きベクトル算出部92は、(2R)4通りの動きベクトルの全ての組み合わせにより、動きベクトルが伝送されないブロックB10,B23,…に対する動きベクトルをも算出し、動き補償部82は、すべての予測画像を生成する。
これに対応して、コスト関数算出部83は、これらのブロックに対する予測残差も含む、マクロブロック全体のコスト関数値を算出し、最適インターモード判定部84は、これらのコスト関数値を最小にする組み合わせを決定する。ここで決定された組み合わせを、Intmv00,Intmv30,Intmv03,Intmv33とする。
次に、動き探索部81は、ステップS83において、マクロブロックのコーナーに存在するブロックに対する1/2画素精度の動きベクトルの組み合わせを設定する。すなわち、Intmvij(i,j=0 or 3)およびIntmvij±0.5が、ブロックB00,B03,B30,B33に対する候補であり、つまり、ここでは、34通りの組み合わせを試すことになる。
動き予測・補償部75は、ステップS84において、マクロブロック全体の残差を最小にする組み合わせを決定する。すなわち、動きベクトル算出部92は、34通りの動きベクトルの全ての組み合わせにより、動きベクトルが伝送されないブロックB10,B23,…に対する動きベクトルをも算出し、動き補償部82は、すべての予測画像を生成する。
これに対応して、コスト関数算出部83は、これらのブロックに対する予測残差も含む、マクロブロック全体のコスト関数値を算出し、最適インターモード判定部84は、これらのコスト関数値を最小にする組み合わせを決定する。ここで決定された組み合わせを、halfmv00, halfmv30, halfmv03, halfmv33とする。
さらに、動き探索部81は、ステップS85において、マクロブロックのコーナーに存在するブロックに対する1/4画素精度の動きベクトルの組み合わせを設定する。すなわち、halfmvij(i,j=0 or 3)およびIntmvij±0.25が、ブロックB00,B03,B30,B33に対する候補であり、つまり、ここでも、34通りの組み合わせを試すことになる。
動き予測・補償部75は、ステップS86において、マクロブロック全体の残差を最小にする組み合わせを決定する。すなわち、動きベクトル算出部92は、34通りの動きベクトルの全ての組み合わせにより、動きベクトルが伝送されないブロックB10,B23,…に対する動きベクトルをも算出し、動き補償部82は、すべての予測画像を生成する。
これに対応して、コスト関数算出部83は、これらのブロックに対する予測残差も含む、マクロブロック全体のコスト関数値を算出し、最適インターモード判定部84は、これらのコスト関数値を最小にする組み合わせを決定する。決定された組み合わせが、Quartermv00, Quartermv30, Quartermv03, Quartermv33となり、このときの最小のコスト関数値が、Warpingモードのコスト関数値であるとして、上述した図13のステップS55で他の予測モードのコスト関数値と比較される。
以上のように、図15の方法においては、マクロブロックにおけるコーナーに存在するブロックに対して、探索範囲内のあらゆる精度の動きベクトルの組み合わせに対する残差信号が算出され、算出された残差信号を用いたコスト関数値を最小にする動きベクトルの組み合わせを求めることにより、コーナーに存在する動きベクトルが探索される。したがって、図14および図15を参照して上述した2つのWarpingモード動き予測方法を比較すると、図14の方法の方が演算量が低いが、図15の方法の方がより高い符号化効率を実現することが可能である。
符号化された圧縮画像は、所定の伝送路を介して伝送され、画像復号装置により復号される。
[画像復号装置の構成例]
図16は、本発明を適用した画像処理装置としての画像復号装置の一実施の形態の構成を表している。
図16は、本発明を適用した画像処理装置としての画像復号装置の一実施の形態の構成を表している。
画像復号装置101は、蓄積バッファ111、可逆復号部112、逆量子化部113、逆直交変換部114、演算部115、デブロックフィルタ116、画面並べ替えバッファ117、D/A変換部118、フレームメモリ119、スイッチ120、イントラ予測部121、動き補償部122、動きベクトル内挿部123、およびスイッチ124により構成されている。
蓄積バッファ111は伝送されてきた圧縮画像を蓄積する。可逆復号部112は、蓄積バッファ111より供給された、図3の可逆符号化部66により符号化された情報を、可逆符号化部66の符号化方式に対応する方式で復号する。逆量子化部113は可逆復号部112により復号された画像を、図3の量子化部65の量子化方式に対応する方式で逆量子化する。逆直交変換部114は、図3の直交変換部64の直交変換方式に対応する方式で逆量子化部113の出力を逆直交変換する。
逆直交変換された出力は演算部115によりスイッチ124から供給される予測画像と加算されて復号される。デブロックフィルタ116は、復号された画像のブロック歪を除去した後、フレームメモリ119に供給し、蓄積させるとともに、画面並べ替えバッファ117に出力する。
画面並べ替えバッファ117は、画像の並べ替えを行う。すなわち、図3の画面並べ替えバッファ62により符号化の順番のために並べ替えられたフレームの順番が、元の表示の順番に並べ替えられる。D/A変換部118は、画面並べ替えバッファ117から供給された画像をD/A変換し、図示せぬディスプレイに出力し、表示させる。
スイッチ120は、インター処理される画像と参照される画像をフレームメモリ119から読み出し、動き補償部122に出力するとともに、イントラ予測に用いられる画像をフレームメモリ119から読み出し、イントラ予測部121に供給する。
イントラ予測部121には、ヘッダ情報を復号して得られたイントラ予測モードを示す情報が可逆復号部112から供給される。イントラ予測部121は、この情報に基づいて、予測画像を生成し、生成した予測画像を、スイッチ124に出力する。
動き補償部122には、ヘッダ情報を復号して得られた情報のうち、インター予測モード情報、動きベクトル情報、参照フレーム情報などが可逆復号部112から供給される。インター予測モード情報は、マクロブロック毎に送信されてくる。動きベクトル情報や参照フレーム情報は、対象ブロック毎に送信されてくる。
動き補償部122は、可逆復号部112から供給されるインター予測モード情報が示す予測モードで、対象ブロックに対する予測画像の画素値を生成する。ただし、インター予測モード情報が示す予測モードがWarpingモードの場合、動き補償部122においては、マクロブロックに含まれる一部の動きベクトルだけが可逆復号部112から供給される。この動きベクトルは、動きベクトル内挿部123に供給される。そして、この場合、動き補償部122は、探索した一部のブロックの動きベクトルと動きベクトル内挿部123により算出される残りのブロックの動きベクトルを用いて、参照画像に補償処理を施し、予測画像を生成する。
動きベクトル内挿部123には、動き補償部122から、探索された一部のブロックの動きベクトル情報と、マクロブロック内の対応するブロックのブロックアドレスが供給される。動きベクトル内挿部123は、供給されたブロックアドレスを参照し、一部のブロックの動きベクトル情報を用いて、マクロブロックにおける残りのブロックの動きベクトル情報を算出する。そして、動きベクトル内挿部123は、算出した残りのブロックの動きベクトル情報を動き補償部122に供給する。
スイッチ124は、動き補償部122またはイントラ予測部121により生成された予測画像を選択し、演算部115に供給する。
なお、図3の動き予測・補償部75および動きベクトル内挿部76においては、Warpingモードを含む全ての候補モードに対して予測画像の生成およびコスト関数値の算出を行い、モード判定を行う必要がある。これに対して、図16の動き補償部122および動きベクトル内挿部123においては、圧縮画像のヘッダから当該ブロックに対するモード情報および動きベクトル情報を受信して、これを用いた動き補償処理のみが行われる。
[動き予測・補償部および適応内挿フィルタ設定部の構成例]
図17は、動き補償部122および動きベクトル内挿部123の詳細な構成例を示すブロック図である。なお、図17においては、図16のスイッチ120が省略されている。
図17は、動き補償部122および動きベクトル内挿部123の詳細な構成例を示すブロック図である。なお、図17においては、図16のスイッチ120が省略されている。
図17の例においては、動き補償部122は、動きベクトルバッファ131および予測画像生成部132により構成される。
動きベクトル内挿部123は、動きベクトル算出部141およびブロックアドレスバッファ142により構成される。
動きベクトルバッファ131は、可逆復号部112からのブロック毎の動きベクトル情報を蓄積し、予測画像生成部132および動きベクトル算出部141に供給する。
予測画像生成部132は、可逆復号部112から予測モード情報が供給され、動きベクトルバッファ131から動きベクトル情報が供給される。予測モード情報が示す予測モードがWarpingモードの場合、予測画像生成部132は、符号化側から動きベクトル情報が送られてこないブロック、例えば、マクロブロックのコーナー以外のブロックのブロックアドレスを、ブロックアドレスバッファ142に供給する。そして、予測画像生成部132は、動きベクトルバッファ131からのマクロブロックのコーナーの動きベクトル情報と、それ以外のブロックの動きベクトル算出部141により算出されたWarping動きベクトル情報を用いて、フレームメモリ119の参照画像に補償処理を施し、予測画像を生成する。生成した予測画像は、スイッチ124に出力される。
動きベクトル算出部141は、ブロックアドレスバッファ142からのブロックアドレスのブロックのWarping動きベクトル情報を、上述した式(9)を用いて算出し、算出したWarping動きベクトル情報を、予測画像生成部132に供給する。
ブロックアドレスバッファ142には、マクロブロックにおけるコーナー以外のブロックのブロックアドレスが予測画像生成部132から入力される。このブロックアドレスは、動きベクトル算出部141に供給される。
[画像復号装置の復号処理の説明]
次に、図18のフローチャートを参照して、画像復号装置101が実行する復号処理について説明する。
次に、図18のフローチャートを参照して、画像復号装置101が実行する復号処理について説明する。
ステップS131において、蓄積バッファ111は伝送されてきた画像を蓄積する。ステップS132において、可逆復号部112は、蓄積バッファ111から供給される圧縮画像を復号する。すなわち、図3の可逆符号化部66により符号化されたIピクチャ、Pピクチャ、並びにBピクチャが復号される。
このとき、動きベクトル情報、参照フレーム情報、予測モード情報(イントラ予測モード、またはインター予測モードを示す情報)なども復号される。
すなわち、予測モード情報がイントラ予測モード情報である場合、予測モード情報は、イントラ予測部121に供給される。予測モード情報がインター予測モード情報である場合、予測モード情報と対応する動きベクトル情報および参照フレーム情報は、動き補償部122に供給される。
ステップS133において、逆量子化部113は可逆復号部112により復号された変換係数を、図3の量子化部65の特性に対応する特性で逆量子化する。ステップS134において逆直交変換部114は逆量子化部113により逆量子化された変換係数を、図3の直交変換部64の特性に対応する特性で逆直交変換する。これにより図3の直交変換部64の入力(演算部63の出力)に対応する差分情報が復号されたことになる。
ステップS135において、演算部115は、後述するステップS139の処理で選択され、スイッチ124を介して入力される予測画像を差分情報と加算する。これにより元の画像が復号される。ステップS136においてデブロックフィルタ116は、演算部115より出力された画像をフィルタリングする。これによりブロック歪みが除去される。ステップS137においてフレームメモリ119は、フィルタリングされた画像を記憶する。
ステップS138において、イントラ予測部121または動き補償部122は、可逆復号部112から供給される予測モード情報に対応して、それぞれ画像の予測処理を行う。
すなわち、可逆復号部112からイントラ予測モード情報が供給された場合、イントラ予測部121は、イントラ予測モードのイントラ予測処理を行う。可逆復号部112からインター予測モード情報が供給された場合、動き補償部122は、インター予測モードの動き予測・補償処理を行う。なお、インター予測モードがWarpingモードの場合、動き補償部122は、可逆復号部112からの動きベクトルだけでなく、動きベクトル内挿部123により算出された動きベクトルも用いて、対象ブロックに対する予測画像の画素値を生成する。
ステップS138における予測処理の詳細は、図19を参照して後述するが、この処理により、イントラ予測部121により生成された予測画像、または動き補償部122により生成された予測画像がスイッチ124に供給される。
ステップS139において、スイッチ124は予測画像を選択する。すなわち、イントラ予測部121により生成された予測画像、または動き補償部122により生成された予測画像が供給される。したがって、供給された予測画像が選択されて演算部115に供給され、上述したように、ステップS135において逆直交変換部114の出力と加算される。
ステップS140において、画面並べ替えバッファ117は並べ替えを行う。すなわち画像符号化装置51の画面並べ替えバッファ62により符号化のために並べ替えられたフレームの順序が、元の表示の順序に並べ替えられる。
ステップS141において、D/A変換部118は、画面並べ替えバッファ117からの画像をD/A変換する。この画像が図示せぬディスプレイに出力され、画像が表示される。
[画像復号装置の予測処理の説明]
次に、図19のフローチャートを参照して、図18のステップS138の予測処理を説明する。
次に、図19のフローチャートを参照して、図18のステップS138の予測処理を説明する。
イントラ予測部121は、ステップS171において、対象ブロックがイントラ符号化されているか否かを判定する。可逆復号部112からイントラ予測モード情報がイントラ予測部121に供給されると、イントラ予測部121は、ステップS171において、対象ブロックがイントラ符号化されていると判定し、処理は、ステップS172に進む。
イントラ予測部121は、ステップS172において、イントラ予測モード情報を取得し、ステップS173において、イントラ予測を行う。
すなわち、処理対象の画像がイントラ処理される画像である場合、必要な画像がフレームメモリ119から読み出され、スイッチ120を介してイントラ予測部121に供給される。ステップS173において、イントラ予測部121は、ステップS172で取得したイントラ予測モード情報に従ってイントラ予測し、予測画像を生成する。生成した予測画像は、スイッチ124に出力される。
一方、ステップS171において、イントラ符号化されていないと判定された場合、処理は、ステップS174に進む。
処理対象の画像がインター処理される画像である場合、可逆復号部112からインター予測モード情報、参照フレーム情報、動きベクトル情報が動き補償部122に供給される。
ステップS174において、動き補償部122は、予測モード情報などを取得する。すなわち、インター予測モード情報、参照フレーム情報、動きベクトル情報が取得される。取得された動きベクトル情報は、動きベクトルバッファ131に蓄積される。
ステップS175において、動き補償部122の予測画像生成部132は、予測モード情報が示す予測モードがWarpingモードであるか否かを判定する。
ステップS175においてWarpingモードであると判定された場合、予測画像生成部132から、マクロブロックにおけるコーナー以外のブロックのブロックアドレスが、ブロックアドレスバッファ142を経由して、動きベクトル算出部141に供給される。
これに対応して、動きベクトル算出部141は、ステップS176において、動きベクトルバッファ131から、コーナーブロックの動きベクトル情報を取得する。ステップS177において、動きベクトル算出部141は、コーナーブロックの動きベクトル情報を用い、ブロックアドレスバッファ142からのブロックアドレスのブロックのWarping動きベクトル情報を、上述した式(9)により算出する。算出されたWarping動きベクトル情報は、予測画像生成部132に供給される。
この場合、予測画像生成部132は、ステップS178において、動きベクトルバッファ131からの動きベクトル情報と動きベクトル算出部141からのWarping動きベクトル情報を用いて、フレームメモリ119からの参照画像に補償処理を施し、予測画像を生成する。
一方、ステップS175においてWarpingモードではないと判定された場合、ステップS176およびS177はスキップされる。そして、ステップS178において、予測画像生成部132は、予測モード情報が示す予測モードで、動きベクトルバッファ131からの動きベクトル情報を用いて、フレームメモリ119からの参照画像に補償処理を施し、予測画像を生成する。生成された予測画像は、スイッチ124に出力される。
以上のように、画像符号化装置51および画像復号装置101においては、インター予測モードの1つとして、Warpingモードが設けられる。
画像符号化装置51においては、Warpingモードとして、マクロブロックにおける1部(上記例では、コーナー)のブロックの動きベクトルのみが探索され、探索された動きベクトルのみが復号側に送信される。
これにより、復号側へ送る圧縮画像中のオーバーヘッドを削減することが可能になる。
また、画像符号化装置51および画像復号装置101においては、Warpingモードとして、1部のブロックの動きベクトルが用いられて、他のブロックの動きベクトルが生成され、それらが用いられて予測画像が生成される。
したがって、ブロック内で単一でない動きベクトル情報を用いることができるので、動き予測による効率の向上を実現させることができる。
さらに、Warpingモードにおいては、ブロック単位で、動きベクトルの内挿処理を行うので、フレームメモリへのアクセス効率の低下を防ぐことができる。
なお、Bピクチャの場合には、画像符号化装置51も画像復号装置101も、List0予測およびList1予測のそれぞれについて、例えば、図8や式(9)に示される方法により、動きベクトル情報の生成および動き予測補償処理を行う。
以上においては、符号化方式としてH.264/AVC方式をベースに用いるようにしたが、本発明はこれに限らず、当該フレームを複数の動き補償ブロックに分割し、それぞれに対して、動きベクトル情報を割り当てて符号化処理を行う、その他の符号化方式/復号方式にも適用することができる。
なお、本発明は、例えば、MPEG、H.26x等の様に、離散コサイン変換等の直交変換と動き補償によって圧縮された画像情報(ビットストリーム)を、衛星放送、ケーブルテレビジョン、インターネット、または携帯電話機などのネットワークメディアを介して受信する際に用いられる画像符号化装置および画像復号装置に適用することができる。また、本発明は、光、磁気ディスク、およびフラッシュメモリのような記憶メディア上で処理する際に用いられる画像符号化装置および画像復号装置に適用することができる。さらに、本発明は、それらの画像符号化装置および画像復号装置などに含まれる動き予測補償装置にも適用することができる。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な汎用のパーソナルコンピュータなどが含まれる。
[パーソナルコンピュータの構成例]
図20は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
図20は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、およびドライブ210が接続されている。
入力部206は、キーボード、マウス、マイクロホンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインタフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。
以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを入出力インタフェース205及びバス204を介してRAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、上述した画像符号化装置51や画像復号装置101は、任意の電子機器に適用することができる。以下にその例について説明する。
[テレビジョン受像機の構成例]
図21は、本発明を適用した画像復号装置を用いるテレビジョン受像機の主な構成例を示すブロック図である。
図21は、本発明を適用した画像復号装置を用いるテレビジョン受像機の主な構成例を示すブロック図である。
図21に示されるテレビジョン受像機300は、地上波チューナ313、ビデオデコーダ315、映像信号処理回路318、グラフィック生成回路319、パネル駆動回路320、および表示パネル321を有する。
地上波チューナ313は、地上アナログ放送の放送波信号を、アンテナを介して受信し、復調し、映像信号を取得し、それをビデオデコーダ315に供給する。ビデオデコーダ315は、地上波チューナ313から供給された映像信号に対してデコード処理を施し、得られたデジタルのコンポーネント信号を映像信号処理回路318に供給する。
映像信号処理回路318は、ビデオデコーダ315から供給された映像データに対してノイズ除去などの所定の処理を施し、得られた映像データをグラフィック生成回路319に供給する。
グラフィック生成回路319は、表示パネル321に表示させる番組の映像データや、ネットワークを介して供給されるアプリケーションに基づく処理による画像データなどを生成し、生成した映像データや画像データをパネル駆動回路320に供給する。また、グラフィック生成回路319は、項目の選択などにユーザにより利用される画面を表示するための映像データ(グラフィック)を生成し、それを番組の映像データに重畳したりすることによって得られた映像データをパネル駆動回路320に供給するといった処理も適宜行う。
パネル駆動回路320は、グラフィック生成回路319から供給されたデータに基づいて表示パネル321を駆動し、番組の映像や上述した各種の画面を表示パネル321に表示させる。
表示パネル321はLCD(Liquid Crystal Display)などよりなり、パネル駆動回路320による制御に従って番組の映像などを表示させる。
また、テレビジョン受像機300は、音声A/D(Analog/Digital)変換回路314、音声信号処理回路322、エコーキャンセル/音声合成回路323、音声増幅回路324、およびスピーカ325も有する。
地上波チューナ313は、受信した放送波信号を復調することにより、映像信号だけでなく音声信号も取得する。地上波チューナ313は、取得した音声信号を音声A/D変換回路314に供給する。
音声A/D変換回路314は、地上波チューナ313から供給された音声信号に対してA/D変換処理を施し、得られたデジタルの音声信号を音声信号処理回路322に供給する。
音声信号処理回路322は、音声A/D変換回路314から供給された音声データに対してノイズ除去などの所定の処理を施し、得られた音声データをエコーキャンセル/音声合成回路323に供給する。
エコーキャンセル/音声合成回路323は、音声信号処理回路322から供給された音声データを音声増幅回路324に供給する。
音声増幅回路324は、エコーキャンセル/音声合成回路323から供給された音声データに対してD/A変換処理、増幅処理を施し、所定の音量に調整した後、音声をスピーカ325から出力させる。
さらに、テレビジョン受像機300は、デジタルチューナ316およびMPEGデコーダ317も有する。
デジタルチューナ316は、デジタル放送(地上デジタル放送、BS(Broadcasting Satellite)/CS(Communications Satellite)デジタル放送)の放送波信号を、アンテナを介して受信し、復調し、MPEG-TS(Moving Picture Experts Group-Transport Stream)を取得し、それをMPEGデコーダ317に供給する。
MPEGデコーダ317は、デジタルチューナ316から供給されたMPEG-TSに施されているスクランブルを解除し、再生対象(視聴対象)になっている番組のデータを含むストリームを抽出する。MPEGデコーダ317は、抽出したストリームを構成する音声パケットをデコードし、得られた音声データを音声信号処理回路322に供給するとともに、ストリームを構成する映像パケットをデコードし、得られた映像データを映像信号処理回路318に供給する。また、MPEGデコーダ317は、MPEG-TSから抽出したEPG(Electronic Program Guide)データを図示せぬ経路を介してCPU332に供給する。
テレビジョン受像機300は、このように映像パケットをデコードするMPEGデコーダ317として、上述した画像復号装置101を用いる。したがって、MPEGデコーダ317は、画像復号装置101の場合と同様に、動き予測による効率の向上を実現することができる。
MPEGデコーダ317から供給された映像データは、ビデオデコーダ315から供給された映像データの場合と同様に、映像信号処理回路318において所定の処理が施される。そして、所定の処理が施された映像データは、グラフィック生成回路319において、生成された映像データ等が適宜重畳され、パネル駆動回路320を介して表示パネル321に供給され、その画像が表示される。
MPEGデコーダ317から供給された音声データは、音声A/D変換回路314から供給された音声データの場合と同様に、音声信号処理回路322において所定の処理が施される。そして、所定の処理が施された音声データは、エコーキャンセル/音声合成回路323を介して音声増幅回路324に供給され、D/A変換処理や増幅処理が施される。その結果、所定の音量に調整された音声がスピーカ325から出力される。
また、テレビジョン受像機300は、マイクロホン326、およびA/D変換回路327も有する。
A/D変換回路327は、音声会話用のものとしてテレビジョン受像機300に設けられるマイクロホン326により取り込まれたユーザの音声の信号を受信する。A/D変換回路327は、受信した音声信号に対してA/D変換処理を施し、得られたデジタルの音声データをエコーキャンセル/音声合成回路323に供給する。
エコーキャンセル/音声合成回路323は、テレビジョン受像機300のユーザ(ユーザA)の音声のデータがA/D変換回路327から供給されている場合、ユーザAの音声データを対象としてエコーキャンセルを行う。そして、エコーキャンセル/音声合成回路323は、エコーキャンセルの後、他の音声データと合成するなどして得られた音声のデータを、音声増幅回路324を介してスピーカ325より出力させる。
さらに、テレビジョン受像機300は、音声コーデック328、内部バス329、SDRAM(Synchronous Dynamic Random Access Memory)330、フラッシュメモリ331、CPU332、USB(Universal Serial Bus) I/F333、およびネットワークI/F334も有する。
A/D変換回路327は、音声会話用のものとしてテレビジョン受像機300に設けられるマイクロホン326により取り込まれたユーザの音声の信号を受信する。A/D変換回路327は、受信した音声信号に対してA/D変換処理を施し、得られたデジタルの音声データを音声コーデック328に供給する。
音声コーデック328は、A/D変換回路327から供給された音声データを、ネットワーク経由で送信するための所定のフォーマットのデータに変換し、内部バス329を介してネットワークI/F334に供給する。
ネットワークI/F334は、ネットワーク端子335に装着されたケーブルを介してネットワークに接続される。ネットワークI/F334は、例えば、そのネットワークに接続される他の装置に対して、音声コーデック328から供給された音声データを送信する。また、ネットワークI/F334は、例えば、ネットワークを介して接続される他の装置から送信される音声データを、ネットワーク端子335を介して受信し、それを、内部バス329を介して音声コーデック328に供給する。
音声コーデック328は、ネットワークI/F334から供給された音声データを所定のフォーマットのデータに変換し、それをエコーキャンセル/音声合成回路323に供給する。
エコーキャンセル/音声合成回路323は、音声コーデック328から供給される音声データを対象としてエコーキャンセルを行い、他の音声データと合成するなどして得られた音声のデータを、音声増幅回路324を介してスピーカ325より出力させる。
SDRAM330は、CPU332が処理を行う上で必要な各種のデータを記憶する。
フラッシュメモリ331は、CPU332により実行されるプログラムを記憶する。フラッシュメモリ331に記憶されているプログラムは、テレビジョン受像機300の起動時などの所定のタイミングでCPU332により読み出される。フラッシュメモリ331には、デジタル放送を介して取得されたEPGデータ、ネットワークを介して所定のサーバから取得されたデータなども記憶される。
例えば、フラッシュメモリ331には、CPU332の制御によりネットワークを介して所定のサーバから取得されたコンテンツデータを含むMPEG-TSが記憶される。フラッシュメモリ331は、例えばCPU332の制御により、そのMPEG-TSを、内部バス329を介してMPEGデコーダ317に供給する。
MPEGデコーダ317は、デジタルチューナ316から供給されたMPEG-TSの場合と同様に、そのMPEG-TSを処理する。このようにテレビジョン受像機300は、映像や音声等よりなるコンテンツデータを、ネットワークを介して受信し、MPEGデコーダ317を用いてデコードし、その映像を表示させたり、音声を出力させたりすることができる。
また、テレビジョン受像機300は、リモートコントローラ351から送信される赤外線信号を受光する受光部337も有する。
受光部337は、リモートコントローラ351からの赤外線を受光し、復調して得られたユーザ操作の内容を表す制御コードをCPU332に出力する。
CPU332は、フラッシュメモリ331に記憶されているプログラムを実行し、受光部337から供給される制御コードなどに応じてテレビジョン受像機300の全体の動作を制御する。CPU332とテレビジョン受像機300の各部は、図示せぬ経路を介して接続されている。
USB I/F333は、USB端子336に装着されたUSBケーブルを介して接続される、テレビジョン受像機300の外部の機器との間でデータの送受信を行う。ネットワークI/F334は、ネットワーク端子335に装着されたケーブルを介してネットワークに接続し、ネットワークに接続される各種の装置と音声データ以外のデータの送受信も行う。
テレビジョン受像機300は、MPEGデコーダ317として画像復号装置101を用いることにより、符号化効率を向上することができる。その結果として、テレビジョン受像機300は、アンテナを介して受信した放送波信号や、ネットワークを介して取得したコンテンツデータから、より高精細な復号画像を得て、表示することができる。
[携帯電話機の構成例]
図22は、本発明を適用した画像符号化装置および画像復号装置を用いる携帯電話機の主な構成例を示すブロック図である。
図22は、本発明を適用した画像符号化装置および画像復号装置を用いる携帯電話機の主な構成例を示すブロック図である。
図22に示される携帯電話機400は、各部を統括的に制御するようになされた主制御部450、電源回路部451、操作入力制御部452、画像エンコーダ453、カメラI/F部454、LCD制御部455、画像デコーダ456、多重分離部457、記録再生部462、変復調回路部458、および音声コーデック459を有する。これらは、バス460を介して互いに接続されている。
また、携帯電話機400は、操作キー419、CCD(Charge Coupled Devices)カメラ416、液晶ディスプレイ418、記憶部423、送受信回路部463、アンテナ414、マイクロホン(マイク)421、およびスピーカ417を有する。
電源回路部451は、ユーザの操作により終話および電源キーがオン状態にされると、バッテリパックから各部に対して電力を供給することにより携帯電話機400を動作可能な状態に起動する。
携帯電話機400は、CPU、ROMおよびRAM等でなる主制御部450の制御に基づいて、音声通話モードやデータ通信モード等の各種モードで、音声信号の送受信、電子メールや画像データの送受信、画像撮影、またはデータ記録等の各種動作を行う。
例えば、音声通話モードにおいて、携帯電話機400は、マイクロホン(マイク)421で集音した音声信号を、音声コーデック459によってデジタル音声データに変換し、これを変復調回路部458でスペクトラム拡散処理し、送受信回路部463でデジタルアナログ変換処理および周波数変換処理する。携帯電話機400は、その変換処理により得られた送信用信号を、アンテナ414を介して図示しない基地局へ送信する。基地局へ伝送された送信用信号(音声信号)は、公衆電話回線網を介して通話相手の携帯電話機に供給される。
また、例えば、音声通話モードにおいて、携帯電話機400は、アンテナ414で受信した受信信号を送受信回路部463で増幅し、さらに周波数変換処理およびアナログデジタル変換処理し、変復調回路部458でスペクトラム逆拡散処理し、音声コーデック459によってアナログ音声信号に変換する。携帯電話機400は、その変換して得られたアナログ音声信号をスピーカ417から出力する。
更に、例えば、データ通信モードにおいて電子メールを送信する場合、携帯電話機400は、操作キー419の操作によって入力された電子メールのテキストデータを、操作入力制御部452において受け付ける。携帯電話機400は、そのテキストデータを主制御部450において処理し、LCD制御部455を介して、画像として液晶ディスプレイ418に表示させる。
また、携帯電話機400は、主制御部450において、操作入力制御部452が受け付けたテキストデータやユーザ指示等に基づいて電子メールデータを生成する。携帯電話機400は、その電子メールデータを、変復調回路部458でスペクトラム拡散処理し、送受信回路部463でデジタルアナログ変換処理および周波数変換処理する。携帯電話機400は、その変換処理により得られた送信用信号を、アンテナ414を介して図示しない基地局へ送信する。基地局へ伝送された送信用信号(電子メール)は、ネットワークおよびメールサーバ等を介して、所定のあて先に供給される。
また、例えば、データ通信モードにおいて電子メールを受信する場合、携帯電話機400は、基地局から送信された信号を、アンテナ414を介して送受信回路部463で受信し、増幅し、さらに周波数変換処理およびアナログデジタル変換処理する。携帯電話機400は、その受信信号を変復調回路部458でスペクトラム逆拡散処理して元の電子メールデータを復元する。携帯電話機400は、復元された電子メールデータを、LCD制御部455を介して液晶ディスプレイ418に表示する。
なお、携帯電話機400は、受信した電子メールデータを、記録再生部462を介して、記憶部423に記録する(記憶させる)ことも可能である。
この記憶部423は、書き換え可能な任意の記憶媒体である。記憶部423は、例えば、RAMや内蔵型フラッシュメモリ等の半導体メモリであってもよいし、ハードディスクであってもよいし、磁気ディスク、光磁気ディスク、光ディスク、USBメモリ、またはメモリカード等のリムーバブルメディアであってもよい。もちろん、これら以外のものであってもよい。
さらに、例えば、データ通信モードにおいて画像データを送信する場合、携帯電話機400は、撮像によりCCDカメラ416で画像データを生成する。CCDカメラ416は、レンズや絞り等の光学デバイスと光電変換素子としてのCCDを有し、被写体を撮像し、受光した光の強度を電気信号に変換し、被写体の画像の画像データを生成する。その画像データを、カメラI/F部454を介して、画像エンコーダ453で、例えばMPEG2やMPEG4等の所定の符号化方式によって圧縮符号化することにより符号化画像データに変換する。
携帯電話機400は、このような処理を行う画像エンコーダ453として、上述した画像符号化装置51を用いる。したがって、画像エンコーダ453は、画像符号化装置51の場合と同様に、動き予測による効率の向上を実現することができる。
なお、携帯電話機400は、このとき同時に、CCDカメラ416で撮像中にマイクロホン(マイク)421で集音した音声を、音声コーデック459においてアナログデジタル変換し、さらに符号化する。
携帯電話機400は、多重分離部457において、画像エンコーダ453から供給された符号化画像データと、音声コーデック459から供給されたデジタル音声データとを、所定の方式で多重化する。携帯電話機400は、その結果得られる多重化データを、変復調回路部458でスペクトラム拡散処理し、送受信回路部463でデジタルアナログ変換処理および周波数変換処理する。携帯電話機400は、その変換処理により得られた送信用信号を、アンテナ414を介して図示しない基地局へ送信する。基地局へ伝送された送信用信号(画像データ)は、ネットワーク等を介して、通信相手に供給される。
なお、画像データを送信しない場合、携帯電話機400は、CCDカメラ416で生成した画像データを、画像エンコーダ453を介さずに、LCD制御部455を介して液晶ディスプレイ418に表示させることもできる。
また、例えば、データ通信モードにおいて、簡易ホームページ等にリンクされた動画像ファイルのデータを受信する場合、携帯電話機400は、基地局から送信された信号を、アンテナ414を介して送受信回路部463で受信し、増幅し、さらに周波数変換処理およびアナログデジタル変換処理する。携帯電話機400は、その受信信号を変復調回路部458でスペクトラム逆拡散処理して元の多重化データを復元する。携帯電話機400は、多重分離部457において、その多重化データを分離して、符号化画像データと音声データとに分ける。
携帯電話機400は、画像デコーダ456において、符号化画像データを、MPEG2やMPEG4等の所定の符号化方式に対応した復号方式でデコードすることにより、再生動画像データを生成し、これを、LCD制御部455を介して液晶ディスプレイ418に表示させる。これにより、例えば、簡易ホームページにリンクされた動画像ファイルに含まれる動画データが液晶ディスプレイ418に表示される。
携帯電話機400は、このような処理を行う画像デコーダ456として、上述した画像復号装置101を用いる。したがって、画像デコーダ456は、画像復号装置101の場合と同様に、動き予測による効率の向上を実現することができる。
このとき、携帯電話機400は、同時に、音声コーデック459において、デジタルの音声データをアナログ音声信号に変換し、これをスピーカ417より出力させる。これにより、例えば、簡易ホームページにリンクされた動画像ファイルに含まれる音声データが再生される。
なお、電子メールの場合と同様に、携帯電話機400は、受信した簡易ホームページ等にリンクされたデータを、記録再生部462を介して、記憶部423に記録する(記憶させる)ことも可能である。
また、携帯電話機400は、主制御部450において、撮像されてCCDカメラ416で得られた2次元コードを解析し、2次元コードに記録された情報を取得することができる。
さらに、携帯電話機400は、赤外線通信部481で赤外線により外部の機器と通信することができる。
携帯電話機400は、画像エンコーダ453として画像符号化装置51を用いることにより、符号化効率を向上させることができる。結果として、携帯電話機400は、符号化効率のよい符号化データ(画像データ)を、他の装置に提供することができる。
また、携帯電話機400は、画像デコーダ456として画像復号装置101を用いることにより、符号化効率を向上させることができる。その結果として、携帯電話機400は、例えば、簡易ホームページにリンクされた動画像ファイルから、より高精細な復号画像を得て、表示することができる。
なお、以上において、携帯電話機400が、CCDカメラ416を用いるように説明したが、このCCDカメラ416の代わりに、CMOS(Complementary Metal Oxide Semiconductor)を用いたイメージセンサ(CMOSイメージセンサ)を用いるようにしてもよい。この場合も、携帯電話機400は、CCDカメラ416を用いる場合と同様に、被写体を撮像し、被写体の画像の画像データを生成することができる。
また、以上においては携帯電話機400として説明したが、例えば、PDA(Personal Digital Assistants)、スマートフォン、UMPC(Ultra Mobile Personal Computer)、ネットブック、ノート型パーソナルコンピュータ等、この携帯電話機400と同様の撮像機能や通信機能を有する装置であれば、どのような装置であっても携帯電話機400の場合と同様に、画像符号化装置51および画像復号装置101を適用することができる。
[ハードディスクレコーダの構成例]
図23は、本発明を適用した画像符号化装置および画像復号装置を用いるハードディスクレコーダの主な構成例を示すブロック図である。
図23は、本発明を適用した画像符号化装置および画像復号装置を用いるハードディスクレコーダの主な構成例を示すブロック図である。
図23に示されるハードディスクレコーダ(HDDレコーダ)500は、チューナにより受信された、衛星や地上のアンテナ等より送信される放送波信号(テレビジョン信号)に含まれる放送番組のオーディオデータとビデオデータを、内蔵するハードディスクに保存し、その保存したデータをユーザの指示に応じたタイミングでユーザに提供する装置である。
ハードディスクレコーダ500は、例えば、放送波信号よりオーディオデータとビデオデータを抽出し、それらを適宜復号し、内蔵するハードディスクに記憶させることができる。また、ハードディスクレコーダ500は、例えば、ネットワークを介して他の装置からオーディオデータやビデオデータを取得し、それらを適宜復号し、内蔵するハードディスクに記憶させることもできる。
さらに、ハードディスクレコーダ500は、例えば、内蔵するハードディスクに記録されているオーディオデータやビデオデータを復号してモニタ560に供給し、モニタ560の画面にその画像を表示させる。また、ハードディスクレコーダ500は、モニタ560のスピーカよりその音声を出力させることができる。
ハードディスクレコーダ500は、例えば、チューナを介して取得された放送波信号より抽出されたオーディオデータとビデオデータ、または、ネットワークを介して他の装置から取得したオーディオデータやビデオデータを復号してモニタ560に供給し、モニタ560の画面にその画像を表示させる。また、ハードディスクレコーダ500は、モニタ560のスピーカよりその音声を出力させることもできる。
もちろん、この他の動作も可能である。
図23に示されるように、ハードディスクレコーダ500は、受信部521、復調部522、デマルチプレクサ523、オーディオデコーダ524、ビデオデコーダ525、およびレコーダ制御部526を有する。ハードディスクレコーダ500は、さらに、EPGデータメモリ527、プログラムメモリ528、ワークメモリ529、ディスプレイコンバータ530、OSD(On Screen Display)制御部531、ディスプレイ制御部532、記録再生部533、D/Aコンバータ534、および通信部535を有する。
また、ディスプレイコンバータ530は、ビデオエンコーダ541を有する。記録再生部533は、エンコーダ551およびデコーダ552を有する。
受信部521は、リモートコントローラ(図示せず)からの赤外線信号を受信し、電気信号に変換してレコーダ制御部526に出力する。レコーダ制御部526は、例えば、マイクロプロセッサなどにより構成され、プログラムメモリ528に記憶されているプログラムに従って、各種の処理を実行する。レコーダ制御部526は、このとき、ワークメモリ529を必要に応じて使用する。
通信部535は、ネットワークに接続され、ネットワークを介して他の装置との通信処理を行う。例えば、通信部535は、レコーダ制御部526により制御され、チューナ(図示せず)と通信し、主にチューナに対して選局制御信号を出力する。
復調部522は、チューナより供給された信号を、復調し、デマルチプレクサ523に出力する。デマルチプレクサ523は、復調部522より供給されたデータを、オーディオデータ、ビデオデータ、およびEPGデータに分離し、それぞれ、オーディオデコーダ524、ビデオデコーダ525、またはレコーダ制御部526に出力する。
オーディオデコーダ524は、入力されたオーディオデータを、例えばMPEG方式でデコードし、記録再生部533に出力する。ビデオデコーダ525は、入力されたビデオデータを、例えばMPEG方式でデコードし、ディスプレイコンバータ530に出力する。レコーダ制御部526は、入力されたEPGデータをEPGデータメモリ527に供給し、記憶させる。
ディスプレイコンバータ530は、ビデオデコーダ525またはレコーダ制御部526より供給されたビデオデータを、ビデオエンコーダ541により、例えばNTSC(National Television Standards Committee)方式のビデオデータにエンコードし、記録再生部533に出力する。また、ディスプレイコンバータ530は、ビデオデコーダ525またはレコーダ制御部526より供給されるビデオデータの画面のサイズを、モニタ560のサイズに対応するサイズに変換する。ディスプレイコンバータ530は、画面のサイズが変換されたビデオデータを、さらに、ビデオエンコーダ541によってNTSC方式のビデオデータに変換し、アナログ信号に変換し、ディスプレイ制御部532に出力する。
ディスプレイ制御部532は、レコーダ制御部526の制御のもと、OSD(On Screen Display)制御部531が出力したOSD信号を、ディスプレイコンバータ530より入力されたビデオ信号に重畳し、モニタ560のディスプレイに出力し、表示させる。
モニタ560にはまた、オーディオデコーダ524が出力したオーディオデータが、D/Aコンバータ534によりアナログ信号に変換されて供給されている。モニタ560は、このオーディオ信号を内蔵するスピーカから出力する。
記録再生部533は、ビデオデータやオーディオデータ等を記録する記憶媒体としてハードディスクを有する。
記録再生部533は、例えば、オーディオデコーダ524より供給されるオーディオデータを、エンコーダ551によりMPEG方式でエンコードする。また、記録再生部533は、ディスプレイコンバータ530のビデオエンコーダ541より供給されるビデオデータを、エンコーダ551によりMPEG方式でエンコードする。記録再生部533は、そのオーディオデータの符号化データとビデオデータの符号化データとをマルチプレクサにより合成する。記録再生部533は、その合成データをチャネルコーディングして増幅し、そのデータを、記録ヘッドを介してハードディスクに書き込む。
記録再生部533は、再生ヘッドを介してハードディスクに記録されているデータを再生し、増幅し、デマルチプレクサによりオーディオデータとビデオデータに分離する。記録再生部533は、デコーダ552によりオーディオデータおよびビデオデータをMPEG方式でデコードする。記録再生部533は、復号したオーディオデータをD/A変換し、モニタ560のスピーカに出力する。また、記録再生部533は、復号したビデオデータをD/A変換し、モニタ560のディスプレイに出力する。
レコーダ制御部526は、受信部521を介して受信されるリモートコントローラからの赤外線信号により示されるユーザ指示に基づいて、EPGデータメモリ527から最新のEPGデータを読み出し、それをOSD制御部531に供給する。OSD制御部531は、入力されたEPGデータに対応する画像データを発生し、ディスプレイ制御部532に出力する。ディスプレイ制御部532は、OSD制御部531より入力されたビデオデータをモニタ560のディスプレイに出力し、表示させる。これにより、モニタ560のディスプレイには、EPG(電子番組ガイド)が表示される。
また、ハードディスクレコーダ500は、インターネット等のネットワークを介して他の装置から供給されるビデオデータ、オーディオデータ、またはEPGデータ等の各種データを取得することができる。
通信部535は、レコーダ制御部526に制御され、ネットワークを介して他の装置から送信されるビデオデータ、オーディオデータ、およびEPGデータ等の符号化データを取得し、それをレコーダ制御部526に供給する。レコーダ制御部526は、例えば、取得したビデオデータやオーディオデータの符号化データを記録再生部533に供給し、ハードディスクに記憶させる。このとき、レコーダ制御部526および記録再生部533が、必要に応じて再エンコード等の処理を行うようにしてもよい。
また、レコーダ制御部526は、取得したビデオデータやオーディオデータの符号化データを復号し、得られるビデオデータをディスプレイコンバータ530に供給する。ディスプレイコンバータ530は、ビデオデコーダ525から供給されるビデオデータと同様に、レコーダ制御部526から供給されるビデオデータを処理し、ディスプレイ制御部532を介してモニタ560に供給し、その画像を表示させる。
また、この画像表示に合わせて、レコーダ制御部526が、復号したオーディオデータを、D/Aコンバータ534を介してモニタ560に供給し、その音声をスピーカから出力させるようにしてもよい。
さらに、レコーダ制御部526は、取得したEPGデータの符号化データを復号し、復号したEPGデータをEPGデータメモリ527に供給する。
以上のようなハードディスクレコーダ500は、ビデオデコーダ525、デコーダ552、およびレコーダ制御部526に内蔵されるデコーダとして画像復号装置101を用いる。したがって、ビデオデコーダ525、デコーダ552、およびレコーダ制御部526に内蔵されるデコーダは、画像復号装置101の場合と同様に、動き予測による効率の向上を実現することができる。
したがって、ハードディスクレコーダ500は、精度の高い予測画像を生成することができる。その結果として、ハードディスクレコーダ500は、例えば、チューナを介して受信されたビデオデータの符号化データや、記録再生部533のハードディスクから読み出されたビデオデータの符号化データや、ネットワークを介して取得したビデオデータの符号化データから、より高精細な復号画像を得て、モニタ560に表示させることができる。
また、ハードディスクレコーダ500は、エンコーダ551として画像符号化装置51を用いる。したがって、エンコーダ551は、画像符号化装置51の場合と同様に、動き予測による効率の向上を実現することができる。
したがって、ハードディスクレコーダ500は、例えば、ハードディスクに記録する符号化データの符号化効率を向上させることができる。その結果として、ハードディスクレコーダ500は、ハードディスクの記憶領域をより効率よく使用することができる。
なお、以上においては、ビデオデータやオーディオデータをハードディスクに記録するハードディスクレコーダ500について説明したが、もちろん、記録媒体はどのようなものであってもよい。例えばフラッシュメモリ、光ディスク、またはビデオテープ等、ハードディスク以外の記録媒体を適用するレコーダであっても、上述したハードディスクレコーダ500の場合と同様に、画像符号化装置51および画像復号装置101を適用することができる。
[カメラの構成例]
図24は、本発明を適用した画像復号装置および画像符号化装置を用いるカメラの主な構成例を示すブロック図である。
図24は、本発明を適用した画像復号装置および画像符号化装置を用いるカメラの主な構成例を示すブロック図である。
図24に示されるカメラ600は、被写体を撮像し、被写体の画像をLCD616に表示させたり、それを画像データとして、記録メディア633に記録したりする。
レンズブロック611は、光(すなわち、被写体の映像)を、CCD/CMOS612に入射させる。CCD/CMOS612は、CCDまたはCMOSを用いたイメージセンサであり、受光した光の強度を電気信号に変換し、カメラ信号処理部613に供給する。
カメラ信号処理部613は、CCD/CMOS612から供給された電気信号を、Y,Cr,Cbの色差信号に変換し、画像信号処理部614に供給する。画像信号処理部614は、コントローラ621の制御の下、カメラ信号処理部613から供給された画像信号に対して所定の画像処理を施したり、その画像信号をエンコーダ641で例えばMPEG方式により符号化したりする。画像信号処理部614は、画像信号を符号化して生成した符号化データを、デコーダ615に供給する。さらに、画像信号処理部614は、オンスクリーンディスプレイ(OSD)620において生成された表示用データを取得し、それをデコーダ615に供給する。
以上の処理において、カメラ信号処理部613は、バス617を介して接続されるDRAM(Dynamic Random Access Memory)618を適宜利用し、必要に応じて画像データや、その画像データが符号化された符号化データ等をそのDRAM618に保持させる。
デコーダ615は、画像信号処理部614から供給された符号化データを復号し、得られた画像データ(復号画像データ)をLCD616に供給する。また、デコーダ615は、画像信号処理部614から供給された表示用データをLCD616に供給する。LCD616は、デコーダ615から供給された復号画像データの画像と表示用データの画像を適宜合成し、その合成画像を表示する。
オンスクリーンディスプレイ620は、コントローラ621の制御の下、記号、文字、または図形からなるメニュー画面やアイコンなどの表示用データを、バス617を介して画像信号処理部614に出力する。
コントローラ621は、ユーザが操作部622を用いて指令した内容を示す信号に基づいて、各種処理を実行するとともに、バス617を介して、画像信号処理部614、DRAM618、外部インタフェース619、オンスクリーンディスプレイ620、およびメディアドライブ623等を制御する。FLASH ROM624には、コントローラ621が各種処理を実行する上で必要なプログラムやデータ等が格納される。
例えば、コントローラ621は、画像信号処理部614やデコーダ615に代わって、DRAM618に記憶されている画像データを符号化したり、DRAM618に記憶されている符号化データを復号したりすることができる。このとき、コントローラ621は、画像信号処理部614やデコーダ615の符号化・復号方式と同様の方式によって符号化・復号処理を行うようにしてもよいし、画像信号処理部614やデコーダ615が対応していない方式により符号化・復号処理を行うようにしてもよい。
また、例えば、操作部622から画像印刷の開始が指示された場合、コントローラ621は、DRAM618から画像データを読み出し、それを、バス617を介して外部インタフェース619に接続されるプリンタ634に供給して印刷させる。
さらに、例えば、操作部622から画像記録が指示された場合、コントローラ621は、DRAM618から符号化データを読み出し、それを、バス617を介してメディアドライブ623に装着される記録メディア633に供給して記憶させる。
記録メディア633は、例えば、磁気ディスク、光磁気ディスク、光ディスク、または半導体メモリ等の、読み書き可能な任意のリムーバブルメディアである。記録メディア633は、もちろん、リムーバブルメディアとしての種類も任意であり、テープデバイスであってもよいし、ディスクであってもよいし、メモリカードであってもよい。もちろん、非接触ICカード等であっても良い。
また、メディアドライブ623と記録メディア633を一体化し、例えば、内蔵型ハードディスクドライブやSSD(Solid State Drive)等のように、非可搬性の記憶媒体により構成されるようにしてもよい。
外部インタフェース619は、例えば、USB入出力端子などで構成され、画像の印刷を行う場合に、プリンタ634と接続される。また、外部インタフェース619には、必要に応じてドライブ631が接続され、磁気ディスク、光ディスク、あるいは光磁気ディスクなどのリムーバブルメディア632が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて、FLASH ROM624にインストールされる。
さらに、外部インタフェース619は、LANやインターネット等の所定のネットワークに接続されるネットワークインタフェースを有する。コントローラ621は、例えば、操作部622からの指示に従って、DRAM618から符号化データを読み出し、それを外部インタフェース619から、ネットワークを介して接続される他の装置に供給させることができる。また、コントローラ621は、ネットワークを介して他の装置から供給される符号化データや画像データを、外部インタフェース619を介して取得し、それをDRAM618に保持させたり、画像信号処理部614に供給したりすることができる。
以上のようなカメラ600は、デコーダ615として画像復号装置101を用いる。したがって、デコーダ615は、画像復号装置101の場合と同様に、動き予測による効率の向上を実現することができる。
したがって、カメラ600は、精度の高い予測画像を生成することができる。その結果として、カメラ600は、例えば、CCD/CMOS612において生成された画像データや、DRAM618または記録メディア633から読み出されたビデオデータの符号化データや、ネットワークを介して取得したビデオデータの符号化データから、より高精細な復号画像を得て、LCD616に表示させることができる。
また、カメラ600は、エンコーダ641として画像符号化装置51を用いる。したがって、エンコーダ641は、画像符号化装置51の場合と同様に、動き予測による効率の向上を実現することができる。
したがって、カメラ600は、例えば、ハードディスクに記録する符号化データの符号化効率を向上させることができる。その結果として、カメラ600は、DRAM618や記録メディア633の記憶領域をより効率よく使用することができる。
なお、コントローラ621が行う復号処理に画像復号装置101の復号方法を適用するようにしてもよい。同様に、コントローラ621が行う符号化処理に画像符号化装置51の符号化方法を適用するようにしてもよい。
また、カメラ600が撮像する画像データは動画像であってもよいし、静止画像であってもよい。
もちろん、画像符号化装置51および画像復号装置101は、上述した装置以外の装置やシステムにも適用可能である。
51 画像符号化装置, 66 可逆符号化部, 74 イントラ予測部, 75 動き予測・補償部, 76 動きベクトル内挿部, 81 動き探索部, 82 動き補償部, 83 コスト関数算出部, 84 最適インターモード判定部, 91 ブロックアドレスバッファ, 92 動きベクトル算出部, 101 画像復号装置, 112 可逆復号部, 121 イントラ予測部, 122 動き補償部, 123 動きベクトル内挿部, 131 動きベクトルバッファ, 132 予測画像生成部, 141 動きベクトル算出部, 142 ブロックアドレスバッファ
Claims (18)
- 符号化対象のマクロブロックから、マクロブロックサイズに応じて、複数のサブブロックを選択し、選択されたサブブロックの動きベクトルを探索する動き探索手段と、
前記選択されたサブブロックの動きベクトルおよび前記マクロブロックにおける位置関係に応じた重み係数を用いて、選択されていないサブブロックの動きベクトルを算出する動きベクトル算出手段と、
前記マクロブロックの画像および前記選択されたサブブロックの動きベクトルを符号化する符号化手段と
を備える画像処理装置。 - 前記動き探索手段は、前記マクロブロックから、四隅のサブブロックを選択する
請求項1に記載の画像処理装置。 - 前記動きベクトル算出手段は、前記マクロブロックにおける前記選択されたサブブロックと前記選択されていないサブブロックとの前記位置関係に応じた重み係数を算出し、算出した前記重み係数を、前記選択されたサブブロックの動きベクトルに乗じて合計することにより、前記選択されていないサブブロックの動きベクトルを算出する
請求項1に記載の画像処理装置。 - 前記動きベクトル算出手段は、前記重み係数の算出方法として、線形内挿を用いる
請求項3に記載の画像処理装置。 - 前記動きベクトル算出手段は、前記重み係数を乗じた後、予め規定されている動きベクトルの精度に、算出した前記選択されていないサブブロックの動きベクトルの丸め処理を行う
請求項3に記載の画像処理装置。 - 前記動き探索手段は、前記選択されたサブブロックのブロックマッチングにより、前記選択されたサブブロックの動きベクトルを探索する
請求項1に記載の画像処理装置。 - 前記動き探索手段は、前記選択されたサブブロックに対して、探索範囲内のあらゆる動きベクトルの組み合わせに対する残差信号を算出し、算出した残差信号を用いたコスト関数値を最小にする動きベクトルの組み合わせを求めることで、前記選択されたサブブロックの動きベクトルを探索する
請求項1に記載の画像処理装置。 - 前記符号化手段は、前記選択されたサブブロックの動きベクトルのみ符号化するモードであることを示すWarpingモード情報を符号化する
請求項1に記載の画像処理装置。 - 画像処理装置の動き探索手段が、
符号化対象のマクロブロックから、マクロブロックサイズに応じて、複数のサブブロックを選択し、選択されたサブブロックの動きベクトルを探索し、
前記画像処理装置の動きベクトル算出手段が、
前記選択されたサブブロックの動きベクトルおよび前記マクロブロックにおける位置関係に応じた重み係数を用いて、選択されていないサブブロックの動きベクトルを算出し、
前記画像処理装置の符号化手段が、
前記マクロブロックの画像および前記選択されたサブブロックの動きベクトルを符号化する
画像処理方法。 - 復号対象のマクロブロックの画像、および符号化の際に前記マクロブロックからマクロブロックサイズに応じて選択されたサブブロックの動きベクトルを復号する復号手段と、
前記復号手段により復号された前記選択されたサブブロックの動きベクトルおよび前記マクロブロックにおける位置関係に応じた重み係数を用いて、選択されていないサブブロックの動きベクトルを算出する動きベクトル算出手段と、
前記復号手段により復号された前記選択されたサブブロックの動きベクトルおよび前記動きベクトル算出手段により算出された前記選択されていないサブブロックの動きベクトルを用いて、前記マクロブロックの予測画像を生成する予測画像生成手段と
を備える画像処理装置。 - 前記選択されたサブブロックは、四隅のサブブロックである
請求項10に記載の画像処理装置。 - 前記動きベクトル算出手段は、前記マクロブロックにおける前記選択されたサブブロックと前記選択されていないサブブロックとの前記位置関係に応じた重み係数を算出し、算出した前記重み係数を、前記選択されたサブブロックの動きベクトルに乗じて合計することにより、前記選択されていないサブブロックの動きベクトルを算出する
請求項10に記載の画像処理装置。 - 前記動きベクトル算出手段は、前記重み係数の算出方法として、線形内挿を用いる
請求項12に記載の画像処理装置。 - 前記動きベクトル算出手段は、前記重み係数を乗じた後、予め規定されている動きベクトルの精度に、算出した前記選択されていないサブブロックの動きベクトルの丸め処理を行う
請求項12に記載の画像処理装置。 - 前記選択されたサブブロックの動きベクトルは、前記選択されたサブブロックのブロックマッチングにより探索されて符号化されている
請求項10に記載の画像処理装置。 - 前記選択されたサブブロックの動きベクトルは、前記選択されたサブブロックに対して、探索範囲内のあらゆる動きベクトルの組み合わせに対する残差信号を算出し、算出した残差信号を用いたコスト関数値を最小にする動きベクトルの組み合わせを求めることで、探索されて符号化されている
請求項10に記載の画像処理装置。 - 前記復号手段は、前記選択されたサブブロックの動きベクトルのみ符号化するモードであることを示すWarpingモード情報を復号する
請求項10に記載の画像処理装置 - 画像処理装置の復号手段が、
復号対象のマクロブロックの画像、および符号化の際に前記マクロブロックからマクロブロックサイズに応じて選択されたサブブロックの動きベクトルを復号し、
前記画像処理装置の動きベクトル算出手段が、
復号された前記選択されたサブブロックの動きベクトルおよび前記マクロブロックにおける位置関係に応じた重み係数を用いて、選択されていないサブブロックの動きベクトルを算出し、
前記画像処理装置の予測画像生成手段が、
復号された前記選択されたサブブロックの動きベクトルおよび算出された前記選択されていないサブブロックの動きベクトルを用いて、前記マクロブロックの予測画像を生成する
画像処理方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010006907A JP2011146980A (ja) | 2010-01-15 | 2010-01-15 | 画像処理装置および方法 |
PCT/JP2011/050100 WO2011086963A1 (ja) | 2010-01-15 | 2011-01-06 | 画像処理装置および方法 |
CN2011800055992A CN102696227A (zh) | 2010-01-15 | 2011-01-06 | 图像处理设备和方法 |
US13/521,221 US20120288004A1 (en) | 2010-01-15 | 2011-01-06 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010006907A JP2011146980A (ja) | 2010-01-15 | 2010-01-15 | 画像処理装置および方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011146980A true JP2011146980A (ja) | 2011-07-28 |
Family
ID=44304236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010006907A Withdrawn JP2011146980A (ja) | 2010-01-15 | 2010-01-15 | 画像処理装置および方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20120288004A1 (ja) |
JP (1) | JP2011146980A (ja) |
CN (1) | CN102696227A (ja) |
WO (1) | WO2011086963A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017164441A1 (ko) * | 2016-03-24 | 2017-09-28 | 엘지전자 주식회사 | 비디오 코딩 시스템에서 인터 예측 방법 및 장치 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101383775B1 (ko) | 2011-05-20 | 2014-04-14 | 주식회사 케이티 | 화면 내 예측 방법 및 장치 |
CN105247858A (zh) * | 2013-07-12 | 2016-01-13 | 联发科技(新加坡)私人有限公司 | 三维视频编码中子预测单元的视图间运动预测的方法 |
WO2015003383A1 (en) | 2013-07-12 | 2015-01-15 | Mediatek Singapore Pte. Ltd. | Methods for inter-view motion prediction |
CN110989284A (zh) * | 2014-04-22 | 2020-04-10 | 日本电信电话株式会社 | 视频呈现装置、视频呈现方法以及程序 |
JP2019530299A (ja) * | 2016-10-13 | 2019-10-17 | 富士通株式会社 | 画像コーディング/デコーディング方法、装置及び画像処理機器 |
CN108366394A (zh) * | 2018-01-24 | 2018-08-03 | 南京邮电大学 | 基于时空压缩网络编码的高能效无线传感网数据传输方法 |
JP7250917B2 (ja) * | 2018-10-06 | 2023-04-03 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | 補間フィルタを使用するイントラ予測のための方法および装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2519113B2 (ja) * | 1990-01-23 | 1996-07-31 | 日本ビクター株式会社 | 動きベクトル情報の伝送方法及びその送信機並びに受信機 |
US6037988A (en) * | 1996-03-22 | 2000-03-14 | Microsoft Corp | Method for generating sprites for object-based coding sytems using masks and rounding average |
US7050500B2 (en) * | 2001-08-23 | 2006-05-23 | Sharp Laboratories Of America, Inc. | Method and apparatus for motion vector coding with global motion parameters |
JP3898031B2 (ja) * | 2001-11-09 | 2007-03-28 | 日本電信電話株式会社 | 画像符号化方法及び装置、画像復号方法及び装置、プログラム及び記録媒体 |
US20030123738A1 (en) * | 2001-11-30 | 2003-07-03 | Per Frojdh | Global motion compensation for video pictures |
KR100772379B1 (ko) * | 2005-09-23 | 2007-11-01 | 삼성전자주식회사 | 외부 메모리 장치, 그 영상 데이터 저장 방법, 이를 이용한영상 처리 장치 |
JP4666255B2 (ja) * | 2005-12-27 | 2011-04-06 | 日本電気株式会社 | 符号化データ選定、符号化データ設定、再符号化データ生成及び再符号化の方法及び装置 |
US8792556B2 (en) * | 2007-06-19 | 2014-07-29 | Samsung Electronics Co., Ltd. | System and method for correcting motion vectors in block matching motion estimation |
US9967590B2 (en) * | 2008-04-10 | 2018-05-08 | Qualcomm Incorporated | Rate-distortion defined interpolation for video coding based on fixed filter or adaptive filter |
-
2010
- 2010-01-15 JP JP2010006907A patent/JP2011146980A/ja not_active Withdrawn
-
2011
- 2011-01-06 WO PCT/JP2011/050100 patent/WO2011086963A1/ja active Application Filing
- 2011-01-06 CN CN2011800055992A patent/CN102696227A/zh active Pending
- 2011-01-06 US US13/521,221 patent/US20120288004A1/en not_active Abandoned
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017164441A1 (ko) * | 2016-03-24 | 2017-09-28 | 엘지전자 주식회사 | 비디오 코딩 시스템에서 인터 예측 방법 및 장치 |
US10659801B2 (en) | 2016-03-24 | 2020-05-19 | Lg Electronics Inc. | Method and apparatus for inter prediction in video coding system |
US11303919B2 (en) | 2016-03-24 | 2022-04-12 | Lg Electronics Inc. | Method and apparatus for inter prediction in video coding system |
US11750834B2 (en) | 2016-03-24 | 2023-09-05 | Lg Electronics Inc | Method and apparatus for inter prediction in video coding system |
Also Published As
Publication number | Publication date |
---|---|
US20120288004A1 (en) | 2012-11-15 |
CN102696227A (zh) | 2012-09-26 |
WO2011086963A1 (ja) | 2011-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6057140B2 (ja) | 画像処理装置および方法、プログラム、並びに、記録媒体 | |
JP5234368B2 (ja) | 画像処理装置および方法 | |
TWI411310B (zh) | Image processing apparatus and method | |
WO2010095560A1 (ja) | 画像処理装置および方法 | |
WO2010101064A1 (ja) | 画像処理装置および方法 | |
WO2010035734A1 (ja) | 画像処理装置および方法 | |
WO2011018965A1 (ja) | 画像処理装置および方法 | |
WO2011089972A1 (ja) | 画像処理装置および方法 | |
WO2010095559A1 (ja) | 画像処理装置および方法 | |
WO2011089973A1 (ja) | 画像処理装置および方法 | |
JPWO2010035731A1 (ja) | 画像処理装置および方法 | |
WO2011086963A1 (ja) | 画像処理装置および方法 | |
WO2010035732A1 (ja) | 画像処理装置および方法 | |
JP2011147049A (ja) | 画像処理装置および方法、並びにプログラム | |
JPWO2010064674A1 (ja) | 画像処理装置および画像処理方法、並びにプログラム | |
WO2010035735A1 (ja) | 画像処理装置および方法 | |
JP2014143716A (ja) | 画像処理装置および方法、プログラム、並びに記録媒体 | |
JP6048774B2 (ja) | 画像処理装置および方法 | |
WO2011125625A1 (ja) | 画像処理装置および方法 | |
JP6268556B2 (ja) | 画像処理装置および方法、プログラム、並びに、記録媒体 | |
JP2013150347A (ja) | 画像処理装置および方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130402 |