JP2011205529A - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2011205529A
JP2011205529A JP2010072503A JP2010072503A JP2011205529A JP 2011205529 A JP2011205529 A JP 2011205529A JP 2010072503 A JP2010072503 A JP 2010072503A JP 2010072503 A JP2010072503 A JP 2010072503A JP 2011205529 A JP2011205529 A JP 2011205529A
Authority
JP
Japan
Prior art keywords
data
image
unit
encoding
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010072503A
Other languages
English (en)
Other versions
JP5660361B2 (ja
Inventor
Takahiro Fukuhara
隆浩 福原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010072503A priority Critical patent/JP5660361B2/ja
Priority to TW100107925A priority patent/TWI448145B/zh
Priority to BR112012023710A priority patent/BR112012023710A2/pt
Priority to PCT/JP2011/055923 priority patent/WO2011118435A1/ja
Priority to US13/582,569 priority patent/US8879840B2/en
Priority to RU2012140180/08A priority patent/RU2012140180A/ru
Priority to CN2011800148234A priority patent/CN102812716A/zh
Priority to KR20127024373A priority patent/KR20130018241A/ko
Priority to EP11759241.0A priority patent/EP2555527A4/en
Publication of JP2011205529A publication Critical patent/JP2011205529A/ja
Application granted granted Critical
Publication of JP5660361B2 publication Critical patent/JP5660361B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • H04N19/64Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by ordering of coefficients or of bits for transmission
    • H04N19/647Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by ordering of coefficients or of bits for transmission using significance based coding, e.g. Embedded Zerotrees of Wavelets [EZW] or Set Partitioning in Hierarchical Trees [SPIHT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】符号化効率をより向上させることができるようにする。
【解決手段】ステップS104において、ビットシフトチェンジ部112は、検出された画像データのビット深度を用いて、ステップS103において取得された奥行きデータDをシフトチェンジし、奥行きデータDのビット深度を、画像データのビット深度に合わせる。ステップS105において、エンコード部113は、画像データと奥行きデータDを符号化する。ステップS106において、レート制御部114は、ステップS105において行われた画像データと奥行きデータの符号化結果に基づいて、ステップS105において行われる、各符号化のレートを制御する。この曲面が予測画像とされる。本発明は、例えば、画像処理装置に適用することができる。
【選択図】図6

Description

本発明は、画像処理装置および方法、並びにプログラムに関し、特に、符号化効率をより向上させることができるようにした画像処理装置および方法、並びにプログラムに関する。
近年、立体視可能な、所謂3D(Dimension(3次元))対応の画像(以下、3D画像と称する)が普及しつつある。例えば、立体視可能な3D画像を用いた映画が積極的に制作されるようになってきている。3D画像は、従来の平面視のみ可能な、所謂2D(2次元)画像と比較して大きな差別化が可能である。したがって、映画制作においてこのような3D画像を適用することは、とても有用な手段である。
また、3D画像を用いた映像コンテンツ(例えば映画等)は、2D画像の映像コンテンツの場合と同様に、MPEG-4 AVCの拡張フォーマットであるMVC(Multi-view Video Coding)規格によって高能率に圧縮されて、例えばBlu-Ray Disc等に記録したり、ネットワークを介して配信したりすることができる。そして家庭用機器も3D画像再生に対応するものが開発されだしている。つまり、家庭においても、3D画像を楽しむことができる環境が整いつつある。
現在最も普及している立体視は、人間の目の両眼視差を利用したステレオ画像である。この方式の場合、ユーザは、左眼と右眼用の映像コンテンツを別々に見ながら視差を感じることで、画像内の物体を立体的に認知することができる仕組みとなっている。
しかしながら、この両眼視差による立体視では、一般的に予め視差量が設定されており、任意の方向からの立体視を実現することが困難である。このような任意の方向からの立体視を実現するためには、画像データから、その画像内の各物体の奥行き方向のデータ情報(Depth_Map)を抽出する必要がある。
画像データから画像処理や分析技術を用いて、大まかな奥行き情報を自動的に抽出する研究は盛んに行われている(例えば非特許文献1および非特許文献2)。これらの技術や、比較的容易とされる複数のカメラから画像内の被写体の奥行き情報を抽出する技術によって、2眼のみならず複数の自由視点からの立体画像が生成できるようになってきた。
"Fast Approximate Energy Minimization via Graph Cuts"IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.23, No.11, November 2001, "Stereo Matching Using Belief Propagation"IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.25, No.7, July 2003
しかしながら、2眼のステレオ画像ならば元々のデータ量には限界があるが、3以上の複数眼の画像データ及びそれらの奥行きデータをトータルすると、膨大なデータ量になってしまう恐れがあった。データ量が増大すると、伝送、記録、または再生等の処理の負荷や処理時間も増大してしまう恐れがあった。
本発明はこのような問題を解決するためのものであり、立体視可能な画像データと奥行きデータをより効率よく符号化することを目的とするものである。
本発明の一側面は、画像データと、前記画像データの画像から視差を含み、立体視可能な画像を生成するための、前記画像データの画像内の全領域の奥行き方向の位置を示す奥行きデータとを所定の符号化方式で符号化する符号化手段と、前記符号化手段による前記画像データの符号化結果、および、前記符号化手段による前記奥行きデータの符号化結果の両方を用いて、前記符号化手段による前記画像データの符号化における発生符号量のレート制御、および、前記符号化手段による前記奥行きデータの符号化における発生符号量のレート制御の両方を行うレート制御手段とを備える画像処理装置である。
前記画像データのビット深度を検出する検出手段と、前記奥行きデータを、前記検出手段により検出された前記画像データのビット深度と前記奥行きデータのビット深度との差分だけシフトチェンジするシフトチェンジ手段とをさらに備えることができる。
前記シフトチェンジ手段は、前記奥行きデータを前記差分だけシフトアップし、シフトアップされた前記奥行きデータより下位のビットに対して、値「0」の係数を挿入するゼロ埋めを行うことができる。
前記シフトチェンジ手段は、前記奥行きデータの最下位ビットから前記差分の分のデータを削除し、前記奥行きデータの削除されなかった上位ビットを、前記差分だけシフトダウンすることができる。
前記シフトチェンジ手段によるシフトチェンジのシフト量を示すシフトチェンジ情報を、前記画像データの符号化データに多重化する多重化手段をさらに備える
ことができる。
前記符号化手段は、所定のサイズのマクロブロック毎に、前記画像データおよび前記奥行きデータを直交変換する直交変換手段と、前記直交変換手段により前記画像データおよび前記奥行きデータが直交変換されて得られた係数データをエントロピ符号化するエントロピ符号化手段とを備えることができる。
前記符号化手段は、前記画像データおよび前記奥行きデータをウェーブレット変換するウェーブレット変換手段と、前記ウェーブレット変換手段により前記画像データおよび前記奥行きデータがウェーブレット変換されて得られた係数データを所定のサイズのコードブロック毎に分割する分割手段と、前記分割手段により分割されて得られた前記コードブロック毎の前記係数データをビットプレーン展開する展開手段と、前記展開手段により展開された前記画像データおよび前記奥行きデータの係数データの前記ビットプレーンを、重要度順に並べ替えてエントロピ符号化するエントロピ符号化手段とを備えることができる。
前記符号化手段は、前記奥行きデータを、前記画像データの係数データのビット深度と、前記ウェーブレット変換手段により前記奥行きデータがウェーブレット変換されて得られた係数データのビット深度との差分だけシフトチェンジするシフトチェンジ手段とをさらに備えることができる。
前記シフトチェンジ手段によるシフトチェンジのシフト量を示すシフトチェンジ情報を、前記画像データの符号化データに多重化する多重化手段をさらに備えることができる。
前記画像データは、輝度Y、色差Cb、および色差Crのコンポーネント画像データであり、前記奥行きデータは、グレースケールのビットマップデータであることができる。
本発明の一側面は、また、画像処理装置の情報処理方法であって、前記画像処理装置の符号化手段が、画像データと、前記画像データの画像から視差を含み、立体視可能な画像を生成するための、前記画像データの画像内の全領域の奥行き方向の位置を示す奥行きデータとを所定の符号化方式で符号化し、前記画像処理装置のレート制御手段が、前記画像データおよび前記奥行きデータの符号化結果の両方を用いて、前記画像データおよび前記奥行きデータの両方の符号化における発生符号量のレート制御を行う画像処理方法である。
本発明の一側面は、さらに、コンピュータを、画像データと、前記画像データの画像から視差を含み、立体視可能な画像を生成するための、前記画像データの画像内の全領域の奥行き方向の位置を示す奥行きデータとを所定の符号化方式で符号化する符号化手段と、前記符号化手段による前記画像データの符号化結果、および、前記符号化手段による前記奥行きデータの符号化結果の両方を用いて、前記符号化手段による前記画像データの符号化における発生符号量のレート制御、および、前記符号化手段による前記奥行きデータの符号化における発生符号量のレート制御の両方を行うレート制御手段として機能させるプログラムである。
本発明の他の側面は、画像データが符号化された符号化データ、前記画像データの画像から視差を含み、立体視可能な画像を生成するための、前記画像データの画像内の全領域の奥行き方向の位置を示す奥行きデータが所定のシフト量分シフトチェンジされて符号化された符号化データ、および、前記シフト量を示すシフトチェンジ情報が多重化された多重化データから、前記シフトチェンジ情報を分離する分離手段と、前記符号化データを所定の復号方式で復号する復号手段と、前記復号手段により復号されて得られたシフトチェンジ後の奥行きデータを、前記シフトチェンジの方向とは逆方向に、前記分離手段により分離された前記シフトチェンジ情報に示される前記シフト量分シフトチェンジするシフトチェンジ手段とを備える画像処理装置である。
前記シフトチェンジ手段は、前記奥行きデータの最下位ビットから前記シフト量分のデータを削除し、前記奥行きデータの削除されなかった上位ビットを、前記シフト量分シフトダウンすることができる。
前記シフトチェンジ手段は、前記奥行きデータを前記シフト量分シフトアップし、シフトアップされた前記奥行きデータより下位のビットに対して、値「0」の係数を挿入するゼロ埋めを行うことができる。
前記復号手段は、画像データが符号化された符号化データ、および、シフトチェンジ後の前記奥行きデータが符号化された符号化データをエントロピ復号するエントロピ復号手段と、前記エントロピ復号手段によりエントロピ復号されて得られた、前記画像データが直交変換された係数データ、および、前記奥行きデータが直交変換された係数データを、逆直交変換する逆直交変換手段とを備えることができる。
前記復号手段は、画像データが符号化された符号化データ、および、シフトチェンジ後の前記奥行きデータが符号化された符号化データをエントロピ復号するエントロピ復号手段と、前記エントロピ復号手段によりエントロピ復号されて得られた、ビットプレーン展開された係数データの前記ビットプレーンを合成するビットプレーン合成手段と、前記ビットプレーン合成手段により合成されて得られた、所定のサイズのコードブロック毎の前記係数データを合成するコードブロック合成手段と、前記コードブロック合成手段により合成されて得られた、サブバンド毎の係数データをウェーブレット逆変換し、前記画像データおよび前記奥行きデータを得るウェーブレット逆変換手段とを備えることができる。
本発明の他の側面は、また、画像処理装置の情報処理方法であって、前記画像処理装置の分離手段が、画像データが符号化された符号化データ、前記画像データの画像から視差を含み、立体視可能な画像を生成するための、前記画像データの画像内の全領域の奥行き方向の位置を示す奥行きデータが所定のシフト量分シフトチェンジされて符号化された符号化データ、および、前記シフト量を示すシフトチェンジ情報が多重化された多重化データから、前記シフトチェンジ情報を分離し、前記画像処理装置の復号手段が、前記符号化データを所定の復号方式で復号し、前記画像処理装置のシフトチェンジ手段が、復号されて得られたシフトチェンジ後の奥行きデータを、前記シフトチェンジの方向とは逆方向に、前記符号化データから分離された前記シフトチェンジ情報に示される前記シフト量分シフトチェンジする画像処理方法である。
本発明の他の側面は、さらに、コンピュータを、画像データが符号化された符号化データ、前記画像データの画像から視差を含み、立体視可能な画像を生成するための、前記画像データの画像内の全領域の奥行き方向の位置を示す奥行きデータが所定のシフト量分シフトチェンジされて符号化された符号化データ、および、前記シフト量を示すシフトチェンジ情報が多重化された多重化データから、前記シフトチェンジ情報を分離する分離手段と、前記符号化データを所定の復号方式で復号する復号手段と、前記復号手段により復号されて得られたシフトチェンジ後の奥行きデータを、前記シフトチェンジの方向とは逆方向に、前記分離手段により分離された前記シフトチェンジ情報に示される前記シフト量分シフトチェンジするシフトチェンジ手段として機能させるプログラムである。
本発明の一側面においては、画像データと、画像データの画像から視差を含み、立体視可能な画像を生成するための、画像データの画像内の全領域の奥行き方向の位置を示す奥行きデータとが所定の符号化方式で符号化され、画像データおよび奥行きデータの符号化結果の両方を用いて、画像データおよび奥行きデータの両方の符号化における発生符号量のレート制御が行われる。
本発明の他の側面においては、画像データが符号化された符号化データ、画像データの画像から視差を含み、立体視可能な画像を生成するための、画像データの画像内の全領域の奥行き方向の位置を示す奥行きデータが所定のシフト量分シフトチェンジされて符号化された符号化データ、および、シフト量を示すシフトチェンジ情報が多重化された多重化データから、シフトチェンジ情報が分離され、符号化データが所定の復号方式で復号され、復号されて得られたシフトチェンジ後の奥行きデータが、シフトチェンジの方向とは逆方向に、符号化データから分離されたシフトチェンジ情報に示されるシフト量分シフトチェンジされる。
本発明によれば、データ伝送を行うことができる。特に、不要な遅延の増大を抑制しながら、後続データへのエラー伝搬を抑制するように、データを伝送させることができる。
本発明を適用した画像符号化装置の主な構成例を示すブロック図である。 3D画像の構成例を示すブロック図である。 シフトアップの例を説明する図である。 本発明を適用した画像復号装置の主な構成例を示すブロック図である。 シフトダウンの例を説明する図である。 画像符号化処理の流れの例を説明するフローチャートである。 画像復号処理の流れの例を説明するフローチャートである 図1のエンコード部の主な構成例を説明するブロック図である。 マクロブロックの例を示す図である。 図4のデコード部の主な構成例を説明するブロック図である。 符号化処理の流れの例を説明するフローチャートである。 復号処理の流れの例を説明するフローチャートである。 図1のエンコード部の他の構成例を説明するブロック図である。 サブバンドの構成例を示す図である。 サブバンドの構成例を示す図である。 各サブバンド中のコードブロックの例を示す図である。 ビットプレーンの例を説明する図である。 符号化パスの例を説明する図である。 係数の走査の例を説明する図である。 パケットの構成例を説明する図である。 ビットプレーン展開の様子の例を説明する図である。 図4のデコード部の他の構成例を説明するブロック図である。 符号化処理の流れの他の例を説明するフローチャートである。 エントロピ符号化処理の流れの例を説明するフローチャートである。 復号処理の流れの例を説明するフローチャートである。 サブバンドの選択順を示す図である。 サブバンドの重みづけの例を説明する図である。 本発明を適用した画像符号化装置の他の構成例を示すブロック図である。 図28のエンコード部の主な構成例を説明するブロック図である。 シフトアップの例を説明する図である。 本発明を適用した画像復号装置の他の構成例を示すブロック図である。 図32のデコード部の主な構成例を説明するブロック図である。 シフトダウンの例を説明する図である。 符号化処理の流れの他の例を説明するフローチャートである。 復号処理の流れの例を説明するフローチャートである。 本発明を適用した画像符号化装置の、さらに他の構成例を示すブロック図である。 本発明を適用した画像復号装置の、さらに他の構成例を示すブロック図である。 本発明を適用したパーソナルコンピュータの主な構成例を示すブロック図である。
以下、発明を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(画像符号化装置、画像復号装置)
2.第2の実施の形態(画像符号化装置、画像復号装置)
3.第3の実施の形態(画像符号化装置、画像復号装置)
4.第4の実施の形態(パーソナルコンピュータ)
<1.第1の実施の形態>
[画像符号化装置の構成]
図1は、本発明を適用した画像符号化装置の主な構成例を示すブロック図である。
図1に示される画像符号化装置100は、平面画像の画像データと、その平面画像の全画素の、平面画像の奥行き方向(平面画像に向かって前後方向)の位置を示す奥行きデータとを所定の符号化方式で符号化する装置である。
この平面画像は、奥行きデータを用いることにより、視差を含む、所謂3D(Dimension(3次元))対応の画像(以下、3D画像と称する)に変換可能である。奥行きデータには、平面画像内の全ての部分の奥行き方向の位置が示されているので、平面画像から3D画像を生成する3D画像生成装置は、平面画像を見ることができる範囲であれば、任意の方向から見たときの3D画像を容易に生成することができる。
図1に示されるように、画像符号化装置100は、ビット深度検出部111、ビットシフトチェンジ部112、エンコード部113−1乃至エンコード部113−4、レート制御部114、並びに多重化部115を有する。
画像符号化装置100には、画像データが、輝度データY(矢印121−1)、色差データCb(矢印121−2)、および色差データCr(矢印121−3)の3本よりなるコンポーネント画像データとして供給される。
ビット深度検出部111は、輝度データY、色差データCb、および色差データCrのそれぞれのビット深度を検出する。このビット深度の検出は、任意のデータ単位毎に行うことができる。ビット深度検出部111は、検出済みの輝度データY、色差データCb、および色差データCrをエンコード部113−1乃至エンコード部113−3に供給する。また、ビット深度検出部111は、検出結果をビットシフトチェンジ部112に供給する(矢印123)。
画像符号化装置100には、さらに、奥行きデータDが供給される(矢印124)。ビットシフトチェンジ部112は、奥行きデータDのビット深度をコンポーネント画像データのビット深度に合わせるように、奥行きデータDのビットをシフトチェンジする。
例えば、ビット深度検出部111により検出されたコンポーネント画像データのビット深度がMビットであり、奥行きデータDのビット深度がNビット(M>N)である場合、ビットシフトチェンジ部112は、奥行きデータDを(M−N)ビットだけシフトアップする。このとき、ビットシフトチェンジ部112は、例えば、奥行きデータDの下位(M−N)ビットに値「0」のビットを挿入する。
なお、以下において、ビットシフトチェンジには、ビットを増やす方向のシフトアップと、ビットを削減する方向のシフトダウンとだけでなく、0ビットのシフトチェンジ、すなわち、シフトしない場合も含まれるものとする。シフトチェンジを行うと、ビットシフトチェンジ部112は、シフトチェンジさせた奥行きデータD’をエンコード部113−4に供給する(矢印125)。
エンコード部113−1は、輝度データYを所定の方式で符号化し、生成された符号化データをレート制御部114に供給する(矢印126−1)。同様に、エンコード部113−2は、色差データCbを所定の方式で符号化し、生成された符号化データをレート制御部114に供給する(矢印126−2)。同様に、エンコード部113−3は、色差データCrを所定の方式で符号化し、生成された符号化データをレート制御部114に供給する(矢印126−3)。また、エンコード部113−4は、奥行きデータD’を所定の方式で符号化し、生成された符号化データをレート制御部114に供給する(矢印126−4)。
なお、以上のエンコード部113−1乃至エンコード部113−4による符号化処理の方法は任意である。
レート制御部114は、輝度データYの符号化データ、色差データCbの符号化データ、色差データCrの符号化データ、および奥行きデータD’の符号化データの各データ量に基づいて各符号化処理のレート制御を行う。
レート制御部114は、輝度データYの符号化データのレートを制御するレート制御情報を、エンコード部113−1に供給する(矢印128−1)。同様に、レート制御部114は、色差データCbの符号化データのレートを制御するレート制御情報を、エンコード部113−2に供給する(矢印128−2)。同様に、レート制御部114は、色差データCrの符号化データのレートを制御するレート制御情報を、エンコード部113−3に供給する(矢印128−3)。さらに、レート制御部114は、奥行きデータD’の符号化データのレートを制御するレート制御情報を、エンコード部113−4に供給する(矢印128−4)。
エンコード部113−1乃至エンコード部113−4は、それぞれ、レート制御部114から供給されるレート制御情報を参照し、符号化処理のレート制御を行う。
また、レート制御部114は、レート制御に利用した後の輝度データYの符号化データを多重化部115に供給する(矢印127−1)。同様に、レート制御部114は、レート制御に利用した後の色差データCbの符号化データを多重化部115に供給する(矢印127−2)。また、レート制御部114は、レート制御に利用した後の色差データCrの符号化データを多重化部115に供給する(矢印127−3)。さらに、レート制御部114は、レート制御に利用した後の奥行きデータD’の符号化データを多重化部115に供給する(矢印127−4)。
また、ビットシフトチェンジ部112は、その奥行きデータのシフト量を示すビットシフトチェンジ情報を多重化部115に供給する(矢印129)
多重化部115は、レート制御部114から供給される各符号化データと、ビットシフトチェンジ部112から供給されるビットシフトチェンジ情報を多重化し、1本のコードストリーム(多重化データ)として画像符号化装置100の外部に出力する(矢印130)。なお、この多重化方法は、後述する画像復号装置において各データを正しく分離可能な方法であれば、どのような方法であってもよい。
この画像符号化装置100から出力された多重化データは、例えば、記録媒体に記録されたり、ネットワークを介して伝送されたりする。
なお、以上においては、輝度データYの符号化をエンコード部113−1で行い、色差データCbの符号化をエンコード部113−2で行い、色差データCrの符号化をエンコード部113−3で行い、奥行きデータD’の符号化をエンコード部113−4で行うように説明したが、これに限らず、エンコード部113−1乃至エンコード部113−4を1つのエンコード部113としてもよい。つまり、輝度データY、色差データCb、色差データCr、および奥行きデータD’を1つのエンコード部113において符号化するようにしてもよい。この場合、エンコード部113は、各データに対する符号化を時分割で行うようにしてもよいし、各データをまとめて符号化するようにしてもよい。
[3D画像の構成]
図2は、3D画像の構成例を示すブロック図である。
図2Aに示される画像データ141は、例えばYCbCrからなるコンポーネント画像データであり、上述したように3系統として画像符号化装置100に供給される。
図2Bに示される奥行きデータ142は、画像データ141の奥行きデータである。図2Bに示されるように、奥行きデータ142は、画像データ141の全領域の奥行き方向の位置を、例えば画素毎やブロック毎のように所定の範囲毎に、所定のビット数で示す情報である。したがって、奥行きデータ142は、一般的にグレースケールのビットマップデータとして表すことができる。このビットマップデータの階調数が、奥行きデータ142のビット深度となる。
画像符号化装置100に入力される画像データ141には、必ず、奥行きデータ142が付与されているものとする。
[シフトアップの例]
図3は、ビットシフトチェンジ部112が行う処理の例として、シフトアップの例を説明する図である。
図3に示されるように、輝度データY、色差データCb、および色差データCrのビット深度がMビットで、奥行きデータDのビット深度がNビットであるとする。また、M>Nとする。ビットシフトチェンジ部112は、奥行きデータDをシフトチェンジすることにより、各データの最上位ビット位置(ビット深度)を揃える。つまり、ビットシフトチェンジ部112は、奥行きデータD全体を(M−N)ビットだけシフトアップする(奥行きデータD’)。このとき、ビットシフトチェンジ部112は、全て値「0」の(M−N)ビットのビット列を、奥行きデータD’の、奥行きデータDの部分より下位ビットに挿入する(ゼロ埋めする)。つまり、奥行きデータD’は、下位(M−N)ビットが全て値「0」のビットにより構成され、上位Nビットが奥行きデータDにより構成される、ビット深度がMビットのデータとなる。
なお、M=Nの場合、ビットシフトチェンジ部112は、奥行きデータDをシフトチェンジせずに出力する。つまり、この場合、奥行きデータD’=奥行きデータDとなる。
また、M<Nの場合、ビットシフトチェンジ部112は、奥行きデータDをシフトダウンする。つまり、この場合、奥行きデータDのビット深度は浅くなる。ビットシフトチェンジ部112は、例えば、奥行きデータDの下位(N−M)ビットを削除し、残りの上位Mビットをシフトダウンする。
もちろん、ビットシフトチェンジ部112が画像データをシフトアップするようにしてもよい。ただし、一般的に、奥行きデータの変化は、画像データの変化よりも視覚的影響が小さい。また、奥行きデータは精度が低い場合も多い。さらに、画像データをシフトアップすると、後段における画像処理等が不可能になる場合や、処理可能でも負荷が増大してしまう場合が考えられる。そのため、ビットシフトチェンジ部112は、M<Nの場合、画像データよりも重要度が低い奥行きデータDをシフトダウンする。
なお、実際には、上述した理由から、奥行きデータDのビット深度も解像度も、画像データよりも低い場合が一般的である。
[画像復号装置の構成]
図4は、本発明を適用した画像復号装置の主な構成例を示すブロック図である。
図4に示される画像復号装置150は、図1に示される画像符号化装置100により符号化された符号化データを、画像符号化装置100において採用される符号化方式に対応する所定の復号方式で復号する装置である。
画像復号装置150は、図1に示される画像符号化装置100から出力された多重化データ(コードストリーム)を取得する(矢印161)。この多重化データの伝送経路は任意であり、例えば記録媒体、ネットワーク、または他の装置等を介して画像符号化装置100から画像復号装置150に伝送されるようにしてもよい。また、例えば、画像符号化装置100と画像復号装置150を一体化し、互いに内部バスで接続し、その内部バスを介して多重化データが画像符号化装置100から画像復号装置150に伝送されるようにしてもよい。また、無線通信を介して多重化データが画像符号化装置100から画像復号装置150に伝送されるようにしてもよい。
図4に示されるように、画像復号装置150は、分離部151、デコード部152−1乃至デコード部152−4、並びに、ビットシフトチェンジ部153を有する。
分離部151は、取得した多重化データを、輝度データYの符号化データ、色差データCbの符号化データ、色差データCrの符号化データ、奥行きデータD’の符号化データ、および、ビットシフトチェンジ情報に分離する。
分離部151は、輝度データYの符号化データをデコード部152−1に供給し(矢印162−1)、色差データCbの符号化データをデコード部152−2に供給し(矢印162−2)、色差データCrの符号化データをデコード部152−3に供給し(矢印162−3)、奥行きデータD’の符号化データをデコード部152−4に供給する(矢印162−4)。
デコード部152−1は、輝度データYの符号化データを復号し、得られた輝度データYを画像復号装置150の外部に出力する(矢印163−1)。デコード部152−2は、色差データCbの符号化データを復号し、得られた色差データCbを画像復号装置150の外部に出力する(矢印163−2)。デコード部152−3は、色差データCrの符号化データを復号し、得られた色差データCrを画像復号装置150の外部に出力する(矢印163−3)。デコード部152−4は、奥行きデータD’の符号化データを復号し、得られた奥行きデータD’をビットシフトチェンジ部153に供給する(矢印163−4)。
また、分離部151は、ビットシフトチェンジ情報をビットシフトチェンジ部153に供給する(矢印164)。
ビットシフトチェンジ部153は、デコード部152−4から供給された奥行きデータD’を、ビットシフトチェンジ情報に示されるビット数分、画像符号化装置100において行われたシフトと逆方向にシフトさせる。つまり、ビットシフトチェンジ部153は、奥行きデータD’に対して、ビットシフトチェンジ情報に示されるシフト量分、ビットシフトチェンジを行い、奥行きデータDを生成する。
例えば、画像符号化装置100において、奥行きデータDが(M−N)ビット分、シフトアップされた場合、ビットシフトチェンジ部153は、奥行きデータD’を(M−N)ビット分、シフトダウンさせ、奥行きデータDを生成する。
ビットシフトチェンジ部153は、生成した奥行きデータDを画像復号装置150の外部に出力する(矢印165)。
この画像復号装置150から出力された画像データおよび奥行きデータは、例えば他の装置に供給され、処理される。例えば、画像処理装置等において3D画像に変換されたり、画像編集装置等において編集されたりする。
なお、以上においては、輝度データYの符号化データをデコード部152−1で復号し、色差データCbの符号化データをデコード部152−2で復号し、色差データCrの符号化データをデコード部152−3で復号し、奥行きデータD'の符号化データをデコード部152−4で復号するように説明したが、これに限らず、デコード部152−1乃至デコード部152−4を1つのデコード部152としてもよい。つまり、輝度データYの符号化データ、色差データCbの符号化データ、色差データCrの符号化データ、および奥行きデータD'の符号化データを1つのデコード部152において復号するようにしてもよい。この場合、デコード部152は、各符号化データに対する復号を時分割で行うようにしてもよいし、各符号化データをまとめて復号するようにしてもよい。
[シフトダウンの例]
図5は、ビットシフトチェンジ部153が行う処理の例として、シフトダウンの例を説明する図である。
図5に示されるように、輝度データY、色差データCb、および色差データCrのビット深度がMビットで、奥行きデータDのビット深度がNビットであるとする。また、M>Nとする。さらに、画像符号化装置100(ビットシフトチェンジ部112)において、奥行きデータDがMビットにシフトアップされているとする(奥行きデータD’)。
ビットシフトチェンジ部153は、ビットシフトチェンジ情報に基づいて、奥行きデータD’を、シフトチェンジすることにより、元のビット深度(Nビット)の奥行きデータDに戻す。ビットシフトチェンジ情報には、ビットシフトチェンジ部112において行われたシフトチェンジのシフト量((M−N)ビット)が示されている。
ビットシフトチェンジ部153は、その情報に基づいて、奥行きデータD’全体の下位(M−N)ビットを削除し、奥行きデータD’の上位Nビットを(M−N)ビット分、シフトダウンする。このようにすることにより、ビット深度Nビットの奥行きデータDが復元される。
なお、M=Nの場合、ビットシフトチェンジ部112はシフトチェンジを行わない。つまり、ビットシフトチェンジ情報に示されるシフト量は0ビットであるので、ビットシフトチェンジ部153は、奥行きデータD’をシフトチェンジせずに出力する。つまり、この場合、奥行きデータD=奥行きデータD’となる。
また、M<Nの場合、ビットシフトチェンジ部112は、奥行きデータDを(N−M)ビット分シフトダウンする。したがって、ビットシフトチェンジ情報に示されるシフト量は(N−M)ビットである。この場合シフトダウンなので、ビットシフトチェンジ情報には、その旨が分るような記述がなされている。このようなシフトチェンジの方向を示す方法は任意である。例えば、「−(N−M)ビット」のように符号を用いてシフトダウンを表すようにしてもよいし、「シフトダウン」と「(N−M)ビット」のように、シフトダウンが行われたことを示す情報を、シフト量とは別に示すようにしてもよい。
ビットシフトチェンジ部153は、例えば、奥行きデータD’を(N−M)ビットだけシフトアップする。このとき、ビットシフトチェンジ部153は、シフトアップされた奥行きデータD'より下位ビットをゼロ埋めする。つまり、この場合、復元された奥行きデータDは、ビットシフトチェンジ部112においてシフトチェンジされる前の奥行きデータDとは、厳密には値が異なる。ただし、上述したように奥行きデータDの重要度は低く、実際の視覚的な影響は少ないので、ビットシフトチェンジ部153は、このように復元された奥行きデータDを、シフトチェンジ結果として出力する。
なお、以上においては、画像データがYCbCrのコンポーネント画像データであるように説明したが、これに限らず、画像データは、どのようなデータであってもよく、例えばRGBのコンポーネント画像データであってもよいし、コンポーネント画像データ以外のデータであってもよい。また、奥行きデータDの形式も任意であり、ビットマップデータでなくてもよい。以下においても同様である。
[画像符号化処理の流れ]
次に以上のような各装置により実行される処理の流れについて説明する。まず、画像符号化装置100により実行される画像符号化処理の流れの例を、図6のフローチャートを参照して説明する。
画像符号化処理が開始されると、画像符号化装置100は、ステップS101において、画像データ(輝度データY、色差データCb、および色差データCr)を取得する。ビット深度検出部111は、ステップS102において、ステップS101において取得された画像データ(輝度データY、色差データCb、および色差データCr)のビット深度を検出する。
ステップS103において、画像符号化装置100は、取得した画像データに対応する奥行きデータDを取得する。ステップS104において、ビットシフトチェンジ部112は、ステップS102において検出された画像データのビット深度を用いて、ステップS103において取得された奥行きデータDをシフトチェンジし、奥行きデータDのビット深度を、画像データのビット深度に合わせる。
ステップS105において、エンコード部113(若しくは、エンコード部113−1乃至エンコード部113−4)は、画像データと奥行きデータDを符号化する。
ステップS106において、レート制御部114は、ステップS105において行われた画像データと奥行きデータの符号化結果に基づいて、ステップS105において行われる、各符号化のレートを制御する。
例えば、あるコンポーネント画像のデータ発生量が目標値よりも多い場合には、発生量を抑制するように制御データを出力し、他方画像のデータ発生量が目標値よりも少ない場合には、発生量を促進するように制御データを出力する。これによってコンポーネント画像及び奥行きデータの全体の符号量が安定して維持することができる。
ステップS107において、多重化部115は、ステップS105の処理により得られた各符号化データと、ステップS104におけるシフトチェンジのシフト量を示すビットシフトチェンジ情報とを多重化し、多重化データ(コードストリーム)を生成する。
ステップS108において、多重化部115は、ステップS107において生成された多重化データを画像符号化装置100の外部に出力する。
ステップS109において、画像符号化装置100は、画像符号化処理を終了するか否かを判定し、終了しないと判定された場合、ステップS101に処理を戻し、それ以降の処理を繰り返す。
また、ステップS109において、例えば、符号化対象の画像データの供給が停止するなどして、画像符号化処理を終了すると判定された場合、画像符号化装置100は、画像符号化処理を終了する。
[画像復号処理の流れ]
次に、画像復号装置150により実行される画像復号処理の流れの例を、図7のフローチャートを参照して説明する。
画像復号処理が開始されると、画像復号装置150は、ステップS121において、多重化データ(コードストリーム)を取得する。ステップS122において、分離部151は、ステップS121において取得された多重化データを、多重化部115による多重化に対応する方法で、輝度データYの符号化データ、色差データCbの符号化データ、色差データCrの符号化データ、奥行きデータDの符号化データ、および、ビットシフトチェンジ情報に分離する。
ステップS123において、デコード部152(デコード部152−1乃至デコード部152−4)は、輝度データYの符号化データ、色差データCbの符号化データ、色差データCrの符号化データ、および奥行きデータDの符号化データをそれぞれ復号する。
ステップS124において、ビットシフトチェンジ部153は、ビットシフトチェンジ情報に基づいて、奥行きデータをビットシフトチェンジする。
ステップS125において、画像復号装置150は、画像データおよび奥行きデータを出力する。
ステップS126において、画像復号装置150は、画像復号処理を終了するか否かを判定し、終了しないと判定された場合、ステップS121に処理を戻し、それ以降の処理を繰り返す。
また、ステップS126において、例えば、復号対象の多重化データの供給が停止するなどして、画像復号処理を終了すると判定された場合、画像復号装置150は、画像復号処理を終了する。
以上のように、画像符号化装置100は、従来、画像データと奥行きデータとを別々に符号化していたものを、奥行きデータのビット深度を画像データに合わせてから、画像データの符号化と奥行きデータの符号化の両方をまとめてレート制御する。
画像データの符号化と奥行きデータの符号化を総合的にレート制御することにより、レート制御部114は、各符号化に対するレートの割り当ての自由度が向上し、各符号化により適切なレートを割り当てることができるようになる。例えば、重要度の低い奥行きデータに割り当てるレートを低くし、重要度の高い画像データに割り当てるレートを高くすることもできる。もちろん、その逆も可能である。また、状況に応じてその比率を変えることもできる。
さらに、奥行きデータのビット深度を画像データに合わせることにより、レート制御の演算が容易になるので、レート制御部114は、より高速にレート制御を行うことができる。また、レート制御の演算が容易になることにより、レート制御部114は、より適切にレート制御を行うことができ、符号化効率をより向上させることができる。
符号化効率が向上することにより、符号化データを復号して得られる復号画像の画質が向上する。つまり、画像符号化装置100は、より高画質な復号画像を得られるように、画像を符号化することができる。
また、画像復号装置150は、以上のように、復号処理を行うことにより、画像符号化装置100により符号化されて多重化された多重化データを、高速かつより適切に復号することができる。また、画像復号装置150は、高速かつ適切に奥行きデータを復号し、シフトチェンジすることができる。
[エンコード部の構成]
次に、図1の画像符号化装置100が有するエンコード部について具体的な例を説明する。図1の画像符号化装置100のエンコード部113(または、エンコード部113−1乃至エンコード部113−4)の符号化方式は任意である。例えば、MPEG(Moving Picture Experts Group)-2、MPEG-4、若しくはAVC(Advanced Video Coding)などであってもよいし、JPEG(Joint Photographic Experts Group)、若しくはJPEG2000等であってもよい。
その一例として、エンコード部113−1乃至エンコード部113−4の符号化方式がAVCの場合について説明する。図8は、図1のエンコード部113−1の主な構成例を説明するブロック図である。
図8に示されるエンコード部113−1は、例えば、H.264及びMPEG-4 Part10(以下H.264/AVCと称する)方式で画像を符号化する。
図8の例において、エンコード部113−1は、A/D(Analog / Digital)変換部201、画面並べ替えバッファ202、演算部203、直交変換部204、量子化部205、可逆符号化部206、および蓄積バッファ207を有する。また、エンコード部113−1は、逆量子化部208、逆直交変換部209、および演算部210を有する。さらに、エンコード部113−1は、デブロックフィルタ211、およびフレームメモリ212を有する。また、エンコード部113−1は、選択部213、イントラ予測部214、動き予測補償部215、および選択部216を有する。さらに、エンコード部113−1は、レート制御部217を有する。
A/D変換部201は、入力された画像データをA/D変換し、画面並べ替えバッファ202に出力し、記憶させる。画面並べ替えバッファ202は、記憶した表示の順番のフレームの画像を、GOP(Group of Picture)構造に応じて、符号化のためのフレームの順番に並べ替える。画面並べ替えバッファ202は、フレームの順番を並び替えた画像を、演算部203、イントラ予測部214、および動き予測補償部215に供給する。
演算部203は、画面並べ替えバッファ202から読み出された画像から、選択部216から供給される予測画像を減算し、その差分情報を直交変換部204に出力する。例えば、イントラ符号化が行われる画像の場合、演算部203は、画面並べ替えバッファ202から読み出された画像にイントラ予測部214から供給される予測画像を加算する。また、例えば、インター符号化が行われる画像の場合、演算部203は、画面並べ替えバッファ202から読み出された画像に動き予測補償部115から供給される予測画像を加算する。
直交変換部204は、演算部203からの差分情報に対して、離散コサイン変換、カルーネン・レーベ変換等の直交変換を施し、その変換係数を量子化部205に供給する。量子化部205は、直交変換部204が出力する変換係数を量子化する。量子化部205は、量子化された変換係数を可逆符号化部206に供給する。
可逆符号化部206は、その量子化された変換係数に対して、可変長符号化、算術符号化等の可逆符号化を施す。
可逆符号化部206は、イントラ予測を示す情報をイントラ予測部214から取得し、インター予測モードを示す情報などを動き予測補償部215から取得する。なお、イントラ予測を示す情報は、以下、イントラ予測モード情報とも称する。また、インター予測を示す情報モードを示す情報は、以下、インター予測モード情報とも称する。
可逆符号化部206は、量子化された変換係数を符号化するとともに、フィルタ係数、イントラ予測モード情報、インター予測モード情報、および量子化パラメータなどを、符号化データのヘッダ情報の一部とする(多重化する)。可逆符号化部206は、符号化して得られた符号化データを蓄積バッファ207に供給して蓄積させる。
例えば、可逆符号化部206においては、可変長符号化または算術符号化等の可逆符号化処理が行われる。可変長符号化としては、H.264/AVC方式で定められているCAVLC(Context-Adaptive Variable Length Coding)などがあげられる。算術符号化としては、CABAC(Context-Adaptive Binary Arithmetic Coding)などがあげられる。
蓄積バッファ207は、可逆符号化部206から供給された符号化データを、一時的に保持し、所定のタイミングにおいて、H.264/AVC方式で符号化された符号化画像として、例えば、後段の図示せぬ記録装置や伝送路などに出力する。
また、量子化部205において量子化された変換係数は、逆量子化部208にも供給される。逆量子化部208は、その量子化された変換係数を、量子化部205による量子化に対応する方法で逆量子化し、得られた変換係数を、逆直交変換部209に供給する。
逆直交変換部209は、供給された変換係数を、直交変換部204による直交変換処理に対応する方法で逆直交変換する。逆直交変換された出力は、演算部210に供給される。
演算部210は、逆直交変換部209より供給された逆直交変換結果、すなわち、復元された差分情報に、選択部216から供給される予測画像を加算し、局部的に復号された画像(復号画像)を得る。例えば、差分情報が、イントラ符号化が行われる画像に対応する場合、演算部210は、その差分情報にイントラ予測部214から供給される予測画像を加算する。また、たとえば、差分情報が、インター符号化が行われる画像に対応する場合、演算部210は、その差分情報に動き予測補償部215から供給される予測画像を加算する。
その加算結果は、デブロックフィルタ211またはフレームメモリ212に供給される。
デブロックフィルタ211は、適宜デブロックフィルタ処理を行うことにより復号画像のブロック歪を除去するとともに、例えばウィナーフィルタ(Wiener Filter)を用いて適宜ループフィルタ処理を行うことにより画質改善を行う。デブロックフィルタ211は、各画素をクラス分類し、クラスごとに適切なフィルタ処理を施す。デブロックフィルタ211は、そのフィルタ処理結果をフレームメモリ212に供給する。
フレームメモリ212は、所定のタイミングにおいて、蓄積されている参照画像を、選択部213を介してイントラ予測部214または動き予測補償部215に出力する。
例えば、イントラ符号化が行われる画像の場合、フレームメモリ212は、参照画像を、選択部213を介してイントラ予測部214に供給する。また、例えば、インター符号化が行われる画像の場合、フレームメモリ212は、参照画像を、選択部213を介して動き予測補償部215に供給する。
エンコード部113−1においては、例えば、画面並べ替えバッファ202からのIピクチャ、Bピクチャ、およびPピクチャが、イントラ予測(イントラ処理とも称する)する画像として、イントラ予測部214に供給される。また、画面並べ替えバッファ102から読み出されたBピクチャおよびPピクチャが、インター予測(インター処理とも称する)する画像として、動き予測補償部215に供給される。
選択部213は、フレームメモリ212から供給される参照画像を、イントラ符号化を行う画像の場合、イントラ予測部214に供給し、インター符号化を行う画像の場合、動き予測補償部215に供給する。
イントラ予測部214は、画面内の画素値を用いて予測画像を生成するイントラ予測(画面内予測)を行う。イントラ予測部214は、複数のモード(イントラ予測モード)によりイントラ予測を行う。
このイントラ予測モードには、選択部213を介してフレームメモリ212から供給された参照画像に基づいて予測画像を生成するモードがある。また、このイントラ予測モードには、画面並べ替えバッファ202から読み出されたイントラ予測する画像自身(処理対象ブロックの画素値)を用いて予測画像を生成するモードもある。
イントラ予測部214は、全てのイントラ予測モードで予測画像を生成し、各予測画像を評価し、最適なモードを選択する。イントラ予測部214は、最適なイントラ予測モードを選択すると、その最適なモードで生成された予測画像を、選択部216を介して演算部103に供給する。
また、上述したように、イントラ予測部214は、採用したイントラ予測モードを示すイントラ予測モード情報を、適宜可逆符号化部206に供給する。
動き予測補償部215は、インター符号化が行われる画像について、画面並べ替えバッファ202から供給される入力画像と、選択部213を介してフレームメモリ212から供給される参照フレームとなる復号画像とを用いて、動きベクトルを算出する。動き予測補償部215は、算出した動きベクトルに応じて動き補償処理を行い、予測画像(インター予測画像情報)を生成する。
動き予測補償部215は、候補となる全てのインター予測モードのインター予測処理を行い、予測画像を生成する。動き予測補償部215は、生成された予測画像を、選択部216を介して演算部203に供給する。
動き予測補償部215は、採用されたインター予測モードを示すインター予測モード情報や、算出した動きベクトルを示す動きベクトル情報を可逆符号化部206に供給する。
選択部216は、イントラ符号化を行う画像の場合、イントラ予測部214の出力を演算部203に供給し、インター符号化を行う画像の場合、動き予測補償部215の出力を演算部203に供給する。
レート制御部217は、蓄積バッファ207に蓄積された圧縮画像に基づいて、オーバーフローあるいはアンダーフローが発生しないように、量子化部205の量子化動作のレートを制御する。
[マクロブロック]
図9は、マクロブロックの例を示す図である。図9に示されるように、Y:Cb:Cr=2:1:1のとき、奥行きデータDのマクロブロックは、例えば、輝度データYのマクロブロックと同様のサイズ(16×16)に設定される。このようにすることにより、奥行きデータをコンポーネント画像データに加え、4つのコンポーネント画像とすることができる。なお、マクロブロックのサイズは任意である。
エンコード部113−2乃至エンコード部113−4は、エンコード部113−1と同様の構成とすることができるので、それらの説明は省略する。
なお、図8を参照して説明したエンコード部113−1の構成は、エンコード部113の構成としても適用することができる。
[デコード部の構成]
図10は、図4のデコード部の主な構成例を説明するブロック図である。
図10に示されるように、デコード部152−1は、蓄積バッファ251、可逆復号部252、逆量子化部253、逆直交変換部254、演算部255、デブロックフィルタ256、画面並べ替えバッファ257、D/A変換部258、フレームメモリ259、選択部260、イントラ予測部261、動き予測補償部262、および選択部263を有する。
蓄積バッファ251は、伝送されてきた符号化データを蓄積する。この符号化データは、エンコード部113−1により符号化されたものである。可逆復号部252は、蓄積バッファ251から所定のタイミングで読み出された符号化データを、図8の可逆符号化部206の符号化方式に対応する方式で復号する。
逆量子化部253は、可逆復号部252により復号されて得られた係数データを、図8の量子化部205の量子化方式に対応する方式で逆量子化する。逆量子化部253は、逆量子化された係数データを、逆直交変換部254に供給する。逆直交変換部254は、図8の直交変換部204の直交変換方式に対応する方式で、その係数データを逆直交変換し、エンコード部113−1において直交変換される前の残差データに対応する復号残差データを得る。
逆直交変換されて得られた復号残差データは、演算部255に供給される。また、演算部255には、選択部263を介して、イントラ予測部261若しくは動き予測補償部262から予測画像が供給される。
演算部255は、その復号残差データと予測画像とを加算し、エンコード部113−1の演算部203により予測画像が減算される前の画像データに対応する復号画像データを得る。演算部255は、その復号画像データをデブロックフィルタ256に供給する。
デブロックフィルタ256は、復号された画像のブロック歪を除去した後、フレームメモリ259に供給し、蓄積させるとともに、画面並べ替えバッファ257にも供給する。
画面並べ替えバッファ257は、画像の並べ替えを行う。すなわち、図8の画面並べ替えバッファ202により符号化の順番のために並べ替えられたフレームの順番が、元の表示の順番に並べ替えられる。D/A変換部258は、画面並べ替えバッファ257から供給された画像をD/A変換し、図示せぬディスプレイに出力し、表示させる。
選択部260は、インター処理される画像と参照される画像をフレームメモリ259から読み出し、動き予測補償部262に供給する。また、選択部260は、イントラ予測に用いられる画像をフレームメモリ259から読み出し、イントラ予測部261に供給する。
イントラ予測部261には、ヘッダ情報を復号して得られたイントラ予測モードを示す情報等が可逆復号部252から適宜供給される。イントラ予測部261は、この情報に基づいて、予測画像を生成し、生成した予測画像を選択部213に供給する。
動き予測補償部262は、ヘッダ情報を復号して得られた情報(予測モード情報、動きベクトル情報、参照フレーム情報)を可逆復号部252から取得る。インター予測モードを示す情報が供給された場合、動き予測補償部262は、可逆復号部252からのインター動きベクトル情報に基づいて、予測画像を生成し、生成した予測画像を選択部263に供給する。
選択部263は、動き予測補償部262またはイントラ予測部261により生成された予測画像を選択し、演算部255に供給する。
デコード部152−2乃至デコード部152−4は、デコード部152−1と同様の構成とすることができるので、それらの説明は省略する。
なお、図10を参照して説明したデコード部152−1の構成は、デコード部152の構成としても適用することができる。
[符号化処理の流れ]
次に、以上のようなエンコード部113−1により実行される符号化処理の流れの例を、図11のフローチャートを参照して説明する。この符号化処理は、図6のステップS105およびステップS106に対応する。
符号化処理が開始されると、ステップS201において、A/D変換部201は入力された画像をA/D変換する。ステップS202において、画面並べ替えバッファ202は、A/D変換部201から供給された画像を記憶し、各ピクチャの表示する順番から符号化する順番への並べ替えを行う。
ステップS203において、演算部203は、ステップS202で並び替えられた画像と、後述する予測処理により得られる予測画像との差分を演算する。予測画像は、インター予測する場合は動き予測補償部215から、イントラ予測する場合はイントラ予測部214から、それぞれ選択部216を介して演算部203に供給される。
差分データは元の画像データに較べてデータ量が低減される。したがって、画像をそのまま符号化する場合に較べて、データ量を圧縮することができる。
ステップS204において、直交変換部204は演算部203から供給された差分情報を直交変換する。具体的には、離散コサイン変換、カルーネン・レーベ変換等の直交変換が行われ、変換係数が出力される。ステップS205において、量子化部205は変換係数を量子化する。
この量子化された差分情報は、次のようにして局部的に復号される。すなわち、ステップS206において、逆量子化部208は量子化部205により量子化された変換係数を量子化部205の特性に対応する特性で逆量子化する。ステップS207において、逆直交変換部209は、逆量子化部208により逆量子化された変換係数を直交変換部204の特性に対応する特性で逆直交変換する。
ステップS208において、演算部210は、選択部216を介して入力される予測画像を局部的に復号された差分情報に加算し、局部的に復号された画像(演算部203への入力に対応する画像)を生成する。ステップS209においてデブロックフィルタ211は、演算部210から出力された画像をフィルタリングする。これによりブロック歪みが除去される。ステップS210においてフレームメモリ212は、フィルタリングされた画像を記憶する。なお、フレームメモリ212にはデブロックフィルタ211によりフィルタ処理されていない画像も演算部210から供給され、記憶される。
ステップS211において、イントラ予測部214は、イントラ予測モードのイントラ予測処理を行う。ステップS212において、動き予測補償部215は、インター予測モードの動き予測補償処理を行う。
ステップS213において、選択部216は、イントラ予測部214および動き予測補償部215から出力された各コスト関数値に基づいて、最適予測モードを決定する。つまり、選択部216は、イントラ予測部214により生成された予測画像と、動き予測補償部215により生成された予測画像のいずれか一方を選択する。
また、この予測画像の選択情報は、イントラ予測部214または動き予測補償部215に供給される。最適イントラ予測モードの予測画像が選択された場合、イントラ予測部214は、最適イントラ予測モードを示す情報(すなわち、イントラ予測モード情報)を、可逆符号化部206に供給する。
最適インター予測モードの予測画像が選択された場合、動き予測補償部215は、最適インター予測モードを示す情報と、必要に応じて、最適インター予測モードに応じた情報を可逆符号化部206に出力する。最適インター予測モードに応じた情報としては、動きベクトル情報やフラグ情報、参照フレーム情報などがあげられる。
ステップS214において、可逆符号化部206は量子化部205から出力された量子化された変換係数を符号化する。すなわち、差分画像(インターの場合、2次差分画像)に対して、可変長符号化や算術符号化等の可逆符号化が行われる。
なお、可逆符号化部206は、ステップS213の処理により選択された予測画像の予測モードに関する情報を符号化し、差分画像を符号化して得られる符号化データのヘッダ情報に付加する。
つまり、可逆符号化部206は、イントラ予測部214から供給されるイントラ予測モード情報、または、動き予測補償部215から供給される最適インター予測モードに応じた情報なども符号化し、ヘッダ情報に付加する。
ステップS215において蓄積バッファ207は、可逆符号化部206から出力される符号化データを蓄積する。蓄積バッファ207に蓄積された符号化データは、適宜読み出され、伝送路を介して復号側に伝送される。
ステップS216においてレート制御部217は、蓄積バッファ207に蓄積された圧縮画像と、レート制御部114から供給されるレート制御情報に基づいて、オーバーフローあるいはアンダーフローが発生しないように、量子化部205の量子化動作のレートを制御する。
ステップS216の処理が終了すると、符号化処理が終了される。エンコード部113−1は、このような符号化処理を符号化処理単位毎に繰り返す。
なお、エンコード部113−2乃至エンコード部113−4も同様の処理を行う。また、エンコード部113とする場合も同様の符号化処理が行われる。
[復号処理の流れ]
次に、図10のデコード部152−1により実行される復号処理の流れの例を、図12のフローチャートを参照して説明する。この復号処理は、図7のステップS123に対応する。
復号処理が開始されると、ステップS231において、蓄積バッファ251は伝送されてきた符号化データを蓄積する。ステップS232において、可逆復号部252は、蓄積バッファ251から供給される符号化データを復号する。すなわち、図8の可逆符号化部206により符号化されたIピクチャ、Pピクチャ、並びにBピクチャが復号される。
このとき、動きベクトル情報、参照フレーム情報、予測モード情報(イントラ予測モード、またはインター予測モード)、およびフラグ情報等も復号される。
すなわち、予測モード情報がイントラ予測モード情報である場合、予測モード情報は、イントラ予測部261に供給される。予測モード情報がインター予測モード情報である場合、予測モード情報と対応する動きベクトル情報は、動き予測補償部262に供給される。
ステップS233において、逆量子化部253は可逆復号部252により復号された変換係数を、図8の量子化部205の特性に対応する特性で逆量子化する。ステップS234において逆直交変換部254は逆量子化部253により逆量子化された変換係数を、図8の直交変換部204の特性に対応する特性で逆直交変換する。これにより図8の直交変換部204の入力(演算部203の出力)に対応する差分情報が復号されたことになる。
ステップS235において、演算部255は、ステップS234の処理により得られた差分情報に予測画像を加算する。これにより元の画像データが復号される。
ステップS236において、デブロックフィルタ256は、演算部255から供給された復号画像データをフィルタリングする。これによりブロック歪みが除去される。
ステップS237において、フレームメモリ259は、フィルタリングされた復号画像データを記憶する。
ステップS238において、イントラ予測部261は、イントラ予測処理を行う。また、動き予測補償部262は、インター予測処理を行う。ステップS239において、選択部263は、生成された2つの予測画像のうちいずれか一方を選択する。
ステップS240において、画面並べ替えバッファ257は、復号画像データのフレームの並べ替えを行う。すなわち、復号画像データの、図8の画面並べ替えバッファ202により符号化のために並べ替えられたフレームの順序が、元の表示の順序に並べ替えられる。
ステップS241において、D/A変換部258は、画面並べ替えバッファ257においてフレームが並べ替えられた復号画像データをD/A変換する。この復号画像データが例えば図示せぬディスプレイに出力され、その画像が表示される。
ステップS241の処理が終了すると、復号処理が終了される。デコード部152−1は、このような復号処理を復号処理単位毎に繰り返す。
なお、デコード部152−2乃至デコード部152−4も同様の処理を行う。また、デコード部152とする場合も同様の符号化処理が行われる。
以上のように、エンコーダ部113(エンコーダ部113−1乃至エンコーダ部113−4)およびデコーダ部152(デコーダ部152−1乃至デコーダ部152−4)として、AVC方式の符号化装置・復号装置を適用することができる。この場合も、画像符号化装置100は、立体視可能な画像データと奥行きデータをより効率よく符号化することができる。また、画像復号装置150は、このように符号化された立体視可能な画像データと奥行きデータを、高速かつより適切に復号することができる。
[エンコード部の構成]
図13は、図1のエンコード部113として、JPEG2000方式で符号化を行うエンコーダを用いる場合の例を示している。図13においては、輝度データY、色差データCb、色差データCr、および奥行きデータD’をまとめて符号化し、1系統のコードストリーム(符号化データ)とする場合、つまり、エンコード部が1つのエンコード部113として構成される場合について説明する。
図13に示されるように、エンコード部113は、DCレベルシフト部301、ウェーブレット変換部302、量子化部303、コードブロック化部304、およびビットプレーン展開部305を有する。
DCレベルシフト部301は、後段のウェーブレット変換を効率的に行うために、矢印331のようにエンコード部113に入力された画像データのDC成分のレベルシフトを行う。例えば、RGB信号が正の値(符号無しの整数)を持っている。そこで、DCレベルシフト部301は、そのことを利用し、原信号のダイナミックレンジを半分にするレベルシフトを行うことで、圧縮効率の向上を図る。従って、YCbCr信号の色差データCbや色差データCrの様に符号(正負両方あり)の整数値を持つ信号を原信号とする場合には、このレベルシフトは行われない。
ウェーブレット変換部302は、通常低域フィルタと高域フィルタから構成されるフィルタバンクによって実現される。また、デジタルフィルタは通常複数タップ長のインパルス応答(フィルタ係数)を有するので、ウェーブレット変換部302は、フィルタリングが行えるだけの入力画像を予めバッファリングするバッファを有する。
ウェーブレット変換部302は、矢印332のようにDCレベルシフト部301より出力された画像データを、フィルタリングに最低限必要なデータ量以上取得すると、そのDCレベルシフト後の画像データに対して、所定のウェーブレット変換フィルタを用いてフィルタリングを行い、ウェーブレット係数を生成する。なお、ウェーブレット変換部302は、画像の垂直方向および水平方向のそれぞれに対して、画像データを低域成分と高域成分に分離するフィルタリングを行う。
そして、ウェーブレット変換部302は、このようなフィルタリング処理を、垂直方向および水平方向の両方において低域成分として分離されたサブバンドに対して再帰的に所定回数繰り返す。これは、例えば図14に示されるように、画像のエネルギーの多くが低域成分に集中しているからである。
図14は、サブバンドの構成例を示す図である。図14に示されるように、分割レベル数1の状態においても分割レベル数3の状態においても、画像のエネルギーの多くは、低域成分に集中している。
図15は、分割レベル数4のウェーブレット変換処理により生成されるサブバンドの構成例を示す図である。
この場合、ウェーブレット変換部302は、まず、画像全体をフィルタリングし、サブバンド1LL(図示せず)、1HL、1LH、および1HHを生成する。次に、ウェーブレット変換部302は、生成されたサブバンド1LLに対して再度フィルタリングを行い、2LL(図示せず)、2HL、2LH、および2HHを生成する。さらに、ウェーブレット変換部302は、生成されたサブバンド2LLに対して再度フィルタリングを行い、3LL、3HL、3LH、および3HHを生成する。さらに、ウェーブレット変換部302は、生成されたサブバンド3LLに対して再度フィルタリングを行い、4LL、4HL、4LH、および4HHを生成する。
このように、分割レベル数4まで分析フィルタリングが行われると、13個のサブバンドが生成される。図15に示されるように、分割レベルが1つ上位に進むごとに、サブバンドのサイズは、縦方向および横方向にそれぞれ2分の1となる。
つまり、例えば横方向に1920画素の画像のベースバンドの画像データが1回分析フィルタリングされると、横方向に960画素のサブバンドが4つ(1LL,1HL,1LH,1HH)生成される。さらに、サブバンド1LLが1回分析フィルタリングされると、横方向に480画素のサブバンドが4つ(2LL,2HL,2LH,2HH)が生成される。さらに、サブバンド2LLが回分析フィルタリングされると、横方向に240画素のサブバンドが4つ(3LL,3HL,3LH,3HH)が生成される。さらに、サブバンド3LLが1回分析フィルタリングされると、横方向に120画素のサブバンドが4つ(4LL,4HL,4LH,4HH)が生成される。
なお、ウェーブレット変換の分割レベル数は任意である。
ウェーブレット変換部302は、フィルタリングにより得られたウェーブレット係数を、サブバンド毎に、矢印333に示されるように量子化部303に供給する。量子化部303は、供給されたウェーブレット係数を量子化する。この量子化の方法は任意であるが、量子化ステップサイズで除算するスカラ量子化が一般的である。量子化部303は、量子化により得られた量子化係数を、矢印334に示されるように、コードブロック化部304に供給する。なお、これより後段においては、ウェーブレット係数の代わりに量子化係数が供給されることになるが、この量子化係数もウェーブレット係数の場合と基本的に同様に扱われる。したがって、以下においては、必要でない限りその点についての説明は省略し、単に係数または係数データと称する。
なお、エンコード部113が、復号処理により元のデータを完全に復元可能な可逆符号化方式により画像データを符号化する場合、この量子化部303の処理は省略され、矢印335に示されるように、ウェーブレット変換部302の出力がコードブロック化部304に供給される。
ウェーブレット係数は、コードブロック化部304で、エントロピ符号化の処理単位である所定の大きさのコードブロックに分割される。図16は各サブバンド中のコードブロックの位置関係を示したものである。例えば64×64画素程度のサイズのコードブロックが、分割後のすべてのサブバンド中に生成される。後段の各処理部は、このコードブロック毎に処理を行う。
コードブロック化部304は、矢印336に示されるように、各コードブロックをビットプレーン展開部305に供給する。ビットプレーン展開部305は、係数データを、ビットの位毎のビットプレーンに展開する。
ビットプレーンは、所定の数のウェーブレット係数よりなる係数群を、1ビット毎、つまり位毎に分割(スライス)したものである。つまり、ビットプレーンは、その係数群の互いに同一の位のビット(係数ビット)の集合である。
図17にその具体例を示す。図17の左図は縦4個、横4個の計16個の係数を示している。この16個の係数のうち、絶対値が最大のものは13で、2進数で1101と表現される。ビットプレーン展開部305は、このような係数群を、絶対値を示す4枚のビットプレーン(絶対値のビットプレーン)と、符号を示す1枚のビットプレーン(符号のビットプレーン)に展開する。つまり、図17中左の係数群は、図17中右に示されるように、4枚の絶対値のビットプレーンと1枚の符号のビットプレーンに展開される。ここで、絶対値のビットプレーンの要素はすべて0か1の値をとる。また、符号を示すビットプレーンの要素は、係数の値が正であることを示す値、係数の値が0であることを示す値、または係数の値がマイナスを示す値のいずれかをとる。
エンコード部113は、さらに、ビットモデリング部306、算術符号化部307、符号量加算部308、レート制御部309、ヘッダ生成部310、およびパケット生成部311を有する。
ビットプレーン展開部305は、展開したビットプレーンを、矢印337に示されるように、ビットモデリング部306に供給する。
ビットモデリング部306および算術符号化部307は、EBCOT(Embedded Coding with Optimized Truncation)部321として動作し、入力される係数データに対して、JPEG2000規格で定められたEBCOTと呼ばれるエントロピ符号化を行う。EBCOTは、所定の大きさのブロック毎にそのブロック内の係数の統計量を測定しながら符号化を行う手法である。
ビットモデリング部306は、JPEG2000規格で定められた手順に従って、係数データに対してビットモデリングを行い、矢印338に示されるように、制御情報、シンボル、およびコンテキスト等の情報を算術符号化部307に供給する。算術符号化部307は、係数のビットプレーンを算術符号化する。
コードブロックの縦横のサイズは4から256まで2のべき乗で、通常使用される大きさは、32×32、64×64、128×32等がある。係数値がnビットの符号付き2進数で表されていて、bit0からbit(n−2)がLSBからMSBまでのそれぞれのビットを表すとする。残りの1ビットは符号を示す。符号ブロックの符号化は、MSB側のビットプレーンから順番に、次の3種類の符号化パスによって行われる。
(1)Significant Propagation Pass
(2)Magnitude Refinement Pass
(3)Cleanup Pass
3つの符号化パスの用いられる順序は、図18で示される。最初にBit-plane(n-1)(MSB)がCleanup Passによって符号化される。続いて順次LSB側に向かい、各ビットプレーンの符号化が、3つの符号化パスをSignificant Propagation Pass、Magnitude Refinement Pass、Cleanup Passの順序で用いて行われる。
ただし、実際にはMSB側から何番目のビットプレーンで初めて1が出てくるかをヘッダに書き、MSB側から連続するオール0のビットプレーン(ゼロビットプレーンと称する)は符号化しない。この順序で3種類の符号化パスを繰返し用いて符号化し、任意のビットプレーンの、任意の符号化パス迄で符号化を打ち切ることにより、符号量と画質のトレードオフを取る(レート制御を行う)。
次に、係数の走査(スキャニング)について図19を用いて説明する。コードブロックは高さ4個の係数毎にストライプ(stripe)に分けられる。ストライプの幅はコードブロックの幅に等しい。スキャン順とは、1個のコードブロック内の、すべての係数をたどる順番で、コードブロック中では上のストライプから下のストライプへの順序、ストライプの中では、左の列から右の列へ向かっての順序、列の中では上から下へという順序である。各符号化パスにおいてコードブロック中のすべての係数が、このスキャン順で処理される。
以下、3つの符号化パスについて述べる。以下はいずれもJPEG-2000規格書(参考文献:ISO/IEC 15444-1, Information technology-JPEG 2000, Part 1:Core coding system)に記述されている内容である。
(1)Significance Propagation Pass(SPパス):
あるビットプレーンを符号化するSignificance Propagation Passでは、8近傍の少なくとも1つの係数が有意(significant)であるようなnon-significant係数のビットプレーンの値を算術符号化する。その符号化したビットプレーンの値が1である場合は、符号が+であるか、−であるかを続けてMQ符号化する。
ここでsignificanceというJPEG2000特有の用語について説明する。significanceとは、各係数に対して符号化器が持つ状態で、significanceの初期値はnon-significantを表す0、その係数で1が符号化されたときにsignificantを表す1に変化し、以降常に1であり続けるものである。従って、significanceとは有効桁の情報を既に符号化したか否かを示すフラグとも言える。あるビットプレーンでsignificantになれば、以降のビットプレーンではsignificantになったままである。
(2)Magnitude Refinement Pass(MRパス):
ビットプレーンを符号化するMagnitude Refinement Passでは、ビットプレーンを符号化する Significance Propagation Passで、且つ符号化していないsignificantな係数のビットプレーンの値をMQ符号化する。
(3)Cleanup Pass(CUパス):
ビットプレーンを符号化するCleanup Passでは、ビットプレーンを符号化するSignificance Passで、且つ符号化していないnon-significantな係数のビットプレーンの値をMQ符号化する。その符号化したビットプレーンの値が1である場合は符号が+であるか−であるか(Sign情報)を続けてMQ符号化する。
尚、以上の3つの符号化パスでのMQ符号化では、ケースに応じて、ZC(Zero Coding)、RLC(Run-Length Coding)、SC(Sign Coding)、およびMR(Magnitude Refinement)が使い分けられる。ここでMQ符号化と呼ばれる算術符号が用いられる。MQ符号化は、JBIG2(参考文献:ISO/IEC FDIS 14492, “Lossy/Lossless Coding of Bi-level Images”, March 2000)で規定された学習型の2値算術符号である。
図13に戻り、算術符号化部307は、生成したコードストリームを、矢印339に示されるように、符号量加算部308に供給する。符号量加算部308は、そのコードストリームの符号量をカウントし、累積する。
そして、符号量加算部308は、そのコードストリームを、矢印342および矢印343に示されるように、ヘッダ作成部310およびパケット生成部311に供給するとともに、矢印340に示されるように、符号量の累積値をレート制御部309に供給する。レート制御部309は、供給された符号量の累積値と、レート制御部114(図1)から供給される目標符号量とを比較し、累積値が目標符号量より小さい場合、矢印341に示されるように、EBCOT部321を制御し、次のビットプレーンの符号化を行わせる。
EBCOT部321は、その制御に従って次に重要なビットプレーンを符号化し、生成したコードストリームを符号量加算部308に供給する。符号量加算部308は、そのコードストリームの符号量をカウントして累積し、累積値をレート制御部309に供給する。
累積値が目標符号量に達するまで、以上のような処理が繰り返される。そして、累積値が目標符号量に達すると、レート制御部309は、EBCOT部321を制御し、符号化処理を終了させる。
パケット生成部311は、供給された符号化コードストリームをパケット化する。ヘッダ生成部310は、そのパケットのヘッダ情報を生成し、そのヘッダ情報を矢印344に示されるように、パケット生成部311に供給する。パケット生成部311は、そのヘッダ情報を用いてパケット化を行う。
このパケットの概念を図20に示す。図20に示される例では、ウェーブレット変換を3回施した例で、その結果、最低域のPacket-1から最高域のPacket-4までの4個のパケットが生成されることを示している。従って、これら個々のパケット内のサブバンド中に存在する、すべての符号ブロックの符号化コードストリームが、パケット毎にパッキングされることになる。
生成されたパケットは矢印345に示されるように、エンコード部113の外部に出力され、レート制御部114(図1)に供給される。
なお、エンコード部が、エンコード部113−1乃至エンコード部113−4の4つのエンコード部として構成されるようにしてもよい。この場合、エンコード部113−1乃至エンコード部113−4のそれぞれが、上述したエンコード部113と同様の構成を有するので、それらの説明は省略する。
[ビットプレーン展開]
JPEG2000方式の符号化における最大の特徴は、ビットプレーン毎の符号化である。JPEGやMPEGでは係数データを2次元データとして表現しているが、JPEG2000では2次元のバイナリデータの複数プレーンによって表現している。
従来のように、コンポーネント画像データと奥行きデータとを別々に符号化する場合、予め各々の目標レートを決めてから符号化することになる。そのため、コンポーネント画像データと奥行きデータの、最も効率の良い符号化レートの組み合わせを実現することができないことが多く、符号化効率を向上させることが困難であった。これに対して、エンコード部113は、コンポーネント画像データと奥行きデータの両方を合わせて、同時にレート制御しながらエンコードする。
図21は、奥行きデータのビット深度をコンポーネント画像データのビット深度に合わせた後のレート制御の様子を示している。なお、エンコーダ部113は、既存のRD(Rate-Distortion)特性を利用したレート制御方法とは大きく異なり、基本的には、重要度の高いもの(MSB方向のビット)から低いもの(LSB方向のビット)の順番に符号化を行っている。
エンコーダ部113は、コンポーネント画像データと奥行きデータを1つのコンポーネントとみなして処理する。すなわち、エンコーダ部113は、コンポーネント画像データと奥行きデータを、輝度データY、色差データCb、色差データCr、および奥行きデータD’の4つからなるコンポーネントデータとして符号化を行う。
図21に示される例の場合、EBCOT部321は、まず、輝度データYの最もビット位置の高いビットプレーンに対してEBCOTを行う。係数が0しか存在しないゼロビットプレーンではEBCOTを行わないので、実際に最初にEBCOTの対象になるのは、最も高い位置(MSBに近い位置)の番号「1」のビット位置のビットプレーンになる。なお、図21中においては、このビット位置を示す番号を丸囲み数字で表している。
図21に示される例において、この番号「1」のビット位置では、輝度データのコードブロックCBしか値「1」の係数を有するビットプレーンが存在しない。したがって、EBCOT部321は、輝度データのCBのビットプレーンだけをEBCOTする。
同じビット位置においては、EBCOTは、輝度データYのビットプレーン、色差データCbのビットプレーン、色差データCrのビットプレーン、奥行きデータD’のビットプレーンの順で行われる。
番号「1」のビット位置の処理が終了すると、処理対象は、次のビット位置(1つ下位のビット位置)に移動する。つまり番号「2」のビット位置のビットプレーンがEBCOTの対象になる。
図21に示される例の場合、番号「2」のビット位置においては、まず、輝度データYのコードブロックCBとCBのビットプレーンが順にEBCOTの対象となる。色差データCbと色差データCrには値「1」の係数を有するビットプレーンが存在しないので、次に、奥行きデータD’のコードブロックCBのビットプレーンがEBCOTの対象となる。
番号「2」のビット位置の処理が終了すると、処理対象は、番号「3」のビット位置に移動する。図21に示される例の場合、番号「3」のビット位置においては、輝度データYのコードブロックCB、CB、CB、色差データCbのコードブロックCB、色差データCrのコードブロックCB、奥行きデータのコードブロックCB、CBのビットプレーンがこの順にEBCOTの対象となる。
このように、番号「1」のビット位置から番号「X」のビット位置まで、上位ビットから下位ビットに向かう方向に1ビットずつ処理対象を変えながら、EBCOTが進められる。
なお、このようにEBCOTが繰り返し行われる間、符号量加算部308は、上述したように、生成される符号量を加算していく。
尚、図21においては、説明の都合上、輝度データY、色差データCb、色差データCr、および奥行きデータD’のいずれにおいても、サブバンドについての説明を省略したが、実際には、図16に示される様に、ウェーブレット変換後に生成されるサブバンドのすべてにコードブロックが存在する。従って、サブバンド内のコードブロック分だけ、図21に図示したレート制御の対象になる。
以上のように、JPEG2000方式の場合、エンコード部113は、輝度データY、色差データCb、色差データCr、および奥行きデータD’の全てにおいて、ゼロビットプレーンでない上位ビットのビットプレーンから順に検索する。したがって、特に奥行きデータのビット深度が画像データに対して浅いと、その奥行きデータの優先度が極端に低くなってしまう恐れがある。
上述したように、奥行きデータのビット深度を、画像データのビット深度に合わせるようにビットシフトチェンジを行うことにより、画像符号化装置100は、EBCOTの対象を選択するときの優先度の、コンポーネント間での過度な偏りを低減させるようにすることができる。これにより、例えば、符号化データに奥行きデータがほとんど含まれなくなってしまう等の不具合の発生を抑制することができる。
[デコード部の構成]
次に、このようなエンコード部113に対応するデコード部152(図4)について説明する。図22は、デコード部152の主な構成例を示すブロック図である。図22に示されるように、デコード部152は、JPEG2000方式で符号化された符号化データを復号することができる。つまり、デコード部152は、図13に示されるエンコード部113により符号化された符号化データを復号することができる。
図22において、デコード部152は、パケット解読部361、算術復号部362、ビットモデリング部363、ビットプレーン合成部364、コードブロック合成部365、ウェーブレット逆変換部366、およびDCレベル逆シフト部367を有する。
パケット解読部361は、矢印381に示されるように、画像符号化装置100から供給されるパケットを解読し、矢印382に示されるように、コードストリームを算術復号部362に供給する。
算術復号部362およびビットモデリング部363は、EBCOT部371として動作し、入力されるコードストリームに対して、JPEG2000規格で定められたEBCOTと呼ばれるエントロピ復号を行う。
算術復号部362は、算術符号化部307に対応する方法でコードストリームを復号し、矢印383に示されるように、コンテキストをビットモデリング部363に供給する。ビットモデリング部363は、ビットモデリング部306に対応する方法で、ビットプレーンに展開されたウェーブレット係数を生成する。ビットモデリング部363は、生成したビットプレーン毎の係数データを、矢印384に示されるように、ビットプレーン合成部364に供給する。
ビットプレーン合成部364は、ビットプレーンに展開されたウェーブレット係数を合成する。ビットプレーン合成部364は、ビットプレーンを合成したウェーブレット係数を、矢印385に示されるように、コードブロック合成部365に供給する。
コードブロック合成部365は、供給されたビットプレーンを用いてコードブロック単位の係数データを生成し、さらにそれらを合成し、サブバンド毎の係数データを生成する。コードブロック合成部365は、矢印386に示されるように、それをウェーブレット逆変換部366に供給する。
ウェーブレット逆変換部366は、供給されたウェーブレット係数をウェーブレット逆変換し、ベースバンドの画像データを生成する。ウェーブレット逆変換部366は、生成したベースバンドの画像データを、矢印387に示されるように、DCレベル逆シフト部367に供給する。
DCレベル逆シフト部367は、その画像データのDC成分に対して、DCレベルシフト部301においてシフトした分を元に戻すDCレベル逆シフト処理を必要に応じて行う。DCレベル逆シフト部367は、DCレベル逆シフト処理後の画像データを、矢印388に示されるように、デコード部152の外部に出力する。より具体的には、コンポーネント画像データは、画像復号装置150の外部に出力され、奥行きデータは、ビットシフトチェンジ部153に供給される。
なお、デコード部が、デコード部152−1乃至デコード部152−4の4つのデコード部として構成されるようにしてもよい。この場合、デコード部152−1乃至デコード部152−4のそれぞれが、上述したデコード部152と同様の構成を有するので、それらの説明は省略する。
[符号化処理の流れ]
次に、この場合の符号化処理の流れの例を説明する。最初に、エンコード部113により行われる符号化処理の流れの例を、図23のフローチャートを参照して説明する。この符号化処理は、図6のステップS105およびステップS106に対応する。
符号化処理が開始されると、エンコード部113は、ステップS301において、入力系331から画像データおよび奥行きデータを取得する。
ステップS302において、DCレベルシフト部301は、ステップS301において入力された画像データおよび奥行きデータのDCレベルをシフトする。ステップS303において、ウェーブレット変換部302は、ステップS302においてDCレベルがシフトされた画像データおよび奥行きデータをウェーブレット変換する。
ステップS304において、量子化部303は、非可逆符号化方式の場合、ステップS303において画像データおよび奥行きデータから生成されたウェーブレット係数を量子化する。なお、可逆符号化方式の場合、この処理は省略される。
ステップS305において、コードブロック化部304は、画像データおよび奥行きデータの係数データをコードブロック単位で分割する。ステップS306において、ビットプレーン展開部305は、ステップS305において分割されたコードブロック毎の係数をビットプレーンに展開する。
ステップS307において、EBCOT部221は、ステップS306においてビットプレーン展開された画像データおよび奥行きデータの係数データをエントロピ符号化する。
ステップS308において、レート制御部309は、符号量加算部308において加算された符号量や、レート制御部114から供給される目標符号量等を用いて、発生符号量のレートを制御する。
ステップS309において、ヘッダ生成部310は、パケットヘッダを生成する。ステップS310において、パケット生成部311は、パケットを生成する。ステップS311において、エンコーダ部113は、パケットを外部に出力する。
ステップS311の処理が終了すると、符号化処理が終了される。なお、この符号化処理は、画像データおよび奥行きデータの供給が終了するか、終了の指示を受けるまで、所定のデータ単位毎に繰り返し実行される。
なお、エンコード部がエンコード部113−1乃至エンコード部113−4として構成される場合、エンコード部113−1乃至エンコード部113−4のそれぞれが、エンコード部113と同様の処理を行う。
[エントロピ符号化処理の流れ]
次に、図24のフローチャートを参照して、図23のステップS307において実行されるエントロピ符号化処理の流れの例を説明する。
エントロピ符号化処理が開始されると、EBCOT部321は、ステップS331において、初期条件を設定する。より具体的には、EBCOT部321は、符号化対象のコンポーネントをNc={1,2,…,Lc}と設定し、サブバンドをNs={1,2,…,Ls}と設定し、コードブロック(B)のビットプレーン(C)の情報量=T(B,C,Nc,Ns)とし、累積加算符号量=Yとする。
ステップS332において、EBCOT部321は、図13のビットプレーン展開部305での動作が終了した時点で、所定のメモリにウェーブレット変換係数または量子化係数のビットプレーン情報(ゼロビットプレーン情報も含む)を保持させる。
ステップS333において、EBCOT部321は、初期値としてY=0とする。ステップS334において、EBCOT部321は、ゼロビットプレーンを含むサブバンド間で、最もビット位置が高い最初の符号ブロックのビットプレーンを選択する。
ステップS335において、EBCOT部321は、選択されたビットプレーンに対してEBCOTを行う。ステップS336において、符号量加算部308は、ステップS335の処理の結果生成された符号の符号量を以下の式で加算する。
Y=Y+T(B,C,Nc,Ns) ・・・(1)
ステップS337において、レート制御部309は、式(1)において加算して得られた加算符号量Yが、レート制御部114から取得した目標符号量を下回るか否かを判定する。加算符号量Yが目標符号量を下回ると判定された場合、レート制御部309は、処理をステップS338に進める。
ステップS338において、EBCOT部321は、同じビット位置のビットプレーンが他にもあるか否かを判定する。あると判定された場合、EBCOT部321は、処理をステップS339に処理を進める。ステップS339において、EBCOT部321は、同じビット位置の次のビットプレーンを選択する。EBCOT部321は、処理をステップS335に戻し、選択されたビットプレーンに対してEBCOTを行う。
また、ステップS338において、同じビット位置のビットプレーンが他に存在しないと判定された場合、EBCOT部321は、処理をステップS340に進める。
ステップS340において、EBCOT部321は、現在よりも下位のビット位置に未処理のビットプレーンが残っているか否かを判定する。未処理のビットプレーンが存在すると判定された場合、EBCOT部321は、処理対象を次のビット位置に移動し、最初のコードブロックのビットプレーンを選択する。EBCOT部321は、処理をステップS335に戻し、選択されたビットプレーンに対してEBCOTを行う。
また、ステップS340において、未処理のビットプレーンが存在しないと判定された場合、EBCOT部321は、エントロピ符号化処理を終了し、処理を図23のステップS307に戻し、ステップS308以降の処理を行う。
さらに、ステップS337において、加算符号量Yが目標符号量を上回ると判定された場合、レート制御部309は、エントロピ符号化処理を終了し、処理を図23のステップS307に戻し、ステップS308以降の処理を行う。
[復号処理の流れ]
図25は、復号処理の流れの例を説明するフローチャートである。この復号処理は、図7のステップS123に対応する。
復号処理が開始されると、デコード部152は、ステップS361において、入力系381から符号化データのパケットを取得する。ステップS362において、パケット解読部361は、ステップS361において取得されたパケットから符号化データを抽出する。
ステップS363において、EBCOT部371は、ステップS362において抽出された符号化データを復号する。ステップS364において、ビットプレーン合成部364は、ステップS363の処理により得られた係数データのビットプレーンを合成し、コードブロック毎の係数データを生成する。
ステップS365において、コードブロック合成部365は、ステップS364の処理により生成された係数データのコードブロックを合成し、サブバンド毎の係数データを生成する。
ステップS366において、ウェーブレット逆変換部366は、ステップS365の処理により生成されたサブバンド毎の係数データをウェーブレット逆変換し、ベースバンドの画像データを生成する。ステップS367において、DCレベル逆シフト部367は、ステップS366の処理により生成されたベースバンドの画像データのDCレベルを逆シフトする。
ステップS368において、デコード部152は、ステップS367においてDCレベル逆シフト処理が施された画像データを復号画像データとして出力系388から出力する。例えば、この復号画像データが例えば図示せぬディスプレイに出力され、その画像が表示される。
ステップS368の処理が終了すると、デコード部152は、復号処理を終了する。デコード部152は、このような復号処理を復号処理単位毎に繰り返す。
なお、デコード部がデコード部152−1乃至デコード部152−4として構成される場合、デコード部152−1乃至デコード部152−4のそれぞれが、デコード部152と同様の処理を行う。
以上のように、エンコーダ部113(エンコーダ部113−1乃至エンコーダ部113−4)およびデコーダ部152(デコーダ部152−1乃至デコーダ部152−4)として、JPEG2000方式の符号化装置・復号装置を適用することができる。この場合も、画像符号化装置100は、立体視可能な画像データと奥行きデータをより効率よく符号化することができる。また、画像復号装置150は、このように符号化された立体視可能な画像データと奥行きデータを、高速かつより適切に復号することができる。
[サブバンド選択順]
ところで、以上においては、コンポーネント画像データの各データが、その優先度の高い順、すなわち、輝度データY、色差データCb、色差データCr、奥行きデータD’の順に処理対象として選択され、EBCOTされるように説明した(図21)。
このような処理対象の選択は、各コンポーネント内においても同様に行われるようにしてもよい。例えば、優先度の高いサブバンドのコードブロックから優先的に選択されるようにしてもよい。
図26は、サブバンド毎の選択の優先順を示す図である。上述したように、一般的には、より低域成分のサブバンドほど、より多くのエネルギーが集中している。したがって、より低域な成分のサブバンドほど重要であり、その優先度は高い。
したがって、例えば、1つのコンポーネント内において、あるビット位置のビットプレーンを選択する場合、低域成分から高域成分に向かう順に、各サブバンドのコードブロックのビットプレーンが選択されるようにしてもよい。図26に示される丸囲みの番号は、サブ場温度毎の優先順を示している。つまり、あるビット位置においてゼロビットプレーンでないビットプレーンが存在する場合、番号が若いサブバンドのコードブロックのビットプレーンから優先的に選択される。
もちろん、各サブバンドの優先度の付け方は任意であるので、このサブバンド毎の選択の優先順も任意である。例えば、図26に示される番号を用いて説明すると、各サブバンドが、1→3→2→4→5→・・・の順に選択されるようにしてもよいし、1→2→4→3→5→・・・の順に選択されるようにしてもよいし、1→3→4→2→5→・・・の順に選択されるようにしてもよい。もちろん、これ以外の順であってもよい。
このような順での選択が、各コンポーネントにおいて行われる。このとき、コンポーネント毎にサブバンドの優先順が異なるようにしてもよい。
また、サブバンド毎に重要度を反映させた重み係数を予め定義し、この重み係数を量子化係数に乗算し、その値を補正するようにしてもよい。図27は、そのサブバンド毎に定義される重み係数の例を示す図である。図27の例の場合、最低域のサブバンド(図中左上のサブバンド)の係数は「1.0」であるので、このサブバンドにおいては、量子化係数に重み係数を乗算してもその値は変化しない。
これに対して、その他のサブバンドにおいては、高域になるほど重み係数の値が小さくなってる。従って、これらのサブバンドにおいて量子化係数に重み係数を乗算すると、その値は小さくなる。つまり、非ゼロのビットプレーン数が少なくなる。その度合いは高域になるほど大きくなる。上述したように処理対象の選択は上位ビットから下位ビットに向かう順に行われるので、高域成分のサブバンドほど、処理対象として選択される順が後に移動することになる。
このように、量子化係数の値を重み係数で補正することにより、EBCOTの処理対象として選択される順を制御するようにしてもよい。
ところで、上述したように、複数のコンポーネントが存在する場合、各コンポーネントの優先度は、輝度データY、色差データCb、色差データCr、奥行きデータD’の順となる。
この理由としては、コンポーネント画像データに割り当てる符号量を、奥行きデータに割り当てる符号量よりも多めに設定する方が、総合的な画質が向上するとの研究報告が、各種機関から出されていることによる。
なお、奥行きデータにおいて、どの帯域のサブバンドを重視するかによって符号化効率が変化する可能性がある。また、復号画像における視覚的影響が大きくなる場合も考えられる。したがって、優先度の低い奥行きデータであっても、各サブバンドの優先度は、装置、画像の内容、または用途等に応じて適切に制御することが望ましい。
一般に、奥行きデータのサブバンドの低域重視だと、異なる被写体(人物と背景など)の境界線がぼけるので境界部のリンギングが発生する可能性がある。逆に、高域重視の場合には、奥行き画像の平坦部、つまり凹凸が本来存在しない部分が発生することで、デコード画像がでこぼこする可能性もある。
<2.第2の実施の形態>
[画像符号化装置の構成]
上述したようなJPEG2000方式のエンコーダをエンコード部として用いる場合、奥行きデータのビットシフトチェンジを、エンコード部内部で行うようにしてもよい。
図28は、本発明を適用した画像符号化装置の他の構成例を示すブロック図である。
図28に示される画像符号化装置400は、図1の画像符号化装置100と同様の装置であり、画像符号化装置100と基本的に同様の構成を有する。ただし、画像符号化装置400は、ビット深度検出部111およびビットシフトチェンジ部112が省略され、エンコード部113の代わりにエンコード部413を有する。
エンコード部413は、その内部において、画像データおよび奥行きデータDのビット深度検出と、奥行きデータDのビットシフトチェンジを行う。したがって、画像符号化装置400に入力されたコンポーネント画像データ(輝度データY(矢印121−1)、色差データCb(矢印121−2)、および色差データCr(矢印121−3))は、エンコード部413に供給される。また、外部より入力される奥行きデータDもエンコード部413に供給される(矢印124)。
エンコード部413は、供給されたコンポーネント画像データや奥行きデータDをJPEG2000方式で符号化し、その符号化結果である符号化データをレート制御部114に供給するとともに(矢印326)、レート制御部114から、目標符号量を指定するレート制御情報を取得する(矢印328)。また、エンコード部413は、画像データおよび奥行きデータDのビット深度を検出し、その検出結果に従って、奥行きデータDのビットをシフトさせ、そのシフト量を示すビットシフトチェンジ情報を多重化部115に供給する(矢印329)。
[エンコード部の構成]
次に、このエンコード部413の詳細について説明する。図29は、図28のエンコード部413の主な構成例を説明するブロック図である。
エンコード部413は、基本的に、図13を参照して説明したエンコード部113と同様の構成を有し、同様の処理を行う。ただし、エンコード部413は、ビットプレーン展開部305とEBCOT部321の間にビット深度検出部420およびビットシフトチェンジ部430を有する。
ビット深度検出部420は、基本的にビット検出部111と同様の構成を有し、同様の処理を行う。ただし、ビット深度検出部420には、ビットプレーン展開部305から、画像データや奥行きデータDの、ビットプレーン展開された係数データが供給される(矢印337)。ビット深度検出部420は、各係数データのビット深度を検出する。ビット深度検出部420は、ビットプレーン展開された各係数データとともに、その検出結果(画像データおよび奥行きデータDのビット深度を示す情報)を、ビットシフトチェンジ部430に供給する(矢印421)。
ビットシフトチェンジ部430は、ビット深度検出部420から供給されたビットプレーン展開された各係数データのうち、奥行きデータDの係数データのビットをシフトチェンジする。このシフトチェンジの方法は、処理対象がベースバンドのデータではなく、ウェーブレット変換された係数データであること以外、ビットシフトチェンジ部112の場合と同様である。
ただし、この場合、係数データをビットシフトさせるので、そのシフト量は、第1の実施の形態の場合と異なる可能性がある。ビットシフトチェンジ部430は、奥行きデータDの係数データのビット深度を、コンポーネント画像データの係数データのビット深度に合わせるように、奥行きデータDの係数データのビットをシフトチェンジする。
ビットシフトチェンジ部430は、コンポーネント画像データの係数データを、そのビットをシフトチェンジせずにEBCOT部321に供給する(矢印431)。また、ビットシフトチェンジ部430は、シフトチェンジ後の奥行きデータD’の係数データをEBCOT部321に供給する(矢印431)。さらに、ビットシフトチェンジ部430は、奥行きデータDの係数データのシフト量を示すビットシフトチェンジ情報を多重化部115に供給する(矢印432)。
なお、この場合も、シフトチェンジには、シフトアップ、シフトダウン、およびシフトチェンジしない(0ビットシフト)の全てが含まれる。
その他の各処理は、図13に示されるエンコード部113の場合と同様に行われる。
[シフトアップの例]
図30は、この場合のシフトアップの例を説明する図である。
図30に示されるように、コンポーネント画像データの係数データ441(ここでは説明の便宜上輝度データYのみ示す)がMビットであり、奥行きデータDの係数データがNビット(M>N)である場合、ビットシフトチェンジ部430は、奥行きデータDの係数データを(M−N)ビット分シフトアップし、その下位の(M−N)ビットをゼロ埋めする(奥行きデータD’)。ビットシフトチェンジ部430は、この奥行きデータD’の係数データ443をEBCOT部321に供給する。
このようにエンコード部内においてシフトチェンジを行う場合、例えばバッファ等に保持されている係数データを読み出す際にシフトチェンジしたものとして取り扱うようにすればよく、実際にデータ量を増大させて保持しなくてもよい。そのため、このようなエンコード部内のシフトチェンジにより、少なくともEBCOTが行われる前の係数データを保持するメモリ量の増大を抑制することができる。また、ビットシフトチェンジ部112を省略することができるので、回路規模やコストの増大を抑制することができる。
[画像復号装置の構成]
このような画像符号化装置に対応する画像復号装置の構成例を図31に示す。図31において、画像復号装置450は、基本的に図4の画像復号装置150と同様の構成を有するが、ビットシフトチェンジ部153は省略され、デコード部152の代わりにデコード部452を有する。この場合、分離部151は、画像データおよび奥行きデータからビットシフトチェンジ情報を分離する。分離部151は、画像データおよび奥行きデータとビットシフトチェンジ情報をデコード部452に供給する(矢印162および矢印163)
つまり、デコード部452は、その内部において奥行きデータD’のビットシフトチェンジを行う。デコード部452は、コンポーネント画像データを出力する(矢印163−1乃至矢印163−3)とともに、シフトチェンジ後の奥行きデータD’を出力する(矢印165)。
[デコード部の構成]
図32は、図31のデコード部452の主な構成例を説明するブロック図である。
図32に示されるデコード部452は、基本的に図22に示されるデコード部152と同様の構成を有する。ただし、デコード部452は、EBCOT部371とビットプレーン合成部364との間に、ビットシフトチェンジ部460を有する。
このビットシフトチェンジ部460は、処理対象が奥行きデータD’の係数データであること以外、基本的にビットシフトチェンジ部153と同様の処理を行う。ビットシフトチェンジ部460は、分解部151から供給される(矢印461=矢印164)ビットシフトチェンジ情報に示されるシフト量分、奥行きデータD’の係数データを、ビットシフトチェンジ部430によるシフトチェンジとは逆方向にシフトチェンジする。
ビットシフトチェンジ部460は、シフトチェンジした奥行きデータDをビットプレーン合成部364に供給する(矢印462)。
[シフトダウンの例]
例えば奥行きデータDの係数データが(M−N)ビットシフトアップされている場合、ビットシフトチェンジ部460は、ゼロ埋めされた奥行きデータD’の係数データの下位(M−N)ビットを削除し、上位Nビットをシフトダウンする。
このようにデコード部内においてシフトチェンジすることにより、エンコード部内においてシフトチェンジされた奥行きデータを正しく元のビット深度に戻すことができる。
[符号化処理の流れ]
次に、各処理の流れの例について説明する。まず、図34のフローチャートを参照してエンコード部413により実行される符号化処理の流れの例を説明する。
なお、画像符号化装置400が実行する画像符号化処理は、図6を参照して説明した画像符号化処理から、ステップS104の処理を省略するのみでよいのでその説明は省略する。
また、エンコード部413による符号化処理も、基本的に図23を参照して説明した符号化処理と同様である。ただし、ステップS407において、ビット深度検出部420は、ステップS406においてビットプレーン展開された画像データの係数データおよび奥行きデータの係数データのビット深度をそれぞれ検出する。
ステップS408において、ビットシフトチェンジ部430は、ステップS407において検出された各係数データのビット深度に基づいて、奥行きデータDの係数データのビット深度を画像データの係数データのビット深度に合わせるように、奥行きデータDの係数データのビットをシフトチェンジする。ステップS408において、EBCOT部321は、画像データ、および、シフトチェンジされた奥行きデータD’をエントロピ符号化する。
なお、ステップS401乃至ステップS406、並びに、ステップS409乃至ステップS413の各処理は、図23のステップS301乃至ステップS311の各処理と同様に行われる。
[復号処理の流れ]
次に、デコード部452により行われる復号処理の流れの例を、図35のフローチャートを参照して説明する。なお、画像復号装置450が実行する画像復号処理は、図7を参照して説明した画像復号処理から、ステップS124の処理を省略するのみでよいので、その説明は省略する。
また、デコード部452による復号処理も、基本的に図25を参照して説明した復号処理と同様である。ただし、ステップS464において、ビットシフトチェンジ部460は、ステップS463において復号された、奥行きデータDの係数データのビットをシフトチェンジする。ステップS465において、ビットプレーン合成部364は、画像データおよび奥行きデータDのそれぞれについて、ビットプレーンを合成する。
なお、ステップS461乃至ステップS463、並びに、ステップS465乃至ステップS469の各処理は、図25のステップS361乃至ステップS368の各処理と同様に行われる。
以上のように、エンコーダ部413およびデコーダ部452の内部において係数データのビットシフトを行うようにすることもできる。この場合も、画像符号化装置400は、立体視可能な画像データと奥行きデータをより効率よく符号化することができる。また、画像復号装置450は、このように符号化された立体視可能な画像データと奥行きデータを、高速かつより適切に復号することができる。
<3.第3の実施の形態>
[画像符号化装置の構成]
図36は、本発明を適用した画像符号化装置の、さらに他の構成例を示すブロック図である。図36に示されるように、上述したエンコーダを、実際の3次元画像入力・エンコードシステムの中に適用することができる。
図36の画像符号化装置500は、3次元画像を入力し符号化する装置である。画像符号化装置500の奥行きデータ生成部511は、X個のカメラ映像またはX個の出力画像(521−1,521−2,・・・,521−X)を入力し、これらの画像の同一時刻のピクチャ同士をピクセル単位で比較することで、その時刻のピクチャの奥行きデータ522を生成する。生成された奥行きデータは例えば、図2Bを参照して説明したようにグレースケールのビットマップデータで表すことができる。
奥行きデータ生成部511が奥行きデータを生成する方法としては、複数の研究機関の研究成果がある。例えばProceedings of SPIE:"Algorithm for dynamic 3D object generation from multi-viewpoint image" (5599, 2004, 153,161) by K.Tomiyama, Y.Orihira, M.Katayama, and Y.Iwadate)では、複数視点の画像から被写体画像の3D形状を自動で推定して生成する手法が報告されている。
奥行きデータ生成部511は、例えば、このような手法を用いて奥行きデータを生成する。
次に、奥行きデータ522は、奥行きデータエンコード部512に供給される。奥行きデータエンコード部512は、上述した他の実施の形態において説明したように奥行きデータ522を符号化し、コードストリーム523を生成する。
また、X個の出力画像(521−1,521−2,・・・,521−X)は、カメラ画像選択部513に供給される。カメラ画像選択部513は、そのX個の出力画像の中からY個の画像を選択する。このY個のカメラ画像(524−1,524−2,・・・,524−Y)は、カメラ画像エンコード部514に供給される。カメラ画像エンコード部514は、上述した他の実施の形態において説明したようにY個のカメラ画像を符号化し、コードストリーム525−1乃至コードストリーム525−Yを生成する。
なお、このとき、奥行きデータエンコード部512とカメラ画像エンコード部514は、互いの発生符号量等の情報を授受することにより、画像データと奥行きデータの両方のレート制御を互いに連携して行う。
コードストリーム523は、多重化部515に供給される。また、コードストリーム525−1乃至コードストリーム525−Yは、多重化部515に供給される。
多重化部515は、奥行きデータエンコード部512から、さらに、ビットシフトチェンジ情報を取得する。多重化部515は、コードストリーム523、並びに、コードストリーム525−1乃至コードストリーム525−Yを多重化し、多重化データ526を生成する。多重化データ526は、画像符号化装置500の外部に出力される。
尚、以上のX個の画像からY個の画像を選択する手段であるが、例えばXの値が大きい場合にはそのままでは情報量が大きいことから、X画像の内のキーになる画像だけを選択することが有効である。このキーピクチャの選択方法としては、例えば1つ置きに画像を選ぶとか、被写体画像(例えば人物や車など)が含まれている画像を優先的に選択する手段等が効果的である。
このようにすることにより、対象画像の数を間引いて減らすことでエンコーダの処理負担のみならず、後述のデコーダの処理負担も軽減され、コードストリーム全体のデータ量も減り、例えばネットワーク伝送の際には早く伝送できるという効果もある。
複数機関からの研究成果によると、一般に画像の奥行きデータを高精度に推定・生成する場合、複数視点からの画像が多いほど精度が高い。従って図36のXのデータは大きいほど良い。しかし上記で述べた様にこれらのX個の画像を全部エンコードして伝送することは効率が悪く、間引きが有効である。間引かれた部分の画図の補充は、後述のデコーダで行うことになる。
また、図36の構成に加えて、カメラ画像のビット深度を検出し、検出されたビット深度と奥行きデータのビット深度を比較して、奥行きデータをカメラ画像のビット深度に合わせるためのビットシフトを行い、上記Y個の画像データと上記ビットシフト後の奥行きデータを合わせて、合計(Y+1)個の画像データとしてエンコードして、ビットシフト値を多重化部から送出することで、奥行きデータとカメラ画像とを同一のエンコード手段でエンコードすることが出来る。
[画像復号装置の構成]
図37は、本発明を適用した画像復号装置の、さらに他の構成例を示すブロック図である。図37に示される画像復号装置600は、図36の画像符号化装置500に対応する装置であり、3次元の画像データが符号化された符号化データを復号する装置である。画像復号装置600は、分離部611、奥行きデータデコード部612、カメラ画像デコード部613、および画像レンダリング部614を有する。
多重化されたコードストリーム621が供給されると、分離部611は、それを、奥行きデータのコードストリーム622と、Y個のカメラ画像のコードストリーム(624−1,624−2,・・・,624−Y)に分離する。Y個のカメラ画像のコードストリーム(624−1,624−2,・・・,624−Y)は、カメラ画像デコード部613に供給され、奥行きデータのコードストリーム622は、奥行きデータデコード部612に供給される。
カメラ画像デコード部613は、Y個のカメラ画像のコードストリーム(624−1,624−2,・・・,624−Y)を、カメラ画像エンコード部514の符号化方法に対応する復号方法で復号し、Y個のカメラ画像(625−1,625−2,・・・,625−Y)を生成する。Y個のカメラ画像(625−1,625−2,・・・,625−Y)は、画像レンダリング部614に供給される。
また、奥行きデータのコードストリーム622は、奥行きデータデコード部612に供給される。奥行きデータデコード部612は、奥行きデータのコードストリーム622を、奥行きデータエンコード部512の符号化方法に対応する復号方法で復号する。
奥行きデータデコード部612は、復号して得られた奥行きデータ623を、画像レンダリング部614に供給する。
画像レンダリング部614は、奥行きデータ623とY個のカメラ画像(625−1,625−2,・・・,625−Y)を用いてX個のカメラ画像を合成する(X>Y)。このX個のカメラ画像を合成する方法は、任意であるが、例えばSPIE-IS&T/Vol.5291:"Depth-Image-Based Rendering (DIBR), Compression and Transmission for a New Approach on 3D-TV" by Christoph Fehn(HHI)で報告されている手法がある。
以上のように、従来はコンポーネント画像と奥行きデータとを別々にエンコードしていたものを、奥行きデータのビット深度をコンポーネント画像に合わせてから、同じエンコード手段で同時にレート制御を行いながらエンコードを行うので、従来の別々のエンコードに比べて高速且つ高能率(画質が向上)に符号化することができる。
またJPEG2000のビットプレーンを用いたエンコードにおいては、ウェーブレット変換後の係数をビットプレーン展開した後に、コードブロック単位にビットシフトを行い、MSBの位置合わせを行うことで、奥行きデータのビットプレーンとコンポーネント画像のビットプレーンを同時にレート制御が出来る。
<4.第4の実施の形態>
[パーソナルコンピュータ]
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。この場合、例えば、図38に示されるようなパーソナルコンピュータとして構成されるようにしてもよい。
図38において、パーソナルコンピュータ700のCPU701は、ROM(Read Only Memory)702に記憶されているプログラム、または記憶部713からRAM(Random Access Memory)703にロードされたプログラムに従って各種の処理を実行する。RAM703にはまた、CPU701が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU701、ROM702、およびRAM703は、バス704を介して相互に接続されている。このバス704にはまた、入出力インタフェース710も接続されている。
入出力インタフェース710には、キーボード、マウスなどよりなる入力部711、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部712、ハードディスクなどより構成される記憶部713、モデムなどより構成される通信部714が接続されている。通信部714は、インターネットを含むネットワークを介しての通信処理を行う。
入出力インタフェース710にはまた、必要に応じてドライブ715が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア721が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部713にインストールされる。
上述した一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、ネットワークや記録媒体からインストールされる。
この記録媒体は、例えば、図38に示されるように、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc - Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア721により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM702や、記憶部713に含まれるハードディスクなどで構成される。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数のデバイス(装置)により構成される装置全体を表すものである。
また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。つまり、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
本発明は、例えば、デジタルシネマ用編集装置、アーカイブシステム、放送局の画像伝送装置、画像データベース、医用画像の記録システム、ネットワークサーバ、インターネット上の画像伝送装置、無線伝送装置、映画館からの2次映像配信装置、ノンリニア編集装置、ゲーム機、テレビ受像機システム、HDDレコーダ、PC上のオーサリング・ツールまたはそのソフトウェア・モジュール等に適用することができる。
100 画像符号化装置, 111 ビット深度検出部, 112 ビットシフトチェンジ部, 113 エンコード部, 114 レート制御部, 115 多重化部, 150 画像復号装置, 151 分離部, 152 デコード部, 153 ビットシフトチェンジ部, 400 画像処理装置, 413 エンコード部, 430 ビットシフトチェンジ部, 450 画像復号装置, 452 デコード部, 460 ビットシフトチェンジ部

Claims (19)

  1. 画像データと、前記画像データの画像から視差を含み、立体視可能な画像を生成するための、前記画像データの画像内の全領域の奥行き方向の位置を示す奥行きデータとを所定の符号化方式で符号化する符号化手段と、
    前記符号化手段による前記画像データの符号化結果、および、前記符号化手段による前記奥行きデータの符号化結果の両方を用いて、前記符号化手段による前記画像データの符号化における発生符号量のレート制御、および、前記符号化手段による前記奥行きデータの符号化における発生符号量のレート制御の両方を行うレート制御手段と
    を備える画像処理装置。
  2. 前記画像データのビット深度を検出する検出手段と、
    前記奥行きデータを、前記検出手段により検出された前記画像データのビット深度と前記奥行きデータのビット深度との差分だけシフトチェンジするシフトチェンジ手段と
    をさらに備える請求項1に記載の画像処理装置。
  3. 前記シフトチェンジ手段は、前記奥行きデータを前記差分だけシフトアップし、シフトアップされた前記奥行きデータより下位のビットに対して、値「0」の係数を挿入するゼロ埋めを行う
    請求項2に記載の画像処理装置。
  4. 前記シフトチェンジ手段は、前記奥行きデータの最下位ビットから前記差分の分のデータを削除し、前記奥行きデータの削除されなかった上位ビットを、前記差分だけシフトダウンする
    請求項2に記載の画像処理装置。
  5. 前記シフトチェンジ手段によるシフトチェンジのシフト量を示すシフトチェンジ情報を、前記画像データの符号化データに多重化する多重化手段をさらに備える
    請求項2に記載の画像処理装置。
  6. 前記符号化手段は、
    所定のサイズのマクロブロック毎に、前記画像データおよび前記奥行きデータを直交変換する直交変換手段と、
    前記直交変換手段により前記画像データおよび前記奥行きデータが直交変換されて得られた係数データをエントロピ符号化するエントロピ符号化手段と
    を備える請求項1に記載の画像処理装置。
  7. 前記符号化手段は、
    前記画像データおよび前記奥行きデータをウェーブレット変換するウェーブレット変換手段と、
    前記ウェーブレット変換手段により前記画像データおよび前記奥行きデータがウェーブレット変換されて得られた係数データを所定のサイズのコードブロック毎に分割する分割手段と、
    前記分割手段により分割されて得られた前記コードブロック毎の前記係数データをビットプレーン展開する展開手段と、
    前記展開手段により展開された前記画像データおよび前記奥行きデータの係数データの前記ビットプレーンを、重要度順に並べ替えてエントロピ符号化するエントロピ符号化手段と
    を備える請求項1に記載の画像処理装置。
  8. 前記符号化手段は、
    前記奥行きデータを、前記画像データの係数データのビット深度と、前記ウェーブレット変換手段により前記奥行きデータがウェーブレット変換されて得られた係数データのビット深度との差分だけシフトチェンジするシフトチェンジ手段と
    をさらに備える
    請求項7に記載の画像処理装置。
  9. 前記シフトチェンジ手段によるシフトチェンジのシフト量を示すシフトチェンジ情報を、前記画像データの符号化データに多重化する多重化手段をさらに備える
    請求項8に記載の画像処理装置。
  10. 前記画像データは、輝度Y、色差Cb、および色差Crのコンポーネント画像データであり、
    前記奥行きデータは、グレースケールのビットマップデータである
    請求項1に記載の画像処理装置。
  11. 画像処理装置の画像処理方法であって、
    前記画像処理装置の符号化手段が、画像データと、前記画像データの画像から視差を含み、立体視可能な画像を生成するための、前記画像データの画像内の全領域の奥行き方向の位置を示す奥行きデータとを所定の符号化方式で符号化し、
    前記画像処理装置のレート制御手段が、前記画像データおよび前記奥行きデータの符号化結果の両方を用いて、前記画像データおよび前記奥行きデータの両方の符号化における発生符号量のレート制御を行う
    画像処理方法。
  12. コンピュータを、
    画像データと、前記画像データの画像から視差を含み、立体視可能な画像を生成するための、前記画像データの画像内の全領域の奥行き方向の位置を示す奥行きデータとを所定の符号化方式で符号化する符号化手段と、
    前記符号化手段による前記画像データの符号化結果、および、前記符号化手段による前記奥行きデータの符号化結果の両方を用いて、前記符号化手段による前記画像データの符号化における発生符号量のレート制御、および、前記符号化手段による前記奥行きデータの符号化における発生符号量のレート制御の両方を行うレート制御手段
    として機能させるプログラム。
  13. 画像データが符号化された符号化データ、前記画像データの画像から視差を含み、立体視可能な画像を生成するための、前記画像データの画像内の全領域の奥行き方向の位置を示す奥行きデータが所定のシフト量分シフトチェンジされて符号化された符号化データ、および、前記シフト量を示すシフトチェンジ情報が多重化された多重化データから、前記シフトチェンジ情報を分離する分離手段と、
    前記符号化データを所定の復号方式で復号する復号手段と、
    前記復号手段により復号されて得られたシフトチェンジ後の奥行きデータを、前記シフトチェンジの方向とは逆方向に、前記分離手段により分離された前記シフトチェンジ情報に示される前記シフト量分シフトチェンジするシフトチェンジ手段と
    を備える画像処理装置。
  14. 前記シフトチェンジ手段は、前記奥行きデータの最下位ビットから前記シフト量分のデータを削除し、前記奥行きデータの削除されなかった上位ビットを、前記シフト量分シフトダウンする
    請求項13に記載の画像処理装置。
  15. 前記シフトチェンジ手段は、前記奥行きデータを前記シフト量分シフトアップし、シフトアップされた前記奥行きデータより下位のビットに対して、値「0」の係数を挿入するゼロ埋めを行う
    請求項13に記載の画像処理装置。
  16. 前記復号手段は、
    画像データが符号化された符号化データ、および、シフトチェンジ後の前記奥行きデータが符号化された符号化データをエントロピ復号するエントロピ復号手段と、
    前記エントロピ復号手段によりエントロピ復号されて得られた、前記画像データが直交変換された係数データ、および、前記奥行きデータが直交変換された係数データを、逆直交変換する逆直交変換手段と
    を備える請求項13に記載の画像処理装置。
  17. 前記復号手段は、
    画像データが符号化された符号化データ、および、シフトチェンジ後の前記奥行きデータが符号化された符号化データをエントロピ復号するエントロピ復号手段と、
    前記エントロピ復号手段によりエントロピ復号されて得られた、ビットプレーン展開された係数データの前記ビットプレーンを合成するビットプレーン合成手段と、
    前記ビットプレーン合成手段により合成されて得られた、所定のサイズのコードブロック毎の前記係数データを合成するコードブロック合成手段と、
    前記コードブロック合成手段により合成されて得られた、サブバンド毎の係数データをウェーブレット逆変換し、前記画像データおよび前記奥行きデータを得るウェーブレット逆変換手段と
    を備える請求項13に記載の画像処理装置。
  18. 画像処理装置の画像処理方法であって、
    前記画像処理装置の分離手段が、画像データが符号化された符号化データ、前記画像データの画像から視差を含み、立体視可能な画像を生成するための、前記画像データの画像内の全領域の奥行き方向の位置を示す奥行きデータが所定のシフト量分シフトチェンジされて符号化された符号化データ、および、前記シフト量を示すシフトチェンジ情報が多重化された多重化データから、前記シフトチェンジ情報を分離し、
    前記画像処理装置の復号手段が、前記符号化データを所定の復号方式で復号し、
    前記画像処理装置のシフトチェンジ手段が、復号されて得られたシフトチェンジ後の奥行きデータを、前記シフトチェンジの方向とは逆方向に、前記符号化データから分離された前記シフトチェンジ情報に示される前記シフト量分シフトチェンジする
    画像処理方法。
  19. コンピュータを、
    画像データが符号化された符号化データ、前記画像データの画像から視差を含み、立体視可能な画像を生成するための、前記画像データの画像内の全領域の奥行き方向の位置を示す奥行きデータが所定のシフト量分シフトチェンジされて符号化された符号化データ、および、前記シフト量を示すシフトチェンジ情報が多重化された多重化データから、前記シフトチェンジ情報を分離する分離手段と、
    前記符号化データを所定の復号方式で復号する復号手段と、
    前記復号手段により復号されて得られたシフトチェンジ後の奥行きデータを、前記シフトチェンジの方向とは逆方向に、前記分離手段により分離された前記シフトチェンジ情報に示される前記シフト量分シフトチェンジするシフトチェンジ手段
    として機能させるプログラム。
JP2010072503A 2010-03-26 2010-03-26 画像処理装置および方法、並びにプログラム Expired - Fee Related JP5660361B2 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2010072503A JP5660361B2 (ja) 2010-03-26 2010-03-26 画像処理装置および方法、並びにプログラム
TW100107925A TWI448145B (zh) 2010-03-26 2011-03-09 Image processing apparatus and method, and program
PCT/JP2011/055923 WO2011118435A1 (ja) 2010-03-26 2011-03-14 画像処理装置および方法、並びにプログラム
US13/582,569 US8879840B2 (en) 2010-03-26 2011-03-14 Image processor, image processing method, and program for shift-changing depth data of an image
BR112012023710A BR112012023710A2 (pt) 2010-03-26 2011-03-14 aparelho e método de processamento de imagem, e, programa
RU2012140180/08A RU2012140180A (ru) 2010-03-26 2011-03-14 Устройство, способ и программа обработки изображений
CN2011800148234A CN102812716A (zh) 2010-03-26 2011-03-14 图像处理装置、方法和程序
KR20127024373A KR20130018241A (ko) 2010-03-26 2011-03-14 화상 처리 장치 및 방법, 및 프로그램
EP11759241.0A EP2555527A4 (en) 2010-03-26 2011-03-14 PICTURE PROCESSOR, PICTURE PROCESSING METHOD AND PROGRAM THEREFOR

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010072503A JP5660361B2 (ja) 2010-03-26 2010-03-26 画像処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2011205529A true JP2011205529A (ja) 2011-10-13
JP5660361B2 JP5660361B2 (ja) 2015-01-28

Family

ID=44672992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010072503A Expired - Fee Related JP5660361B2 (ja) 2010-03-26 2010-03-26 画像処理装置および方法、並びにプログラム

Country Status (9)

Country Link
US (1) US8879840B2 (ja)
EP (1) EP2555527A4 (ja)
JP (1) JP5660361B2 (ja)
KR (1) KR20130018241A (ja)
CN (1) CN102812716A (ja)
BR (1) BR112012023710A2 (ja)
RU (1) RU2012140180A (ja)
TW (1) TWI448145B (ja)
WO (1) WO2011118435A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140036697A (ko) * 2012-09-18 2014-03-26 엘지이노텍 주식회사 영상데이터 전송장치
KR101604420B1 (ko) 2011-12-29 2016-03-21 인텔 코포레이션 가변 깊이 압축

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9398313B2 (en) 2010-12-29 2016-07-19 Nokia Technologies Oy Depth map coding
JP6056124B2 (ja) * 2011-09-05 2017-01-11 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
TWI597976B (zh) * 2012-04-16 2017-09-01 Jvc Kenwood Corp Motion picture encoding apparatus, motion picture encoding method, and recording medium for moving picture encoding program
TWI463432B (zh) * 2012-10-05 2014-12-01 Genesys Logic Inc 圖像資料處理方法
JP2014082540A (ja) * 2012-10-12 2014-05-08 National Institute Of Information & Communication Technology 互いに類似した情報を含む複数画像のデータサイズを低減する方法、プログラム、および装置、ならびに、互いに類似した情報を含む複数画像を表現するデータ構造
US20140185928A1 (en) * 2012-12-28 2014-07-03 Shai Ben NUN Hardware-supported huffman coding of images
JP2014192702A (ja) * 2013-03-27 2014-10-06 National Institute Of Information & Communication Technology 複数の入力画像をエンコーディングする方法、プログラムおよび装置
US9571812B2 (en) 2013-04-12 2017-02-14 Disney Enterprises, Inc. Signaling warp maps using a high efficiency video coding (HEVC) extension for 3D video coding
US9483845B2 (en) * 2013-04-26 2016-11-01 Nvidia Corporation Extending prediction modes and performance of video codecs
US9648332B2 (en) * 2013-10-28 2017-05-09 Qualcomm Incorporated Adaptive inter-color component residual prediction
KR102192986B1 (ko) * 2014-05-23 2020-12-18 삼성전자주식회사 영상 디스플레이 장치 및 영상 디스플레이 방법
WO2015184605A1 (en) * 2014-06-04 2015-12-10 Mediatek Singapore Pte. Ltd. Depth coding compatible with arbitrary bit-depth
KR102240564B1 (ko) 2014-07-29 2021-04-15 삼성전자주식회사 영상 렌더링 장치 및 방법
JP2017050592A (ja) * 2015-08-31 2017-03-09 ルネサスエレクトロニクス株式会社 画像符号化装置、画像復号化装置および画像伝送装置
US20180359468A1 (en) * 2015-10-01 2018-12-13 Lg Electronics Inc. Image processing method on basis of inter prediction mode and apparatus therefor
EP3471414A4 (en) * 2016-05-02 2021-04-21 Sony Corporation ENCRYPTION DEVICE AND ENCRYPTION METHOD, AND DECCRYPTION DEVICE AND DECryption METHOD
WO2017206826A1 (en) * 2016-05-28 2017-12-07 Mediatek Inc. Methods and apparatuses of video data processing with conditionally quantization parameter information signaling
KR102410035B1 (ko) * 2017-07-06 2022-06-20 삼성디스플레이 주식회사 영상 신호 처리 장치 및 그것을 포함하는 표시 장치
US10595015B2 (en) * 2018-06-15 2020-03-17 Lightspace Technologies, SIA Method and system for displaying sequence of three-dimensional images
JP7312560B2 (ja) * 2019-01-31 2023-07-21 株式会社Screenホールディングス 情報処理装置、情報処理方法、情報処理プログラム、学習方法および学習済モデル
CN114079771B (zh) * 2020-08-14 2023-03-28 华为技术有限公司 基于小波变换的图像编解码方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002152776A (ja) * 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> 距離画像符号化方法及び装置、並びに、距離画像復号化方法及び装置
WO2004071102A1 (ja) * 2003-01-20 2004-08-19 Sanyo Electric Co,. Ltd. 立体視用映像提供方法及び立体映像表示装置
JP2004274642A (ja) * 2003-03-12 2004-09-30 Nippon Telegr & Teleph Corp <Ntt> 3次元映像情報の伝送方法
JP2006140618A (ja) * 2004-11-10 2006-06-01 Victor Co Of Japan Ltd 3次元映像情報記録装置及びプログラム
JP2007028439A (ja) * 2005-07-20 2007-02-01 Ricoh Co Ltd 画像処理装置、画像処理方法
JP2007166277A (ja) * 2005-12-14 2007-06-28 Nippon Telegr & Teleph Corp <Ntt> 3次元画像情報の伝送方法、送信側装置および受信側装置
JP2008193530A (ja) * 2007-02-06 2008-08-21 Canon Inc 画像記録装置、画像記録方法、及びプログラム
JP2008544681A (ja) * 2005-06-23 2008-12-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像及び関連する深さデータの結合されたやり取り

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5729669A (en) * 1994-11-03 1998-03-17 Cyberflix, Inc. Method and apparatus for displaying movies using Z-data information
US6348919B1 (en) * 1995-12-18 2002-02-19 3Dlabs Inc, Ltd. Graphics system with optimized use of unified local and frame buffers
US6055330A (en) * 1996-10-09 2000-04-25 The Trustees Of Columbia University In The City Of New York Methods and apparatus for performing digital image and video segmentation and compression using 3-D depth information
US7103357B2 (en) * 1999-11-05 2006-09-05 Lightsurf Technologies, Inc. Media spooler system and methodology providing efficient transmission of media content from wireless devices
KR101323732B1 (ko) * 2005-07-15 2013-10-31 삼성전자주식회사 영상 부호화장치 및 방법과 그 복호화장치 및 방법
WO2007116551A1 (ja) * 2006-03-30 2007-10-18 Kabushiki Kaisha Toshiba 画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像復号化方法
US8594180B2 (en) * 2007-02-21 2013-11-26 Qualcomm Incorporated 3D video encoding
CA2627999C (en) * 2007-04-03 2011-11-15 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry Through The Communications Research Centre Canada Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images
CN101690249B (zh) * 2007-06-26 2012-06-20 皇家飞利浦电子股份有限公司 用于编码3d视频信号的方法和系统、用于3d视频信号解码器的方法和系统
US8233077B2 (en) * 2007-12-27 2012-07-31 Qualcomm Incorporated Method and apparatus with depth map generation
CN100563340C (zh) * 2008-07-07 2009-11-25 浙江大学 基于深度图像渲染的多通道视频流编码器和解码器
US8199165B2 (en) * 2009-10-14 2012-06-12 Hewlett-Packard Development Company, L.P. Methods and systems for object segmentation in digital images

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002152776A (ja) * 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> 距離画像符号化方法及び装置、並びに、距離画像復号化方法及び装置
WO2004071102A1 (ja) * 2003-01-20 2004-08-19 Sanyo Electric Co,. Ltd. 立体視用映像提供方法及び立体映像表示装置
JP2004274642A (ja) * 2003-03-12 2004-09-30 Nippon Telegr & Teleph Corp <Ntt> 3次元映像情報の伝送方法
JP2006140618A (ja) * 2004-11-10 2006-06-01 Victor Co Of Japan Ltd 3次元映像情報記録装置及びプログラム
JP2008544681A (ja) * 2005-06-23 2008-12-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像及び関連する深さデータの結合されたやり取り
JP2007028439A (ja) * 2005-07-20 2007-02-01 Ricoh Co Ltd 画像処理装置、画像処理方法
JP2007166277A (ja) * 2005-12-14 2007-06-28 Nippon Telegr & Teleph Corp <Ntt> 3次元画像情報の伝送方法、送信側装置および受信側装置
JP2008193530A (ja) * 2007-02-06 2008-08-21 Canon Inc 画像記録装置、画像記録方法、及びプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101604420B1 (ko) 2011-12-29 2016-03-21 인텔 코포레이션 가변 깊이 압축
KR20160032277A (ko) * 2011-12-29 2016-03-23 인텔 코포레이션 가변 깊이 압축
KR101707463B1 (ko) 2011-12-29 2017-02-16 인텔 코포레이션 가변 깊이 압축
US9626793B2 (en) 2011-12-29 2017-04-18 Intel Corporation Variable depth compression
KR20140036697A (ko) * 2012-09-18 2014-03-26 엘지이노텍 주식회사 영상데이터 전송장치
KR101917224B1 (ko) * 2012-09-18 2018-11-13 엘지이노텍 주식회사 영상데이터 전송장치

Also Published As

Publication number Publication date
EP2555527A4 (en) 2014-01-01
KR20130018241A (ko) 2013-02-20
US8879840B2 (en) 2014-11-04
JP5660361B2 (ja) 2015-01-28
EP2555527A1 (en) 2013-02-06
RU2012140180A (ru) 2014-03-27
WO2011118435A1 (ja) 2011-09-29
TW201206153A (en) 2012-02-01
CN102812716A (zh) 2012-12-05
BR112012023710A2 (pt) 2016-08-23
TWI448145B (zh) 2014-08-01
US20120328192A1 (en) 2012-12-27

Similar Documents

Publication Publication Date Title
JP5660361B2 (ja) 画像処理装置および方法、並びにプログラム
US8953898B2 (en) Image processing apparatus and method
US20190222821A1 (en) Methods for Full Parallax Compressed Light Field 3D Imaging Systems
KR100971835B1 (ko) 화상 복호 방법 및 장치
US20080303893A1 (en) Method and apparatus for generating header information of stereoscopic image data
WO2017095491A1 (en) EFFICIENT AND SCALABLE INTRA VIDEO/IMAGE CODING USING WAVELETS AND AVC, MODIFIED AVC, VPx, MODIFIED VPx, OR MODIFIED HEVC CODING
Maitre et al. Depth and depth–color coding using shape-adaptive wavelets
JP5950157B2 (ja) 画像処理装置および方法、並びに、プログラム
JP2007028439A (ja) 画像処理装置、画像処理方法
US20140071233A1 (en) Apparatus and method for processing image using correlation between views
JP2020120322A (ja) 距離画像符号化装置およびそのプログラム、ならびに、距離画像復号装置およびそのプログラム
JP2009044483A (ja) 画像符号化装置
Aggoun et al. Wavelet-based compression algorithm for still omnidirectional 3D integral images
JP2006246351A (ja) 画像符号化装置および画像復号化装置
US9961368B2 (en) Method and device for determining a unit of a transform unit used in video signal processing
JP2007020130A (ja) 動画像処理装置、及び動画像処理方法
JP2011045138A (ja) 画像復号方法
Chang et al. A wavelet multiresolution compression technique for 3D stereoscopic image sequence based on mixed-resolution psychophysical experiments
Nath Wavelet-based scalable coding of still and time-varying stereoscopic imagery
JP2004289374A (ja) 画像処理装置、画像処理方法、プログラム、及び記録媒体
JP2007282270A (ja) 画像符号化方法および装置
EA040379B1 (ru) Способ и устройство кодирования, декодирования видеосигнала в иерархии уровней качества

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141119

LAPS Cancellation because of no payment of annual fees