JP2012023662A - 画像処理装置と画像処理方法 - Google Patents

画像処理装置と画像処理方法 Download PDF

Info

Publication number
JP2012023662A
JP2012023662A JP2010161658A JP2010161658A JP2012023662A JP 2012023662 A JP2012023662 A JP 2012023662A JP 2010161658 A JP2010161658 A JP 2010161658A JP 2010161658 A JP2010161658 A JP 2010161658A JP 2012023662 A JP2012023662 A JP 2012023662A
Authority
JP
Japan
Prior art keywords
image
image processing
quantization
prediction
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010161658A
Other languages
English (en)
Other versions
JP5505154B2 (ja
JP2012023662A5 (ja
Inventor
Yoshitomo Takahashi
良知 高橋
Teruhiko Suzuki
輝彦 鈴木
Takuya Kitamura
卓也 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010161658A priority Critical patent/JP5505154B2/ja
Priority to EP20110170725 priority patent/EP2408207A2/en
Priority to US13/178,609 priority patent/US8625918B2/en
Priority to CN2011101986739A priority patent/CN102340670A/zh
Publication of JP2012023662A publication Critical patent/JP2012023662A/ja
Publication of JP2012023662A5 publication Critical patent/JP2012023662A5/ja
Application granted granted Critical
Publication of JP5505154B2 publication Critical patent/JP5505154B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/553Motion estimation dealing with occlusions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding

Abstract

【課題】多視点の画像の符号化において多視点画像に応じた画質の改善を行う。
【解決手段】動き・視差予測補償部42は、視点の異なる画像間での相関を利用した視差予測を行う。量子化制御部45は、視差予測の結果から画質を保護する保護領域を判別して、該保護領域では量子化ステップサイズを変更して小さくする。例えば、量子化制御部は、視差予測によって検出した視差ベクトルと、該視差ベクトルを用いて視差補償を行ったときの誤差の少なくとも何れかを用いて、3Dオブジェクトや3Dオブジェクトの境界を保護領域として判別する。符号化ブロックが3Dオブジェクトや3Dオブジェクトの境界であるときは、量子化ステップを変更して小さくすることで、3Dオブジェクトや3Dオブジェクトの境界の画質を保護することが可能となり、多視点画像の主観画質を改善できる。
【選択図】 図3

Description

この発明は、画像処理装置と画像処理方法に関する。詳しくは、多視点の画像の符号化において多視点画像に応じた画質の改善を行う。
近年、画像情報をディジタルデータとして取り扱い、その際、効率の高い情報の伝送、蓄積を行う装置、例えば離散コサイン変換等の直交変換と動き補償により圧縮するMPEG等の方式に準拠した装置が、放送局や一般家庭において普及しつつある。
特に、MPEG2(ISO/IEC13818−2)は、汎用画像符号化方式として定義されており、プロフェッショナル用途およびコンシューマー用途の広範なアプリケーションに現在広く用いられている。さらに、MPEG2といった符号化方式に比べ、その符号化、復号化により多くの演算量が要求されるものの、より高い符号化効率が実現できるH.264およびMPEG−4 Part10 (以下「H.264/AVC(Advanced Video Coding)」と記す)という画像符号化方式が標準化されている。
また、MPEG2、MPEG4、H.264/AVCなどの符号化方式による画像の符号化では、より高い符号化効率を得るためにビットレートの調整を行うことが一般的である。ビットレートの調整では、視覚特性を考慮した適応量子化が行われている。例えば特許文献1では、前画像の符号化の際に求めた所定のパラメータに基づいて、現画像の符号化量に応じた量子化スケールと調整量子化スケールとを、適応的に切り替えて量子化が行われている。
特開2000−138938号公報
ところで、フレームシーケンシャル(FS:Frame Sequential)−AVCやマルチビュービデオ符号化(MVC:Multiview Video Coding)では、時間方向の画面間での相関を利用する時間予測だけでなく、視点の異なる画面間での相関を利用する視差予測が行われる。
図1は、例えば2視点の動画像データを符号化するときの予測の参照関係を示している。なお、Cam0は視点画像の画像データ、Cam1は右視点画像の画像データとする。Cam1の画像データは、Cam0の画像データを参照ピクチャの画像データとして用いて符号化を行うディペンデントビュー(Dependent View)の画像データとする。また、ディペンデントビューの画像データを符号化するときに参照される画像データを、ベースビュー(Base View)の画像データという。
また、Cam1の画像データにおけるPピクチャ(Pdv1)は、矢印で示すように視差予測で参照するCam0のIピクチャ(Ib1)を参照ピクチャとする。また、Cam1の画像データにおけるPピクチャ(Pdv3)は、矢印で示すように視差予測で参照するCam0のPピクチャ(Pb3)と時間予測で参照するPピクチャ(Pdv1)を参照ピクチャとする。また、Cam1の画像データにおけるBピクチャ(Bdv2)は、矢印で示すように視差予測で参照するCam0のBsピクチャ(Bsb2)と時間予測で参照するPピクチャ(Pdv1)とPピクチャ(Pdv3)を参照ピクチャとする。なお、Cam0の画像データにおけるPピクチャ(Pb3)は、矢印で示すように時間予測で参照するIピクチャ(Ib1)を参照ピクチャとする。また、Cam1の画像データにおけるBsピクチャ(Bsb2)は、矢印で示すように時間予測で参照するIピクチャ(Ib1)とPピクチャ(Pb3)を参照ピクチャとする。
このような多視点の画像の符号化においても、より高い符号化効率を得るためにビットレートの調整を行う必要がある。
そこで、この発明では、多視点の画像の符号化において多視点画像に応じた画質の改善を行うことができる画像処理装置と画像処理方法を提供することを目的とする。
この発明の第1の側面は、符号化対象ピクチャと予測画像とのブロック単位の差分の直交変換係数を量子化する量子化部と、前記符号化対象ピクチャと該符号化対象ピクチャと視点が異なるピクチャとの相関を利用した視差予測を行う予測部と、前記視差予測の結果から画質を保護する保護領域を判別して、該保護領域の量子化において前記量子化部の量子化ステップサイズを変更して小さくする量子化制御部とを有する画像処理装置にある。
この発明においては、符号化対象ピクチャと該符号化対象ピクチャと視点が異なるピクチャとの相関を利用した視差予測が行われて、視差予測によって検出した視差ベクトルと、該視差ベクトルを用いて視差補償を行ったときの誤差の少なくとも何れかを用いて、保護領域の判別が行われる。例えば視差ベクトルを用いる場合、視差ベクトルの水平方向の成分を用いて、符号化済みピクチャの視差ベクトルから算出された保護領域の判別基準として用いる統計量(画面内の視差ベクトルの平均値等)よりも視差ベクトルが大きい符号化対象ブロックや、直前の符号化済みブロックの視差ベクトルよりも視差ベクトルが大きい符号化対象ブロックが保護領域と判別される。また、視差補償を行ったときの誤差を用いる場合、符号化済みピクチャの誤差から算出された保護領域の判別基準として用いる統計量(画面内の誤差の平均値等)よりも誤差が大きい符号化対象ブロックが保護領域と判別される。
この発明の第2の側面は、符号化対象ピクチャと予測画像とのブロック単位の差分の直交変換係数を量子化する工程と、前記符号化対象ピクチャと該符号化対象ピクチャと視点が異なるピクチャとの相関を利用した視差予測を行う工程と、前記視差予測の結果から画質を保護する保護領域を判別して、該保護領域の量子化において前記量子化部の量子化ステップサイズを変更して小さくする工程とを具備する画像処理方法にある。
この発明によれば、符号化対象ピクチャと該符号化対象ピクチャと視点が異なるピクチャとの相関を利用した視差予測を行い、この視差予測の結果から画質を保護する保護領域を判別して、該保護領域の量子化で量子化ステップサイズが変更されて小さくされる。したがって、多視点の動画像の符号化の際に保護領域の画質が保護されて、多視点画像に応じた画質の改善を行うことができる。
2視点の動画像データを符号化するときの予測の参照関係を示した図である。 符号化システムの構成を示す図である。 画像処理装置の構成を示す図である。 画像処理装置の第1の動作を示すフローチャートである。 画像処理装置の第2の動作を示すフローチャートである。 画像処理装置の第3の動作を示すフローチャートである。 ソフトウェア処理で画像符号化を行う場合の構成を示す図である。
以下、発明を実施するための形態について説明する。なお、説明は以下の順序で行う。
1.符号化システムの構成例
2.画像処理装置の構成
3.画像処理装置の動作
3−1.画像処理装置の第1の動作
3−2.画像処理装置の第2の動作
3−3.画像処理装置の第3の動作
3−4.画像処理装置のその他の動作
4.ソフトウェア処理で画像符号化を行う場合
<1.符号化システムの構成例>
図2は、本発明を適用した符号化システムの構成例を示す図である。符号化システム10は、左視点画像生成装置11L、右視点画像生成装置11R、および多視点符号化装置20を有している。
左視点画像生成装置11Lは、左視点画像の画像データを生成する撮像装置や画像データ生成装置である。右視点画像生成装置11Rは、右視点画像を生成する撮像装置や画像データ生成装置である。左視点画像生成装置11Lと右視点画像生成装置11Rは、同期して動作を行う。
多視点符号化装置20には、左視点画像生成装置11Lにより生成された左側視点画像の画像データと、右視点画像生成装置11Rにより生成された右側視点画像の画像データが入力される。多視点符号化装置20は、左側視点画像の画像データと右側視点画像の画像データの符号化をそれぞれ行い、得られた符号化データを多重化して、1つのビットストリームとして出力する。
多視点符号化装置20は、左視点画像の画像データを符号化する画像処理装置と右視点画像の画像データを符号化する画像処理装置を有している。左視点画像の画像データを符号化する画像処理装置は、例えば左視点画像の画像データをベースビューの画像データとして符号化する。右視点画像の画像データを符号化する画像処理装置は、右側視点画像の画像データを、左視点画像の画像データを参照して符号化を行うディペンデントビューの画像データとして符号化する。
画像処理装置は、既に符号化が行われているピクチャやブロックの視差予測の結果からフィードバック情報を生成する。画像処理装置は、生成したフィードバック情報に基づき画質の保護領域を判別して、保護領域を符号化する際に量子化ステップサイズの変更を行って小さくする。すなわち、画像処理装置は、多視点画像の符号化において適応量子化を行うことで、多視点画像に応じた画質の改善を行う。
<2.画像処理装置の構成>
図3は、画像処理装置、例えばディペンデントビューの画像データを符号化する画像処理装置20dvの構成を示している。画像処理装置20dvは、アナログ/ディジタル変換部(A/D変換部)21、画面並び替えバッファ22、減算部23、直交変換部24、量子化部25、可逆符号化部26、蓄積バッファ27、レート制御部28を備えている。また、画像処理装置20dvは、逆量子化部31、逆直交変換部32、加算部33、デブロッキングフィルタ34、フレームメモリ35を有している。さらに画像処理装置20dvは、イントラ予測部41、動き・視差予測補償部42、予測画像・最適モード選択部43および量子化制御部45を備えている。
A/D変換部21は、アナログの画像信号をディジタルの画像データに変換して画面並べ替えバッファ22に出力する。
画面並べ替えバッファ22は、A/D変換部21から出力された画像データに対してフレームの並べ替えを行う。画面並べ替えバッファ22は、符号化処理に係るGOP(Group of Pictures)構造に応じてフレームの並べ替えを行い、並べ替え後の画像データを減算部23とイントラ予測部41と動き・視差予測補償部42に出力する。
減算部23には、画面並べ替えバッファ22から出力された画像データと、後述する予測画像・最適モード選択部43で選択された予測画像データが供給される。減算部23は、画面並べ替えバッファ22から出力された画像データと予測画像・最適モード選択部43から供給された予測画像データの差分である予測誤差データを算出して、直交変換部24に出力する。
直交変換部24は、減算部23から出力された予測誤差データに対して、離散コサイン変換(DCT;Discrete Cosine Transform)、カルーネン・レーベ変換等の直交変換処理を行う。直交変換部24は、直交変換処理を行うことにより得られた変換係数を量子化部25に出力する。
量子化部25には、直交変換部24から出力された変換係数と、後述するレート制御部28からレート制御信号、および量子化制御部45から比較結果信号が供給されている。量子化部25は変換係数の量子化を行い、量子化データを可逆符号化部26と逆量子化部31に出力する。また、量子化部25は、レート制御部28からのレート制御信号に基づき量子化ステップサイズを切り替えて、量子化データのビットレートを変化させる。さらに、量子化部25は、量子化制御部45からの量子化制御信号に基づき量子化ステップサイズを多視点画像に応じて画面内で切り替えることで、多視点画像に応じた画質の改善を行う。
可逆符号化部26には、量子化部25から出力された量子化データと、後述するイントラ予測部41と動き・視差予測補償部42および予測画像・最適モード選択部43から予測モード情報が供給される。なお、予測モード情報には、イントラ予測またはインター予測に応じて、符号化ブロックサイズを示すマクロブロックタイプ、予測モード、参照インデックス等が含まれる。可逆符号化部26は、量子化データに対して例えば可変長符号化または算術符号化等により符号化処理を行い、符号化ストリームを生成して蓄積バッファ27に出力する。また、可逆符号化部26は、予測モード情報を可逆符号化して、符号化ストリームの例えばヘッダ情報に付加する。
蓄積バッファ27は、可逆符号化部26からの符号化ストリームを蓄積する。また、蓄積バッファ27は、蓄積した符号化ストリームを伝送路に応じた伝送速度で出力する。
レート制御部28は、蓄積バッファ27の空き容量の監視を行い、空き容量に応じてレート制御信号を生成して量子化部25に出力する。レート制御部28は、例えば蓄積バッファ27から空き容量を示す情報を取得する。レート制御部28は空き容量が少なくなっている場合、レート制御信号によって量子化データのビットレートを低下させる。また、レート制御部28は蓄積バッファ27の空き容量が十分大きい場合、レート制御信号によって量子化データのビットレートを高くする。
逆量子化部31は、量子化部25から供給された量子化データの逆量子化処理を行う。逆量子化部31は、逆量子化処理を行うことで得られた変換係数を逆直交変換部32に出力する。
逆直交変換部32は、逆量子化部31から供給された変換係数の逆直交変換処理を行うことで得られたデータを加算部33に出力する。
加算部33は、逆直交変換部32から供給されたデータと予測画像・最適モード選択部43から供給された予測画像データを加算して参照ピクチャの画像データを生成して、この画像データをデブロッキングフィルタ34とイントラ予測部41に出力する。
デブロッキングフィルタ34は、画像の符号化時に生じるブロック歪みを減少させるためのフィルタ処理を行う。デブロッキングフィルタ34は、加算部33から供給された画像データからブロック歪みを除去するフィルタ処理を行い、フィルタ処理後の画像データをフレームメモリ35に出力する。
フレームメモリ35は、デブロッキングフィルタ34から供給されたフィルタ処理後の画像データと、ベースビューの符号化を行う画像処理装置20bvから供給された参照ピクチャの画像データを保持する。
イントラ予測部41は、画面並べ替えバッファ22から出力された符号化対象ピクチャの画像データと加算部33から供給された画像データを用いて、候補となる全てのイントラ予測モードでイントラ予測処理を行う。さらに、イントラ予測部41は、各イントラ予測モードに対してコスト関数値を算出して、算出したコスト関数値が最小となるイントラ予測モード、すなわち符号化効率が最良となるイントラ予測モードを、最適イントラ予測モードとして選択する。イントラ予測部41は、最適イントラ予測モードで生成された予測画像データと最適イントラ予測モードに関する予測モード情報、および最適イントラ予測モードでのコスト関数値を予測画像・最適モード選択部43に出力する。また、イントラ予測部41は、後述するようにコスト関数値の算出で用いる発生符号量を得るため、各イントラ予測モードのイントラ予測処理において、イントラ予測モードに関する予測モード情報を可逆符号化部26に出力する。なお、コスト関数値の算出としては、例えばJM(Joint Model)と呼ばれるH.264AVCの参照ソフトウェアに実装されている方法を挙げることができる。
動き・視差予測補償部42は、画面並べ替えバッファ22から読み出された符号化対象ピクチャにおける符号化ブロックサイズの画像毎に予測・補償処理を行う。動き・視差予測補償部42は、符号化ブロックの画像データとフレームメモリ35から読み出されたデブロックフィルタ処理後の画像データを用いて予測を行い、動きベクトルを検出する。また、動き・視差予測補償部42は、符号化ブロックの画像データとベースビューの画像データを用いて予測を行い、視差ベクトルを検出する。さらに、動き・視差予測補償部42は、検出した動きベクトル(視差ベクトル)に基づいて参照ピクチャに補償処理を施して予測画像の生成を行う。
また、動き・視差予測補償部42は、ブロックサイズおよび参照ピクチャ毎にコスト関数値を算出して、コスト関数値が最小となるブロックサイズと参照ピクチャを、最適インター予測モードとして選択する。動き・視差予測補償部42は、最適インター予測モードで生成された予測画像データと最適インター予測モードに関する予測モード情報、および最適インター予測モードでのコスト関数値を予測画像・最適モード選択部43に出力する。また、動き・視差予測補償部42は、コスト関数値の算出で用いる発生符号量を得るため、各予測モードのブロックサイズでのインター予測処理において、インター予測モードに関する予測モード情報を可逆符号化部26に出力する。
予測画像・最適モード選択部43は、イントラ予測部41から供給されたコスト関数値と動き・視差予測補償部42から供給されたコスト関数値を比較して、コスト関数値が少ない方を、符号化効率が最良となる最適モードとして選択する。また、予測画像・最適モード選択部43は、最適モードで生成した予測画像データを減算部23と加算部33に出力する。さらに、予測画像・最適モード選択部43は、最適モードの予測モード情報(マクロブロックタイプ、予測モード、参照インデックス等)を可逆符号化部26に出力する。
量子化制御部45は、動き・視差予測補償部42で行われた視差予測の結果から保護領域を判別する。さらに、量子化制御部45は、判別結果に基づき量子化制御信号を生成して量子化部25に供給することで、保護領域を符号化する際に量子化部25における量子化ステップサイズの変更を行い、量子化ステップサイズを小さくして保護領域の画質を保護する。このように、量子化制御部45は、多視点画像の符号化において、視差予測の結果に基づき量子化ステップサイズを適応的に切り替える。
<3.画像処理装置の動作>
画像処理装置は、多視点画像の符号化において、保護領域を符号化する際に量子化ステップサイズを変更して小さくすることで画質の保護を行い、多視点画像の主観画質を改善する。また、画像処理装置は、視差予測によって検出した視差ベクトルと、該視差ベクトルを用いて視差補償を行ったときの誤差の少なくとも何れかを用いて保護領域を判別する。画像処理装置は、視差予測の結果に基づき、例えば手前に位置する被写体(3Dオブジェクト)や3Dオブジェクトの境界を保護領域として判別する。
<3−1.画像処理装置の第1の動作>
画像処理装置の第1の動作では、符号化対象マクロブロックの視差ベクトルと符号化済みピクチャで検出されている視差ベクトルを用いて保護領域を判別する場合について説明する。なお、左視点と右視点の位置を水平方向にのみ相違させてベースビューとディペンデントビューの画像データを生成する場合、視差ベクトルの水平成分を用いて保護領域を判別する。
図4は、画像処理装置の第1の動作を示すフローチャートである。ステップST1で画像処理装置20dvは、符号化対象ピクチャがディペンデントビューのピクチャであるか判別する。画像処理装置20dvは、符号化対象ピクチャがディペンデントビューのピクチャである場合はステップST2に進み、ベースビューのピクチャである場合はステップST9に進む。
ステップST2で画像処理装置20dvは、符号化対象マクロブロックについて視差予測を行う。画像処理装置20dvの動き・視差予測補償部42は、符号化対象マクロブロックの画像データとベースビューの画像データを用いて視差予測を行い、視差ベクトルを検出してステップST3に進む。
ステップST3で画像処理装置20dvは、視差ベクトルを取得する。画像処理装置20dvの量子化制御部45は、動き・視差予測補償部42で検出された視差ベクトルを取得してステップST4に進む。
ステップST4で画像処理装置20dvは、保護領域の判別を行う。画像処理装置20dvの量子化制御部45は、後述するステップST8で生成されたフィードバック情報と視差ベクトルの比較を行い、保護領域を判別してステップST5に進む。量子化制御部45は、例えば後述するように保護領域の判別基準として用いる統計量を、フィードバック情報とする場合、フィードバック情報よりも視差ベクトルが大きい手前に位置する3Dオブジェクトのマクロブロックを保護領域と判別する。
ステップST5で画像処理装置20dvは、量子化ステップサイズを決定する。画像処理装置20dvの量子化部25は、ステップST4の保護領域判別結果に基づき量子化ステップサイズを決定してステップST6に進む。量子化部25は、保護領域判別結果に基づき、量子化ステップサイズの変更を行い、例えば手前に位置する3Dオブジェクトの画像部分は量子化ステップサイズを小さくする。
ステップST6で画像処理装置20dvは符号化処理を行う。画像処理装置20dvは、予測画像・最適モード選択部43において、イントラ予測部41から供給されたコスト関数値と動き・視差予測補償部42から供給されたコスト関数値を比較する。画像処理装置20dvは、比較結果に基づき、コスト関数値が少ない予測モードを符号化効率が最良となる最適モードとして選択する。また、画像処理装置20dvは、最適モードで生成した予測画像データを用いて符号化処理を行う。さらに、画像処理装置20dvは、ステップST5で決定された量子化ステップサイズを用いて符号化処理を行う。
このようにステップST2からステップST6の処理を画面内のマクロブロック毎に行い、マクロブロックについて処理が完了したときステップST7に進む。
ステップST7で画像処理装置20dvは、符号化対象ピクチャの全てのマクロブロックについてステップST2〜ステップST6の処理が終了しているか判別する。画像処理装置20dvは、処理が行われていないマクロブロックが残っているときステップST2に戻り、処理が行われていない新たなマクロブロックについてステップST2〜ステップST6の処理を行う。また、画像処理装置20dvは、全てのマクロブロックについて処理が終了しているときステップST8に進む。
ステップST8で画像処理装置20dvはフィードバック情報の生成を行う。画像処理装置20dvの量子化制御部45は、ステップST2からステップST6の処理を画面内のマクロブロック毎に行うことにより得られた1画面の視差ベクトルから、次のピクチャの符号化処理で用いるフィードバック情報を生成する。量子化制御部45は、保護領域の判別基準として用いる統計量、例えば1画面内における視差ベクトルの平均値をフィードバック情報とする。また、量子化制御部45は、平均値に対して視差ベクトルの分布に応じた補正値を加えてフィードバック情報としてもよい。なお、視差ベクトルの統計量は、平均値に限らず中央値等を用いることもできる。
ステップST9で画像処理装置20dvは、符号化対象ピクチャがベースビューのピクチャである場合、従来と同様の符号化処理を行う。すなわち、視差予測を行うことなく符号化処理を行う。
この第1の動作によれば、ディペンデントビューに対する符号化処理において、視差予測によって得られた視差ベクトルに基づき、例えば手前に位置する3Dオブジェクトの画像が保護領域とされる。したがって、注目を集めやすい手前に位置する3Dオブジェクトの画質が保護されて、多視点画像の主観的画質を改善することができる。
<3−2.画像処理装置の第2の動作>
画像処理装置の第2の動作では、符号化対象ブロックの視差ベクトルと直前の符号化済みブロックで検出されている視差ベクトルを用いて保護領域を判別する場合について説明する。なお、第2の動作においても、第1の動作と同様に、左視点と右視点の位置を水平方向にのみ相違させてベースビューとディペンデントビューの画像データを生成する場合、視差ベクトルの水平成分を用いて保護領域を判別する。
図5は、画像処理装置の第2の動作を示すフローチャートである。ステップST11で画像処理装置20dvは、符号化対象ピクチャがディペンデントビューのピクチャであるか判別する。画像処理装置20dvは、符号化対象ピクチャがディペンデントビューのピクチャである場合はステップST12に進み、ベースビューのピクチャである場合はステップST19に進む。
ステップST12で画像処理装置20dvは、符号化対象マクロブロックについて視差予測を行う。画像処理装置20dvの動き・視差予測補償部42は、符号化対象マクロブロックの画像データとベースビューの画像データを用いて視差予測を行い、視差ベクトルを検出してステップST13に進む。
ステップST13で画像処理装置20dvは、視差ベクトルを取得する。画像処理装置20dvの量子化制御部45は、動き・視差予測補償部42で検出された視差ベクトルを取得してステップST14に進む。
ステップST14で画像処理装置20dvは、保護領域の判別を行う。画像処理装置20dvの量子化制御部45は、後述するステップST17で生成されたフィードバック情報と視差ベクトルの比較を行い、保護領域を判別してステップST15に進む。量子化制御部45は、例えば後述するように直前の符号化済みマクロブロックの視差ベクトルをフィードバック情報とする場合、フィードバック情報よりも視差ベクトルが大きい3Dオブジェクトの境界を保護領域と判別する。
ステップST15で画像処理装置20dvは、量子化ステップサイズを決定する。画像処理装置20dvの量子化部25は、ステップST14の保護領域判別結果に基づき量子化ステップサイズを決定してステップST16に進む。量子化部25は、保護領域判別結果に基づき、量子化ステップサイズの変更を行い、例えば3Dオブジェクトの境界部分は量子化ステップサイズを小さくする。
ステップST16で画像処理装置20dvは符号化処理を行う。画像処理装置20dvは、予測画像・最適モード選択部43において、イントラ予測部41から供給されたコスト関数値と動き・視差予測補償部42から供給されたコスト関数値を比較する。画像処理装置20dvは、比較結果に基づき、コスト関数値が少ない予測モードを符号化効率が最良となる最適モードとして選択する。また、画像処理装置20dvは、最適モードで生成した予測画像データを用いて符号化処理を行う。さらに、画像処理装置20dvは、ステップST15で決定された量子化ステップサイズを用いて符号化処理を行いステップST17に進む。
ステップST17で画像処理装置20dvはフィードバック情報の生成を行う。画像処理装置20dvの量子化制御部45は、ステップST12からステップST16の処理をマクロブロックに対して行うことにより得られた視差ベクトルを、次のマクロブロックの符号化処理で用いるフィードバック情報としてステップST18に進む。
ステップST18で画像処理装置20dvは、符号化対象ピクチャの全てのマクロブロックについてステップST12〜ステップST16の処理が終了しているか判別する。画像処理装置20dvは、処理が行われていないマクロブロックが残っているときステップST12に戻り、処理が行われていない新たなマクロブロックについてステップST12〜ステップST16の処理を行う。また、画像処理装置20dvは、全てのマクロブロックについて処理が終了しているとき、フィードバック情報を削除して次の符号化対象ピクチャの符号化を行う。
ステップST19で画像処理装置20dvは、符号化対象ピクチャがベースビューのピクチャである場合、従来と同様の符号化処理を行う。すなわち、視差予測を行うことなく符号化処理を行う。
この第2の動作によれば、ディペンデントビューに対する符号化処理において、直前の符号化対象マクロブロックの視差ベクトルに基づき、3Dオブジェクトの境界が保護領域とされる。したがって、3Dオブジェクトの境界部分の画質が保護されて、多視点画像の主観的画質を改善することができる。
<3−3.画像処理装置の第3の動作>
画像処理装置の第3の動作では、符号化対象マクロブロックの視差ベクトルに基づいて補償を行ったときの誤差と符号化済みピクチャで算出されている誤差を用いて保護領域を判別する場合について説明する。
図6は、画像処理装置の第3の動作を示すフローチャートである。ステップST21で画像処理装置20dvは、符号化対象ピクチャがディペンデントビューのピクチャであるか判別する。画像処理装置20dvは、符号化対象ピクチャがディペンデントビューのピクチャである場合はステップST22に進み、ベースビューのピクチャである場合はステップST29に進む。
ステップST22で画像処理装置20dvは、符号化対象マクロブロックについて視差予測を行う。画像処理装置20dvの動き・視差予測補償部42は、符号化対象マクロブロックの画像データとベースビューの画像データを用いて視差予測を行い、視差ベクトルを検出する。さらに検出した視差ベクトルを用いて参照ピクチャの補償を行い、符号化対象マクロブロックとの誤差(例えばSAD:Sum of Absolute Differences)を算出してステップST23に進む。
ステップST23で画像処理装置20dvは、誤差を取得する。画像処理装置20dvの量子化制御部45は、動き・視差予測補償部42で算出した誤差を取得してステップST24に進む。
ステップST24で画像処理装置20dvは、保護領域の判別を行う。画像処理装置20dvの量子化制御部45は、後述するステップST28で生成されたフィードバック情報と誤差の比較を行い、保護領域を判別してステップST25に進む。ここで、誤差が大きいマクロブロックは、視差予測の効率が低く、この領域はオクルージョンである可能性が高い。オクルージョン領域は、符号化対象(参照)ピクチャには存在するが,参照(符号化対象)ピクチャには存在しない領域である。視差間でオクルージョンが発生する領域は、視差が大きく変化する境界領域、例えば手前に飛び出ている3Dオブジェクトと背景との境界領域などである。したがって、量子化制御部45は、例えば後述するように1画面内の誤差の平均値をフィードバック情報とする場合、フィードバック情報よりも誤差が大きいマクロブロックを保護領域とする。なお、オクルージョン領域とは、例えばベースビューとディペンデントビューのいずれか一方のビューでは見えている領域が、他方のビューでは隠れて見えない領域をいう。
ステップST25で画像処理装置20dvは、量子化ステップサイズを決定する。画像処理装置20dvの量子化部25は、ステップST24の保護領域判別結果に基づき量子化ステップサイズを決定してステップST26に進む。量子化部25は、保護領域判別結果に基づき、量子化ステップサイズの変更を行い、例えば3Dオブジェクトの境界部分は量子化ステップサイズを小さくする。
ステップST26で画像処理装置20dvは符号化処理を行う。画像処理装置20dvは、予測画像・最適モード選択部43において、イントラ予測部41から供給されたコスト関数値と動き・視差予測補償部42から供給されたコスト関数値を比較する。画像処理装置20dvは、比較結果に基づき、コスト関数値が少ない予測モードを符号化効率が最良となる最適モードとして選択する。また、画像処理装置20dvは、最適モードで生成した予測画像データを用いて符号化処理を行う。さらに、画像処理装置20dvは、ステップST25で決定された量子化ステップサイズを用いて符号化処理を行う。
このようにステップST22からステップST26の処理を画面内のマクロブロック毎に行い、マクロブロックについて処理が完了したときステップST27に進む。
ステップST27で画像処理装置20dvは、符号化対象ピクチャの全てのマクロブロックについてステップST22〜ステップST26の処理が終了しているか判別する。画像処理装置20dvは、処理が行われていないマクロブロックが残っているときステップST22に戻り、処理が行われていない新たなマクロブロックについてステップST22〜ステップST26の処理を行う。また、画像処理装置20dvは、全てのマクロブロックについて処理が終了しているときステップST28に進む。
ステップST28で画像処理装置20dvはフィードバック情報の生成を行う。画像処理装置20dvの量子化制御部45は、ステップST22からステップST26の処理を画面内のマクロブロック毎に行うことにより得られた1画面分の誤差から、次のピクチャの符号化処理で用いるフィードバック情報を生成する。量子化制御部45は、符号化済みピクチャの誤差から保護領域の判別基準として用いる統計量を算出してフィードバック情報とする。量子化制御部45は、例えば1画面内の誤差の平均値をフィードバック情報とする。また、量子化制御部45は、1画面内における誤差の平均値に対して、1画面内における誤差の分布に応じた補正値を加えてフィードバック情報としてもよい。
ステップST29で画像処理装置20dvは、符号化対象ピクチャがベースビューのピクチャである場合、従来と同様の符号化処理を行う。すなわち、視差予測を行うことなく符号化処理を行う。
この第3の動作によれば、ディペンデントビューに対する符号化処理において、視差予測によって得られた誤差に基づき、3Dオブジェクトの境界が保護領域とされる。したがって、3Dオブジェクトの境界部分の画質が保護されて、多視点画像の主観的画質を改善することができる。
<3−4.画像処理装置のその他の動作>
画像処理装置は、上述の第1〜第3の動作を個々に行う場合だけでなく、第1〜第3の動作を組み合わせて行ってもよい。上述の第1の動作では、手前に位置する3Dオブジェクトの画質を保護できる。また、第2の動作または第3の動作では、3Dオブジェクトの境界領域の画質を保護できる。したがって、第1の動作と第2の動作または第1の動作と第3の動作を組み合わせて行うことで、3Dオブジェクトの画像とその境界領域の画像の画質を保護して、多視点画像の主観的画質を改善することができる。
また、第2の動作を行う場合、例えば視差ベクトルと比較される閾値が最適なレベルよりも小さいと保護領域の過検出となり、3Dオブジェクトの境界領域と異なる領域も保護領域と判別されてしまう。ここで、第2の動作に第3の動作を組み合わせて、視差ベクトルだけでなく誤差も用いて保護領域を判別すると、誤差に基づきオクルージョン領域の判別が行われる。したがって、視差ベクトルと誤差が閾値よりも大きい領域を判別すれば、第2の動作と第3の動作のいずれか一方の動作で保護領域の判別を行う場合に比べて、より精度よく3Dオブジェクトの境界を保護領域として判別することができる。
また、上述の動作では、閾値よりも視差ベクトルと誤差が大きい領域を保護領域としているが、閾値よりも視差ベクトルと誤差が小さい領域を保護領域とすることも可能である。例えば、着目する被写体とは異なる被写体が手前の位置にあり、着目する被写体が奥まった位置にある場合、閾値よりも視差ベクトルと誤差が小さい領域を保護領域とすることで、着目する被写体の画質を保護することも可能となる。
また、画質の保護は、ディペンデントビューの画像だけでなくベースビューの画像に対して行うようにしてもよい。この場合、ベースビューの画像データを符号化する画像処理装置は、時間予測によって予測画像データの生成を行い、視差予測によって得られた情報に基づき保護領域を判別して、この判別結果に応じて適応量子化を行う。このようにすれば、ベースビューとディペンデントビューの画像において、着目する被写体の画質を保護して、多視点画像の主観的画質を改善することができる。
<4.ソフトウェア処理で画像符号化を行う場合の構成>
さらに、画像処理装置は、上述した一連の処理をプログラムにより実行するコンピュータ装置であってもよい。
図7は、上述した一連の処理をプログラムにより実行するコンピュータ装置の構成を例示した図である。コンピュータ装置60のCPU(Central Processing Unit)61は、ROM(Read Only Memory)62、または記録部68に記録されているコンピュータ・プログラムにしたがって各種の処理を実行する。
RAM(Random Access Memory)63には、CPU61が実行するコンピュータ・プログラムやデータなどが適宜記憶される。これらのCPU61、ROM62、およびRAM63は、バス64により相互に接続されている。
CPU61にはまた、バス64を介して入出力インターフェース65が接続されている。入出力インターフェース65には、タッチパネルやキーボード、マウス、マイクロフォンなどの入力部66、ディスプレイなどよりなる出力部67が接続されている。CPU61は、入力部66から入力される指令に対応して各種の処理を実行する。そして、CPU61は、処理の結果を出力部67に出力する。
入出力インターフェース65に接続されている記録部68は、例えばハードディスクやSSD(Solid State Drive)からなり、CPU61が実行するコンピュータ・プログラムや各種のデータを記録する。通信部69は、インターネットやローカルエリアネットワークなどのネットワークやディジタル放送といった有線または無線の通信媒体を介して外部の装置と通信する。また、コンピュータ装置60は、通信部69を介してコンピュータ・プログラムを取得し、ROM62や記録部68に記録してもよい。
ドライブ70は、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどのリムーバブルメディア72が装着されたとき、それらを駆動して、記録されているコンピュータ・プログラムやデータなどを取得する。取得されたコンピュータ・プログラムやデータは、必要に応じてROM62やRAM63または記録部68に転送される。
CPU61は、上述した一連の処理を行うコンピュータ・プログラムを読み出して実行して、記録部68やリムーバブルメディア72に記録されている多視点画像の画像データや、通信部69を介して供給された多視点画像の画像データに対する符号化処理を行う。
なお、本発明は、上述した実施の形態に限定して解釈されるべきではない。例えば多視点画像は3つの画像に限らず、2視点の画像であってもよい。この発明の実施の形態は、例示という形態で本発明を開示しており、本発明の要旨を逸脱しない範囲で当業者が実施の形態の修正や代用をなし得ることは自明である。すなわち、本発明の要旨を判断するためには、特許請求の範囲を参酌すべきである。
この発明の画像処理装置と画像処理方法では、符号化対象ピクチャと該符号化対象ピクチャと視点が異なるピクチャとの相関を利用した視差予測を行い、この視差予測の結果から画質を保護する保護領域を判別して、該保護領域の量子化では量子化ステップサイズが変更されて小さくされる。したがって、多視点の動画像の符号化の際に保護領域の画質が保護されて、多視点画像に応じた画質の改善を行うことができる。このため、多視点画像の生成および符号化を行う撮像装置や、多視点画像の編集や符号化を行う編集装置、多視点画像の符号化を行って記録媒体に記録する記録装置等に適用できる。
10・・・符号化システム、11L・・・左視点画像生成装置、11R・・・右視点画像生成装置、20・・・多視点符号化装置、20bv,20dv・・・画像処理装置、21・・・A/D変換部、22・・・画面並べ替えバッファ、23・・・減算部、24・・・直交変換部、25・・・量子化部、26・・・可逆符号化部、27・・・蓄積バッファ、28・・・レート制御部、31・・・逆量子化部、32・・・逆直交変換部、33・・・加算部、34・・・デブロッキングフィルタ、35・・・フレームメモリ、41・・・イントラ予測部、42・・・動き・視差予測補償部、43・・・予測画像・最適モード選択部、45・・・量子化制御部、60・・・コンピュータ装置、61・・・CPU(Central Processing Unit)、62・・・ROM(Read Only Memory)、63・・・RAM(Random Access Memory)、64・・・バス、65・・・入出力インターフェース、66・・・入力部、67・・・出力部、68・・・記録部、69・・・通信部、70・・・ドライブ、72・・・リムーバブルメディア

Claims (8)

  1. 符号化対象ピクチャと予測画像とのブロック単位の差分の直交変換係数を量子化する量子化部と、
    前記符号化対象ピクチャと該符号化対象ピクチャと視点が異なるピクチャとの相関を利用した視差予測を行う予測部と、
    前記視差予測の結果から画質を保護する保護領域を判別して、該保護領域の量子化において前記量子化部の量子化ステップサイズを変更して小さくする量子化制御部と
    を有する画像処理装置。
  2. 前記量子化制御部は、前記視差予測によって検出した視差ベクトルと、該視差ベクトルを用いて視差補償を行ったときの誤差の少なくとも何れかを用いて、前記保護領域を判別する請求項1記載の画像処理装置。
  3. 前記量子化制御部は、前記視差予測によって検出した視差ベクトルを用いる場合、符号化済みピクチャの視差ベクトルと符号化対象ブロックの視差ベクトルの比較結果と、直前の符号化済みブロックの視差ベクトルと符号化対象ブロックの視差ベクトルの比較結果の少なくとも何れかに基づき、前記符号化対象ブロックの画像が前記保護領域の画像であるか判別する請求項2記載の画像処理装置。
  4. 前記量子化制御部は、前記符号化済みピクチャの視差ベクトルから算出された保護領域の判別基準として用いる統計量よりも視差ベクトルが大きい符号化対象ブロック、および前記直前の符号化済みブロックの視差ベクトルよりも視差ベクトルが大きい符号化対象ブロックを前記保護領域と判別する請求項3記載の画像処理装置。
  5. 前記量子化制御部は、前記視差予測によって検出した視差ベクトルの水平方向の成分を用いて前記保護領域を判別する請求項3記載の画像処理装置。
  6. 前記量子化制御部は、前記視差補償を行ったときの誤差を用いる場合、符号化済みピクチャの誤差と符号化対象ブロックの視差の比較結果に基づき、前記符号化対象ブロックの画像が前記保護領域の画像であるか判別する請求項2記載の画像処理装置。
  7. 前記量子化制御部は、前記符号化済みピクチャの誤差から算出された保護領域の判別基準として用いる統計量よりも誤差が大きい符号化対象ブロックを前記保護領域と判別する請求項6記載の画像処理装置。
  8. 符号化対象ピクチャと予測画像とのブロック単位の差分の直交変換係数を量子化する工程と、
    前記符号化対象ピクチャと該符号化対象ピクチャと視点が異なるピクチャとの相関を利用した視差予測を行う工程と、
    前記視差予測の結果から画質を保護する保護領域を判別して、該保護領域の量子化において前記量子化部の量子化ステップサイズを変更して小さくする工程と
    を具備する画像処理方法。
JP2010161658A 2010-07-16 2010-07-16 画像処理装置と画像処理方法 Expired - Fee Related JP5505154B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010161658A JP5505154B2 (ja) 2010-07-16 2010-07-16 画像処理装置と画像処理方法
EP20110170725 EP2408207A2 (en) 2010-07-16 2011-06-21 Adaptive quantization in multi-view image coding
US13/178,609 US8625918B2 (en) 2010-07-16 2011-07-08 Image processing apparatus and image processing method
CN2011101986739A CN102340670A (zh) 2010-07-16 2011-07-11 图像处理装置和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010161658A JP5505154B2 (ja) 2010-07-16 2010-07-16 画像処理装置と画像処理方法

Publications (3)

Publication Number Publication Date
JP2012023662A true JP2012023662A (ja) 2012-02-02
JP2012023662A5 JP2012023662A5 (ja) 2013-08-15
JP5505154B2 JP5505154B2 (ja) 2014-05-28

Family

ID=44863355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010161658A Expired - Fee Related JP5505154B2 (ja) 2010-07-16 2010-07-16 画像処理装置と画像処理方法

Country Status (4)

Country Link
US (1) US8625918B2 (ja)
EP (1) EP2408207A2 (ja)
JP (1) JP5505154B2 (ja)
CN (1) CN102340670A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014010820A1 (en) * 2012-07-10 2014-01-16 Samsung Electronics Co., Ltd. Method and apparatus for estimating image motion using disparity information of a multi-view image
US9230119B2 (en) 2012-10-23 2016-01-05 Thomson Licensing Methods and devices for optimizing rendering of an encrypted 3D graphical object

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101598855B1 (ko) * 2010-05-11 2016-03-14 삼성전자주식회사 입체영상 부호화 장치 및 방법
JP2012023652A (ja) * 2010-07-16 2012-02-02 Sony Corp 画像処理装置と画像処理方法
CN107197226B (zh) 2011-03-18 2019-05-28 索尼公司 图像处理设备、图像处理方法和计算机可读存储介质
JPWO2012128069A1 (ja) 2011-03-18 2014-07-24 ソニー株式会社 画像処理装置および画像処理方法
MX341889B (es) 2011-06-30 2016-09-07 Sony Corp Dispositivo de procesamiento de imagenes y metodo de procesamiento de imagenes.
WO2013031573A1 (ja) 2011-08-31 2013-03-07 ソニー株式会社 符号化装置および符号化方法、復号装置および復号方法
JP2013168866A (ja) * 2012-02-16 2013-08-29 Canon Inc 画像処理装置、その制御方法およびプログラム
JP2014043437A (ja) * 2012-08-03 2014-03-13 Semiconductor Energy Lab Co Ltd 有機化合物、発光素子、発光装置、電子機器、及び照明装置
KR102186605B1 (ko) * 2012-09-28 2020-12-03 삼성전자주식회사 다시점 영상 부호화/복호화 장치 및 방법
WO2014051321A1 (ko) * 2012-09-28 2014-04-03 삼성전자주식회사 다시점 영상 부호화/복호화 장치 및 방법
CN109951714B (zh) * 2013-04-08 2022-11-11 杜比国际公司 对lut进行编码的方法和进行解码的方法以及对应的设备
US10200666B2 (en) * 2015-03-04 2019-02-05 Dolby Laboratories Licensing Corporation Coherent motion estimation for stereoscopic video
US11032545B2 (en) * 2017-06-29 2021-06-08 Qualcomm Incorporated Reducing seam artifacts in 360-degree video
US10638130B1 (en) * 2019-04-09 2020-04-28 Google Llc Entropy-inspired directional filtering for image coding

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07240944A (ja) * 1994-02-25 1995-09-12 Sanyo Electric Co Ltd ステレオ画像符号化装置
JP2001285895A (ja) * 2000-03-30 2001-10-12 Sanyo Electric Co Ltd 画像データ符号化装置及びその方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3519594B2 (ja) * 1998-03-03 2004-04-19 Kddi株式会社 ステレオ動画像用符号化装置
JP2000138938A (ja) 1998-10-30 2000-05-16 Sony Corp 画像圧縮符号化方法及び装置
JP4421940B2 (ja) * 2004-05-13 2010-02-24 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置および方法、並びに動画像復号化装置および方法
JP4793366B2 (ja) * 2006-10-13 2011-10-12 日本ビクター株式会社 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
JP2010161658A (ja) 2009-01-08 2010-07-22 Toshiba Corp 映像記録再生装置及び番組情報表示方法
JP2012023652A (ja) 2010-07-16 2012-02-02 Sony Corp 画像処理装置と画像処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07240944A (ja) * 1994-02-25 1995-09-12 Sanyo Electric Co Ltd ステレオ画像符号化装置
JP2001285895A (ja) * 2000-03-30 2001-10-12 Sanyo Electric Co Ltd 画像データ符号化装置及びその方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014010820A1 (en) * 2012-07-10 2014-01-16 Samsung Electronics Co., Ltd. Method and apparatus for estimating image motion using disparity information of a multi-view image
US9798919B2 (en) 2012-07-10 2017-10-24 Samsung Electronics Co., Ltd. Method and apparatus for estimating image motion using disparity information of a multi-view image
US9230119B2 (en) 2012-10-23 2016-01-05 Thomson Licensing Methods and devices for optimizing rendering of an encrypted 3D graphical object

Also Published As

Publication number Publication date
JP5505154B2 (ja) 2014-05-28
US20120014614A1 (en) 2012-01-19
US8625918B2 (en) 2014-01-07
CN102340670A (zh) 2012-02-01
EP2408207A2 (en) 2012-01-18

Similar Documents

Publication Publication Date Title
JP5505154B2 (ja) 画像処理装置と画像処理方法
US10313680B2 (en) Selection of motion vector precision
WO2012008351A1 (ja) 画像処理装置と画像処理方法
JP5470494B2 (ja) 動画像復号化方法
JP4480671B2 (ja) ビデオ・エンコーダのモード選択によるレート歪みトレードオフの制御方法および装置
US8565307B2 (en) Picture encoding method and picture encoding device
JP5485851B2 (ja) 映像符号化方法,映像復号方法,映像符号化装置,映像復号装置およびそれらのプログラム
JP2012169763A (ja) 画像符号化装置と画像符号化方法およびプログラム
NZ586840A (en) Image coding method and image decoding method
TWI501629B (zh) 影像編碼方法、影像解碼方法、影像編碼裝置、影像解碼裝置及該等之程式
US8514935B2 (en) Image coding apparatus, image coding method, integrated circuit, and camera
JP2012023651A (ja) 画像処理装置と画像処理方法
JP7343817B2 (ja) 符号化装置、符号化方法、及び符号化プログラム
JP2012120054A (ja) 画像符号化装置、画像符号化方法およびプログラム
JP4895995B2 (ja) 動画像復号化方法
US20090257497A1 (en) Moving image processing system, encoding device, and decoding device
JP2007124580A (ja) 動画像符号化プログラム、プログラム記憶媒体、および符号化装置。
JP2012165181A (ja) 映像再生装置と映像再生方法およびプログラム
JP5017086B2 (ja) 動画像復号化方法
JP4363484B2 (ja) 動画像復号化方法
JP2007124614A (ja) 符号化方法
JP5017087B2 (ja) 動画像復号化方法
JP2018113525A (ja) 動画像符号化装置及び動画像符号化方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130628

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140303

LAPS Cancellation because of no payment of annual fees