JP2009044722A - 擬似立体画像生成装置、画像符号化装置、画像符号化方法、画像伝送方法、画像復号化装置及び画像復号化方法 - Google Patents

擬似立体画像生成装置、画像符号化装置、画像符号化方法、画像伝送方法、画像復号化装置及び画像復号化方法 Download PDF

Info

Publication number
JP2009044722A
JP2009044722A JP2008142434A JP2008142434A JP2009044722A JP 2009044722 A JP2009044722 A JP 2009044722A JP 2008142434 A JP2008142434 A JP 2008142434A JP 2008142434 A JP2008142434 A JP 2008142434A JP 2009044722 A JP2009044722 A JP 2009044722A
Authority
JP
Japan
Prior art keywords
control signal
image signal
depth
image
stereoscopic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008142434A
Other languages
English (en)
Other versions
JP4952657B2 (ja
Inventor
Kunio Yamada
邦男 山田
Hiroya Nakamura
博哉 中村
Masato Sato
正人 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2008142434A priority Critical patent/JP4952657B2/ja
Priority to US12/219,327 priority patent/US8463019B2/en
Publication of JP2009044722A publication Critical patent/JP2009044722A/ja
Priority to US13/437,286 priority patent/US8532407B2/en
Priority to US13/437,269 priority patent/US8532405B2/en
Application granted granted Critical
Publication of JP4952657B2 publication Critical patent/JP4952657B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】擬似立体画像を生成する際に、自動的な処理方法で推定される奥行き情報をシーンに応じて補正することを可能にする擬似立体画像生成装置、画像符号化装置を提供する。
【解決手段】非立体画像信号をもとに奥行きデータを推定して擬似的な立体画像信号を生成するための複数の基本奥行きモデルを記憶するフレームメモリ77〜79と、複数の基本奥行きモデルを合成するための合成比率を示す制御信号に基づいて複数の基本奥行きモデルを合成して合成奥行きモデルを生成する奥行きモデル合成部76と、非立体画像信号と合成奥行きモデルとから奥行き推定データを生成する加算部82と、非立体画像のテクスチャをシフトして擬似的な立体画像信号を生成するテクスチャシフト部とを備える。
【選択図】図10

Description

本発明は、非立体画像から擬似立体画像を生成するための擬似立体画像生成装置、画像符号化装置、画像符号化方法、画像伝送方法、画像復号化装置及び画像復号化方法に関する。
奥行き情報が明示的に与えられずまたはステレオ画像のように暗示的にも与えられていない2次元の静止画または動画(以下、非立体画像という)から、擬似的な立体画像(以下、擬似立体画像という)を生成する立体表示システムが、数多く発表されている。
本出願人は、この非立体画像から擬似立体画像を生成する擬似立体画像生成装置及び擬似立体画像生成方法を特許文献1に開示している。この特許文献1記載の擬似立体画像生成装置及び生成方法は、奥行き感を有する画像(以下、基本奥行きモデルという)を複数用意し、非立体画像の1画面における輝度信号の高域成分を算出して、その算出値に基づいて複数の基本奥行きモデルの合成比率を自動的に算出する。そして、算出した合成比率から非立体画像の奥行き感を出すための奥行きデータを推定して、非立体画像と奥行きデータにより擬似立体画像を得るものである。
特開2005−151534号公報
しかしながら、上記の擬似立体画像生成装置及び擬似立体画像生成方法の場合、複数の基本奥行きモデルの合成比率は、すべての非立体画像に対して予め定めた同一の方法により自動的に算出される。そのため、非立体画像の1画面毎の場面(以下、シーンという)によっては、適切な奥行き情報が得られず、違和感のある擬似立体画像が生成されてしまう場合がある。しかし、非立体画像のシーンに応じて、その都度ユーザ自身が擬似立体画像のアルゴリズムやパラメータを調整することは現実的に困難である。よって、違和感のない、現実のイメージにより近い擬似立体画像を生成するためには、製作者側においてパラメータの調整をすることが望ましい。
本発明は以上の点に鑑みなされたもので、上記の擬似立体画像を生成する際に、自動的な処理方法で推定される奥行き情報を、シーンに応じて補正することを可能にする擬似立体画像生成装置、画像符号化装置、画像符号化方法、画像伝送方法、画像復号化装置及び画像復号化方法を提供することを目的とする。
本発明は、前述した従来の技術の課題を解決するため、擬似立体画像生成装置、画像符号化装置、画像符号化方法、画像伝送方法、画像復号化装置及び画像復号化方法を提供するものである。
非立体画像信号をもとに奥行きデータを推定して擬似的な立体画像信号を生成するための基本となるシーンを有する複数の基本奥行きモデルを発生する基本奥行きモデル発生手段(77〜79)と、複数の基本奥行きモデルを合成するための合成比率を示す第1の制御信号に基づいて、複数の基本奥行きモデルを合成して合成奥行きモデルを生成する合成手段(76)と、非立体画像信号と合成奥行き基本モデルとから奥行き推定データを生成する奥行き推定データ生成手段(82)と、奥行き推定データに基づいて非立体画像のテクスチャをシフトして擬似的な立体画像信号を生成するテクスチャシフト手段(92)とを有する擬似立体画像生成装置(52)である。
また、非立体画像信号の重み付けをするための重み付け係数を示す第2の制御信号に基づいて、非立体画像信号に対して重み付け係数を乗ずる重み付け手段(81)を備え、テクスチャシフト手段は、重み付け手段により得られた乗算結果と奥行き推定データに基づいて非立体画像のテクスチャをシフトして擬似的な立体画像信号を生成する擬似立体画像生成装置である。
また、テクスチャシフト手段は、奥行きデータを調整するための奥行きと輻輳を示す第3の制御信号により調整された奥行き推定データに基づいて、非立体画像のテクスチャをシフトして擬似的な立体画像信号を生成する擬似立体画像生成装置である。
第1〜第3の制御信号が存在するか否かを判定する第1〜第3の判定手段(75,80,91)を備え、第1の判定手段により第1の制御信号が存在しないと判定されたとき、合成手段は、予め設定された合成比率に基づいて合成奥行きモデルを生成し、第2の判定手段により第2の制御信号が存在しないと判定されたとき、重み付け手段は予め設定された重み付け係数に基づいて非立体画像信号に重み付けをし、第3の判定手段により第3の制御信号が存在しないと判定されたとき、テクスチャシフト手段は予め設定された奥行き値及び輻輳値に基づいて擬似的な立体画像信号を生成する擬似立体画像生成装置である。
テクスチャシフト手段より生成された擬似的な立体画像信号に対して、テクスチャの存在しない部分であるオクルージョンを非立体画像信号の対応部分で補償するオクルージョン補償手段(93)と、オクルージョン補償手段により補償された擬似的な立体画像信号に対してポスト処理をして、非立体像信号とは別視点の画像信号として出力するポスト処理手段(94)とを備える擬似立体画像生成装置である。
また、非立体画像信号を符号化する画像信号符号化手段(13)と、非立体画像信号をもとに奥行きデータを推定して擬似的な立体画像を生成する際の基本となるシーンを有する複数の基本奥行きモデルを合成するための合成比率を示す第1の制御信号と、非立体画像に重み付けをするための重み付け係数を示す第2の制御信号と、奥行き推定データを調整するための奥行きと輻輳を示す第3の制御信号のうち少なくとも1つの制御信号を符号化する制御信号符号化手段(12)と、画像信号符号化手段により符号化された非立体画像信号と制御信号符号化手段により符号化された制御信号を多重化して符号化ビット列を生成する多重化手段(14)とを有する画像符号化装置(1)である。
また、非立体画像信号を符号化する画像信号符号化ステップと、非立体画像信号をもとに奥行きデータを推定して擬似的な立体画像を生成する際の基本となるシーンを有する複数の基本奥行きモデルを合成するための合成比率を示す第1の制御信号と、非立体画像に重み付けをするための重み付け係数を示す第2の制御信号と、奥行き推定データを調整するための奥行きと輻輳を示す第3の制御信号のうち少なくとも1つの制御信号を符号化する制御信号符号化ステップと、画像信号符号化ステップにより符号化された非立体画像信号と制御信号符号化ステップにより符号化された制御信号を多重化して符号化ビット列を生成する多重化ステップとを有する画像符号化方法である。
また、非立体画像信号を符号化する画像信号符号化ステップと、非立体画像信号をもとに奥行きデータを推定して擬似的な立体画像を生成する際の基本となるシーンを有する複数の基本奥行きモデルを合成するための合成比率を示す第1の制御信号と、非立体画像に重み付けをするための重み付け係数を示す第2の制御信号と、奥行き推定データを調整するための奥行きと輻輳を示す第3の制御信号のうち少なくとも1つの制御信号を符号化する制御信号符号化ステップと、画像信号符号化ステップにより符号化された非立体画像信号と制御信号符号化手段により符号化された制御信号よりなる符号化ビット列をパケット化するパケット化ステップとを有する画像伝送方法である。
また、非立体画像信号と、非立体画像信号をもとに奥行きデータを推定して擬似的な立体画像を生成する際の基本となるシーンを有する複数の基本奥行きモデルを合成するための合成比率を示す第1の制御信号と、非立体画像信号に対して重み付けをするための重み付け係数を示す第2の制御信号と、奥行き推定データを調整するための奥行きと輻輳を示す第3の制御信号のうち少なくとも1つの制御信号を含む符号化ビット列から、制御信号と非立体画像信号とを分離して出力する分離手段(61)と、制御信号と非立体画像信号をそれぞれ復号化する復号化手段(62、63)とを有する画像復号化装置(51)である。
また、非立体画像信号と、非立体画像信号をもとに奥行きデータを推定して擬似的な立体画像を生成する際の基本となるシーンを有する複数の基本奥行きモデルを合成するための合成比率を示す第1の制御信号と、非立体画像信号に対して重み付けをするための重み付け係数を示す第2の制御信号と、奥行き推定データを調整するための奥行きと輻輳を示す第3の制御信号のうち少なくとも1つの制御信号を含む符号化ビット列から、制御信号と非立体画像信号とを分離して出力する分離ステップと、制御信号と非立体画像信号をそれぞれ復号化する復号化ステップとを有する画像復号化方法である。
本発明の擬似立体画像生成装置によれば、非立体画像から奥行きデータを推定して擬似立体画像を生成する場合に、画面毎に制御信号を変化させることによって、どのような非立体画像のシーンであっても、違和感のない、現実のイメージにより近い擬似立体画像を生成することができる。また、本発明の画像符号化装置、画像符号化方法及び画像伝送方法によれば、制御信号と画像信号を共に符号化することができる。また、本発明の画像復号化装置及び画像復号化方法によれば、制御信号と画像信号を分離してそれぞれ復号化することができる。
<第1の実施形態>
第1の実施形態の擬似立体画像信号を生成するための非立体画像信号の符号化について図1から図11を参照して説明する。図1は画像符号化装置の構成例を示すブロック図である。図1に示すように、画像符号化装置1は、制御信号判定部11と、制御信号符号化部12と、画像信号符号化部13と、多重化部14を備える。
奥行き情報が明示的に与えられずまたはステレオ画像のように暗示的にも与えられていない非立体画像信号aが、画像信号符号化部13に供給される。また、制御信号CTL1〜CTL3は、制御信号判定部11に供給される。各制御信号CTL1〜CTL3の有無及びその制御信号CTL1〜CTL3中に含まれるパラメータの値は、制御信号のない場合に得られた擬似立体画像が不自然な場合に、製作者によって1フレームまたは1フィールド毎に決定されるものである。なお、本実施形態では代表して1フレームという。
制御信号CTL1は、基本奥行きモデルの合成比率を制御する信号である。基本奥行きモデルとは、例えば図2〜図4に示す奥行き感を有する画像である。図2に示す基本奥行きモデルAは、画像の上部及び下部はそれぞれ凹状の球面としている。図3に示す基本奥行きモデルBは、画像の上部を縦方向に軸線を有する円筒面、画像の下部を凹状の球面としている。図4に示す基本奥行きモデルCは、画像の上部を平面、画像の下部を横方向に軸線を有する円筒面としている。
本実施形態では、図2〜図4に示す3種類の基本奥行きモデルを合成する場合を説明するが、基本奥行きモデルの形状は上記に限定されるものではなく、2種類であっても4種類以上であってもよいものである。
そして、3種類の基本奥行きモデルの合成比率は、非立体画像のシーンに合わせて制御信号CTL1のパラメータ値を変えることにより可変とされる。この3種類の基本奥行きモデルの合成比率を非立体画像のシーンによって変えることにより、従来の方法に比して非立体画像のシーンにより適した擬似立体画像を得ることができるようになる。制御信号CTL1は、基本奥行きモデルAの合成比率k1を所定の値に換算したパラメータと基本奥行きモデルBの合成比率k2を所定の値に換算したパラメータを含み、各パラメータは例えば8ビットで表される。なお、基本奥行きモデルCの合成比率をk3とするとき、合成比率k1、k2、k3の合計は1である。
制御信号CTL2は、非立体画像信号aのR信号成分に重み付けをするための重み付け係数を示す制御信号であり、例えば8ビット分の1つのパラメータを含む。なお、R信号成分は、非立体画像信号から得られる三原色信号(RGB信号)より抽出される。そして、制御信号CTL2により、画像信号符号化部13に入力される非立体画像信号aの輝度差が強い場合であっても、不自然な擬似立体画像となることを抑制することができる。
制御信号CTL3は、奥行きを示すパラメータと輻輳を示すパラメータを含み、各パラメータは例えば8ビットで表される。なお、輻輳とは、遠景に対しては両眼の視線がほぼ平行となるようにし、近景に対しては両眼を内転させて見せることができるようにすることをいう。
図1において、制御信号判定部11は、1フレームの非立体画像信号aに同期して、供給される制御信号CTL1〜CTL3の有無を判定する。制御信号判定部11は、各々の制御信号CTL1〜CTL3の有無の判定結果と各制御信号CTL1〜CTL3に含まれるパラメータの値を制御信号符号化手段である制御信号符号化部12へ送信する。制御信号符号化部12は、後述する画像信号符号化手段である画像信号符号化部13と同様の画像符号化方式を用いて、判定結果で制御信号有りと判定された制御信号を符号化する。
画像信号符号化部13は、MPEG−2(Moving Picture Experts Group 2)画像符号化方式(ISO/IEC 13818−2)により、非立体画像信号aを符号化する。図5は、MPEG−2(ISO/IEC 13818−2)方式のデータ構造を示している。
図5に示すデータ構造において、“MPEG-2 video sequence"の最上位層である“Sequence Layer"はヘッダ領域“Sequence header"、シーケンス拡張領域“Sequence extension"、ユーザデータ領域“Sequence and user_data(0)"、ピクチャ領域“Group of Picture(GOP)"を含む。そして、“GOP"は、ヘッダ領域“Gop header"、ユーザデータ領域“Sequence and user_data(1)"、それに続く各ピクチャ“Picture"を含む。更に、各ピクチャ“Picture"は、ヘッダ領域“Picture header"で始まり、コード拡張領域“Picture coding extension"、ユーザデータ領域“Sequence and user_data(2)"と続く構造となっている。
ユーザデータ領域“Sequence and user_data(0)",“Sequence and user_data(1)",“Sequence and user_data(2)"はシンタックス構造を有するuser_data()関数として記述される。ここでは、制御信号符号化部12は、各制御信号CTL1〜CTL3のパラメータを、いずれかのユーザデータ領域において、user_data()関数のシンタックスエレメントとして符号化する。図6は、各制御信号CTL1〜CTL3をuser_data()関数として符号化する場合の一例である。
図6において、シンタックスエレメント“user_data_start_code"はuser_data()関数が符号化されていることを特定するための32ビットの符号である。また、MPEG−2(ISO/IEC 13818−2)方式の規定により、“user_data_start_code"の値は"0000 0000 0000 0000 0000 0001 1011 0010"となる。
シンタックスエレメント“associate_3d_parameter_identifier"は、制御信号CTL1〜CTL3のパラメータの値が符号化されていることを特定するための32ビットの符号である。制御信号CTL1〜CTL3のパラメータの値の少なくとも1つが符号化されている場合、MPEG−2(ISO/IEC 13818−2)方式の規定により、“associate_3d_parameter_identifier"の値は次のように決定する。すなわち、“associate_3d_parameter_identifier"の先頭から24ビット目までの24ビット分の値、または9ビット目から末尾までの24ビット分の値は、“0000 0000 0000 0000 0000 0001"と異なるものとする。更に、“associate_3d_parameter_identifier"の値は、制御信号CTL1〜CTL3のパラメータの値などの他データと一致することのない任意の値を割り当てる。
シンタックスエレメント“ctl1_enable"は、制御信号CTL1の2つのパラメータを示す“blending_parameter1_1"及び“blending_parameter1_2"を符号化するか否かのフラグを示す1ビットの符号である。"ctl1_enable"の値が"0"の場合は"blending_parameter1_1"及び"blending_parameter1_2"を符号化せず、"ctl1_enable"の値が"1"の場合は"blending_parameter1_1"及び"blending_parameter1_2"を符号化する。
"blending_parameter1_1"は、制御信号CTL1に含まれるパラメータのうち、基本奥行きモデルAの合成比率k1を示す8ビットの符号である。また、"blending_parameter1_2"は、制御信号CTL1に含まれるパラメータのうち、基本奥行きモデルBの合成比率k2を示す8ビットの符号である。"blending_parameter1_1"及び"blending_parameter1_2"は、それぞれ8ビットの符号であるので、最大値255に相当する値を有する。例えば、基本奥行きモデルA〜Cのそれぞれの合成比率が、k1=0.6、k2=0.3、k3=0.1であるとき、"blending_parameter1_1"の値は、153(=255×60/100)に相当する値となる。また、"blending_parameter1_2"の値は、77(=255×30/100)に相当する値となる。
シンタックスエレメント"ctl2_enable"は、制御信号CTL2のパラメータを示すシンタックスエレメント"blending_parameter2"を符号化するか否かのフラグを示す1ビットの符号である。"ctl2_enable"の値が"0"の場合は"blending_parameter2"を符号化せず、"ctl2_enable"の値が"1"の場合は、"blending_parameter2"を符号化する。
"blending_parameter2"は、制御信号CTL2のパラメータであり、非立体画像信号aのR信号成分に重み付けをするための重み付け係数を示す。"blending_parameter2"も8ビットの符号であり、最大値255に相当する値を有する。例えば、重み係数を0.2とするとき、"blending_parameter2"の値は51に相当する値を有する。
シンタックスエレメント"ctl3_enable"は、制御信号CTL3の2つのパラメータを示すシンタックスエレメント"shift_adjust_parameter1"及び"shift_adjust_parameter2"を符号化するか否かのフラグを示す1ビットの符号である。ctl3_enableの値が"0"の場合は"shift_adjust_parameter1"及び"shift_adjust_parameter2"を符号化せず、"ctl3_enable"の値が"1"の場合は"shift_adjust_parameter1"及び"shift_adjust_parameter2"を符号化する。
"shift_adjust_parameter1"は、制御信号CTL3に含まれるパラメータのうち、輻輳の値を示す8ビットの符号である。また、"shift_adjust_parameter2"は、制御信号CTL3に含まれるパラメータのうち、奥行きの値を示す8ビットの符号である。"shift_adjust_parameter1"及び"shift_adjust_parameter2"は、それぞれ8ビットの符号であるので、最大値255に相当する値を有する。
制御信号符号化部12は、図6に示したuser_data()関数により制御信号CTL1〜CTL3を符号化して符号化ビット列b1を生成し、1フレーム分毎にその符号化ビット列b1を多重化手段である多重化部14に供給する。符号化ビット列b1は、すべての制御信号CTL1〜CTL3を含むことに限定されるものではない。また、制御信号判定部11が制御信号CTL1〜CTL3を1つも含んでいないと判定した場合は、制御信号符号化部12は符号化ビット列b1を生成せず、多重化部14に制御信号が存在しないとする信号を送信する。
また、画像信号符号化部13で生成された1フレーム分の非立体画像信号aの符号化ビット列b2は、制御信号符号化部12で生成された1フレーム分の符号化ビット列b1または制御信号が存在しないとする信号に同期して、多重化部14に供給される。
多重化部14は、制御信号CTL1〜CTL3の符号化ビット列b1と非立体画像信号aの符号化ビット列b2とを多重化して、多重化された符号化ビット列cを出力する。なお、制御信号CTL1〜CTL3が存在しない場合、多重化部14は非立体画像信号aの符号化ビット列b2を符号化ビット列cとする。多重化部14により出力された符号化ビット列cは、例えば以下の方法により送信することが可能である。
図7は、多重化部14より送信された符号化ビット列cをネットワーク22へ伝送する伝送方法を示すフローチャートである。最初に、送信インタフェース21は、多重化部14で生成された符号化ビット列cをパケット化する(ステップS01)。次に、送信インタフェース21は、パケットヘッダ情報を生成して、ステップS01で生成されたパケットにそのパケットヘッダを付与する(ステップS02)。そして、送信インタフェース21は、ステップS02でパケットヘッド情報が付与されたパケットをネットワーク22へ送信する(ステップS03)。
次に、第2の実施形態の擬似立体画像を生成するための非立体画像信号の復号化について図8、図9を参照して説明する。図8は、画像復号化装置及び擬似立体画像生成装置の構成例を示す図である。図9は、図7でネットワーク22へ送信されたパケットから符号化ビット列cを復元してデータメモリ32に格納する方法を示すフローチャートである。
最初に、受信インタフェース31はネットワーク22上の非立体画像信号a及び制御信号CTL1〜CTL3の情報を含むパケットを受信する(ステップS11)。次に、受信インタフェース31はパケットに含まれるパケットヘッダを削除する(ステップS12)。その後、受信インタフェース31はパケットから符号化ビット列cを復元する(ステップS13)。そして、受信インタフェース31は符号化ビット列cをデータメモリ部32に送信して、データメモリ部32は符号化ビット列cを格納する(ステップS14)。
図8に示すように、画像復号化装置51は分離手段である分離部61、制御信号CTL1〜CTL3を復号化する制御信号復号化部62、非立体画像信号aを復号化する画像信号復号化部63を備え、擬似立体画像生成装置52は奥行き生成データ生成部64及びステレオペア生成部65を備える。分離部61には、データメモリ部32より符号化ビット列cが供給される。
分離部61は符号化ビット列cから図6に示したuser_data()関数が符号化されているか否かを判断する。"user_data_start_code"の値が符号化したときと同じ値"0000 0000 0000 0000 0000 0001 1011 0010"である場合は、user_data()関数は符号化されていることになる。
分離部61は、user_data()関数が符号化されていないと判断した場合、符号化ビット列cを符号化ビット列b2として画像信号復号化部63に供給する。分離部61はuser_data()関数が符号化されていると判断した場合、続いて"associate_3d_parameter_identifier"が符号化されているか否かを判断する。"associate_3d_parameter_identifier"が符号化されていない、即ち予め割り当てた値と一致しない場合、分離部61は符号化ビット列cを符号化ビット列b2として画像信号復号化部63に供給する。
一方、"associate_3d_parameter_identifier"が符号化されている、即ち予め割り当てた値と一致する場合は以下の処理を行う。すなわち、分離部61は、符号化ビット列cに含まれるuser_data()関数内の"associate_3d_parameter_identifier"から、図6に示す"next_start_code"の直前までを制御信号CTL1〜CTL3を含む符号化ビット列b1として抽出する。そして、分離部61は、符号化ビット列cから抽出した符号化ビット列b1以外の部分、すなわち非立体画像信号aを含む符号化ビット列をb2とし、符号化ビット列b1と符号化ビット列b2とを分離する。
分離された制御信号CTL1〜CTL3を含む符号化ビット列b1は、制御信号復号化部62に供給される。また、分離された画像信号を含む符号化ビット列b2は画像信号復号化部63に供給される。
制御信号復号化部62は、分離部61から供給された制御信号CTL1〜CTL3の符号化ビット列b1を復号化する。制御信号復号化部62は、"ctl1_enable"の値が"0"の場合、"blending_paramaeter1_1"及び"blending_paramaeter1_2"を復号化しない。一方、"ctl1_enable"の値が"1"の場合、"blending_paramaeter1_1"及び"blending_paramaeter1_2"を復号して制御信号CTL1を生成する。
同様に、制御信号復号化部62は、"ctl2_enable"の値が"0"の場合、"blending_paramaeter2"を復号化しない。一方、"ctl2_enable"の値が"1"の場合、"blending_paramaeter2"を復号化して制御信号CTL2を生成する。また、"ctl3_enable"が"0"の場合、"shift_adjust_paramaeter1"及び"shift_adjust_paramaeter2"を復号化しない。一方、"ctl3_enable"が"1"の場合、"shift_adjust_paramaeter1"及び"shift_adjust_paramaeter2"を復号して制御信号CTL3を生成する。
制御信号復号化部62は、制御信号CTL1及びCTL2を奥行き推定データ生成部64に供給し、制御信号CTL3をステレオペア生成部65に供給する。制御信号復号化部62により生成されない制御信号は、奥行き推定データ生成部64やステレオペア生成部65には供給されない。
画像信号復号化部63は、符号化ビット列b2を復号化して非立体画像信号aを復元する。復元された非立体画像信号aは、奥行き推定データ生成部64及びステレオペア生成部65に供給される。
図10は、奥行き推定データ生成部64の構成例を示す図である。画像入力部71には、画像信号復号化部63より非立体画像信号aが供給されて記憶される。画像入力部71はフレームメモリを備えており、1フレーム分の非立体画像信号aを記憶する。
画像入力部71は、1フレーム分の非立体画像信号aを画面上部の高域成分評価部72、画面下部の高域成分評価部73に供給し、非立体画像信号aのR信号成分のみを制御信号判定手段である制御信号判定部80を通して、重み付け手段である重み付け部81に供給する。画面上部の高域成分評価部72は、1フレーム分の非立体画像信号aにおける画面全体の上部略20%にあたる領域内で高域成分を有する画素の割合を求めて、画面上部の高域成分評価値として算出する。そして、画面上部の高域成分評価値を合成比率決定部74に供給する。
画面下部の高域成分評価部73は、1フレーム分の非立体画像信号aにおける画面全体の下部略20%領域内にあたる領域内で高域成分の割合を求めて、画面下部の高域成分評価値として算出する。そして、画面下部の高域成分評価値を含む信号を合成比率決定部74に供給する。
合成比率決定部74は、供給された画面上部の高域成分評価値と画面下部の評価値に基づいて、画像のシーンを考慮することなく、予め定められた方法により、基本奥行きモデルAの合成比率k1、基本奥行きモデルBの合成比率k2を自動的に算出する。そして、合成比率k1、k2をそれぞれパラメータ"blending_paramaeter1_1"、"blending_paramaeter1_2"を含む合成比率信号COMとして制御信号判定手段であるスイッチ75に供給する。各パラメータ"blending_paramaeter1_1"、"blending_paramaeter1_2"は、それぞれ8ビットの符号である。なお、合成比率k1、k2を自動的に決定する方法は、特許文献1に詳述されている。
スイッチ75は、制御信号復号化部62から制御信号CTL1が供給された場合には制御信号CTL1を優先的に選択して奥行きモデル合成部76に供給する。スイッチ75に制御信号CTL1が供給される場合、画像上部の高域成分評価部72と、画像下部の高域成分評価部73と、合成比率決定部74における前述の処理は省略してもよい。一方、スイッチ75は、制御信号CTL1が供給されない場合には合成比率決定部74より供給される合成比率信号COMを選択する。スイッチ75は、選択した信号を合成手段である奥行きモデル合成部76に供給する。
基本奥行きモデル発生手段であるフレームメモリ77は図2に示す基本奥行きモデルA、基本奥行きモデル発生手段であるフレームメモリ78は図3に示す基本奥行きモデルB、基本奥行きモデル発生手段であるフレームメモリ79は図4に示す基本奥行きモデルCに相当する画像信号または所定の計算式を奥行きモデル合成部76に発生させる。前述の画像信号及び所定の計算式は、予めフレームメモリ77〜79に格納されている。
奥行きモデル合成部76は、スイッチ75から供給された制御信号CTL1あるいは合成比率信号COMに基づいて、基本奥行きモデルA〜Cの画像信号を合成して合成奥行きモデルとなる画像信号を生成する。所定の計算式を格納しておく場合、奥行きモデル合成部76は、所定の計算式により基本奥行きモデルA〜Cを求めた後にそれらのモデルを合成する。
奥行きモデル合成部76は、供給された制御信号CTL1または合成比率信号COMに含まれる例えば8ビット分の各パラメータより、基本奥行きモデルAの合成比率k1と、基本奥行きモデルBの合成比率k2を抽出する。3種類の基本奥行きモデルの合成比率k1〜k3の合計は1なので、基本奥行きモデルCの合成比率k3は、1からk1とk2を減算することにより算出する。そして、奥行きモデル合成部76は、基本奥行きモデルA〜Cの画像信号をそれぞれ合成比率k1〜k3で合成して合成奥行きモデルとなる画像信号を算出して奥行き推定データ生成手段である加算部82に供給する。
制御信号判定部80は、制御信号復号化部62より制御信号CTL2が供給されているか否かを判定する。制御信号CTL2が供給されていない場合、予め制御信号判定部80内に設定されている重み付け係数に相当するパラメータを含む制御信号CTL2を重み付け部81に供給する。
重み付け部81は、制御信号CTL2に含まれる重み付け係数により、画像入力部71から供給される非立体画像信号aのR信号成分に重み付けをする。制御信号CTL2に含まれる8ビット分のパラメータより、最大値を1とする重み係数に換算する。そして、画像入力部71より供給されたR信号成分と重み係数を乗算して、加算部82に乗算結果を出力する。なお、R信号成分を使用する理由は、順光に近い環境で且つテクスチャの明るさの度合い(明度)の変化が大きくはない条件下で、R信号成分の大きさが原画像の凹凸と一致する確率が高いことによる。なお、テクスチャとは、画像を構成する要素であり、単一の画素もしくは画素群で構成される。
加算部82は、奥行きモデル合成部76より供給される合成奥行きモデルに、重み付け部81から供給される重み付けされた非立体画像信号aのR信号成分を重畳して、奥行き推定データ信号dを生成する。重畳した値が奥行き推定データ信号dに割り当てられる所定のビット数を超える場合は、所定のビット数に制限される。生成された奥行き推定データ信号dは、ステレオペア生成部65に供給される。
図11はステレオペア生成部65の構成例を示す図である。制御信号判定手段である制御信号判定部91は、制御信号復号化部62より制御信号CTL3が供給されているか否かを判定する。制御信号CTL3が供給されていない場合、予め制御信号判定部91内に設定されている輻輳及び奥行きを表す2つのパラメータを含む制御信号CTL3をテクスチャシフト部92に供給する。制御信号CTL3が供給されている場合、その制御信号CTL3に含まれる2つのパラメータにより輻輳及び奥行きを非立体画像信号aに応じて変えることができる。
テクスチャシフト手段であるテクスチャシフト部92は、供給される非立体画像信号aと奥行き推定データ信号dと制御信号CTL3に基づいて、非立体画像信号aとは別視点の画像信号を生成する。例えば、画像信号復号化部63で復号化された非立体画像信号aを画面表示させた場合の視点を基準にして、左に視点移動した画像信号を生成する。その場合、テクスチャシフト部92は、視聴者に対してテクスチャを近景として表示させるときは画面右側へ非立体画像信号aのテクスチャを所定量移動し、テクスチャを視聴者に遠景として表示させるときは画面左側へテクスチャを所定量移動する。この理由は、視聴者が左に視点移動した画像を見るとき、近景は視聴者の内側(鼻側)に見ることができ、遠景は視聴者の外側に見ることができるからである。
次に、奥行き推定データdのそれぞれの画素の輝度値をYd、飛び出し感を表す輻輳値をm、立体感を表す奥行き値をnとする。テクスチャシフト部92は、輝度値Ydの小さい値から順に、その輝度値Ydに対応する非立体画像信号aのテクスチャをそれぞれの画素毎に(Yd−m)/n画素分右にシフトした画像信号をオクルージョン補償部93へ供給する。オクルージョン補償部93は、オクルージョン補償手段を有する。ここで、(Yd−m)/nの値が負の場合、実際のテクスチャは(m−Yd)/n画素分左にシフトする。
なお、視聴者には、奥行き推定データdの輝度値Ydの小さいテクスチャは画面奥側に見え、輝度値Ydの大きいテクスチャは画面手前に見える。輝度値Yd、輻輳値m、奥行き値nは0〜255の範囲の値であり、例えば、制御信号判定部91に予め設定されている値は、輻輳値m=200、奥行き値n=20である。
前述のテクスチャをそれぞれの画素毎にシフトさせるシフト幅は、非立体画像信号aの色空間がYUV、YCbCr、YPbPrのいずれかである場合の輝度信号、あるいはRGBの場合を示している。非立体画像信号aの色空間をYUV、YCbCr、YPbPrのいずれかとする場合、色差信号のシフト幅は輝度信号のシフト幅からスケーリングしたものを用いる。例えば、色空間YUVで輝度信号Yと青の差分信号Uと赤の差分信号Vを4:2:2あるいは4:2:0とするとき、色差信号のシフト幅は、輝度信号のシフト幅に対して1/2にスケーリングした値とする。すなわち、色差信号に対しては、非立体画像信号aのテクスチャをそれぞれの画素毎に(Yd−m)/(2・n)画素分右にシフトすることになる。
オクルージョン補償部93は、テクスチャシフト部92より供給された画像信号に対してオクルージョンの補償を行い、オクルージョン補償された画像信号をポスト処理部94に供給する。オクルージョンとは、テクスチャが所定量移動した結果、発生する値の存在しない画素の部分のことをいう。オクルージョン補償部93は、テクスチャシフトされた画像信号に対応する元の非立体画像信号aによりオクルージョンの箇所を充填する。また、公知の文献(山田邦男、望月研二、相澤清晴、齊藤隆弘:"領域競合法により分割された画像のテクスチャの統計量に基づくオクルージョン補償”、映像情報学会誌、Vol.56,No.5,pp.863〜866(2002.5))に記載の手法でオクルージョンを補償してもよい。
ポスト処理手段であるポスト処理部94は、オクルージョン補償部93より供給された画像信号に対して平滑化やノイズの除去などのポスト処理を必要に応じて行い、左目画像信号e1を出力する。このポスト処理は公知の方法で行われる。また、画像信号復号化部63で復号化された非立体画像信号aを右眼画像信号e2とする。
右眼画像信号e2とポスト処理された左眼画像信号e1を表示させることにより、視聴者はステレオ画像を見ることができる。このステレオ画像は、複数のプロジェクションを用いた装置、時分割表示と液晶シャッタメガネを組み合わせたプロジェクション装置あるいはディスプレイ、レンチキュラ方式のステレオディスプレイ、アナグリフ方式のステレオディスプレイ、ヘッドマウントディスプレイ等のステレオ表示装置により表示させることが可能である。また、ステレオ表示装置は3視点以上の表示が可能な多視点立体映像表示装置としてもよく、音声出力を備える装置であってもよい。音声情報を有しない静止画像の場合は、その画像に適した環境音を付加してもよい。
本実施形態によれば、3種類の制御信号CTL1〜CTL3を用いることにより、3種類の基本奥行きモデルの合成比率をシーンに合うように変化させることができ、また重畳するR信号成分の重み付け、奥行き推定データの輻輳や奥行きの調整を可能とする。そのため、予め設定されている擬似立体化の効果を画像のシーンに応じて変化させることができ、違和感のない擬似立体画像を生成することができる。
<第2の実施形態>
第2の実施形態の画像符号化装置1は、制御信号CTL1〜CTL3及び非立体画像信号aを符号化する方式が第1の実施形態の画像符号化装置1と異なる。また、第2の実施形態の画像復号化装置51は、符号化ビット列b1及び符号化ビット列b2を復号化する方式が第1の実施形態の画像復号化装置51と異なる。それ以外については、第1の実施形態と同様であるので説明を省略する。
第2の実施形態の画像符号化装置1における画像信号符号化部13は、H.264/AVC画像符号化方式により、非立体画像信号aを符号化する。H.264/AVC画像符号化方式を用いて非立体画像信号aを符号化する場合、制御信号CTL1〜CTL3は補助情報の1つであるSEI(Supplemental Enhancement Information)メッセージ用いて符号化することが可能である。
図12は、H.264/AVC画像符号化方式のデータ構造を示している。"AVC/H.264 video sequence"は、シーケンスパラメータ"SPS(Sequence Parameter Set)"、ピクチャパラメータ"PPS(Picture Parameter Set)"、補助情報"User Data Unregistered SEI"、ピクチャを構成するスライス"Slice"を含む。
制御信号符号化部12は、制御信号CTL1〜CTL3を1画面毎に"User Data Unregistered SEI"のシンタックスエレメントとして規定されている"user_data_payload_byte"を用いて符号化する。"user_data_payload_byte"は、user_data_unregistered(payloadSize)関数として任意に記述される。そして、user_data_unregistered(payloadSize)関数は、図5で説明したuser_data()関数と同様に、シンタックス構造を有する関数である。
図13は、制御信号CTL1〜CTL3をuser_data_unregistered(payloadSize)関数として符号化する場合の一例である。シンタックスエレメント"uuid_iso_iec_11578"は制御信号CTL1〜CTL3を符号化していることを示すための128ビットの符号を割り当てる。"uuid_iso_iec_11578"の値は、任意であるが、制御信号CTL1〜CTL3のパラメータなどのデータ値と一致することのない値とする必要がある。"uuid_iso_iec_11578"以下に続く"ctl1_enable"等は、図5で説明したuser_data関数と同様の方法で符号化される。
この符号化されたSEIメッセージに続いて、1画面分の非立体画像信号aが1つ以上の"Slice"で符号化される。また、SEIメッセージによって符号化される制御信号CTL1〜CTL3の値は、後に続く"Slice"で有効となる。
第2の実施形態の画像復号化装置51内の分離部61は、第2の実施形態の画像符号化装置1で符号化された符号化ビット列cに含まれる"User Data Unregistered SEI"が符号化されているか否かを判断する。"User Data Unregistered SEI"が符号化されていることを検出した場合、"uuid_iso_iec_11578"を復号化して値をチェックする。そして、その値が予め設定した制御信号CTL1〜CTL3を符号化していることを示すための128ビットの符号であると判断した場合、符号化ビット列cからその"User Data Unregistered SEI"の符号化ビット列を分離して符号化ビット列b1とする。その符号化ビット列b1は、制御信号符号化部62に供給される。それ以外の符号化ビット列は符号化ビット列b2として画像信号復号化部63に供給される。
制御信号復号化部62は、図13のデータ構造に基づく符号化ビット列b1を復号化して制御信号CTL1〜CTL3を得る。画像信号復号化部63は、符号化ビット列b2を復号化して非立体画像信号aを得る。
<第3の実施形態>
第3の実施形態の画像符号化装置2は、制御信号CTL1〜CTL3を符号化する方式、及び制御信号CTL1〜CTL3の符号化ビット列b1をパケットのヘッダ部に含める点が第1、第2の実施形態の画像符号化装置1と異なる。また、第3の実施形態の画像復号化装置51は、パケット化された符号化ビット列cから制御信号CTL1〜CTL3の符号化ビット列b1と非立体画像信号aの符号化ビット列b2を分離する点と、制御信号CTL1〜CTL3の符号化ビット列b1を復号化する方式が第1、第2の実施形態の画像復号化装置51と異なる。それ以外については、第1、第2の実施形態と同様であるので説明を省略する。
図14は、擬似立体画像符号化装置2の構成例を示すブロック図である。図14において、図1と同じ構成ブロックには同じ符号を付している。擬似立体画像符号化装置2内のパケット生成部23は、MPEG−2システム方式(ISO/IEC13818−1)を用いて、画像信号符号化部13から出力される非立体画像信号aの符号化ビット列b2をPES(Packetized Elementary Stream)パケットとしてパケット化する。
その際、制御信号符号化部12から出力される制御信号CTL1〜CTL3の符号化ビット列b1を後述する方法によりパケットのヘッダ部に含める。パケット生成部23は、パケット化された符号化ビット列をMPEG−2 TS(Transport Stream)方式またはMPEG−2 PS(Program Stream)方式を用いてパケット化して送信インタフェース21に出力する。なお、本実施形態では代表して、MPEG−2 TS(Transport Stream)方式を用いる場合を説明する。
図15は、MPEG−2システム方式(ISO/IEC 13818−1)のPESパケットのデータ構造を示している。符号化された画像信号や音声信号は、エレメンタリストリーム(ES:Elementary Stream)と呼ばれる。画像信号や音声信号のESは、適当な大きさに分割され、PESパケットのヘッダが付加されてPESパケットとしてパケット化される。
PESパケットは、ヘッダ部"PES packet header"と画像信号や音声信号を含むペイロード部"PES packet payload"を含む。制御信号符号化部12は、"PES packet header"内で任意に書き込み可能なユーザデータとして規定される"PES_private_data"によって、制御信号CTL1〜CTL3を符号化する。
"PES_private_data"は、シンタックス構造を有するPES_packet()関数として記述される。制御信号CTL1〜CTL3のパラメータ値は、このPES_packet()関数のシンタックスエレメントとして符号化される。なお、非立体画像信号aは"PES packet payload"で符号化される。
図16は、制御信号CTL1〜CTL3をPES_packet()関数として符号化する場合の一例である。"PES_private_data"は、パケット生成部23で符号化され、フラグとして規定する"PES_extension_flag"及び"PES_private_data_flag"を"1"に設定することによって符号化を可能にする。シンタックスエレメント"associate_3d_parameter_identifier"以下に続く"ctl1_enable"等は、図5で説明したuser_data()関数と同様の方法で制御信号符号化部12により符号化される。
"PES_private_data"は128ビットと規定されている。そのため、制御信号CTL1〜CTL3を記述したシンタックスエレメントの後に、"PES_private_data"全体で128ビットとなるように53〜93ビットのスタッフィングビットが挿入される。また、1つのPESパケット内に含まれる符号化された制御信号CTL1〜CTL3は、同じPESパケット内の"PES packet payload"に含まれる符号化された非立体画像信号aに対して有効となる。
第3の実施形態の画像符号化装置51内の分離部61は、符号化ビット列cからTSパケットのヘッダ部を復号化してTSパケットのペイロード部と分離する。更に、TSパケットのペイロード部に含まれるPESパケット内の"PES packet header"を復号化して"PES packet header"と分離する。
分離部61は、第3の実施形態の画像符号化装置2でパケット化されたPESパケット内の"PES packet header"に含まれる"associate_3d_parameter_identifier"が符号化されているか否かを判断する。"associate_3d_parameter_identifier"が符号化されていることを検出した場合、図16に示す"associate_3d_parameter_identifier"から"stuffing_bits"までの128ビットの符号化ビット列を制御信号CTL1〜CTL3の符号化ビット列b1として抽出し、制御信号符号化部62に供給する。
また、PESパケットの"PES packet payload"を符号化ビット列b2として画像信号復号化部63に供給する。制御信号復号化部62は、図16の構造に基づく符号化ビット列b1を復号化して、制御信号CTL1〜CTL3を得る。更に、画像信号復号化部63は符号化ビット列b2を復号化して、復号された非立体画像信号aを得る。
<第4の実施形態>
第4の実施形態の画像符号化装置2は、制御信号CTL1〜CTL3を符号化する方式、及び制御信号CTL1〜CTL3の符号化ビット列b1をTSパケットのヘッダ部に含める点が第3の実施形態の画像符号化装置2と異なる。また、第4の実施形態の画像復号化装置51は、TSパケットの符号化ビット列cから制御信号CTL1〜CTL3の符号化ビット列b1を分離する点と、制御信号CTL1〜CTL3の符号化ビット列b1を復号化する方式が第3の実施形態の画像復号化装置51と異なる。それ以外については、第3の実施形態と同様であるので説明を省略する。
図17は、MPEG−2システム方式(ISO/IEC 13818−1)のTSのデータ構造を示している。TSパケットは、ヘッダ部"TS packet header"、ペイロード部"TS packet payload"を含む。"TS packet payload"は、第3の実施形態の画像符号化装置2で説明したPESパケットである。
"TS packet header"は、適応フィールド領域"adaptation field"を含む。パケット生成部23は、第3の実施形態の画像符号化装置2で説明したPESパケットに代わってTSパケットの"TS packet header"内の"adaptation field"において、制御信号CTL1〜CTL3のパラメータを符号化することが可能である。
制御信号符号化部12は、"TS packet header"の"adaptation field"で任意に書き込み可能なユーザデータとして規定される"private_data_byte"を用いて制御信号CTL1〜CTL3を符号化する。"private_data_byte"はシンタックス構造を有するadaptation_field()関数として記述することができる。なお、非立体画像信号aの符号化ビット列b2は"TS packet payload"に含まれる。
図18は、制御信号CTL1〜CTL3をadaptation_field()関数として符号化する場合の一例である。シンタックスエレメント"adaptation_field_length"は、その後に続く"adaptation field"の総バイト数を設定する。"private_data_byte"は、シンタックスエレメント"transport_private_data_flag"を"1"に設定することによって、ユーザデータである"private_data_byte"の符号化を可能にする。
シンタックスエレメント"transport_private_data_length"は、その後に続く制御信号CTL1〜CTL3の総バイト数を設定する。シンタックスエレメント"associate_3d_parameter_identifier"以下に続く"ctl1_enable"等は、図5で説明したuser_data()関数と同様の方法により、制御信号CTL1〜CTL3を符号化する。
"private_data_byte"は、1バイト(8ビット)単位と規定されている。そのため、制御信号CTL1〜CTL3を記述したシンタックスエレメントの後に、1バイト単位となるように0〜7ビットのスタッフィングビットを挿入する。また、1つのTSパケット内に含まれる符号化された制御信号CTL1〜CTL3は、同じTSパケットの"TS packet payload"に含まれる非立体画像信号aに対して有効となる。なお、TSパケットのサイズは188バイトの固定長となっている。また、符号化された1画面分の非立体画像信号aは複数のTSパケットに分割してパケット化される。そのため、制御信号CTL1〜CTL3の値は、1画面分の非立体画像信号aに対応する各パケットで等しいものである。
画像符号化装置2内の分離部61は、符号化ビット列cからTSパケット内の"TS packet header"を復号化して"TS packet payload"と分離する。そして、分離部61は、"TS packet header"内の"adaptation_field"が符号化されているか否かを判断する。"adaptation_field"が符号化されている場合、"associate_3d_parameter_identifier"が符号化されているか否かを判断する。"associate_3d_parameter_identifier"が符号化されていることを検出した場合、即ち、制御信号CTL1〜CTL3を符号化していることを示すための32ビットの符号であると判断した場合、以下の処理をする。
図18のデータ構造に示す"associate_3d_parameter_identifier"から"stuffing_bits"までの符号化ビット列を、制御信号CTL1〜CTL3が含まれる符号化ビット列b1として抽出する。抽出された符号化ビット列b1は、制御信号符号化部62に供給する。さらに、TSパケット内の"TS packet payload"から、PESパケット内の"PES packet header"を復号化してペイロード部と分離する。そして、分離部61は、PESパケット内の"PES packet header"を符号化ビット列b2として画像信号復号化部63に供給する。
制御信号復号化部62は、図18のデータ構造に基づく符号化ビット列b1を復号化して、制御信号CTL1〜CTL3を得る。画像信号復号化部63は、符号化ビット列b2を復号化して非立体画像信号aを得る。
以上説明した伝送方法は、放送、通信、ダウンロード等に適用可能である。なお、制御信号CTL1〜CTL3の符号化方法は上記方法に限定されるものではなく、MPEG−7等のメタデータとして符号化することも可能である。また、符号化された後のストリームの形態は、固定レートビットストリームデータあるいは可変レートビットストリームデータとすることが可能である。
符号化後のストリームをディスクへ記録する場合、CAV(Constant Angular Velocity)方式あるいはCLV(Constant Linear Velocity)方式のどちらを用いてもよい。CAV方式は、ランダムアクセス性に優れ、一度作成した制御信号を細かく修正する際に適している。CLV方式は、記録密度を高める場合に適している。
また、符号化後のストリームは、制御信号CTL1〜CTL3及び非立体画像信号aに加えてモノラル、あるいはステレオ用のマルチチャネルのオーディオデータ(音声信号)を含めることができる。例えば、図14に示す"TS packet payload"内に音声信号の情報を割り当てることができる。図19は、パケット中にアクセスユニット単位で収納される所定サンプルの音声信号のチャネル割り当てを示している。例えば、チャネル割り当て情報"000"に対してモノラル、"001"に対して2ch、"010"に対して4ch、"011"に対して6ch、"100"に対して8ch、"101"に対して16ch、"110"に対して32chのように割り当てることができる。
第1、第2の実施形態おける画像符号化装置の構成例を示すブロック図である。 基本奥行きモデルの画像の一例を示す図である。 基本奥行きモデルの画像の別の一例を示す図である。 基本奥行きモデルの画像の別の一例を示す図である。 第1の実施形態におけるMPEG−2画像符号化方式のデータ構造の一例を示す図ある。 第1の実施形態におけるMPEG−2画像符号化方式で制御信号を符号化する関数の一例を示す図である。 第1の実施形態における符号化ビット列をネットワークへ伝送する伝送方法を示すフローチャートである。 第1の実施形態における画像復号化装置及び擬似立体画像生成装置の構成例を示す図である。 第1の実施形態におけるネットワーク上のパケットを符号化ビット列として復元する方法を示すフローチャートである。 第1の実施形態における奥行き推定データ生成部の構成例を示す図である。 第1の実施形態におけるステレオペア生成部の構成の一例を示す図である。 第2の実施形態におけるH.264/AVC画像符号化方式のデータ構造を示す図である。 第2の実施形態におけるH.264/AVC画像符号化方式で制御信号を符号化する関数の一例を示す図である。 第3の実施形態における画像符号化装置の構成例を示すブロック図である。 第3の実施形態におけるMPEG−2システム方式のPESパケットのデータ構造を示す図である。 第3の実施形態におけるMPEG−2システム方式で制御信号を符号化する関数の一例を示す図である。 第4の実施形態におけるMPEG−2システム方式のトランスポートストリームのデータ構造を示している。 第4の実施形態におけるMPEG−2システム方式で制御信号を符号化する関数の一例を示す図である。 第4の実施形態における音声信号のチャネル割り当ての一例を示す図である。
符号の説明
1 画像符号化装置
12 制御信号符号化部
13 画像信号符号化部
14 多重化部
51 画像復号化装置
52 擬似立体画像生成装置
61 分離部
62 制御信号復号化部
63 画像信号復号化部
75 スイッチ
76 奥行きモデル合成部
77,78,79 フレームメモリ
80,91 制御信号判定部
81 重み付け部
82 加算部
92 テクスチャシフト部
93 オクルージョン補償部
94 ポスト処理部

Claims (10)

  1. 非立体画像信号をもとに奥行きデータを推定して擬似的な立体画像信号を生成するための基本となるシーンを有する複数の基本奥行きモデルを発生する基本奥行きモデル発生手段と、
    前記複数の基本奥行きモデルを合成するための合成比率を示す第1の制御信号に基づいて、前記複数の基本奥行きモデルを合成して合成奥行きモデルを生成する合成手段と、
    前記非立体画像信号と前記合成奥行き基本モデルとから前記奥行き推定データを生成する奥行き推定データ生成手段と、
    前記奥行き推定データに基づいて非立体画像のテクスチャをシフトして前記擬似的な立体画像信号を生成するテクスチャシフト手段と
    を有することを特徴とする擬似立体画像生成装置。
  2. 前記非立体画像信号の重み付けをするための重み付け係数を示す第2の制御信号に基づいて、前記非立体画像信号に対して前記重み付け係数を乗ずる重み付け手段を備え、
    前記テクスチャシフト手段は、前記重み付け手段により得られた乗算結果と前記奥行き推定データに基づいて前記非立体画像のテクスチャをシフトして前記擬似的な立体画像信号を生成することを特徴とする請求項1記載の擬似立体画像生成装置。
  3. 前記テクスチャシフト手段は、前記奥行きデータを調整するための奥行きと輻輳を示す第3の制御信号により調整された前記奥行き推定データに基づいて、前記非立体画像のテクスチャをシフトして前記擬似的な立体画像信号を生成することを特徴とする請求項2記載の擬似立体画像生成装置。
  4. 前記第1〜第3の制御信号が存在するか否かを判定する第1〜第3の判定手段を備え、
    前記第1の判定手段により前記第1の制御信号が存在しないと判定されたとき、前記合成手段は、予め設定された合成比率に基づいて合成奥行きモデルを生成し、前記第2の判定手段により前記第2の制御信号が存在しないと判定されたとき、前記重み付け手段は予め設定された重み付け係数に基づいて前記非立体画像信号に重み付けをし、前記第3の判定手段により前記第3の制御信号が存在しないと判定されたとき、前記テクスチャシフト手段は予め設定された奥行き及び輻輳を示す値に基づいて前記擬似的な立体画像信号を生成することを特徴とする請求項3記載の擬似立体画像生成装置。
  5. 前記テクスチャシフト手段より生成された前記擬似的な立体画像信号に対して、テクスチャの存在しない部分であるオクルージョンを前記非立体画像信号の対応部分で補償するオクルージョン補償手段と、
    前記オクルージョン補償手段により補償された擬似的な立体画像信号に対してポスト処理をして、前記非立体像信号とは別視点の画像信号として出力するポスト処理手段と
    を備えることを特徴とする請求項1ないし4のいずれか1項に記載の擬似立体画像生成装置。
  6. 非立体画像信号を符号化する画像信号符号化手段と、
    非立体画像信号をもとに奥行きデータを推定して擬似的な立体画像を生成する際の基本となるシーンを有する複数の基本奥行きモデルを合成するための合成比率を示す第1の制御信号と、前記非立体画像に重み付けをするための重み付け係数を示す第2の制御信号と、前記奥行き推定データを調整するための奥行きと輻輳を示す第3の制御信号のうち少なくとも1つの制御信号を符号化する制御信号符号化手段と、
    前記画像信号符号化手段により符号化された非立体画像信号と前記制御信号符号化手段により符号化された制御信号を多重化して符号化ビット列を生成する多重化手段と
    を有することを特徴とする画像符号化装置。
  7. 非立体画像信号を符号化する画像信号符号化ステップと、
    非立体画像信号をもとに奥行きデータを推定して擬似的な立体画像を生成する際の基本となるシーンを有する複数の基本奥行きモデルを合成するための合成比率を示す第1の制御信号と、前記非立体画像に重み付けをするための重み付け係数を示す第2の制御信号と、前記奥行き推定データを調整するための奥行きと輻輳を示す第3の制御信号のうち少なくとも1つの制御信号を符号化する制御信号符号化ステップと、
    前記画像信号符号化ステップにより符号化された非立体画像信号と前記制御信号符号化手段により符号化された制御信号を多重化して符号化ビット列を生成する多重化ステップと
    を有することを特徴とする画像符号化方法。
  8. 非立体画像信号を符号化する画像信号符号化ステップと、
    非立体画像信号をもとに奥行きデータを推定して擬似的な立体画像を生成する際の基本となるシーンを有する複数の基本奥行きモデルを合成するための合成比率を示す第1の制御信号と、前記非立体画像に重み付けをするための重み付け係数を示す第2の制御信号と、前記奥行き推定データを調整するための奥行きと輻輳を示す第3の制御信号のうち少なくとも1つの制御信号を符号化する制御信号符号化ステップと、
    前記画像信号符号化ステップにより符号化された非立体画像信号と前記制御信号符号化手段により符号化された制御信号よりなる符号化ビット列をパケット化するパケット化ステップと
    を有することを特徴とする画像伝送方法。
  9. 非立体画像信号と、前記非立体画像信号をもとに奥行きデータを推定して擬似的な立体画像を生成する際の基本となるシーンを有する複数の基本奥行きモデルを合成するための合成比率を示す第1の制御信号と、前記非立体画像信号に対して重み付けをするための重み付け係数を示す第2の制御信号と、前記奥行き推定データを調整するための奥行きと輻輳を示す第3の制御信号のうち少なくとも1つの制御信号を含む符号化ビット列から、前記制御信号と前記非立体画像信号とを分離して出力する分離手段と、
    前記制御信号と前記非立体画像信号をそれぞれ復号化する復号化手段と
    を有することを特徴とする画像復号化装置。
  10. 非立体画像信号と、前記非立体画像信号をもとに奥行きデータを推定して擬似的な立体画像を生成する際の基本となるシーンを有する複数の基本奥行きモデルを合成するための合成比率を示す第1の制御信号と、前記非立体画像信号に対して重み付けをするための重み付け係数を示す第2の制御信号と、前記奥行き推定データを調整するための奥行きと輻輳を示す第3の制御信号のうち少なくとも1つの制御信号を含む符号化ビット列から、前記制御信号と前記非立体画像信号とを分離して出力する分離ステップと、
    前記制御信号と前記非立体画像信号をそれぞれ復号化する復号化ステップと
    を有することを特徴とする画像復号化方法。
JP2008142434A 2007-07-19 2008-05-30 擬似立体画像生成装置、画像符号化装置、画像符号化方法、画像伝送方法、画像復号化装置及び画像復号化方法 Active JP4952657B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008142434A JP4952657B2 (ja) 2007-07-19 2008-05-30 擬似立体画像生成装置、画像符号化装置、画像符号化方法、画像伝送方法、画像復号化装置及び画像復号化方法
US12/219,327 US8463019B2 (en) 2007-07-19 2008-07-18 Pseudo 3D image generation device, image encoding device, image encoding method, image transmission method, image decoding device, and image decoding method
US13/437,286 US8532407B2 (en) 2007-07-19 2012-04-02 Pseudo 3D image generation device, image encoding device, image encoding method, image transmission method, image decoding device, and image decoding method
US13/437,269 US8532405B2 (en) 2007-07-19 2012-04-02 Pseudo 3D image generation device, image encoding device, image encoding method, image transmission method, image decoding device, and image decoding method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007187824 2007-07-19
JP2007187824 2007-07-19
JP2008142434A JP4952657B2 (ja) 2007-07-19 2008-05-30 擬似立体画像生成装置、画像符号化装置、画像符号化方法、画像伝送方法、画像復号化装置及び画像復号化方法

Publications (2)

Publication Number Publication Date
JP2009044722A true JP2009044722A (ja) 2009-02-26
JP4952657B2 JP4952657B2 (ja) 2012-06-13

Family

ID=40444900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008142434A Active JP4952657B2 (ja) 2007-07-19 2008-05-30 擬似立体画像生成装置、画像符号化装置、画像符号化方法、画像伝送方法、画像復号化装置及び画像復号化方法

Country Status (1)

Country Link
JP (1) JP4952657B2 (ja)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011078036A (ja) * 2009-10-02 2011-04-14 Jvc Kenwood Holdings Inc 擬似立体画像作成装置及び擬似立体画像表示システム
JP2011223284A (ja) * 2010-04-09 2011-11-04 Victor Co Of Japan Ltd 擬似立体画像生成装置及びカメラ
JP2011223543A (ja) * 2010-03-23 2011-11-04 Jvc Kenwood Corp 擬似立体画像信号生成装置、擬似立体画像信号生成方法および情報多重化装置
JP2012015744A (ja) * 2010-06-30 2012-01-19 Toshiba Corp 奥行き信号生成装置及び方法
JP2012060345A (ja) * 2010-09-08 2012-03-22 Jvc Kenwood Corp 多視点画像作成装置及び多視点画像作成方法並びに多視点画像表示システム
WO2012081469A1 (ja) 2010-12-16 2012-06-21 株式会社Jvcケンウッド 画像処理装置
CN102572457A (zh) * 2010-12-31 2012-07-11 财团法人工业技术研究院 前景深度地图产生模块及其方法
JP2012529787A (ja) * 2009-06-05 2012-11-22 クゥアルコム・インコーポレイテッド 2次元ビデオシーケンスとともに行われる3次元変換情報の符号化(encodingofthree−dimensionalconversioninformationwithtwo−dimensionalvideosequence)
WO2012169217A1 (ja) * 2011-06-10 2012-12-13 シャープ株式会社 映像生成装置、映像表示装置、テレビ受像装置、映像生成方法及びコンピュータプログラム
JP2013066025A (ja) * 2011-09-16 2013-04-11 Jvc Kenwood Corp 映像表示装置及び映像表示方法
JP2013156957A (ja) * 2012-01-31 2013-08-15 Jvc Kenwood Corp 画像処理装置、画像処理方法及び画像処理プログラム
JP2013156955A (ja) * 2012-01-31 2013-08-15 Jvc Kenwood Corp 画像処理装置、画像処理方法及び画像処理プログラム
JP2013157671A (ja) * 2012-01-26 2013-08-15 Sony Corp 画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム
JP2013156956A (ja) * 2012-01-31 2013-08-15 Jvc Kenwood Corp 画像処理装置、画像処理方法及び画像処理プログラム
JP2014033366A (ja) * 2012-08-03 2014-02-20 Jvc Kenwood Corp 画像処理装置、画像処理方法及び画像処理プログラム
JP2014072639A (ja) * 2012-09-28 2014-04-21 Jvc Kenwood Corp 画像処理装置、画像処理方法及び画像処理プログラム
US8971611B2 (en) 2012-02-08 2015-03-03 JVC Kenwood Corporation Image process device, image process method, and image process program
JPWO2013031575A1 (ja) * 2011-08-31 2015-03-23 ソニー株式会社 画像処理装置および画像処理方法
JP2015521442A (ja) * 2012-07-04 2015-07-27 インテル コーポレイション パノラマベースの3dビデオコーディング
US9466090B2 (en) 2013-06-20 2016-10-11 Intel Corporation Subset based compression and decompression of graphics data
US9615079B2 (en) 2011-03-18 2017-04-04 Sony Corporation Image processing apparatus and image processing method
US9900595B2 (en) 2011-08-31 2018-02-20 Sony Corporation Encoding device, encoding method, decoding device, and decoding method
US10387991B2 (en) 2016-07-01 2019-08-20 Intel Corporation Method and apparatus for frame buffer compression

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000078611A (ja) * 1998-08-31 2000-03-14 Toshiba Corp 立体映像受信装置及び立体映像システム
JP2002300611A (ja) * 2001-03-29 2002-10-11 Namco Ltd 画像生成装置、プログラム及び情報記憶媒体
WO2003092304A1 (en) * 2002-04-25 2003-11-06 Sharp Kabushiki Kaisha Image data creation device, image data reproduction device, and image data recording medium
JP2005151534A (ja) * 2003-09-24 2005-06-09 Victor Co Of Japan Ltd 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
JP2007129494A (ja) * 2005-11-02 2007-05-24 Epson Imaging Devices Corp ディスプレイ装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000078611A (ja) * 1998-08-31 2000-03-14 Toshiba Corp 立体映像受信装置及び立体映像システム
JP2002300611A (ja) * 2001-03-29 2002-10-11 Namco Ltd 画像生成装置、プログラム及び情報記憶媒体
WO2003092304A1 (en) * 2002-04-25 2003-11-06 Sharp Kabushiki Kaisha Image data creation device, image data reproduction device, and image data recording medium
JP2005151534A (ja) * 2003-09-24 2005-06-09 Victor Co Of Japan Ltd 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
JP2007129494A (ja) * 2005-11-02 2007-05-24 Epson Imaging Devices Corp ディスプレイ装置

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9124874B2 (en) 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
JP2015046899A (ja) * 2009-06-05 2015-03-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated 2次元ビデオシーケンスとともに行われる3次元変換情報の符号化(encodingofthree−dimensionalconversioninformationwithtwo−dimensionalvideosequence)
JP2012529787A (ja) * 2009-06-05 2012-11-22 クゥアルコム・インコーポレイテッド 2次元ビデオシーケンスとともに行われる3次元変換情報の符号化(encodingofthree−dimensionalconversioninformationwithtwo−dimensionalvideosequence)
US8599198B2 (en) 2009-10-02 2013-12-03 Victor Company Of Japan, Ltd. Pseudo 3D image creation apparatus and display system
JP2011078036A (ja) * 2009-10-02 2011-04-14 Jvc Kenwood Holdings Inc 擬似立体画像作成装置及び擬似立体画像表示システム
JP2011223543A (ja) * 2010-03-23 2011-11-04 Jvc Kenwood Corp 擬似立体画像信号生成装置、擬似立体画像信号生成方法および情報多重化装置
JP2011223284A (ja) * 2010-04-09 2011-11-04 Victor Co Of Japan Ltd 擬似立体画像生成装置及びカメラ
JP2012015744A (ja) * 2010-06-30 2012-01-19 Toshiba Corp 奥行き信号生成装置及び方法
US8805020B2 (en) 2010-06-30 2014-08-12 Kabushiki Kaisha Toshiba Apparatus and method for generating depth signal
JP2012060345A (ja) * 2010-09-08 2012-03-22 Jvc Kenwood Corp 多視点画像作成装置及び多視点画像作成方法並びに多視点画像表示システム
JP2012129845A (ja) * 2010-12-16 2012-07-05 Jvc Kenwood Corp 画像処理装置
WO2012081469A1 (ja) 2010-12-16 2012-06-21 株式会社Jvcケンウッド 画像処理装置
CN102572457A (zh) * 2010-12-31 2012-07-11 财团法人工业技术研究院 前景深度地图产生模块及其方法
US9712802B2 (en) 2011-03-18 2017-07-18 Sony Corporation Image processing apparatus and image processing method
US9615079B2 (en) 2011-03-18 2017-04-04 Sony Corporation Image processing apparatus and image processing method
US10218958B2 (en) 2011-03-18 2019-02-26 Sony Corporation Image processing apparatus and image processing method
US10389997B2 (en) 2011-03-18 2019-08-20 Sony Corporation Image processing apparatus and image processing method
JP2013004989A (ja) * 2011-06-10 2013-01-07 Sharp Corp 映像生成装置、映像表示装置、テレビ受像装置、映像生成方法及びコンピュータプログラム
WO2012169217A1 (ja) * 2011-06-10 2012-12-13 シャープ株式会社 映像生成装置、映像表示装置、テレビ受像装置、映像生成方法及びコンピュータプログラム
US9900595B2 (en) 2011-08-31 2018-02-20 Sony Corporation Encoding device, encoding method, decoding device, and decoding method
JPWO2013031575A1 (ja) * 2011-08-31 2015-03-23 ソニー株式会社 画像処理装置および画像処理方法
JP2013066025A (ja) * 2011-09-16 2013-04-11 Jvc Kenwood Corp 映像表示装置及び映像表示方法
US9317957B2 (en) 2012-01-26 2016-04-19 Sony Corporation Enhancement of stereoscopic effect of an image through use of modified depth information
JP2013157671A (ja) * 2012-01-26 2013-08-15 Sony Corp 画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム
JP2013156956A (ja) * 2012-01-31 2013-08-15 Jvc Kenwood Corp 画像処理装置、画像処理方法及び画像処理プログラム
JP2013156955A (ja) * 2012-01-31 2013-08-15 Jvc Kenwood Corp 画像処理装置、画像処理方法及び画像処理プログラム
JP2013156957A (ja) * 2012-01-31 2013-08-15 Jvc Kenwood Corp 画像処理装置、画像処理方法及び画像処理プログラム
US8971611B2 (en) 2012-02-08 2015-03-03 JVC Kenwood Corporation Image process device, image process method, and image process program
JP2015521442A (ja) * 2012-07-04 2015-07-27 インテル コーポレイション パノラマベースの3dビデオコーディング
JP2014033366A (ja) * 2012-08-03 2014-02-20 Jvc Kenwood Corp 画像処理装置、画像処理方法及び画像処理プログラム
US9549164B2 (en) 2012-09-28 2017-01-17 JVC Kenwood Corporation Image processing apparatus and method, and related computer program
JP2014072639A (ja) * 2012-09-28 2014-04-21 Jvc Kenwood Corp 画像処理装置、画像処理方法及び画像処理プログラム
US9466090B2 (en) 2013-06-20 2016-10-11 Intel Corporation Subset based compression and decompression of graphics data
US10387991B2 (en) 2016-07-01 2019-08-20 Intel Corporation Method and apparatus for frame buffer compression

Also Published As

Publication number Publication date
JP4952657B2 (ja) 2012-06-13

Similar Documents

Publication Publication Date Title
JP4952657B2 (ja) 擬似立体画像生成装置、画像符号化装置、画像符号化方法、画像伝送方法、画像復号化装置及び画像復号化方法
US8532405B2 (en) Pseudo 3D image generation device, image encoding device, image encoding method, image transmission method, image decoding device, and image decoding method
JP6406327B2 (ja) 受信装置および受信方法
JP5429034B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US8860786B2 (en) Stereo image data transmitting apparatus and stereo image data receiving apparatus
US9219911B2 (en) Image processing apparatus, image processing method, and program
US8860782B2 (en) Stereo image data transmitting apparatus and stereo image data receiving apparatus
KR101981813B1 (ko) 송신 장치, 송신 방법 및 수신 장치
US20140078248A1 (en) Transmitting apparatus, transmitting method, receiving apparatus, and receiving method
WO2013005571A1 (ja) 送信装置、送信方法および受信装置
JP5682149B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2012100102A (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2012057048A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2012026342A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2013011834A1 (ja) 送信装置、送信方法および受信装置
WO2012063675A1 (ja) 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100624

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110426

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110627

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20111012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120227

R150 Certificate of patent or registration of utility model

Ref document number: 4952657

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150323

Year of fee payment: 3