JP2007312407A - 立体画像表示装置およびその方法 - Google Patents

立体画像表示装置およびその方法 Download PDF

Info

Publication number
JP2007312407A
JP2007312407A JP2007163778A JP2007163778A JP2007312407A JP 2007312407 A JP2007312407 A JP 2007312407A JP 2007163778 A JP2007163778 A JP 2007163778A JP 2007163778 A JP2007163778 A JP 2007163778A JP 2007312407 A JP2007312407 A JP 2007312407A
Authority
JP
Japan
Prior art keywords
image
eye image
eye
encoded
stereoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007163778A
Other languages
English (en)
Other versions
JP4657258B2 (ja
Inventor
Tomoko Aono
友子 青野
Toshio Nomura
敏男 野村
Hiroyuki Katada
裕之 堅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2007163778A priority Critical patent/JP4657258B2/ja
Publication of JP2007312407A publication Critical patent/JP2007312407A/ja
Application granted granted Critical
Publication of JP4657258B2 publication Critical patent/JP4657258B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

【課題】色情報が最適となるように立体画像用データを補間して表示することが可能な立体画像表示装置を提供すること。
【解決手段】フォーマット変換部108aおよび108bは、逆多重化部106によって抽出された左眼用画像および右眼用画像の色情報の補間方法を参照して、デコーダ107aおよび107bによって復号された左眼用画像および右眼用画像の色情報を補間して所定フォーマットの画像に変換する。合成部109は、フォーマット変換部108aおよび108bによって変換された左眼用画像および右眼用画像を合成する。表示部110は、合成部109によって合成された画像に応じて立体画像を表示する。したがって、色情報が最適となるように立体画像用データを補間してより立体に見えやすい画像を表示することが可能となる。
【選択図】図1

Description

本発明は、立体画像用の左眼用画像および右眼用画像を作成して表示する技術に関し、特に、符号化データを復号してフォーマット変換を行った後に立体画像を表示する立体画像表示装置およびその方法に関する。
近年、立体画像を表示する技術が盛んに研究されている。その1つとして、ユーザの左眼と右眼との視差を利用して立体画像を作成し、表示する立体画像装置を挙げることができる。
図6は、従来の立体画像装置における画像データの作成方法を説明するための図である。この立体画像装置は、立体画像を作成する立体画像作成装置と、立体画像作成装置によって作成された立体画像を表示する立体画像表示装置とに分けられる。
立体画像作成装置は、画像データ作成時に2台のカメラで左眼用と右眼用との画像を各々撮影する。そして、図6(a)に示すように、1画素毎に画素を間引いて、左眼用画像および右眼用画像の水平方向のサイズを各々1/2にする。次に、水平方向に半分のサイズになった左眼用画像と右眼用画像とを各々符号化し、これらの符号化データを多重化し、多重化データを伝送、または記録媒体に記録する。
立体画像表示装置は、立体画像作成装置によって作成された多重化データを受信または記録媒体から読出し、左眼用画像と右眼用画像とを各々再生する。そして、図6(b)に示すように、左眼用画像(L)と右眼用画像(R)とを1画素ずつ水平方向に交互に並べたり、図6(c)に示すように、1ライン毎に垂直方向に交互に並べたりして、立体表示用の画像を作成する。立体画像表示装置は、レンチキュラ方式、パララクスバリア方式、シャッタ(時分割)方式等を用いて、ユーザの左眼には左眼用の画像だけが見え、ユーザの右眼には右眼用の画像だけが見えるようにすることで、ユーザに画像を立体として見せることができる。
このような立体画像装置の一例としては、特開平11−18111号公報に開示された立体映像伝送装置を挙げることができる。この特開平11−18111号公報に開示された立体映像伝送装置においては、圧縮回路が左眼用画像および右眼用画像をそれぞれ1画素毎に間引き処理を行なって、画像を水平走査線方向に圧縮する。
たとえば、図6(d)に示すように、撮影した画像の左から偶数番目のRGB画素値のみを抽出して、左眼用画像と右眼用画像とを作成する。また、図6(e)に示すように、左眼用画像と右眼用画像とのRGBのうち、画素のG値をRB値に対して1画素分ずらして間引くことによって、左眼用画像と右眼用画像とを作成している。ここで、図6(d)および図6(e)に示すR、G、Bの後に付加されている数字は、1ライン上でのR、G、Bの各座標を示している。
特開平11−18111号公報
しかし、画像、特に動画像を伝送、または記録媒体に記録する場合には、画像のデータ量が非常に大きいため符号化処理を施すのが一般的である。一般的な符号化アルゴリズムであるMPEG(Moving Picture Experts Group)−1、MPEG−2、MPEG−4、およびデジタルビデオカメラで使われるDV方式の圧縮は、全て入力画像データとしてYUVデータが用いられる。
また、カメラで撮影された画像もRGBデータであるとは限らず、YUVデータであることが多い。さらには、YUVデータのフォーマットは、4:4:4、4:2:2、4:2:0、4:1:1等のように1種類ではないため、入力画像がYUVデータであってもフォーマットが異なり、従来の立体画像表示装置が正しく立体画像を表示するためには適切なフォーマット変換が必要な場合があるといった問題点があった。
本発明は、上記問題点を解決するためになされたものであり、その目的は、色情報が最適となるように立体画像用データを補間して表示することが可能な立体画像表示装置およびその方法を提供することである。
本発明のある局面に従えば、輝度情報と色情報とが分離された左眼用画像および右眼用画像を合成して表示する立体画像表示装置であって、多重化されたデータを逆多重化して、符号化された左眼用画像と、符号化された右眼用画像と、左眼用画像および右眼用画像の色情報の補間方法とを抽出するための逆多重化手段と、逆多重化手段によって抽出された符号化された左眼用画像および符号化された右眼用画像を復号するための復号手段と、逆多重化手段によって抽出された左眼用画像および右眼用画像の色情報の補間方法を参照して、復号手段によって復号された左眼用画像および右眼用画像の色情報を補間して所定フォーマットの画像に変換するためのフォーマット変換手段と、フォーマット変換手段によって変換された左眼用画像および右眼用画像を合成するための合成手段と、合成手段によって合成された画像に応じて立体画像を表示するための表示手段とを含む。
本発明の別の局面に従えば、立体画像表示装置は、輝度情報と色情報とが分離された左眼用画像および右眼用画像を合成して表示する立体画像表示装置であって、多重化されたデータを逆多重化して、符号化された左眼用画像と、符号化された右眼用画像と、左眼用画像および右眼用画像のサンプリングした画素の位置に関する情報とを抽出するための逆多重化手段と、逆多重化手段によって抽出された符号化された左眼用画像および符号化された右眼用画像を復号するための復号手段と、逆多重化手段によって抽出された左眼用画像および右眼用画像のサンプリングした画素の位置に関する情報を参照して、復号手段によって復号された左眼用画像および右眼用画像を水平方向に拡大して所定フォーマットの画像に変換するためのフォーマット変換手段と、フォーマット変換手段によって変換された左眼用画像および右眼用画像を合成するための合成手段と、合成手段によって合成された画像に応じて立体画像を表示するための表示手段とを含む。
本発明のさらに別の局面に従えば、輝度情報と色情報とが分離された左眼用画像および右眼用画像を合成して表示する立体画像表示方法であって、多重化されたデータを逆多重化して、符号化された左眼用画像と、符号化された右眼用画像と、左眼用画像および右眼用画像の色情報の補間方法とを抽出するステップと、抽出された符号化された左眼用画像および符号化された右眼用画像を復号するステップと、抽出された左眼用画像および右眼用画像の色情報の補間方法を参照して、復号された左眼用画像および右眼用画像の色情報を補間して所定フォーマットの画像に変換するステップと、所定フォーマットに変換された左眼用画像および右眼用画像を合成するステップと、合成された画像に応じて立体画像を表示するステップとを含む。
本発明のさらに別の局面に従えば、輝度情報と色情報とが分離された左眼用画像および右眼用画像を合成して表示する立体画像表示方法であって、多重化されたデータを逆多重化して、符号化された左眼用画像と、符号化された右眼用画像と、左眼用画像および右眼用画像のサンプリングした画素の位置に関する情報とを抽出するステップと、抽出された符号化された左眼用画像および符号化された右眼用画像を復号するステップと、抽出された左眼用画像および右眼用画像のサンプリングした画素の位置に関する情報を参照して、復号された左眼用画像および右眼用画像を水平方向に拡大して所定フォーマットの画像に変換するステップと、所定フォーマットに変換された左眼用画像および右眼用画像を合成するステップと、合成された画像に応じて立体画像を表示するステップとを含む。
本発明のある局面によれば、フォーマット変換手段が、色情報の補間方法を参照して、左眼用画像および右眼用画像の色情報を補間して所定フォーマットの画像に変換するので、色情報が最適となるように立体画像用データを補間してより立体に見えやすい画像を表示することが可能となった。
本発明の別の局面によれば、フォーマット変換手段が、サンプリングした画素の位置に関する情報を参照して、左眼用画像および右眼用画像を水平方向に拡大して所定フォーマットの画像に変換するので、立体画像作成装置と立体画像表示装置とで位相のずれを防ぐことが可能となった。
(第1の実施の形態)
図1は、本発明の第1の実施の形態における立体画像装置の概略構成を示すブロック図である。この立体画像装置は、立体画像作成装置(以下、立体画像用データ作成部と呼ぶ。)111と、立体画像表示装置(以下、立体画像用データ表示部と呼ぶ。)112とを含む。
立体画像用データ作成部111は、カメラ101aおよび101bと、左眼用画像作成部102と、右眼用画像作成部103と、エンコーダ104aおよび104bと、多重化部105とを含む。カメラ101aは、左眼用の画像を撮影する。また、カメラ101bは、右眼用の画像を撮影する。
左眼用画像作成部102は、カメラ101aによって撮影された左眼用の画像データを、エンコーダ104aがエンコード可能なフォーマットに変換する。同様にして、右眼用画像作成部103は、カメラ101bによって撮影された右眼用の画像データを、エンコーダ104bがエンコード可能なフォーマットに変換する。
エンコーダ104aは、MPEG−1、MPEG−2、MPEG−4、DV圧縮方式等のアルゴリズムを利用して、カメラ101aによって撮影された画像をエンコードする。エンコーダ104bは、エンコーダ104aと同様のアルゴリズムを利用して、カメラ101bによって撮影された画像をエンコードする。
多重化部105は、エンコーダ104aによってエンコードされた左眼用画像の符号化データ、エンコーダ104bによってエンコードされた右眼用画像の符号化データ、および各種制御情報を多重化する。多重化部105によって多重化されたデータは、立体画像用データ表示部112に送信されたり、記録メディアに記録されたりする。
また、立体画像用データ表示部112は、逆多重化部106と、デコーダ107aおよび107bと、フォーマット変換部108aおよび108bと、合成部109と、表示部110とを含む。
逆多重化部106は、立体画像用データ作成部111から受信した多重化データや、記録メディアから読出した多重化データを逆多重化し、左眼用画像の符号化データ、右眼用画像の符号化データおよび各種制御情報を抽出する。抽出された左眼用画像の符号化データはデコーダ107aに転送され、右眼用画像の符号化データはデコーダ107bに転送され、制御情報はフォーマット変換部108aおよび108bに転送される。
デコーダ107aは、エンコーダ104aに対応しており、MPEG−1、MPEG−2、MPEG−4、DV圧縮方式等のアルゴリズムを利用して、逆多重化部106から受けた左眼用画像の符号化データを復号する。デコーダ107bは、エンコーダ104bに対応しており、デコーダ107aと同様のアルゴリズムを利用して、逆多重化部106から受けた右眼用画像の符号化データを復号する。
フォーマット変換部108aは、逆多重化部106から受けた制御情報を参照して、デコーダ107aによって復号された左眼用画像を、表示部110が表示可能なフォーマットに変換する。同様に、フォーマット変換部108bは、逆多重化部106から受けた制御情報を参照して、デコーダ107bによって復号された右眼用画像を、表示部110が表示可能なフォーマットに変換する。
合成部109は、フォーマット変換部108aによってフォーマット変換された左眼用画像と、フォーマット変換部108bによってフォーマット変換された右眼用画像とを合成し、立体画像用データを作成する。
表示部110は、LCD(Liquid Crystal Display)モジュールなどによって構成され、レンチキュラ方式、パララクスバリア方式、シャッタ(時分割)方式などを用いて、立体画像を表示する。
図2および図3は、各種画像フォーマットの一例を示す図である。各画素の上の数値はその画素の左端からの座標を表しており、本明細書では画素の位置を画像の左端からの座標で表すことにする。また、特に断らない限り、U成分とV成分とをまとめてC(クロマ成分)と表すことにする。なお、図2においては、YとCとの関係が全てのラインで同じなので、1ラインのみを記載している。
図2(a)は、YUV4:2:2フォーマットを示す図であり、Yに対してCを水平方向に1/2に削減したものである。図2(d)は、YUV4:1:1フォーマットを示す図であり、Yに対してCを水平方向に1/4に削減したものである。図3(a)はYUV4:2:0(MPEG−2用)フォーマットを示す図であり、Yに対してCを水平方向に1/2、垂直方向に1/2に削減したものである。
図2(a)および図2(d)に示すように、YUV4:2:2フォーマットやYUV4:1:1フォーマットにおいては、各ライン上でYとCとが同じ位置でサンプリングされている。しかし、図3(a)に示すように、YUV4:2:0(MPEG−2用)フォーマットにおいては、Cを垂直方向にも間引くために、YとCとの垂直方向のサンプリング位置は異なっている。ここで、図3(a)の左端の数値は、その画素の画像の上端からの座標を示す数値である。
図2(a)と図3(a)とを比較すればわかるように、水平方向のYとCとの関係では、YUV4:2:2フォーマットとYUV4:2:0(MPEG−2用)フォーマットとが同じである。本発明においては水平方向の処理しか関係しないため、以下の説明ではYUV4:2:2フォーマットの中にYUV4:2:0(MPEG−2用)フォーマットを含めることにする。
本実施の形態においては、カメラ101aおよび101bが、YUV4:2:2フォーマットのデータを出力する場合のものである。左眼用画像作成部102および右眼用画像作成部103は、図2(a)に示す画像データが入力されると、この画像データに対して水平方向に1/2の間引きを行なう。間引きを行なった後の画像データもYUV4:2:2フォーマットである場合には、図2(b)または図2(c)に示すものとなる。また、間引きを行なった後の画像データがYUV4:1:1フォーマットである場合には、図2(e)または図2(f)に示すものとなる。
ここで、間引き処理をする前の座標iの画素のYをY(i)、座標iの画素のCをC(i)と表すことにする。図2(b)においては、Y(0)、Y(2)、Y(4)、Y(6)、Y(8)…が存在すると共に、C(0)、C(4)、C(8)…が存在する。また、図2(c)においては、Y(1)、Y(3)、Y(5)、Y(7)、Y(9)…が存在すると共に、C(1)、C(5)、C(9)…が存在する。
図2(b)と図2(c)との違いは、偶数番目の画素をサンプリングするか、奇数番目の画素をサンプリングするかの違いである。左眼用画像と右眼用画像との組合わせにおいて、左眼用画像として図2(b)に示す画像を使い、右眼用画像として図2(c)に示す画像を使うようにしてもよい。また、左眼用画像として図2(c)に示す画像を使い、右眼用画像として図2(b)に示す画像を使うようにしてもよい。
また、左眼用画像および右眼用画像の双方とも図2(b)に示す画像を使ってもよいし、双方とも図2(c)に示す画像を使ってもよい。左眼用画像と右眼用画像との組み合わせの選択は自由である。本発明の実施の形態2以降についても同様である。
また、間引いた後の画像として、図2(b)に示す画像を使う場合には、YおよびCともサンプリング前の同じ位置のデータをそのまま使えばよい。間引いた後の画像として、図2(c)に示す画像を使う場合にも、Yはサンプリング前の同じ位置のデータをそのまま使えばよい。しかし、間引いた後の画像として、図2(c)に示す画像を使う場合には、Cに関してはサンプリング前後で位置が異なり、サンプリング前の同じ位置のデータが存在しない。したがって、図2(c)に示す画像のCは、サンプリング前のC(0)、C(2)、C(4)、C(6)、C(8)…からC(1)、C(5)、C(9)…を計算する必要がある。
たとえば、図2(a)に示す画像のCをCaと表し、図2(c)に示す画像のCをCcと表すと、CaとCcとの関係は次に示す式(1)〜(3)のいずれかとなる。
Cc(i*4+1)=Ca(i*4) …(1)
Cc(i*4+1)=Ca(i*4+2) …(2)
Cc(i*4+1)=(Ca(i*4)+Ca(i*4+2))/2
…(3)
ここで、Ca(i)は図2(a)に示す画像の座標iの画素のC、Cc(i)は図2(c)に示す画像の座標iの画素のCを表している。式(1)、式(2)または式(3)のように、図2(c)に示す画像のCの位置に対応する画素の、サンプリング前の近傍の画素値を使って計算することになる。すなわち、式(1)は左隣のCの画素値を用いる場合、式(2)は右隣のCの画素値を用いる場合、式(3)は両隣のCの平均画素値を用いる場合を示している。
同様に、左眼用画像作成部102および右眼用画像作成部103がYUV4:1:1フォーマットで画像を作成する場合も、左眼用画像と右眼用画像との組み合わせの選択は自由である。間引いた後の画像として、図2(e)に示す画像を使う場合には、YおよびCともサンプリング前の同じ位置のデータをそのまま使えばよい。間引いた後の画像として、図2(f)に示す画像を使う場合にも、Yはサンプリング前の同じ位置のデータをそのまま使えばよい。しかし、間引いた後の画像として、図2(f)に示す画像を使う場合には、画素のCに関してはサンプリング前後で位置が異なるため、サンプリング前の同じ位置のデータが存在しない。従って、図2(f)に示す画像のCについては、サンプリング前のC(0)、C(2)、C(4)、C(6)、C(8)…から、C(1)、C(9)…を計算する必要がある。
たとえば、図2(a)に示す画像のCをCaと表し、図2(f)に示す画像のCをCfと表すと、CaとCfとの関係は次に示す式(4)〜(6)のいずれかとなる。
Cf(i*8+1)=Ca(i*8) …(4)
Cf(i*8+1)=Ca(i*8+2) …(5)
Cf(i*8+1)=(Ca(i*8)+Ca(i*8+2))/2
…(6)
ここで、Ca(i)は図2(a)に示す画像の座標iの画素のC、Cf(i)は図2(f)に示す画像の座標iの画素のCを表している。式(4)、式(5)または式(6)に示すように、図2(f)のCの位置に対応する画素の、サンプリング前の近傍の画素値を使って計算することになる。すなわち、式(4)は左隣のCの画素値を用いる場合、式(5)は右隣のCの画素値を用いる場合、式(6)は両隣のCの平均画素値を用いる場合を示している。
2台のカメラ101aおよび101bで撮影した画像を、各々左眼用画像と右眼用画像とに変換するために、図2(b)および図2(c)に示す画像(YUV4:1:1フォーマットの場合には、図2(e)および図2(f)に示す画像)のいずれを選択するかについては、ユーザが状況に応じて選択する。そして、いずれを選択したかを示すフラグが多重化部105に出力される。多重化部105は、このフラグを制御情報として左眼用画像の符号化データおよび右眼用画像の符号化データに多重化する。
光軸を並行にして撮影する場合には、左眼用画像として図2(b)に示す画像(YUV4:1:1フォーマットの場合には、図2(e)に示す画像)、右眼用画像として図2(c)に示す画像(YUVフォーマット4:1:1の場合には、図2(f)に示す画像)を選択すると、高い精度の画像が得られる。
また、左眼用画像および右眼用画像とも、図2(b)に示す画像(YUV4:1:1フォーマットの場合には、図2(e)に示す画像)を選択すると、処理が簡単である。このように、ユーザがその都度、状況にあった画像を選択するようにすればよい。
以上説明したように、本実施の形態における立体画像装置においては、カメラ101aおよび101bが撮影した画像がYUV4:2:2フォーマットの場合に、左眼用画像作成部102および右眼用画像作成部103が左眼用画像および右眼用画像を作成するときに、間引き処理を行なって作成される画像の色情報の位置に合わせて色情報を計算するようにしたので、精度の高い立体画像を作成することが可能となった。
また、画像がどのYUVフォーマットに相当するかを示す情報およびどの位置の画素を符号化したかを示す情報を含んだ制御情報を、左眼用画像の符号化データおよび右眼用画像の符号化データに多重化するようにしたので、立体画像用データ表示部112が立体画像を表示するときに、どの組合わせの画像が立体に見えやすいか等をユーザが決定する際の利便性を向上させることが可能となった。また、どの組合せが立体に見えやすいかの情報を立体画像用データ作成部111にフィードバックすることによって、左眼用画像作成部102および右眼用画像作成部103における左眼用画像および右眼用画像の選択を容易に行なうことが可能となる。
(第2の実施の形態)
本発明の第2の実施の形態における立体画像装置の概略構成は、図1に示す第1の実施の形態における立体画像装置の概略構成と同様である。したがって、重複する構成および機能の詳細な説明は繰返さない。
本実施の形態においては、カメラ101aおよび101bが、YUV4:1:1フォーマットの画像データを出力する場合のものである。左眼用画像作成部102および右眼用画像作成部103は、図2(d)に示す画像データが入力されると、この画像データに対して水平方向に1/2の間引きを行なう。間引きを行なった後の画像データもYUV4:1:1フォーマットである場合には、図2(e)または図2(f)に示すものとなる。
間引いた後の画像として、図2(e)に示す画像を使う場合には、YおよびCともサンプリング前の同じ位置のデータをそのまま使えばよい。間引いた後の画像として、図2(f)に示す画像を使う場合にも、Yはサンプリング前の同じ位置のデータをそのまま使えばよい。しかし、間引いた後の画像として、図2(f)に示す画像を使う場合には、Cに関してはサンプリング前後で位置が異なり、サンプリング前の同じ位置のデータが存在しない。したがって、図2(f)に示す画像のCは、サンプリング前のC(0)、C(4)、C(8)…からC(1)、C(9)…を計算する必要がある。
たとえば、図2(d)に示す画像のCをCdと表し、図2(f)に示す画像のCをCfと表すと、CdとCfとの関係は次に示す式(7)〜式(9)のいずれかとなる。
Cf(i*8+1)=Cd(i*8) …(7)
Cf(i*8+1)=Cd(i*8+4) …(8)
Cf(i*8+1)=Cd(i*8)*W1+Cd(i*8+4)*W2 …(9)
ここで、Cd(i)は図2(d)に示す画像の座標iの画素のC、Cf(i)は図2(f)に示す画像の座標iの画素のCを表している。また、W1およびW2は重み係数であり、W1+W2=1である。式(7)、式(8)または式(9)のように、図2(f)に示す画像のCの位置に対応する画素の、サンプリング前の近傍の画素値を使って計算することになる。すなわち、式(7)は左隣のCの画素値を用いる場合、式(8)は右隣のCの画素値を用いる場合、式(9)は両隣のCの平均画素値を用いる場合である。
YUV4:1:1フォーマットの場合はもともとCの情報が少なく、水平方向に1/2に間引くと情報量がさらに少なくなるので、間引いた後の画像が図2(e)に示す画像の場合でも、Cに関してはサンプリング前の近傍画素の重み付和等を計算した方が画質はよくなる。
2台のカメラ101aおよび101bで撮影した画像を、各々左眼用画像と右眼用画像とに変換するために、図2(e)および図2(f)に示す画像のいずれを選択するかについては、ユーザが状況に応じて選択する。そして、いずれを選択したかを示すフラグが多重化部105に出力される。多重化部105は、このフラグを制御情報として左眼用画像の符号化データおよび右眼用画像の符号化データに多重化する。
光軸を並行にして撮影する場合には、左眼用画像として図2(e)に示す画像、右眼用画像として図2(f)に示す画像を選択すると、高い精度の画像が得られる。また、左眼用画像および右眼用画像とも、図2(e)に示す画像を選択すると、処理が簡単である。このように、ユーザがその都度、状況にあった画像を選択するようにすればよい。
以上説明したように、本実施の形態における立体画像装置においては、カメラ101aおよび101bが撮影した画像がYUV4:1:1フォーマットの場合に、左眼用画像作成部102および右眼用画像作成部103が左眼用画像および右眼用画像を作成するときに、間引き処理を行なって作成される画像の色情報の位置に合わせて色情報を計算するようにしたので、精度の高い立体画像を作成することが可能となった。
また、画像がどのYUVフォーマットに相当するかを示す情報およびどの位置の画素を符号化したかを示す情報を含んだ制御情報を、左眼用画像の符号化データおよび右眼用画像の符号化データに多重化するようにしたので、立体画像用データ表示部112が立体画像を表示するときに、どの組合わせの画像が立体に見えやすいか等をユーザが決定する際の利便性を向上させることが可能となった。また、どの組合せが立体に見えやすいかの情報を立体画像用データ作成部111にフィードバックすることによって、左眼用画像作成部102および右眼用画像作成部103における左眼用画像および右眼用画像の選択を容易に行なうことが可能となる等、第1の実施の形態において説明した効果と同様の効果を得ることが可能となった。
(第3の実施の形態)
本発明の第3の実施の形態における立体画像装置の概略構成は、図1に示す第1の実施の形態における立体画像装置の概略構成と同様である。したがって、重複する構成および機能の詳細な説明は繰返さない。
本実施の形態において、カメラ101aおよび101bが、YUV4:2:0(MPEG−1用)フォーマットのデータを出力する場合のものである。左眼用画像作成部102および右眼用画像作成部103は、図3(b)に示す画像データが入力されると、この画像データに対して水平方向に1/2の間引きを行なう。間引きを行なった後の画像データもYUV4:2:0フォーマットである場合には、図3(c)または図3(d)に示すものとなる。
また、間引いた後の画像として、図3(c)および図3(d)のいずれに示す画像を使う場合にも、Yはサンプリング前の同じ位置のデータをそのまま使えばよい。しかし、Cに関してはサンプリング前後で位置が異なり、サンプリング前の同じ位置のデータが存在しない。
したがって、図3(c)に示す画像のCは、サンプリング前のC(0_1)、C(2_3)、C(4_5)、C(6_7)、C(8_9)…からC(1)、C(5)、C(9)…を計算する必要がある。ここで、C(i_(i+1))は座標iと座標(i+1)の中間位置を意味する。
たとえば、図3(b)に示す画像のCをCbと表し、図3(c)に示す画像のCをCcと表すと、CbとCcとの関係は次に示す式(10)〜(12)のいずれかとなる。
Cc(i*4+1)=Cb((i*4)_(i*4+1))…(10)
Cc(i*4+1)=Cb((i*4+2)_(i*4+3))…(11)
Cc(i*4+1)=Cb((i*4)_(i*4+1))*W1+Cb((i*4+2)_(i*4+3))*W2 …(12)
ここで、Cc(i)は図3(c)の座標iのCを表している。また、W1およびW2は重み係数であり、W1+W2=1である。
また、図3(d)に示す画像のCは、サンプリング前のC(0_1)、C(2_3)、C(4_5)、C(6_7)、C(8_9)…からC(2)、C(6)、C(10)…を計算する必要がある。
たとえば、図3(b)に示す画像のCをCbと表し、図3(d)に示す画像のCをCdと表すと、CbとCdとの関係は次に示す式(13)〜(15)のいずれかとなる。
Cd(i*4+2)=Cb((i*4)_(i*4+1)) …(13)
Cd(i*4+2)=Cb((i*4+2)_(i*4+3))…(14)
Cd(i*4+2)=Cb((i*4)_(i*4+1))*W1+Cb((i*4+2)_(i*4+3))*W2 …(15)
ここで、Cd(i)は図3(d)の座標iのCを表している。W1およびW2は重み係数であり、W1+W2=1である。
式(10)〜(15)に示すように、図3(b)のCの位置に対応する画素の、サンプリング前の近傍の画素値を使って計算することになる。すなわち、式(10)および式(13)は左隣のCの画素値を用いる場合、式(11)および式(14)は右隣のCの画素値を用いる場合、式(12)および式(15)は両隣のCの平均画素値を用いる場合である。
2台のカメラ101aおよび101bで撮影した画像を、各々左眼用画像と右眼用画像とに変換するために、図3(c)および図3(d)に示す画像のいずれを選択するかについては、ユーザが状況に応じて選択する。そして、いずれを選択したかを示すフラグが多重化部105に出力される。多重化部105は、このフラグを制御情報として左眼用画像の符号化データおよび右眼用画像の符号化データに多重化する。
光軸を並行にして撮影する場合には、左眼用画像として図3(c)に示す画像、右眼用画像として図3(d)に示す画像を選択すると、高い精度の画像が得られる。また、左眼用画像および右眼用画像とも、図3(c)を選択すると、処理が簡単である。このように、ユーザがその都度、状況にあった画像を選択するようにすればよい。
以上説明したように、本実施の形態における立体画像装置においては、カメラ101aおよび101bが撮影した画像がYUV4:2:0(MPEG−1用)フォーマットの場合に、左眼用画像作成部102および右眼用画像作成部103が左眼用画像および右眼用画像を作成するときに、間引き処理を行なって作成される画像の色情報の位置に合わせて色情報を計算するようにしたので、精度の高い立体画像を作成することが可能となった。
また、画像がどのYUVフォーマットに相当するかを示す情報およびどの位置の画素を符号化したかを示す情報を含んだ制御情報を、左眼用画像の符号化データおよび右眼用画像の符号化データに多重化するようにしたので、立体画像用データ表示部112が立体画像を表示するときに、どの組合わせの画像が立体に見えやすいか等をユーザが決定する際の利便性を向上させることが可能となった。また、どの組合せが立体に見えやすいかの情報を立体画像用データ作成部111にフィードバックすることによって、左眼用画像作成部102および右眼用画像作成部103における左眼用画像および右眼用画像の選択を容易に行なうことが可能となる等、第1の実施の形態において説明した効果と同様の効果を得ることが可能となった。
なお、本発明の第1の実施の形態から第3の実施の形態を通じて、立体画像用データ作成部111と立体画像用データ表示部112とで通信をする場合は、左眼用画像と右眼用画像との組合せを立体画像用データ作成部111で変更して、立体画像用データ表示部112で最も立体に見えやすい組合せがわかった時点で、その組合わせを立体画像用データ表示部112からフィードバックしてもらい、いずれを選択したかを示すフラグを多重化部105で多重化してもよい。
(第4の実施の形態)
本発明の第4の実施の形態における立体画像装置の概略構成は、図1に示す第1の実施の形態における立体画像装置の概略構成と同様である。したがって、重複する構成および機能の詳細な説明は繰返さない。
本実施の形態においては、表示部110がレンチキュラ方式やパララクスバリア方式に対応している場合のものである。デコーダ107aおよび107bから図2(b)に示すYUV4:2:2フォーマットの画像データが出力され、フォーマット変換部108aおよび108bがその画像データを、YUV4:4:4フォーマットの画像データに拡張する。
図4は、第4の実施の形態におけるフォーマット変換部108aおよび108bの補間処理を説明するための図である。図4(a)に示すように、デコーダ107aおよび107bからの出力データは、座標2、座標6…における画素のCを含まない。図4(c)は、この画素のCを補間した一例を示している。
たとえば、図4(c)に示す画像のCをCcと表し、図4(a)に示す画像のCをCaと表すと、CcとCaとの関係は次に示す式(16)〜(18)のいずれかとなる。なお、式(16)および式(17)は近傍の画素値をそのままコピーする場合を示しており、式(18)は複数の画素値の重み付和を計算する場合を示している。
Cc(4*i+2)=Ca(4*i) …(16)
Cc(4*i+2)=Ca(4*i+4) …(17)
Cc(4*i+2)=W1*Ca(4*i)+W2*Ca(4*i+4) …(18)
ここで、Cc(i)は図4(c)に示す画像の座標iの画素のC、Ca(i)は図4(a)に示す画像の座標iの画素のCを表している。また、W1およびW2は重み係数であり、W1+W2=1である。
また、デコーダ107aおよび107bから図2(c)に示すYUV4:2:2フォーマットの画像データが出力される場合、式(16)〜式(18)は以下のようになる。
Cd(4*i+3)=Cc(4*i+1) …(19)
Cd(4*i+3)=Cc(4*i+5) …(20)
Cd(4*i+3)=W1*Cc(4*i+1)+W2*Cc(4*i+5) …(21)
ここで、Cd(i)は図4(d)に示す画像の座標iの画素のC、Cc(i)は図2(c)に示す画像の座標iの画素のCを表している。また、W1およびW2は重み係数であり、W1+W2=1である。式(16)および式(19)は左隣のCの画素値を用いる場合、式(17)および式(20)は右隣のCの画素値を用いる場合、式(18)および式(21)は両隣のCの平均画素値を用いる場合を示している。
次に、デコーダ107aおよび107bから図2(e)に示すYUV4:1:1フォーマットの画像データが出力され、フォーマット変換部108aおよび108bがYUV4:4:4フォーマットの画像データに拡張する場合について説明する。
図4(b)に示すように、デコーダ107aおよび107bの出力データは座標2、座標4、座標6…における画素のCを含まない。図4(c)は、この画素のCを補間した一例を示している。
たとえば、図4(c)に示す画像のCをCcと表し、図4(b)に示す画像のCをCbと表すと、CcとCbとの関係は次に示す式(22)〜式(24)のいずれかとなる。なお、式(22)および式(23)は近傍の画素値をそのままコピーする場合を示しており、式(24)は複数の画素値の重み付和を計算する場合を示している。
Cc(8*i+2*k)=Cb(8*i) …(22)
Cc(8*i+2*k)=Cb(8*i+8) …(23)
Cc(8*i+2*k)=W1*Cb(8*i)+W2*Cb(8*i+8) …(24)
ここで、Cc(i)は図4(c)に示す画像の座標iの画素のC、Cb(i)は図4(b)に示す画像の座標iの画素のCを表している。また、W1およびW2は重み係数であり、W1+W2=1、k=1、2、3である。
また、デコーダ107aおよび107bから図2(f)に示すYUV4:1:1フォーマットの画像データが出力される場合、式(22)〜式(24)は以下のようになる。
Cd(8*i+2*k+1)=Cf(8*i+1) …(25)
Cd(8*i+2*k+1)=Cf(8*i+9) …(26)
Cd(8*i+2*k+1)=W1*Cf(8*i+1)+W2*Cf( 8*i+9) …(27)
ここで、Cd(i)は図4(d)に示す画像の座標iの画素のC、Cf(i)は図2(f)に示す画像の座標iの画素のCを表している。また、W1およびW2は重み係数であり、W1+W2=1、k=1、2、3である。
補間画素の計算方法の選び方は、どの計算方法を選択した時に立体として見えやすいかが判断基準となる。図1の表示部110の特性に大きく依存する場合には、立体画像用データ表示部112で一意に決まっていればよい。また、ユーザの個人差に大きく依存する場合は、立体画像用データ表示部112内でユーザが補間方法を選択するようにしてもよい。
また、最適な補間方法が、立体画像用データ作成部111が作成するデータに依存する場合には、最適な補間方法を示す情報を多重化部105であらかじめ多重化しておく。そして、立体画像用データ表示部112内の逆多重化部106でこの情報を取り出し、これに従ってフォーマット変換部108aおよび108bが補間方法を選択するようにしてもよい。
合成部109は、YUV4:4:4フォーマットに変換した画像データを、図4(e)に示すように、左眼用画像と右眼用画像とを1画素列ずつ水平方向に交互に並べて、表示用の画像を作成する。この表示用画像を表示部110に表示することで、ユーザは立体画像を見ることができる。
以上説明したように、本実施の形態における立体画像装置においては、フォーマット変換部108aおよび108bがYUV4:2:2フォーマットの画像データまたはYUV4:1:1フォーマットの画像データを補間して、YUV4:4:4フォーマットの画像データを生成するようにしたので、表示部110がレンチキュラ方式やパララクスバリア方式に対応している場合に、精度の高い立体画像を表示することが可能となった。
また、どのように色情報を補間するかを示す制御情報を、左眼用画像の符号化データおよび右眼用画像の符号化データに多重化するようにしたので、立体画像用データ表示部112が立体画像を表示するときに、色情報が最適となるように画像を補間することが可能となった。
(第5の実施の形態)
本発明の第5の実施の形態における立体画像装置の概略構成は、図1に示す第1の実施の形態における立体画像装置の概略構成と同様である。したがって、重複する構成および機能の詳細な説明は繰返さない。
本実施の形態においては、表示部110がシャッタ(時分割)方式に対応している場合のものである。
図5は、第5の実施の形態におけるフォーマット変換部108aおよび108bの補間処理を説明するための図である。図5(d)に示すように、垂直方向に1ラインずつ左眼用画像と右眼用画像とを交互に並べるため、デコーダ107aおよび107bの出力データを垂直方向に1/2に間引き、水平方向には2倍に拡大する(左眼用画像および右眼用画像を作成する前のサイズに戻す)ことが必要である。
したがって、フォーマット変換部108aおよび108bは、第4の実施の形態において説明したのと同様の方法で、YUV4:4:4フォーマットの画像データとなるようにCを補間する以外に、YUVともに垂直方向に1/2に間引き、さらに水平方向に2倍に拡大する処理が新たに必要である。
図5(a)は、図2(b)または図2(e)に示す画像データを第4の実施の形態と同様の方法でYUV4:4:4フォーマットの画像データに変換した場合を示しており、図4(c)に対応している。また、図5(b)は、図2(c)または図2(f)に示す画像データを第4の実施の形態と同様の方法でYUV4:4:4フォーマットの画像データに変換した場合を示しており、図4(d)に対応している。
ここで、図2(b)および図2(e)は、左眼用画像作成部102および右眼用画像作成部103が、偶数番目の画素をサンプリングして作成されたものである。また、図2(c)および図2(f)は、左眼用画像作成部102および右眼用画像作成部103が奇数番目の画素をサンプリングして作成されたものである。このいずれのサンプリング方法を選択したかを示すフラグが、多重化部105で符号化データの中に多重化される。
そのため、第4の実施の形態においてCが補間された画素を、フォーマット変換部108aおよび108bがこのフラグにしたがって配置する。すなわち、図4(c)の場合には図5(a)に示すように各画素を配置し、図4(d)の場合には図5(b)に示すように各画素を配置することによって、YおよびCともに水平方向に補間する画素を計算する。これによって、立体画像データ作成部111と立体画像データ表示部112とで位相がずれるのを防ぐことができる。
以上は、YUV4:2:2フォーマットまたはYUV4:1:1フォーマットについての説明であったが、図3(c)および図3(d)に示すようなYUV4:2:0(MPEG−1用)フォーマットの場合も同様である。
なお、以上の説明において、まず画像データをYUV4:4:4フォーマットに変換した後、垂直方向に間引き、水平方向に拡大して左眼用画像および右眼用画像を作成したが、処理の順番はこれに限らず、例えば、水平方向に拡大した後、垂直方向の間引きをするような順序であってもよい。
合成部110は、このようにして作成された画像を図5(d)に示すように、左眼用画像(L)と右眼用画像(R)とを垂直方向に1ラインずつ交互に配置して、立体表示用画像を作成する。
以上説明したように、本実施の形態における立体画像装置においては、フォーマット変換部108aおよび108bがYUV4:4:4フォーマットの画像データとなるように補間した後、YUVを垂直方向に1/2に間引き、さらに水平方向に2倍に拡大するようにしたので、表示部110がシャッタ(時分割)方式に対応している場合に、精度の高い立体画像を表示することが可能となった。
また、サンプリングした画素の位置を示す制御情報を、左眼用画像の符号化データおよび右眼用画像の符号化データに多重化するようにしたので、立体画像用データ表示部112が立体画像を表示するときに、色情報が最適となるように画像を補間することができるとともに、立体画像データ作成部111と立体画像データ表示部112とで位相がずれるのを防止することが可能となった。
なお、以上の実施の形態においては、2眼視の場合について説明したが、これに限らずN眼視(N≧2)の場合にも同様である。
今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
本発明の第1の実施の形態における立体画像装置の概略構成を示すブロック図である。 YUV4:2:2フォーマットおよびYUV4:1:1フォーマットの一例を示す図である。 YUV4:2:0フォーマットの一例を示す図である。 第4の実施の形態におけるフォーマット変換部108aおよび108bの補間処理を説明するための図である。 第5の実施の形態におけるフォーマット変換部108aおよび108bの補間処理を説明するための図である。 従来の立体画像装置における画像データの作成方法を説明するための図である。
符号の説明
101a,101b カメラ、102 左眼用画像作成部、103 右眼用画像作成部、104a,104b エンコーダ、105 多重化部、106 逆多重化部、107a,107b デコーダ、108a,108b フォーマット変換部、109 合成部、110 表示部、111 立体画像用データ作成部、112 立体画像用データ表示部。

Claims (4)

  1. 輝度情報と色情報とが分離された左眼用画像および右眼用画像を合成して表示する立体画像表示装置であって、
    多重化されたデータを逆多重化して、符号化された左眼用画像と、符号化された右眼用画像と、左眼用画像および右眼用画像の色情報の補間方法とを抽出するための逆多重化手段と、
    前記逆多重化手段によって抽出された符号化された左眼用画像および符号化された右眼用画像を復号するための復号手段と、
    前記逆多重化手段によって抽出された前記左眼用画像および前記右眼用画像の色情報の補間方法を参照して、前記復号手段によって復号された左眼用画像および右眼用画像の色情報を補間して所定フォーマットの画像に変換するためのフォーマット変換手段と、
    前記フォーマット変換手段によって変換された左眼用画像および右眼用画像を合成するための合成手段と、
    前記合成手段によって合成された画像に応じて立体画像を表示するための表示手段とを含む、立体画像表示装置。
  2. 輝度情報と色情報とが分離された左眼用画像および右眼用画像を合成して表示する立体画像表示装置であって、
    多重化されたデータを逆多重化して、符号化された左眼用画像と、符号化された右眼用画像と、左眼用画像および右眼用画像のサンプリングした画素の位置に関する情報とを抽出するための逆多重化手段と、
    前記逆多重化手段によって抽出された符号化された左眼用画像および符号化された右眼用画像を復号するための復号手段と、
    前記逆多重化手段によって抽出された前記左眼用画像および前記右眼用画像のサンプリングした画素の位置に関する情報を参照して、前記復号手段によって復号された左眼用画像および右眼用画像を水平方向に拡大して所定フォーマットの画像に変換するためのフォーマット変換手段と、
    前記フォーマット変換手段によって変換された左眼用画像および右眼用画像を合成するための合成手段と、
    前記合成手段によって合成された画像に応じて立体画像を表示するための表示手段とを含む、立体画像表示装置。
  3. 輝度情報と色情報とが分離された左眼用画像および右眼用画像を合成して表示する立体画像表示方法であって、
    多重化されたデータを逆多重化して、符号化された左眼用画像と、符号化された右眼用画像と、前記左眼用画像および前記右眼用画像の色情報の補間方法とを抽出するステップと、
    前記抽出された符号化された左眼用画像および符号化された右眼用画像を復号するステップと、
    前記抽出された左眼用画像および右眼用画像の色情報の補間方法を参照して、前記復号された左眼用画像および右眼用画像の色情報を補間して所定フォーマットの画像に変換するステップと、
    前記所定フォーマットに変換された左眼用画像および右眼用画像を合成するステップと、
    前記合成された画像に応じて立体画像を表示するステップとを含む、立体画像表示方法。
  4. 輝度情報と色情報とが分離された左眼用画像および右眼用画像を合成して表示する立体画像表示方法であって、
    多重化されたデータを逆多重化して、符号化された左眼用画像と、符号化された右眼用画像と、左眼用画像および右眼用画像のサンプリングした画素の位置に関する情報とを抽出するステップと、
    前記抽出された符号化された左眼用画像および符号化された右眼用画像を復号するステップと、
    前記抽出された左眼用画像および右眼用画像のサンプリングした画素の位置に関する情報を参照して、前記復号された左眼用画像および右眼用画像を水平方向に拡大して所定フォーマットの画像に変換するステップと、
    前記所定フォーマットに変換された左眼用画像および右眼用画像を合成するステップと、
    前記合成された画像に応じて立体画像を表示するステップとを含む、立体画像表示方法。
JP2007163778A 2007-06-21 2007-06-21 立体画像表示装置およびその方法 Expired - Fee Related JP4657258B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007163778A JP4657258B2 (ja) 2007-06-21 2007-06-21 立体画像表示装置およびその方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007163778A JP4657258B2 (ja) 2007-06-21 2007-06-21 立体画像表示装置およびその方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002123952A Division JP4173684B2 (ja) 2002-04-25 2002-04-25 立体画像作成装置

Publications (2)

Publication Number Publication Date
JP2007312407A true JP2007312407A (ja) 2007-11-29
JP4657258B2 JP4657258B2 (ja) 2011-03-23

Family

ID=38844767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007163778A Expired - Fee Related JP4657258B2 (ja) 2007-06-21 2007-06-21 立体画像表示装置およびその方法

Country Status (1)

Country Link
JP (1) JP4657258B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010171522A (ja) * 2009-01-20 2010-08-05 Toshiba Corp 符号化装置および方法、ならびに、復号装置および方法
CN101668221B (zh) * 2008-09-02 2011-11-16 索尼株式会社 图像处理设备以及图像处理方法
JP2013132073A (ja) * 2013-02-15 2013-07-04 Toshiba Corp 符号化装置・方法
JP2013168982A (ja) * 2013-04-08 2013-08-29 Toshiba Corp 符号化装置および方法、ならびに、復号装置および方法
JP2015127737A (ja) * 2013-12-27 2015-07-09 株式会社メガチップス 画像処理装置
JP2019013012A (ja) * 2018-08-17 2019-01-24 日本電信電話株式会社 データ構造

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0846995A (ja) * 1994-07-29 1996-02-16 Canon Inc 画像記録装置及び画像再生装置
JPH09271042A (ja) * 1996-03-31 1997-10-14 Sony Corp 立体視化方法及び装置
JPH1118111A (ja) * 1997-06-20 1999-01-22 Sanyo Electric Co Ltd 立体映像伝送方法及び装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0846995A (ja) * 1994-07-29 1996-02-16 Canon Inc 画像記録装置及び画像再生装置
JPH09271042A (ja) * 1996-03-31 1997-10-14 Sony Corp 立体視化方法及び装置
JPH1118111A (ja) * 1997-06-20 1999-01-22 Sanyo Electric Co Ltd 立体映像伝送方法及び装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101668221B (zh) * 2008-09-02 2011-11-16 索尼株式会社 图像处理设备以及图像处理方法
JP2010171522A (ja) * 2009-01-20 2010-08-05 Toshiba Corp 符号化装置および方法、ならびに、復号装置および方法
JP2013132073A (ja) * 2013-02-15 2013-07-04 Toshiba Corp 符号化装置・方法
JP2013168982A (ja) * 2013-04-08 2013-08-29 Toshiba Corp 符号化装置および方法、ならびに、復号装置および方法
JP2015127737A (ja) * 2013-12-27 2015-07-09 株式会社メガチップス 画像処理装置
JP2019013012A (ja) * 2018-08-17 2019-01-24 日本電信電話株式会社 データ構造

Also Published As

Publication number Publication date
JP4657258B2 (ja) 2011-03-23

Similar Documents

Publication Publication Date Title
JP5127633B2 (ja) コンテンツ再生装置および方法
JP4693900B2 (ja) 画像処理装置
JP6095067B2 (ja) 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
EP3399755B1 (en) Depth map delivery formats for stereoscopic and auto-stereoscopic displays
JP2010273333A (ja) 立体映像合成装置
US20150341614A1 (en) Stereoscopic video encoding device, stereoscopic video decoding device, stereoscopic video encoding method, stereoscopic video decoding method, stereoscopic video encoding program, and stereoscopic video decoding program
JP4251864B2 (ja) 画像データ作成装置およびそのデータを再生する画像データ再生装置
WO2012111756A1 (ja) 画像処理装置および画像処理方法
WO2012111757A1 (ja) 画像処理装置および画像処理方法
JP2004274125A (ja) 画像処理装置および方法
US9338430B2 (en) Encoding device, encoding method, decoding device, and decoding method
JP2004208255A (ja) 立体画像表示装置、記録方法、及び伝送方法
JP2004264882A (ja) 画像データ作成装置およびそのデータを再生する画像データ再生装置
US10122986B2 (en) Image processing device and image processing method
JP4657258B2 (ja) 立体画像表示装置およびその方法
JP2008193693A (ja) 画像データ作成装置及び画像データ再生装置
JP2011249945A (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US9762884B2 (en) Encoding device, encoding method, decoding device, and decoding method for encoding multiple viewpoints for compatibility with existing mode allowing fewer viewpoints
JP2004207772A (ja) 立体画像表示装置、記録方法、及び伝送方法
JP4173684B2 (ja) 立体画像作成装置
JP2005184377A (ja) 画像変換装置及びそれを用いた画像記録装置
TW201415864A (zh) 用於產生、傳送及接收立體影像之方法,以及其相關裝置
KR20110082531A (ko) 화상 처리 장치 및 방법, 화상 재생 장치 및 방법, 그리고 프로그램
WO2012026342A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5375490B2 (ja) 送信装置、受信装置、通信システム及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101221

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees