JP2004207772A - Stereoscopic image display apparatus, recording method, and transmission method - Google Patents

Stereoscopic image display apparatus, recording method, and transmission method Download PDF

Info

Publication number
JP2004207772A
JP2004207772A JP2002332737A JP2002332737A JP2004207772A JP 2004207772 A JP2004207772 A JP 2004207772A JP 2002332737 A JP2002332737 A JP 2002332737A JP 2002332737 A JP2002332737 A JP 2002332737A JP 2004207772 A JP2004207772 A JP 2004207772A
Authority
JP
Japan
Prior art keywords
stereoscopic
image
information
parallax
stereoscopic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002332737A
Other languages
Japanese (ja)
Other versions
JP4222817B2 (en
JP2004207772A5 (en
Inventor
Tadashi Uchiumi
端 内海
Yoshiaki Ogisawa
義昭 荻澤
Hiroyuki Katada
裕之 堅田
Toshio Nomura
敏男 野村
Norio Ito
典男 伊藤
Hiroaki Yabe
博明 矢部
Ryuji Kitaura
竜二 北浦
Masatoshi Tsujimoto
雅俊 辻本
Motohiro Ito
元浩 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2002332737A priority Critical patent/JP4222817B2/en
Priority to PCT/JP2003/012302 priority patent/WO2004030377A1/en
Priority to AU2003268677A priority patent/AU2003268677A1/en
Publication of JP2004207772A publication Critical patent/JP2004207772A/en
Publication of JP2004207772A5 publication Critical patent/JP2004207772A5/ja
Application granted granted Critical
Publication of JP4222817B2 publication Critical patent/JP4222817B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To display an excellent stereoscopic image whose parasitic amount is adjusted with a little sense of incongruity. <P>SOLUTION: A stereoscopic image display apparatus A for displaying a stereoscopic image on the basis of a plurality of images corresponding to a plurality of view points includes: a parallax amount adjustment information calculation section 3 for calculating parallax amount adjustment information with respect to adjustment of the parallax amount on the basis of information related to change of the parallax amount; an image processing section 1 for generating a stereoscopic display image on the basis of the parallax amount adjustment information; and an image interpolation section 5 for interpolating a prescribed region in a plurality of the images. The image interpolation section 5 interpolates only a non pixel region by using other pixel values when the non pixel region without any pixel value exists in a display region of the stereoscopic display image. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、複数の視点に対応した複数の画像を、立体表示する技術に関する。
【0002】
【従来の技術】
従来、視差を有する一組の画像を立体視することにより立体感のある画像を見ることができる立体画像表示方法が知られている。例えば、表示装置に左眼用と右眼用の画像を交互に出力し、ユーザーは、その表示の切り替えタイミングに同期してシャッターを切り替えることのできる眼鏡を通して画像を再生することにより、立体画像を観察することができる。
【0003】
また、特別な眼鏡等を用いずに立体画像を再生する方法には、パララックスバリア方式と呼ばれる方法がある。左眼用の画像と右眼用の画像のそれぞれを画像の垂直走査方向に短冊状に分解し、交互に並べて一枚の画像とする。その画像を表示する表示装置には、画像を分解した場合と同様の短冊状のスリットがある。短冊状の画像データをスリットを通して表示装置により観察する。偏光板により短冊状に配置された左眼用の画像はユーザーの左眼で、右眼用の画像は右眼で再生すると、画像に立体感を得ることができる。スリットの代わりにレンチキュラレンズを用いたレンチキュラ方式と呼ばれる方法もある。
【0004】
ユーザーが、より良い立体画像を見るために、再生画像の立体感を変更する技術が開示されている。人間が物体を立体的に観察する際には、左右の眼では異なる像を観察しており、それらの像は視差と呼ばれるずれを有する。
【0005】
人間はこの視差によって立体感を認識する。視差の量を視差量といい、視差量を調整することにより立体感を調整する。デジタル放送において立体映像を受信し表示する際に、視差量を調整することにより立体ディスプレイに表示する技術について記載しており、ユーザーがその立体映像を視聴する環境などに合わせて、立体画像を観察することができる(例えば特許文献1参照)。
【特許文献1】
特開2000−78615号公報、図1
【0006】
【発明が解決しようとする課題】
ところで、視差量の調整を行う際に、例えば、レンチキュラ方式、パララックスバリア方式などの左右の画像を1ラインごと交互に短冊状に並べて表示する方式では、通常、その短冊状データの組み合わせ位置を変えることにより視差量の調整が可能であるが、調整の精度は短冊幅によって規定されることになる。従って、必ずしもユーザーの好みに合わせて立体感を調整できるとは限らない。
【0007】
また、短冊状データの組み合わせ位置を変えると、立体画像として再生するためのデータが存在しない部分が発生し、その部分は良好な立体視表示ができない。従って、立体画像を良好に表示できる部分(立体画像が観察できる表示領域)は小さくなってしまう。
【0008】
一方、視差量調整後の画像において、全ての画像データを表示させようとしても、視差量調整後の短冊状の画像データの幅は視差量調整分だけ表示領域の幅より広くなり、全て画像データを表示することが出来ない。
本発明の目的は、視差量が調整された立体画像において、違和感が少なく良好な立体画像を表示させることである。
【0009】
【課題を解決するための手段】
本発明の一観点によれば、複数の視点に対応した複数の画像に基づいて立体画像を表示する立体画像表示装置であって、視差量の変更に関する情報に基づいて、視差量の調整に関する視差量調整情報を算出する視差量調整情報算出部と、前記視差量調整情報に基づいて立体表示用の画像を生成する画像処理部と、前記複数の画像中の所定の領域を補間する画像補間部とを有する立体画像表示装置が提供される。
【0010】
前記画像補間部は、前記立体表示用の画像の表示領域に画素値が存在しない無画素値領域がある場合に、該無画素値領域のみを、他の画素値を用いて補間するのが好ましい。
上記立体画像表示装置によれば、視差量の変更に関連して前記無画素値領域の画素値を補間することができる。
【0011】
本発明の他の一観点によれば、複数の視点に対応した複数の画像に基づいて立体画像を表示する立体画像表示装置であって、視差量の変更に関する情報に基づいて、視差量の調整に関する視差量調整情報を算出する視差量調整情報算出部と、前記視差量調整情報に基づいて立体表示用の画像を生成する画像処理部と、前記複数の画像中の所定の領域に新たな画像を生成する画像生成部とを備える立体画像表示装置が提供される。
【0012】
前記画像生成部は、前記立体表示用の画像の表示領域に画素値が存在しない無画素領域がある場合、該無画素領域のみに、新たな画像を生成するのが好ましい。
上記立体画像表示装置によれば、視差量の変更に関連して前記無画素値領域に新たな画像を生成することができる。
【0013】
【発明の実施の形態】
本明細書において、3原色のRGBデータのそれぞれをドットと称し、3原色のRGBデータのひとまとまりを画素と称す。また、本実施の形態において、画像データは、動画像、静止画像を含む。さらに、画像データ中には、例えばJPEGなどの静止画像圧縮技術や、MPEG−4などの動画圧縮技術を用いた圧縮画像データを含む。
【0014】
以下に、本発明の第1の実施の形態による立体画像表示技術について、図面を参照して説明する。図1は、本実施の形態による立体画像表示装置の構成例を示す機能ブロック図である。図1に示すように、本実施の形態による立体画像表示装置Aは、入力画像データDinに基づいて立体視表示が可能な画像データ(以下、「立体視用画像データ」とも称する。)を生成するための画像処理を行う立体画像処理部1と、ユーザーが入力を行うユーザー入力部2と、ユーザーの入力に基づいて視差量調整情報を算出する視差量調整情報算出部3と、画像処理された立体映像から実際に立体映像表示装置に表示する領域を判定する表示領域判定部4と、特定の領域に補間データを生成する画像補間部5と、生成された画像のうち判定された領域を表示する表示部6から成る。
【0015】
立体画像表示装置Aに入力された左眼用画像データ及び右眼用画像データは、まず立体画像処理部1において、立体視表示可能なデータに変換される。例えば、パララックスバリア方式又はレンチキュラ方式による立体画像表示装置であれば、立体画像処理部1は、左眼用画像データと右眼用画像データとが短冊状に交互に並べられた立体視用画像データを生成する。
【0016】
ユーザーは、ユーザー入力部2により、表示する立体画像の視差量調整用データを入力する。入力された視差量調整用データは、視差量調整情報算出部3において、視差量調整情報に変換され、立体画像処理部1に出力される。立体画像処理部1においては、立体視用画像データを生成する際に視差量調整情報の入力があると、これを用いて立体視用画像データを生成する。生成された立体視用画像データは、表示領域判定部4へ出力される。
【0017】
表示領域判定部4では、生成された立体視用画像データが表示部6において良好に表示できるか否かを判定する。視差量調整が行われた立体視用画像データの画像幅は、表示部6が表示可能な画像幅と対応しない場合がある。このような場合に、表示部6の画素領域と立体視用画像データの画素領域とが一致せず、対応しない領域が発生する。このような領域においては、どのように表示されるかわからず、良好な状態で画像データを表示できない場合がある。
【0018】
そこで、表示領域判定部4において対応が取れない領域の有無を判定し、表示領域判定部4において対応が取れない領域があると判定されると、画像補間部5に対して、対応が取れない領域に関する情報S1を出力する。表示領域判定部4において、対応が取れない領域が無いと判定された場合には、立体視用画像データS2をそのまま(スルーで)表示部6に出力する。
【0019】
画像補間部5において、表示領域判定部4より出力された立体視用画像データは、表示領域判定部4で判定された領域に所定の方法で画素データを与えるように補間処理を行う。また、補間処理がなされた立体視用画像データを表示部6へ出力する。表示部6では、表示領域判定部4から出力された立体視用画像データS2、あるいは画像補間部5から出力された立体視用画像データS3の表示を行う。
【0020】
尚、本実施の形態による立体画像表示装置Aでは、表示部6で表示する立体視用画像データの形式は、パララックスバリア方式やレンチキュラ方式に代表される左右の画像を1画素分の画像データ毎に交互に短冊状に並べて立体視を行う方式である。入力画像は立体視可能なデータを含む画像データとし、表示部6において立体視する画像データは、左眼用画像と右眼用画像とのデータが短冊状に並んでいるものを扱うものとする。入力画像データは、立体画像処理部1において短冊状データが生成可能であればよい。例えば、入力画像は、元々短冊状に合成された画像データであっても良い。この場合、立体画像処理部1は入力データを改めて短冊状の画像を作成することなく、そのまま出力する。
【0021】
或いは、左眼用と右眼用とのそれぞれの画像データが分離された形式の画像データであってもよい。この場合には、立体画像処理部1において、以下の図2(A)で説明するように、左眼用画像と右眼用画像とから短冊状の画像を作成する。図2(A)は、左眼用入力画像データと右眼用入力画像データとから、立体画像データを生成する例を示す図である。図2(A)中の左眼用画像データと右眼用画像データとから、短冊状データを立体視する際に同一のスリットによって再生される画素(201、202)を取得し、それらを並べて立体表示用のデータ200を生成する。この処理を繰り返すことにより、短冊状の幅が1画素分である立体視用画像データを生成することができる。
【0022】
このような方法により短冊状の立体視用画像データ200を作成すると、短冊状の立体視用画像データ200の幅は、左眼用の入力画像データ201と右眼用の入力画像データ202とのそれぞれの画像幅を合わせた幅と等しくなる。従って、表示部6が表示可能なデータを作成するには、左眼用の入力画像データ201と右眼用の入力画像202とを、生成される短冊状の立体表示用画像データ200の半分の画像幅にしておく必要がある。
【0023】
左眼用の入力画像データ201と右眼用の入力画像データ202との画像幅が、表示部6の表示幅と同じ幅である場合は、短冊状の画像データを生成する際に、左眼用の入力画像データ201と右眼用の入力画像データ202との画像幅が半分になるようにデータを間引いた上で短冊状の画像データを生成する。
【0024】
図2(B)に、入力された画像データからデータを間引いて短冊状のデータを作成する方法の例を示す。図2(B)に示すように、左眼用及び右眼用の画像の各画素から、RGB3原色のうち、左眼用の入力画像データ201からGデータ204の1ドットを取り、右眼用の入力画像データ202からRデータ205,Bデータ206の2ドットのみを取ることにより1つのRGBパタン203を生成する処理を行う。この処理を、それぞれの画像に対して交互に(左眼用の入力画像データ201から1つのデータを取り右眼用の入力画像データ202から2つのデータを取るパタンと、左眼用の入力画像データ201から2つのデータを取り右眼用の入力画像データ202から1つのデータを取るパタン)繰り返すことにより、立体視用の画像データ200を作成する。短冊状の画像を作る方法は、図2(B)を参照して説明した方法に限定されるものではなく、例えば、図2の符号203で示す画素は、左眼用G1ドット(204)、右眼用のR1ドット(205)、B1ドット(206)で構成されているが、パタンを逆にした左眼用R1ドット(207)とB1ドット(208)と右眼用G1ドット(209)とから画像データを生成しても良い。図1に示す立体画像処理部1では、入力画像のそれぞれの画素数と表示可能な画素数を比較し、入力画像を間引いて短冊状の画像を生成するかどうかの判定を行い、短冊状画像の生成を行う。
【0025】
次にユーザーが視差量調整を行う際の処理について説明する。ユーザーは、図1のユーザー入力部2により視差量を調整する。ユーザー入力部2は、キーボードやマウスなどの入力装置、或いは、リモコンなど形状および方式を問わない。例えば、キーボードの特定方向を指示するためのキーを1回以上押すことにより、その特定方向にキーを押した回数に比例した量だけ視差量を調整する方法も考えられる。ユーザー入力部2により入力されたデータは、視差量調整情報算出部3において視差量調整情報に変換される。例えば、「右眼用画像データを左方向に1画素分移動する。」などの具体的な情報に変換される。視差量調整情報算出部3は、算出した視差量調整情報を立体画像処理部1へ出力する。立体画像処理部1では、この視差量調整情報を用いて短冊状画像データを生成する。
【0026】
図3及び図4を参照して前記視差量調整処理の経過を説明する。図3において、符号301等で示すブロックは、1画素分のデータを示しており、LとRとは、それぞれ左眼用画像と右眼用画像とであることを示す符号である。また、L又はRの下に付された数字は画素番号を示し、説明の便宜上付与したものであり、画像データ左端より順に画素番号を付与している。符号301は、左眼用画像の最左端の画素ということを示す。図3の符号304、図4の符号403は、表示部が各画像データを表示する表示領域の幅を示すものとする。
【0027】
また、レンチキュラレンズやパララックスバリアなどを用いて立体画像を観察する際に、同一のスリットを通って観察される画素同士(例えば図11の符号1103及び符号1104で示される画素)を立体映像として再生されるペアとして、図3の符号302と符号303のように上下に対応して表す。ここで生成された短冊状の画像データは、ユーザーにより視差量調整が行われなければ、表示部6が持つ全ての画素に対して表示すべきデータがあるので、表示領域判定部4での表示領域判定において補間すべき領域は無いものと判定される。
視差量調整情報算出部3によるユーザーの調整が、例えば左眼用画像を右へ1画素分移動する場合の画素とそれに対応する画素データを示したのが図4である。
【0028】
画像データの表示位置を移動した状態でそのまま表示すると図4の画素401の位置(破線で示される)のように、表示すべき画素データがなくなり、また、図4の符号402で示される画素のように、表示領域403からはみ出るために表示できない画素データが生じる。このとき表示領域判定部4は、画素401に表示すべき画像データがないこと、画素402が表示領域403からはみ出していることを判定し、その情報を画像補間部5へ出力する。
【0029】
以上において説明した視差量調整のための画像の移動は、1画素の単位である場合について説明を行った。このようにすると、画像データのサイズや表示部6のサイズによっては、調整精度が粗すぎる場合もある。
【0030】
人間が画像を認識することは、各画素を構成するRGB3原色データの各ドットが眼に像を結ぶ際に、RGBをひとまとまりのデータとして認識することであると考えることができる。従って、例えば、RGBの並びをGRBに変更したとしても、これらが人間の眼でひとまとまりと認識されればよい。図5は、図3における左眼用画像データをRGBのドットレベルで表現したものである。L3の画像データ(図3の画素302)を認識するためには、L−R3(図5のドット501)、 L−G3(図5のドット502)、 L−B3(図5のドット503) の3ドットをひとまとまりと認識できればよい。
【0031】
すなわち、3原色データRGBのドットレベルで移動させることが可能である。このときの様子を図6に示す。図6は、図5での左眼用画像に着目しており、図6(A)は、図5と同じ状態である。符号604は、表示部が左眼用画像を表示する表示領域を示す。図6(B)は、1画素分移動した状態(図4)を示している。図6(C)がドットレベルで1ドット分だけ移動した状態を示している。網がけの部分は左眼用画像の移動により、ドットのデータが欠落していることを示す。図6(C)は左眼用画像のRデータ(図6(A)の符号601)のドットに着目し、それぞれL−R1をL−R2へ、L−R2をL−R3へ、L−R3をL−R4の位置へとRデータを移動した状態を示す図である。
【0032】
このようにデータを移動しても、図6(C)に示すように、元のRGB1画素の並びは変化していない。この移動方法による画像の移動量は、図6(C)の符号602に示すように、1画素単位の移動(図6(B)の603)に比べて小さい、1/3画素分の移動となる。従って1画素分のデータ単位で移動させるよりも細かい視差量調整が可能である。
【0033】
同様に、RデータとGデータの2ドットに着目すれば、図7(C)のように、L−R1、L−G1をL−R2、L−G2へL−R2、L−G2をL−R3、L−G3へとそれぞれ移動させることにより調整量を細かくすることが可能となる。この移動は、2/3画素分の移動に対応する(図7の符号703)。この場合でも、1画素分のデータ単位で移動させるよりも細かい視差量調整が可能である。
【0034】
本実施の形態では、Rデータの移動およびRデータとGデータの移動の例を示したが、該当データの組み合わせのみに限定されるものではない。また、色データ単位の移動と1画素単位の移動とを組み合わせて画像データを移動させてもよい。
【0035】
以上に説明した方法により視差量を調整する際に、左右のうちの片方の画像のみを移動していくと、ユーザーが観察する立体画像の中心も移動した方向へずれてしまい、良好な立体視が難しい。そこで、視差量調整情報算出部3は、視差量調整情報を算出する際に、左眼用画像と右眼用画像とを連動させて、ともに移動するように調整してもよい。例えば、ユーザーによる視差量の調整が4画素分であれば、左眼用画像を4画素分移動させるのではなく、左眼用画像を2画素分、右眼用画像を左眼用画像とは逆方向に2画素分移動することで調整する方法を用いることもできる。このように、左眼用画像と右眼用画像を互いに逆方向に同量だけ移動させることにより、立体表示の中心を移動の前後でずらすことなく視差量の調整が可能である。
【0036】
ユーザーによる視差量の調整量が偶数画素分である場合、立体表示の中心をずらさないように調整することが可能である。しかしながら、調整量が奇数画素である場合、左眼用画像、右眼用画像それぞれを同量だけ移動できないため立体表示の中心は左右どちらかにずれてしまう。
【0037】
このような場合には、視差量調整情報算出部3が、立体表示の中心のずれが最小になるように左眼用画像と右眼用画像とを移動する量を算出する。例えば、ユーザーから5画素分の視差量調整の要求があった場合、画像を移動させる単位が1画素単位であれば、左眼用画像を3画素分、右眼用画像を2画素分だけ互いに逆方向に移動させる。前述したようにRGBのそれぞれのドットごとに移動が可能であれば、左眼用画像を2+(2/3)画素分、右眼用画像を2+(1/3)画素分移動させる。
【0038】
このように、立体表示の中心のずれを最小にするようにしても、調整量が奇数画素分の移動を繰り返すと、この中心のずれは大きくなる。そこで、視差量調整情報算出部3は移動を繰り返す場合に、ずれの情報を算出して記憶しておき、この記憶に基づき立体視表示の中心のずれが小さくなるように左眼用画像と右眼用画像の移動量を決定する。好ましくは、立体視表示の中心のずれが最小になるように調整する。
【0039】
図8(A)は、左眼用画像と右眼用画像との初期状態を示す。符号801は表示部6で各画像を表示する表示領域を示し、符号802は表示領域801の中心を示す。図8(A)の画像データが立体視された場合に、その立体視表示の中心と表示領域の中心(802)は同一となる。図8(A)の状態から、ユーザーが、まず左眼用画像データを右方向に1画素分移動させた状態を図8(B)に示す。視差量調整情報算出部3は、ユーザーからの視差量調整の入力から、移動する量を1画素分と算出し、立体画像処理部1へ通知する。例えば、「左眼用画像を1画素右方向に移動する」ことを示すベクトル情報として通知する(図8(B)の符号803)。
【0040】
このベクトル情報が通知された立体画像処理部1は、図8(B)に示すように、移動した画像を生成する。視差調整量情報算出部3は、この情報から、立体視表示の中心の表示領域の中心からのずれを算出し記憶しておく。この例では、片方の画像のみを移動するため、立体表示の中心は図8(B)の符号804の位置となる。従って、視差量調整情報算出部3が算出したずれ情報は、図8(B)の符号805で示す矢印(ベクトル)となる。
【0041】
次に、ユーザーが、再度視差量の調整を行うと、視差量調整情報算出部3は、前回の移動の際のずれ情報を用い、ずれが小さくなるように視差量調整情報を算出する。ずれが最小となるように調整するのが好ましい。視差量調整情報として「左眼用画像データを、さらに3画素分右に移動する」旨が算出された場合は、図8(B)の符号805のずれを解消するように、左眼用画像を右に1画素分移動し、右眼用画像を左に1画素分移動するように立体画像処理部1へ通知する。この通知に基づいて移動する様子を図8(C)に示している。図8(C)の符号806、符号807で示される矢印(ベクトル)が、それぞれの画像を移動した量に対応する。図8(C)の符号808で示される線が、移動後の立体視表示の中心となり、表示領域801の中心とのずれが解消されていることがわかる。
【0042】
本実施の形態では、記憶したずれ情報に基づいてずれを調整する方法を例にして説明したが、ユーザーによる視差量調整後に立体表示の中心のずれが小さくなる方法、好ましくは最小になる方法であれば、他の方法を用いても良い。例えば、ユーザーが、1画素ごとに視差を調整する装置を用い、移動させた画像と方向とを記憶し、続く操作において前回の操作で移動対象では無かった画像を移動対象とし、交互に移動させることによりずれを解消する方法を用いても良い。このようにして、立体画像処理部1で視差量調整がなされた画像データは、表示領域判定部4へ出力される。
【0043】
入力画像は、通常、視差量の調節なしに表示部6で良好に表示されることを考慮して作成されたものであるため、視差量の調整が行われなければ、入力画像から生成される短冊状の画像は表示部6が持つ表示領域と同じサイズである。しかし、視差量の調整が行われて生成された短冊状の画像は、表示部6が持つ表示領域より大きいサイズとなる。そこで、表示領域判定部4では、短冊状の画像のどの領域を表示部6で表示させるかを決定する。この領域の決定基準として、例えば、立体視表示の中心を可能な限り表示の中心からずらさないような方法、また、立体視可能な領域だけを抽出して表示させる方法などが考えられる。
【0044】
図9及び図10を参照して、入力画像データを移動させた際の処理を説明する。図9(A)は、入力画像データを示している。図9(A)の符号901が左眼用立体画像データであり、符号902が右眼用立体画像データである。これらの入力画像データから生成される短冊状の画像のサイズは図1の表示部6の表示領域と同一のサイズであるとする。図9(A)から(C)までの符号903、符号905、符号909は、左眼用立体画像データ、右眼用立体画像データのそれぞれに対応した表示領域の幅を表す矢印である。
【0045】
図9(B)は、右眼用立体画像データを符号906で示すベクトル分だけ移動した例である。符号904は、表示すべき画像データが存在しない領域であり、符号911は表示領域の中心を示し、符号912は立体視表示の中心を示し、符号913は、符号911から符号912へのずれ量を示す。図9(B)に示すように、表示領域判定部4(図1)により、画像データの表示領域を変更し、立体視表示の中心を変えないような領域を抽出することにより、良好な立体画像を再生することができる。
【0046】
例えば、図10の符号1001の矢印で示す範囲を表示領域とする。図10に示すように、符号1004、符号1005、符号1006、符号1007の領域は表示に用いない。このうち、符号1006と符号1005とで示す領域には、画素が存在するが、表示からは切り捨てられる部分である。また、領域1002と、領域1003とは、表示領域ではあるが画像データが存在しないため、後述する画像補間処理によりデータを与える部分である。このように表示領域を選択することで、表示位置の中心と立体視表示の中心とを一致または近傍に設定することが可能となる。
【0047】
図9、図10に示すように、画像を移動させると、図9(A)の符号904の領域や、図10の符号1002、符号1003の領域のように、画像データが無い表示領域が生じる。そこで、このような領域をより良好に再現するために、画像データの補間処理を行う。本実施の形態による方法では、表示部6(図1)に部分的に2次元表示モードと3次元表示モード(立体表示)とを切替可能なディスプレイを用いることを想定し、そのディスプレイにおいて良好に表示できるような補間処理を行う。図1も参照して説明する。
【0048】
表示モードの切り替えは、例えば、図11(A)に示したバリアの一部(符号1101、符号1102)を無くすことにより、それぞれの片方の眼で再生されていた符号1103と符号1104とで指示される画素が、図11(B)に示すように両眼で再生可能になることにより実現される。但し、部分的に表示モードが切り替えられば、その切り替え手段は、図11(B)に示される方法に限定されるものではない。
【0049】
前述のように、ユーザ−により視差量の調整が行われた画像データは、表示領域判定部4により表示領域すべき領域が設定され、その設定された表示領域中に画素データが無い領域が存在するかどうかを判定する。この領域に関する情報は、画像データと共に画像補間部5に出力される。2次元表示モードで良好に再生される画像データを得るため、画像補間部5では、画像データが存在しない画素に対して周辺画素のデータに基づく補間処理によって画素データを生成する。
【0050】
図9を参照して、画像補間部5での処理の例を説明する。前述したように、図9(B)の符号904で示される領域が、移動に起因して補間処理が必要になる領域である。表示領域判定部4は、符号904で示される領域には表示するための画像データがない旨を判定し、この領域904を2次元表示モードで表示するように表示部6に指示する。併せて、画像補間部5に、この領域904に補間データを生成するように指示する。
【0051】
画像補間部5では、まず、画像の移動によりデータが欠落した領域であり、かつ、表示対象でもある領域に対して、左眼用画像から対応する部分のデータをコピーする。図9(C)に示す例では、領域907のデータが領域908にコピーされる。実際には、図9(C)に示す状態は、左眼用立体画像データと右眼用立体画像データとが短冊状に並べられている。図9(C)の領域910付近を拡大した図を図12(A)に示す。図12(A)に示すように、木の部分を黒、背景の部分を白で示す。この部分を含む短冊状に変換された立体視用画像データは、図12(B)に示すようになる。
【0052】
図12(B)の網かけの部分(符号1201で示される領域など)の部分は、右眼用立体画像データが移動したために、表示すべき画素データがない部分である。図12(C)は、上述のように左眼用立体画像データの対応部分から右眼用立体画像データへ画素データをコピーした様子を示す図である。図12(C)では、L1の画像データをR2へ、L2の画像データをR3へコピーしたことを示している。このような処理を行うことにより、該当領域を表示した際には、図12(B)よりは良好に観察されるが、実際には粗さは目立つ。そこで、画像補間部5は、補間処理の際に、図12(D)に示すような補間画像を生成する。例えば、水平方向に2タップの低域通過フィルタをかける。例えば、R5の画像領域(符号1204)のデータは、L4(符号1203)とL5(符号1202)から(L4+L5)/2の式に基づいて算出する。例えば、符号1205で示される列の画素データを含む画素のデータがない他の領域の画素データに関しても、同様に隣り合う左眼用画像データに基づいて算出する。
【0053】
補間方法は、上記のような平均値を用いる方法に限定されるものではなく、例えば、3タップ以上の低域通過フィルタを用いて補間を行ってもよい。また補間を行った領域は、その補間処理により水平エリアシングやフィルタによるボケが発生することがあるため、鮮鋭フィルタやノイズ除去フィルタなどを用いることにより、良好な表示が得られるようにしてもよい。このようにして生成された補間された立体画像データは、表示部6に出力される。前述のように低域通過フィルタを用いて補間画像データを生成することにより、表示部6において、2次元表示モードに適した良好な画像が得られる。図10において画素データが存在しない表示領域1002、1003が生じているが、これらの領域についても、前述と同様の方法で補間しても良い。
【0054】
以上のように、図1の表示領域判定部4では、実際の表示に用いられる領域内における画素データの有無を判定し、画素データが無い領域を画像補間部5において補間すべき領域と判定する。このように、補間する領域を表示領域内に限定することで、補間処理の負担を軽減を図ることができる。
【0055】
また本実施の形態では、画素単位での画像の移動を例にして説明したが、前述のように、3原色データのRGBデータ単位での移動の例に関しても、同様の領域判定処理や補間処理が可能であることは言うまでもない。また、表示装置において補間された領域を部分的に2次元表示モードに切り替える技術について説明したが、上記の方法は、部分的に2次元表示モードに切り替える機能を備えない立体表示装置に対して適用することも可能である。この場合には、補間された領域は、従来通り立体表示モードにより表示される。
【0056】
以上、本発明の第1の実施の形態による立体画像表示技術によれば、視差量が調整された立体画像において、立体視表示が困難な領域に対して補間画像を作成して表示することにより、表示領域を縮小することなく、また、違和感の少ない良好な立体画像を表示することが可能となる。
【0057】
次に、本発明の第2の実施の形態による立体画像表示技術について説明する。第1の実施の形態による立体画像表示技術では、ユーザーの視差量調整により画素データが存在しない表示領域については補間画像データを作成し、該当領域を2次元表示する技術について説明した。本実施の形態による立体画像表示技術は、画素データが存在しない表示領域に他の画像データを表示することで良好な立体表示を行う技術である。
【0058】
図13は、本実施の形態による立体画像表示装置の構成例を示すブロック図である。図1に示す立体画像表示装置との違いは、画像補間部5(図1)の代わりに画像データ生成部7を設けた点である。画像データ生成部7は、例えば図10の領域1002と領域1002に対応する左眼用画像データの領域、および、領域1003と領域1003に対応する右眼用画像データの領域に新たな画像データを挿入する。
【0059】
図14は、画像データ生成部7(図13)が、新たな画像データを挿入する様子を示す図である。図14(A)において、符号1401及び符号1402は、画素データが存在しない部分を示し、符号1403及び符号1404は、立体表示のためのペアになるデータが存在しない部分である。画像データ生成部7は、これらの領域(図14(A)の符号1406、1407の矢印で示される領域)に対して、図14(B)に示すように新たな画像1411a、1411bを合成し、図14(C)に示す画像を得る。尚、符号1405で示す矢印の領域は表示領域を示す。
このように、良好な立体視が出来ない領域に新たに画像データを生成して表示させることにより、ユーザーは良好な立体画像の箇所のみを再生することができる。
【0060】
尚、本実施の形態で用いる新たな画像は2次元表示モード用の画像であっても、立体表示モード用の画像であっても良い。また、2次元表示モード用の画像を用いた場合、部分的に表示モードを2次元表示モードに切り替えてもよいが、このような機能が無い場合には、3次元表示モードのまま再生を行ってもよい。
本実施の形態よる立体画像表示技術によれば、立体視表示が困難な領域に対し、新たな画像を生成することにより違和感が少ない良好な立体画像を表示することができる。
【0061】
次に、本発明の第3の実施の形態による立体画像表示技術について図面を参照して説明する。第1及び第2の実施の形態による立体画像表示技術は、ユーザーによる立体画像の視差量調整と視差量調整を行った際の立体画像の表示処理である。ところで、複数の立体画像を繰り返し表示する際に、その度毎に改めて視差量調整の操作を行うと、ユーザーにとって処理が煩雑になる。そこで、これを回避するため、本実施の形態による立体画像表示技術では、ユーザーが調整した視差量を立体画像毎に記憶する。
【0062】
尚、以降、視差量調整情報をシフトベクトルと称する。このシフトベクトルは、例えば、図9(B)の符号906で示すベクトルである。シフトベクトルの内容は、調整した視差量を表せるものであれば、いかなる形式でもよい。例えば、立体画像が撮影された状態、すなわち、ユーザーによる視差量調整が行われていない状態を0とし、特定画像の特定方向への移動を+とし、その逆の方向への移動を−とし、調整量(ドット数あるいは画素数)を示すようにしても良い。また、シフトベクトルの大きさを画素数で表した場合、立体画像を観察するディスプレイの大きさが変わると視差量も変わるため、見え方(飛び出し距離など)が変化する。従って、ディスプレイの大きさを変えても同様の状態が観察ができるように、シフトベクトルとして、立体画像の飛び出し距離そのものを、例えばcmなどの単位によって記録しておいてもよい。飛び出し距離は、例えば視差量を調整しない状態を基準(0)として表される。飛び出し距離の算出例を図25を参照して説明する。
【0063】
図25(A)に示すように、観察者の左眼と右眼の間の距離をeとし、観察者とディスプレイとの間の距離をLとする。図25(A)の状態は、右眼で観察する画素と左眼で観察する画素が同一のスリット(P1)で観察される状態である。この時、この画素はディスプレイ上において観察される。
【0064】
次に、右眼で観察する画像を図面の左方向に1画素分だけ移動させる。この状態を図25(B)に示す。P1に存在した画素はP2の位置に移動する。この時、左眼で観察される画素と右眼で観察される画素は異なるスリットで観察され、S1の位置に像を結び、立体感が生じる。この時のディスプレイからの距離dが飛び出し距離である。
【0065】
ここで、図25(B)に示すようにP1からP2への移動距離をwとする。wは、装置(ディスプレイ)に依存する値である。また、ディスプレイと観察者との距離Lも、パララックスバリア方式やレンチキュラ方式の場合、ディスプレイに依存する。従って、飛び出し量を算出するためには、ディスプレイと観察者との距離Lと移動距離wとを知る必要がある。尚、観察者の左眼と右眼の距離eはほぼ一定と考えられる。これらを前提として、飛び出し距離dは次の式で求められる。
【0066】
e:(L−d)=w:d (1)
(1)式より(2)式が求められる。
d=(w×L)/(e+w) (2)
【0067】
ここで、飛び出し距離dと移動距離wは正負の値をとる。飛び出し距離dが正の値を取る時は、ユーザーが視差量の調整を行う前の状態から飛び出すように見えることを示し、負の値を取る時は、ユーザーが視差量の調整を行う前の状態から奥に見えることを示す。また、移動距離wは、右眼で観察する画像を左に移動させる時は正の値をとり、右眼で観察する画像を右に移動させるときは負の値をとる。図25(B)では、w及びdが共に正の値を取るため、dの距離だけ飛び出して見える。これとは逆に、図25(A)から右眼で観察する画像を右に1画素分だけ移動させた図が、図25(C)である。P1に存在した画素がP3の位置に移動し、S2の位置に像を結ぶ。この時、移動距離wは負の値を取るため、飛び出し距離dは、上記(2)式より負の値となる。従って、図25(A)に比べ、図25(C)では奥に像が見えることになる。また、左眼で観察する画像を移動させる時は、移動距離wの正負の値は、右眼で観察する画像を移動させる時の逆となる。本発明の第1の実施の形態による立体画像表示技術では、表示領域を自動的に設定していたが、ユーザーが表示領域を任意に設定する場合には、シフトベクトルの他に設定された表示領域の情報(表示領域情報)を記録し、次回の表示の際に利用する。表示領域情報は、例えば、右眼用画像に着目し、右眼用画像の左端が初期の表示領域の左端からどれだけ移動したかによって示される。
【0068】
本発明の第1の実施の形態による立体画像表示技術では、表示領域を自動的に設定していたが、ユーザーが表示領域を任意に設定する場合には、シフトベクトルの他に設定された表示領域の情報(表示領域情報)を記録し、次回の表示の際に利用する。表示領域情報は、例えば、右眼用画像に着目し、右眼用画像の左端が初期の表示領域の左端からどれだけ移動したかによって示される。
【0069】
以上の原理に基づく立体画像表示技術について、より具体的に説明する。図15は、本実施の形態による立体画像表示装置の構成例を示す機能ブロック図である。図15に示すように、本実施の形態による立体画像表示装置は、図1に示す立体画像表示装置と同様に、入力画像を立体視表示可能なように画像処理を行う立体画像処理部1と、ユーザーからの入力を行うユーザー入力部2と、ユーザーの入力から視差量の調整情報を算出する視差量調整情報算出部3と、画像処理された立体映像から実際にディプレイに表示する領域を判定する表示領域判定部4と特定領域に補間データを生成する画像補間部5と、生成された画像のうち判定された領域を表示する表示部6とを含む。図1との相違点は、立体視情報記録部8を備えた点である。その他の部分の基本的な動作はこれまでの実施形態の説明と同様である。
【0070】
図15において、視差量調整情報算出部3で算出された視差量調整情報(シフトベクトル)は立体画像処理部1に出力されると共に、立体視情報記録部8へも出力される(符号1501)。表示領域判定部4は、表示領域を判定し、さらにユーザーが任意に表示領域を設定するような場合は表示領域を変更し、変更後の表示領域情報を立体視情報記録部8に出力する(符号1502)。立体視情報記録部8は、シフトベクトルを記録(記憶)し、必要に応じて表示領域情報も記録する。
【0071】
次にシフトベクトルと表示領域情報の記録方法の例を示す。本実施の形態では、立体視用画像データにシフトベクトルや表示領域情報を記録するための領域を設ける。通常、画像データは、その画像の大きさや再生時間等を管理するための情報を記憶する領域が設けられている。図16(A)、(B)は、画像データのデータ構造例を示す図である。図16(A)に示すように、立体視用画像データは、例えば、再生時間・画像サイズ等の画像情報を管理する管理情報領域と左眼用・右眼用それぞれの画像データを記録する画像データ領域とを含んで構成されている。
【0072】
図16(A)に示すように、画像情報1601には、画像のサイズや動画ならばその再生時間などの画像全体に関する情報が記述され、右眼用・左眼用画像データ情報1602・1603には、各画像データを復号するのに必要な情報(例えば、符号化の技術としてMPEG−4技術が用いられているなどの情報)が記載されている。さらに、図16(B)に示すように、この管理領域に立体視用画像データのための情報(立体視情報)を記録する領域1604を設け、シフトベクトルや表示領域位置を記録する。
【0073】
記録する際には、装置がこれらの情報を正しく読み取れるように、立体視情報の存在を示すヘッダが必要である。このために、立体視情報1604の先頭に、立体(3D)画像識別情報1605を記録する領域を設ける。立体画像識別情報1605は、立体視情報の存在を示すとともに、後に続く画像データが立体視用画像データである旨を示す。立体画像識別情報1605は、固定長或いは可変長の符号で符号化されたフラグでも良いが、識別可能であれば、例えば、特定の記号列や文字列などでも良い。
【0074】
立体視情報1604中に、立体視画像識別情報1605の他に、シフトベクトルや表示領域位置に関する情報があるが、例えば、長時間の立体視は眼に負担をかけるため、連続視聴時間を制限するといった場合には、その視聴可能時間を合わせて記録してもよい。これらの情報を立体視制御情報と称し、符号1606で示す領域に記録される。立体画像識別情報と立体視制御情報との構成例を、図16(B)に示す。図16(B)に示すように、立体画像識別情報1605に続いて立体視制御情報1606が記録されている。
【0075】
図17(A)、(B)を参照して立体視制御情報について具体的に説明する。シフトベクトルは、移動させる画素数を表す。図17(A)及び(B)に示すように、右眼用画像データに着目し、視差が広がる方向(右方向)に右眼用画像データを4画素移動させた状態であり、シフトベクトル1704は4である。表示領域1703は、画像の左端を基準位置として、水平方向(符号1701の矢印で示される。)に2画素分だけ元の表示領域から移動している。これをベクトル1705で表す。このベクトルの成分は、水平方向に2、垂直方向(1702)に0であり、図17(A)に、表示領域情報として(2,0)で表される。
尚、これまで、立体視制御情報を画像データに付随する管理情報領域に記録する場合を例にして説明したが、立体視制御情報を、表示装置が有する所定の記憶部に記録させても良い。
【0076】
視差量情報記録部8で所定の記録領域に格納されるシフトベクトルや表示領域情報の例を図18に示す。図18に示すように、視差量情報記録部には、コンテンツA、B及びCなどのファイル名を付して立体視用画像データを識別する情報とともに、立体視制御情報(シフトベクトルや表示領域情報)がファイル名と対応付けされてテーブル化されている。例えば、コンテンツAは、シフトベクトル(画素数)が4であり、表示領域情報(画素数)が、(2,0)である。尚、図18では、シフトベクトルを1次元ベクトルとして表現している。
【0077】
本実施の形態による立体画像表示技術においては、シフトベクトルと表示領域情報とは、整数画素が単位となっている場合を例にして説明しているが、これに限定するものではなく、整数でない画素単位をシフトベクトルと表示領域情報とを表示する情報として用いることもできる。
【0078】
また、本実施の形態による立体画像表示技術では、シフトベクトルを、右眼用画像/左眼用画像を水平方向に移動させる画素数でも立体視の飛び出し距離の変化量でも良い。従って、シフトベクトルを、移動させる画素数又は立体視の飛び出し距離のいずれの形式で表しているかを示す情報やフラグを、上記立体視制御情報中に記録しても良い。また、立体視制御情報としてシフトベクトルと表示領域情報との両方を記録する例について説明したが、シフトベクトルのみを記録し、予め決められた所定の領域や自動的に求める領域を表示領域としてもよい。或いは、表示領域情報のみを記録してもよい。また、その他の立体視のための情報を記録してもよい。
【0079】
また、本実施の形態では、立体画像識別情報と立体視制御情報とを、画像ファイルの先頭に一箇所だけ記録させた例を示した。しかしながら、抽出が可能であれば、画像ファイルのいずれの領域に記録されていても良く、或いは、画像データ内に記録させていても良い。例えば、画像がMPEG−4で符号化されている場合、画像データには符号化データと符号化データを復号するための情報(ヘッダ情報)が含まれている。このヘッダ情報には、ユーザーが自由に使用できる領域(ユーザー領域)が設けられており、立体画像識別情報や立体視制御情報をこのユーザー領域に記録しても良い。また、立体画像識別情報や立体視制御情報は画像データ内に複数個存在してもよい。これにより、例えば、画像データの途中で視差量を変更することも可能となる。
【0080】
次に、第3の実施の形態による立体画像表示技術により画像データを再生する手順について説明する。ここで、画像データ中には、図17で示した立体画像識別情報と立体視制御情報が記録されているものと仮定する。
【0081】
図19は、本実施の形態における立体視制御情報が付加された立体視用の画像データを表示する立体画像表示装置の構成例を示す機能ブロック図である。図1に示す構成に加えて、立体視情報読み出し部9を有している。立体視情報読み出し部9において、入力画像データに含まれる立体画像識別情報を読み出す。立体画像識別情報の確認により立体視用画像であることが認識されると、立体視情報読み出し部9は立体視制御情報(シフトベクトルや表示領域情報)を読み出し、立体視情報が符号化されている場合は復号する。立体視制御情報にシフトベクトルが存在すれば、視差量調整情報算出部3へ出力し、領域表示位置が存在すれば表示領域判定部4へ出力する。
【0082】
視差量調整情報算出部3では、立体視情報読み出し部9から入力されたシフトベクトルとユーザー入力部2から入力された視差量調整のためのデータを用い、視差量調整情報を算出する。ユーザー入力による視差量の調整がない場合は、シフトベクトのみから視差量調整情報を算出する。立体画像処理部1では、視差量調整情報を用いて立体表示用画像データを生成する。
【0083】
また、表示領域判定部4では、立体視情報読み出し部9から入力された表示領域情報と視差量調整情報とに従って、新たな表示領域を判定する。ユーザー入力による視差量調整がない場合は、立体視情報読み出し部9からの視差量調整情報がそのまま用いられる。
【0084】
以上説明したように、ユーザーが同一の立体画像データを繰り返して再生する際に、前回の再生時にユーザーが行った調整を立体視制御情報として記憶しておき、再生時に立体視制御情報を利用することにより、再生の度に視差量調整を行う手間をかけることなく、前回の再生時と同様に再生することが可能となる。
【0085】
以上、本発明の第3の実施の形態によれば、画像データ即ちコンテンツに関するシフトベクトルを記録することで、同一のコンテンツを視聴する際には再度視差量を調整する手間が省け、また、コンテンツ毎に適切なシフトベクトルを記録しておくことができる。
【0086】
次に、本発明の第4の実施の形態による立体画像表示技術について、図面を参照して説明する。適切な視差量の調整は、ユーザーにとってはより良好な状態で再生可能となるため有効である。しかし、調整方法を誤ると良好に立体視ができなくなる場合がある。本実施の形態では、これを避けるために、シフトベクトルの最大値(最大シフトベクトル)設定しておき、ユーザーが調整できる視差量を制限する。最大シフトベクトルは、画像データの管理領域(図16(B)の立体視制御情報)中に含まれていてもよいし、本実施の形態による表示装置の所定の記録領域に記録されていてもよい。
【0087】
最大シフトベクトルの記述例を図20(A)、(B)に示す。図20(A)、(B)において、最大シフトベクトルは前述したシフトベクトルと同一の記述方法で記述される。すなわち、移動させるドット数や飛び出し距離として表現する。図20(A)は、画像データに記録した例であり、最大シフトベクトルは10に設定されている。図20(B)は、表示装置の所定の記憶部にテーブル形式で記録した例であり、コンテンツ毎に最大シフトベクトル値が決められ、例えばコンテンツAでは最大シフトベクトルが10である。図20(A)、(B)の例では、最大シフトベクトルだけでなく他の立体視のための情報も含んでいる例を示しているが、必ずしもそれらと同じ領域に含まれている必要はない。
【0088】
本実施の形態による立体画像データを再生装置の構成例を図21に示す。図21に示すように、図19に示す立体視情報読み出し部9を、最大シフトベクトル読み出し部10で置き換えた構成を有している。最大シフトベクトル読み出し部10は、最大シフトベクトルを立体視制御情報から読み出す。立体視制御情報が入力画像データと同一ファイル内に存在すれば、そのファイル中から最大シフトベクトルの情報を抽出する。また、ファイルとは独立した記憶部に記録されている場合には、入力画像データに対応したシフトベクトルを記憶部より読み出し、最大シフトベクトル情報を抽出する。
【0089】
抽出された最大シフトベクトルは視差量調整情報算出部3へ出力される。視差量調整情報算出部3はユーザー入力から算出したシフトベクトルが最大シフトベクトルの範囲内にあるかどうかを判定して、範囲内であれば算出したシフトベクトルをそのまま立体画像処理部1に送る。シフトベクトルが最大シフトベクトルより大きい場合は、最大シフトベクトルを、シフトベクトルとして出力する。これにより、立体視が困難となるような大きなシフトベクトルを用いた表示は行われなくなるため、良好な立体表示が可能となる。尚、最大シフトベクトルは、正の値と負の値の両方を定義することが出来、正の値の絶対値と負の値の絶対値とは必ずしも等しくなくても良い。例えば、図20(B)のコンテンツAに対する最大シフトベクトル(この例では1次元ベクトル)として、(+10)と共に、例えば(−7)を定義した場合には、ユーザー入力から算出したシフトベクトルは、(−7)から(+10)までの間の値に制限されることになる。
【0090】
ユーザー入力から算出したシフトベクトルが、上記最大シフトベクトルの範囲外となる場合は、そのシフトベクトルを用いないようにしてもよい。例えば、図20(B)のコンテンツAの再生時にユーザー入力によるシフトベクトルが20と算出された場合に、表示に用いるシフトベクトルをシフトベクトル値“4”のままとする。また、表示部6で表示モードの切替が可能である場合に、ユーザー入力によるシフトベクトルが最大シフトベクトルを超えたときは、画像全体を2次元表示モードで表示するようにしてもよい。
【0091】
本実施の形態では、最大シフトベクトルを抽出するために、最大シフトベクトル読み出し部10を設けたが、同様の処理を実行できる機能を、図19に示した立体視情報読み出し部9に付加した構成としても良い。
【0092】
本発明の第4の実施の形態によれば、最大シフトベクトルを設定することで、立体視が困難となるほどの視差量の調整を禁止することが可能となり、コンテンツ製作者の意図を損なうことがなく、良好な立体視用画像を生成することができる。
【0093】
次に、本発明の第5の実施の形態による立体画像表示装置について、図面を参照して説明する。シフトベクトルと表示領域とが設定されている立体画像データを用いて画像の再生を行う場合や、画像の再生中に立体画像の視差量を調整する場合において、画像の拡大・縮小などの画像処理を併用して立体画像データの再生を行う場合に、シフトベクトルと実際にシフトすべき画素数とが異ってしまうことがある。このような場合には、画像の拡大・縮小処理とともに、シフトベクトルにも拡大・縮小処理を行うと良い。この様子を図22(A)から図22(E)までを参照して説明する。
【0094】
図22(A)に示す画像データを入力画像データとし、図22(B)に示す画像データを、視差量調整(1画素シフト)を行った画像データとする。これに対して、図22(C)に示す画像データは、入力画像データを拡大処理(水平方向に2倍拡大)を行った画像であり、図22(D)に示す画像データは、図22(C)に示す画像データを視差量調整した(1画素シフト)である。シフトベクトルが画素単位で表されている場合は、このように拡大後の画像に対しても図22(D)のような調整を行うこととなるが、これは、ユーザーが意図した調整とは異なってしまう。そこで、本実施の形態による技術は、画像の拡大・縮小に合わせてシフトベクトルなどの立体視制御情報の拡大・縮小も行う。
【0095】
図23は、本実施の形態による立体画像表示装置の構成例を示す機能ブロック図である。図23は、図19に示す構成に加えて、画像の拡大・縮小処理を行う拡大・縮小処理部11と、立体視制御情報変換部12とが設けられている。拡大・縮小が行われる際は、拡大・縮小処理部11において、入力画像データの拡大・縮小処理が行われ、拡大・縮小された画像データは、画像処理部1へ出力される。その時、拡大・縮小処理部11はその拡大・縮小率を、立体視制御情報変換部12に出力する。
【0096】
画像データに付随する立体視制御情報は、立体視情報読み出し部9で読み出される。本実施の形態における立体視情報読み出し部9は、シフトベクトル、表示領域情報に加え、最大シフトベクトルも読み出す。読み出された立体視制御情報は、視差量調整情報算出部3や表示領域判定部4に出力される。
【0097】
視差量調整情報算出部3で算出された視差量調整情報は、立体視制御情報変換部12において入力画像データの拡大・縮小率を乗じて変換される。例えば、視差量調整情報が1次元ベクトルで(−3)、拡大・縮小率が2である時、視差量調整情報は(−6)に変換される。同様に、表示領域判定部4にて生成された表示領域情報は、立体視制御情報変換部12において拡大・縮小率に合わせて変換される。
【0098】
本実施の形態による立体画像表示技術を用いると、図22(D)ではなく図22(E)のような拡大・縮小率に合わせた視差量調整が行われることになり、ユーザーは適切な画像を観察することができる。
【0099】
本発明の第5の実施の形態によれば、視差量調整のためのシフトベクトルは、立体画像が拡大・縮小された際には、その拡大・縮小率に合わせた補正を行うので、視差量調整を行う立体画像データが拡大・縮小処理された場合にも、良好な立体視用画像を生成することができる。
【0100】
次に、本発明の第6の実施の形態による立体画像表示技術について図面を参照して説明する。上記各実施の形態における技術は、ファイルに格納された立体視用の画像データに対し、立体視情報を格納する技術である。ところで、BS放送や地上デジタル放送などの放送コンテンツとして立体視用の画像データを伝送する際には、立体視情報を放送に適した方法で格納・伝送する必要がある。例えば、ユーザーがチャンネルを変えて、新たな放送コンテンツを受信し始めた時にも、このような立体視情報が取得できるようにする必要がある。
【0101】
BS放送や地上デジタルの放送等の場合、どのような番組が放送されているかを管理するための番組配列情報が、例えば図24(A)に示すようにコンテンツと多重化されて放送されている。放送コンテンツには複数のコンテンツのデータが含まれており、これらの内容を示す情報が番組配列情報である。番組配列情報は、各コンテンツを構成する映像信号及び音声信号を放送コンテンツの中から分離・識別するための情報(PMT:Program Map Table)や各コンテンツの内容を記述した番組案内情報(EIT:Event Information Table)などからなる。
【0102】
番組配列情報は、受信機におけるチャンネルの切替が、どの時点で行われても対応できるように、放送コンテンツの中に繰り返し多重化されて送られる。本実施の形態による立体画像表示技術では、番組配列情報に、立体視情報を含めるものである。
【0103】
図24(B)に、立体視情報を番組配列情報に組み込んだ例を示す。ここで、立体視情報は、本発明の第3の実施の形態において説明したように、立体画像識別情報と立体視制御情報とを含んでいるものとする。すなわち、立体画像識別情報は、コンテンツが立体画像であることを示し、立体視制御情報中には、シフトベクトルや表示領域情報、最大シフトベクトルなどの情報が含まれる。
【0104】
受信機は、上記のような放送コンテンツから立体画像識別情報を利用して、コンテンツが立体画像であることを判別し、立体視制御情報を抽出する。そして、これまで説明してきた他の実施の形態と同様に立体視制御情報からシフトベクトル等を取得し、立体視用画像データを生成・表示する。
【0105】
立体視制御情報中のシフトベクトルや領域表示位置などの情報は、ユーザーが画像の立体感を変更した際のデータを記録するものとして説明してきたが、これらの情報を放送側が設定してもよい。例えば、放送開始時には、シフトベクトルの値を0としておき、後に放送局が独自に、あるいはユーザーからの要求によって、放送側でシフトベクトルの値を0以外の値に設定して放送することも可能である。また、コンテンツ製作者の意図に従って、放送側で最大シフトベクトルを設定し立体視制御情報に含め、受信機にて視差量調整を行う際の制限に利用することも可能である。
【0106】
また、立体画像識別情報と立体視制御情報とは、番組配列情報に含まれるとして説明したが、これらの情報は番組配列情報中に限らず、画像データ中に含めてもよい。例えば、放送コンテンツがMPEG−4で符号化されている場合、立体画像識別情報や立体視制御情報を先に説明したようにユーザー領域に含めるようにしてもよい。このような場合も、コンテンツを番組途中から視聴を可能にするために、立体画像識別情報や立体視制御情報を周期的に画像データに含まれなければならない。この復号のための情報に立体画像識別情報と立体視制御情報を含めようにしてもよい。
【0107】
本発明の第6の実施の形態によれば、BS放送や地上デジタル放送等の番組配列情報に立体視情報を含めることで、立体画像のコンテンツを放送する際にも、視差量の調整、表示位置の変更、視差量調整の制限を行うことができる。
【0108】
次に、本発明の第7の実施形態である立体画像表示技術について、図面を参照して説明する。前記第3の実施形態において、視差量を調整するための情報であるシフトベクトルとして、水平方向に移動させる画素数を指定する例を挙げているが、別の例として、立体画像の飛び出し方向及び距離を指定する例,画像を移動させる方向と距離を指定する例,立体画像の視差の角度を指定する例を以下に示す。
【0109】
図25に示したように、右眼で観察される画像に関して、P1に位置する画素がP2やP3に位置するように移動すると、立体画像の見え方としては、移動前にはディスプレイ面上P1の位置に像を結んでいた画素が、移動後はディスプレイ面上から距離|d|だけ離れた位置S1やS2に像を結ぶことになる。ここで|d|は、cm等長さの単位で表せる量である。d自体は正負の値をとり、例えば図25(B)に示すように像がディスプレイ面より手前に離れていれば正の値、図25(C)に示すように像がディスプレイ面より奥に離れていれば負の値とする。
【0110】
dは、ディスプレイの特性や観察条件が既知であって標準的な環境、即ち「標準観察環境」の下で測定もしくは規定される量とする。立体画像表示装置においては、このdを基にして実際に必要な視差量の調整値を算出する。このような構成をとることにより、視差量調整の結果表示される立体画像から受ける観察者の印象や影響が、表示部(ディスプレイ)の特性や観察条件が様々に異なる複数の立体画像表示装置間で、同程度になるように制御することが可能になる。以下に、前記dを基にして視差量の調整値を算出する方法の例を示す。
【0111】
図25(B)に示す状態を例に説明する。既に説明した通り、ディスプレイ面上の右眼用画素P1を、水平方向に距離wだけ離れた位置P2に来るように右眼用画像を水平移動すると、移動前はディスプレイ面上の位置P1で像を結んでいた画像が、ディスプレイ面から距離dだけ離れた位置S1で像を結ぶ。この時dは、前述の式(2)のように与えられる。
【0112】
ここで、式(2)で用いられている各変数d,L,w,eは、全て前記標準観察環境における値とする。同様に、任意の立体画像表示装置においても、前記式(2)の関係が成り立つ。ただし、eを除いた、d,L,wは通常、前記標準観察環境とは異なる値になる。ここでは、任意の立体画像表示装置におけるこれらの変数を、d’,L’,w’と表す。即ち、以下の式(2’)が成り立つ。
d’=(w’×L’)/(e+w’) …(2’)
【0113】
eは、観察条件に関わらず一定とする。式(2)及び式(2’)からd’について解くと、以下の式(3)の関係が得られる。ただし、ここでW及びW’はそれぞれ、前記標準観察環境におけるディスプレイ上の画像表示幅W,および、上記任意の立体画像表示装置におけるディスプレイ上の画像表示幅W’を表し、これらは(W:W’=w:w’)の関係にあることを仮定している。
d’=L’×W’×d/(L×W+(W’−W)×d) …(3)
【0114】
前記式(3)のようにd’が得られれば、前記式(2’)の関係からw’が得られる。w’は、ディスプレイ面上における画像の移動距離を表しているため、実際に移動させる必要のある画素数をh’とすると、h’は以下の式(4)から得られる。ここでp’は、ディスプレイの水平方向の画素ピッチ(隣接した画素間の距離)である。
h’=w’/p’ …(4)
【0115】
以上のように、前記標準観察環境におけるL,W,d等のパラメータが分かっていれば、任意の立体画像表示装置において必要な視差量の調整値を算出することが可能である。
【0116】
前記パラメータの内、LやWは、標準観察環境を規定すれば値が固定されるパラメータであるので、立体視用画像データ毎に指定する必要はなく、予め各立体画像表示装置で記憶していれば良い。従って、視差量を調整するためには、前記dに相当するパラメータを立体視用画像データに関連付けて記録あるいは伝送すれば良い。dに相当するパラメータを記録あるいは伝送する場合には、該パラメータをdの正負の方向を示すパラメータと、距離の絶対値を示すパラメータの二つのパラメータで構成しても良いし、両者を含んだ正負の値を持つ一つのパラメータのみで構成しても良い。
【0117】
図26(a)、(b)に、前記dに相当するパラメータを含む前記立体視情報の構成例を示す。図26(a)の例は、dを飛び出し方向2601と飛び出し距離2602の二つのパラメータで表しており、図26(b)の例は、dを方向と距離を含んだ飛び出しベクトル2603のみで表している。dを示すパラメータは、上記のようにディスプレイ面からの飛び出し位置(もしくは引っ込み位置)を示すパラメータでも良いし、ディスプレイ面からは離れた任意の基準位置にあった画素の、ディスプレイ面に直交する方向の移動量を表すパラメータであっても良い。
【0118】
なお、上記dは、調整すべき飛び出し量を指定するための値である場合と、飛び出し量の許容最大値を指定するための値である場合の二通りが考えられる。従って、dに相当するパラメータを記録または伝送する際には、いずれであるかを予め決定しておくか、前記立体視制御情報中に、これらいずれの値であるかを示すパラメータを別途含めておけば良い。あるいは、両者を前記立体視制御情報中に含んでも良い。
視差量を調整するための情報の別の例として、画像を移動させる方向と距離を指定する例を以下に示す。
【0119】
前記のように、(W:W’=w:w’)の関係にあることを仮定すると、標準観察環境の条件としてWの値が予め分かっていれば、後はwが与えられれば、W’の条件を備える立体画像表示装置において、w’を算出することが可能である。従って、視差量を調整するための情報としてwを示すパラメータを指定すれば良い。wを示すパラメータとしては、dと同様に、wの正負の方向を示す値と、距離の絶対値を示す値の二つのパラメータで構成されていても良いし、両者を含んだ正負の値を持つ一つのパラメータのみで構成されていても良い。このときのwの方向は、例えば右眼用画像を右方向へ移動させる場合が正で、左方向へ移動させる場合を負とする。
視差量を調整するための情報のさらに別の例として、立体画像の視差の角度を指定する例を以下に示す。
【0120】
図25に示したように、P1に位置する画素がP2やP3に位置するように移動すると、像を結ぶ位置に関して視差θであった角度がθ1、θ2に変化する。これら角度を、標準観察環境における値として規定すれば、LとL’の関係やWとW’の関係などから、任意の立体画像表示装置における視差の角度θ’を算出することが可能である。従って、視差量を調整するための情報としてθnを示すパラメータを指定すれば良い。θnを示すパラメータとしては、θ1やθ2で表されるような、角度の絶対値を示すパラメータで構成されていても良いし、図25(A)で示すような視差の無い状態のθと、これらθ1やθ2との差を示すパラメータ(即ち、θ1−θやθ2−θを表す値)で構成されていても良い。
【0121】
次に、上記視差量調整の結果、どのように表示領域を決定するかについて説明する。既に説明した通り、視差量調整のために画像を移動させると、立体画像として表示できる画像の幅が変化するため、表示領域が一意に定まらない。前記第3の実施形態においては、この表示領域をユーザーが任意に設定し、表示領域情報として記録する例を挙げている。この表示領域情報の代わりに、平面表示画像選択情報を用いる例を以下に説明する。
【0122】
平面表示画像選択情報は、立体視用画像データを平面画像として表示する際に、左眼用画像,右眼用画像のいずれを用いるかを示す情報である。立体視用画像データは、前記のように左眼用画像と右眼用画像を含んでいるため、いずれかの画像をそのまま平面画像として表示することが可能である。もちろん、そのままではなく、補間処理や補正処理を加えた上で表示しても良い。
【0123】
平面表示画像選択情報は、図26に示すように、立体視制御情報中に含める。平面表示画像選択情報は、前記表示領域情報と同様にユーザーが設定した結果を記録しても良いし、前記第6の実施形態に示したように、予め立体視情報の中に含まれていても良い。
【0124】
この平面表示画像選択情報は、前記立体画像表示装置においては、表示領域判定部4において解釈され、視差量調整を行った立体画像の表示領域を決定するために用いられる。即ち、前記表示領域判定部4は、立体視制御情報中の平面表示画像選択情報で指定された画像、即ち左眼用画像もしくは右眼用画像の全体を表示するように、視差量の調整された立体画像の表示領域を決定する。なお、本動作は、前記全ての実施形態で説明された構成の立体画像表示装置(図1、図13、図15、図19、図21、図23)に関して適用可能である。
【0125】
前記のように表示領域を決定した際の、前記表示部6での表示状態を図27に示す。図27は、(a)が視差量調整を行わなかった場合の状態で、(b),(c)はいずれも、左眼用画像に対して右眼用画像を右方向にシフトした状態である。シフトしたことによって、図のように、左眼用画像と右眼用画像の水平位置が一致しなくなる。左眼用画像と右眼用画像の両方(両眼画像)が存在する領域は、そのまま立体表示ができる領域である。左眼用画像と右眼用画像のいずれか(片眼画像)しか存在しない領域は、そのままでは立体表示ができない領域である。片眼画像の領域は、観察者の両眼に同一の画像を見せて平面画像としてもよいし、該片眼画像をもとに他方の片眼画像を生成あるいは補間する等何らかの画像処理を施して立体画像としてもよい。この時、表示領域を、前記平面表示画像選択情報で指定された方の画像の位置と一致するように決定する。図27(b)は、前記平面表示画像選択情報で「左眼用画像」が指定されている例における左右画像の位置と表示領域の関係を、図27(c)は、前記平面表示画像選択情報で「右眼用画像」が指定されている例における左右画像の位置と表示領域の関係をそれぞれ示している。
【0126】
以上のように表示領域を決定することによって、次のような効果がある。即ち、前記のように、立体画像表示装置において平面表示する場合は、前記平面表示画像選択情報に従って、左眼用画像もしくは右眼用画像のみを用いて表示を行う。例えば、平面表示画像選択情報で「左眼用画像」が指定されている場合、左眼用画像全体が表示される。この時、表示モードを立体画像表示に切り替えたとしても、同様に左眼用画像全体が表示されるように表示領域が選択されるため、平面表示/立体表示の違いはあるが観察者からは左眼用画像の位置が固定して見えることになり、その結果、表示モード切り替えの違和感を少なくすることが可能である。
【0127】
なお、このように立体表示と平面表示の切り替えが可能な立体画像表示装置においては、表示部6は立体表示モードと平面表示モードを備え、両者を切り替えることが可能な表示デバイスである。立体表示モードと平面表示モードの切り替えは、立体画像表示装置のユーザーがボタンなどの操作によって切り替えても良いし、前記第6の実施形態に記載のように立体視情報が繰り返し伝送されるようなケースでは、前記立体視制御情報中に立体表示と平面表示を切り替えるためのパラメータを含めていても良い。また、立体画像識別情報自体、即ち立体視情報自体の有無によっても、立体表示と平面表示を切り替えるような構成とする。また、表示モードは、表示画面全体に対して切り替えても良いし、任意の表示範囲単位で切り替えても良い。
【0128】
次に、本発明の第8の実施の形態による立体画像記録技術について説明する。本発明の第3の実施の形態又は第7の実施の形態において、視差量を調整するための情報を指定する例を挙げている。本実施形態による立体画像記録技術は、このような立体視情報を含んだ記録方法の1形態であり、デジタルビデオテープに立体画像と立体視情報を記録する記録方法、及びそのための記録装置である。
【0129】
はじめに、本実施の形態による立体画像記録技術により記録されたデジタルビデオテープのトラックフォーマットについて説明する。一般に普及しているデジタルVTRではヘリカルスキャンと呼ばれる方式が採用されている。図28に示すように、この方式ではテープ上の不連続なトラックに対してデータが記録される。この様子を示したものが図28であり、テープ2800上にトラック2801が複数形成されており、1枚の立体画像も複数のトラック2801に分割して記録される。テープの走行方向は図28の右から左方向(矢印方向)であり、左端のトラックが下方から上方に向けて走査され、続いてその右隣のトラックの下方から上方へと走査されていく。
【0130】
図29は、1つのトラック2801の構成例を示す図であり、本実施の形態による立体画像記録技術によって記録されたデジタルVTRのトラックフォーマットの1構成例を示す図である。トラック2801はアフレコを確実にするためのITI(Insert and Track Information)領域2901と、音声に関するデータが記録される音声記録領域2902と、画像に関するデータが記録される画像記録領域2903、タイムコードなどの付随情報が記録されるサブコード記録領域2904と、を含んで構成される。画像記録領域2903には、立体画像そのものだけでなく、立体画像とかかわりのある付随情報も記録可能である。同様に、音声記録領域2902には、音声そのものだけでなく、音声とかかわりのある付随情報も記録可能である。また、これら2つとは別に、前述のとおりサブコード記録領域2904にも付随情報が記録可能である。また、各領域の間にはマージンがあり、個別にアフレコが可能になっている。
【0131】
図30は画像記録領域2903を拡大したものである。画像記録領域2903は、同期パターンなどが記録されたプリアンブル3001と、画像に関する付随情報が記録されるVAUX(Video AUXiliary data)α3002及びVAUXβ3004と、画像符号化データが記録される画像符号化データ記録領域3003と、エラー訂正符号3005と、マージンを稼ぐための機能を持つポストアンブル3006とを含んで構成される。本実施の形態による立体画像記録技術では、画像に関する付随情報が記録される領域がVAUXα3002とVAUXβ3004の2つに分けられているが、以後、これらの2つの領域をまとめてVAUX領域と呼ぶ。
また、図示はしないが音声記録領域2902にも、音声に関する付随情報を記録する領域としてAAUX(Audio AUXiliary data)領域が用意されている。
【0132】
続いて、図31を参照して、本実施の形態による記録装置について説明する。図31は本実施形態の記録装置の構成を示すブロック図である。図31に示すように、本記録装置は立体画像符号化部3101、音声符号化部3102、付随情報符号化部3103、多重化部3104、テープ記録部3105を含む。
【0133】
立体画像符号化部3101は、立体視用画像データを入力とする。立体視用画像データは、前記第1の実施の形態等に関して説明したように、複数の画像を基に生成された立体視表示が可能な画像データである。立体画像符号化部3101は、この立体視用画像データを所定の方法で符号化して、立体画像符号化データを出力する。
【0134】
音声符号化部3102は、音声データを入力とし、これを符号化して音声符号化データを出力する。
付随情報符号化部3103は、前記立体視用画像データに関する立体視情報、即ち、立体画像であることを示すための立体画像識別情報、視差量調整のためのシフトベクトルもしくは飛び出し方向及び距離、表示領域を決定するための平面表示画像選択情報などを含む付随情報を符号化し、付随情報符号化データを出力する。ここでの符号化方法としては、それぞれの情報に対応する固定長の数値への変換などがあげられる。
【0135】
多重化部3104は、立体画像符号化データ、音声符号化データ、付随情報符号化データを入力とし、これらをテープに記録できる形式に多重化してテープ記録用データを出力する。
テープ記録部3105は、テープ記録用データを先に示したフォーマットに従って記録媒体であるテープに記録する。
【0136】
続いて、多重化部3104について、図32を参照してより詳細に説明する。図32に示すように、多重化部3104は、付随情報符号化データ振り分け部3205と、画像記録領域用データ合成部3201と、音声記録領域用データ合成部3202と、サブコード記録領域用データ合成部3203と、トラック合成部3204と、を含む。
【0137】
付随情報符号化データ振り分け部3205は、付随情報符号化データを入力とし、これらをVAUX領域、AAUX領域、サブコード領域のいずれに記録するかを判別して振り分ける。本実施の形態では、立体画像識別情報と平面表示画像選択情報とに関する符号化データはVAUX領域に、シフトベクトルや飛び出し方向/距離に関する符号化データはサブコード領域に振り分ける。
【0138】
画像記録領域用データ合成部3201は、立体画像符号化部3101から出力される立体画像符号化データ、及び付随情報符号化データ振り分け部3205から出力されるVAUX領域用付随情報符号化データを入力とし、図30に示したフォーマットとなるよう付随情報符号化データ及び立体画像符号化データを合成し、画像記録領域用データを出力する。
【0139】
音声記録領域用データ合成部3202は、音声画像符号化部3102から出力される音声符号化データ、及び付随情報符号化データ振り分け部3205から出力されるAAUX領域用付随情報符号化データを入力とし、これらを所定のフォーマットとなるよう合成して音声記録領域用データを出力する。
【0140】
サブコード記録領域用データ合成部3203は、付随情報符号化データ振り分け部3205から出力されるサブコード領域用付随情報符号化データを入力とし、これらを所定のフォーマットとなるよう合成してサブコード記録領域用データを出力する。
【0141】
トラック合成部3204は、画像記録領域用データと、音声記録領域用データと、サブコード記録領域用データとを入力とし、これらが図29に示したフォーマットとなるよう合成し、さらにITI情報2901や各領域間のマージンを付加して記録用データを出力する。
【0142】
なお、本実施の形態では音声記録領域、画像記録領域、サブコード記録領域を同時に記録したが、これらは必ずしも同時に記録する必要があるものではなく、一部、例えば音声記録領域と画像記録領域のみを先に記録しておき、サブコード記録領域をアフレコによって記録することも可能である。あるいは、同時に全てを記録したとしても、それぞれの領域は個別にアフレコによって更新することも可能である。
【0143】
視差量調整のためのシフトベクトルや飛び出し方向/距離のような情報は、撮影時に決定される場合だけでなく、最終的なコンテンツの出来上がりに応じて撮影終了後の編集段階で決定される可能性がある。例えば、撮影時にはデフォルト値を記録しておき、編集段階で仕上がりを確認してからシフトベクトルや飛び出し方向/距離を示す情報をアフレコする場合がある。シフトベクトルや飛び出し方向/距離のデフォルト値としては、例えば全て0、即ち視差量を調整しないよう指定する。また、編集段階での調整方法としては、例えば前記第3の実施形態で示した立体画像表示装置と同様に、前記立体画像記録装置が、さらに入力画像を立体視可能なように画像処理を行う手段と、ユーザーからの入力を受けつける手段と、ユーザーの入力から視差量の調整情報を算出する手段と、視差量の調整情報を使用して画像処理された立体映像から実際にディスプレイに表示する領域を判定する手段と、判定された領域を表示する手段とを備え、前記立体画像記録装置において、ユーザーが立体画像の表示を確認しながら視差量を調整すれば良い。本実施の形態による記録方式及び記録装置によれば、シフトベクトルや飛び出し方向/距離を示す情報がアフレコの容易なサブコード領域に記録されているため、編集段階でも容易に変更することが可能である。
【0144】
また、本実施の形態ではシフトベクトルや飛び出し方向/距離を示す情報をサブコード領域に記録したが、これらも画像に関する付随情報であるという観点から、全てをまとめてVAUX領域に記録するという方法もある。これには、図32の付随情報符号化データ振り分け部3205の動作を変更し、上記の情報の符号化データを全てVAUX領域に向けて出力する構成とする。この場合、アフレコの容易性はなくなるが、画像に関する付随情報が一箇所にまとまっていることによって取り扱いが簡易になるという長所がある。例えば、別の記録フォーマットを持つ媒体に複製を作る際に、画像記録領域の複製だけをつくれば画像に関する全ての情報を取得できることになり、サブコード領域を取り扱う必要がなくなる。また、アフレコによる上書きを避けるために、サブコード領域とVAUX領域の両方に記録するという方法も可能である。
【0145】
あるいは、サブコード領域、VAUX領域のサイズ上の制限により、これらの領域に格納できなかった場合には、立体画像に関連する情報のうち、前記格納できなかった情報をAAUX領域に記録するということも可能である。
【0146】
なお、本実施の形態の構成は、立体画像に特有の部分を除けば家庭用に普及しているデジタルVTRの方式にも準拠している。このため、本実施形態が記録する付随情報のうち、立体画像に特有の付随情報、即ち、立体画像識別情報、平面表示画像選択情報、シフトベクトル、飛び出し方向及び距離に関する情報などを家庭用デジタルVTRのフォーマットで拡張が許されている拡張領域に記録すれば、平面画像と立体画像を同一のテープに記録することが可能である。
【0147】
また、本発明の立体画像記録方法の説明では図28及び図31の構成に基づいて、記録媒体であるデジタルビデオテープに記録しているが、一般に画像処理装置や端末が具備する記録領域、あるいはデジタルビデオテープのカセットに装着されたICメモリの記録領域等に記録することも可能である。この場合、これまでの説明と同様に、当該記録領域が音声記録領域、画像記録領域、サブコード記録領域などを備え、立体視情報などの付随情報をこれらの領域に記録することも可能である。
以上、本実施の形態に沿って説明したが、本発明はこれらの例に限定されるものではなく、種々の変形が可能であるのは言うまでもない。
【0148】
【発明の効果】
以上説明したように、本発明によれば、視差量が調整された立体画像において、違和感が少なく良好な立体画像を表示することが可能となる。
また、視差量が調整された立体画像を表示する場合に、画像の飛び出し具合や長時間観賞した場合の疲労度など観察者の受ける印象や影響が、画面サイズ等が異なるディスプレイ間で比較した際に大きく異ならないようにすることができる。
【0149】
また、視差量が調整された立体画像を表示する際は、表示領域を左眼画像もしくは右眼画像の全体が表示されるように選択することによって、立体表示/平面表示の表示モード切り替えを行った場合の、両モードで表示される画像の範囲がずれずに済み、違和感なく表示モードの切り替えを行うことが可能である。
【0150】
本発明によればさらに、視差量の調整に関する情報をアフレコの容易なサブコード領域に記録することにより、編集の利便性を高めることが可能となる。
本発明によればさらに、視差量の調整に関する情報を含む立体視制御情報をまとめて画像記録領域に記録することにより、取り扱いを簡易にすることが可能となる。
【0151】
本発明によればさらに、視差量の調整に関する情報を含む立体視制御情報をサブコード領域と画像記録領域の両方に記録しておくことにより、アフレコ時の上書きによるデータ消失を防ぐことが可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態による立体画像表示装置の構成例を示す機能ブロック図である。
【図2】図2(A)、(B)は、本発明の第1の実施の形態による立体画像表示装置における左眼用画像データと右眼用画像データから立体視用画像データを生成する例を示す図である。
【図3】本発明の第1の実施の形態による立体画像表示装置における立体視する際の左眼用画像データと右眼用画像データの対応する画素の例を示す図である。
【図4】本発明の第1の実施の形態による立体画像表示装置における視差量調整した際の画像の移動例を示す図である。
【図5】本発明の第1の実施の形態による立体画像表示装置におけるRGB3原色のドットデータと画素の対応例を示す図である。
【図6】本発明の第1の実施の形態による立体画像表示装置における画像を移動させる際にRGB3原色のドットデータのうち1ドットを移動させる例を示す図である。
【図7】本発明の第1の実施の形態による立体画像表示装置における画像を移動させる際にRGB3原色のドットデータのうち2ドットを移動させる例を示す図である。
【図8】図8(A)から(C)までは、本発明の第1の実施の形態による立体画像表示装置における視差量調整の際に画像を中心をずらすことなく移動させる例を示す図である。
【図9】図9(A)から(C)までは、本発明の第1の実施の形態による立体画像表示装置における視差量調整のために画像データを移動させた際の例を示す図である。
【図10】本発明の第1の実施の形態による立体画像表示装置における視差量地要請のために画像データを移動させ、移動後の中心をずらさないように領域を判定した際の補間対象領域の例を示す図である。
【図11】図11(A)及び(B)は、本発明の第1の実施の形態による立体画像表示装置におけるディスプレイを3次元表示と2次元表示とを切り替える方法の例を示す図である。
【図12】図12(A)から(D)までは、本発明の第1の実施の形態による立体画像表示装置における画像データを補間する例を示す図である。
【図13】本発明の第2の実施の形態による立体画像表示装置の構成例を示す機能ブロック図である。
【図14】図14(A)から(C)までは、本発明の第2の実施の形態における、視差量調整を行い、画像の表示領域に画素値が存在しない時に、その領域に画像を生成する例を示す図である。
【図15】本発明の第3の実施の形態による立体画像表示装置の構成例を示す機能ブロック図である。
【図16】図16(A)及び(B)は、本発明の第3の実施の形態による立体画像表示装置における立体視を行うための立体視制御情報の格納方法の例を示す図である。
【図17】図17(A)及び(B)は、本発明の第3の実施の形態による立体画像表示装置における立体視を行うための立体視制御情報を画像データ内に格納する際の記述方法の例を示す図である。
【図18】本発明の第3の実施の形態による立体画像表示装置における立体視を行うための立体視制御情報を装置内に記録する時の記述方法の例を示す図である。
【図19】立体視制御情報を付随する立体視用の画像データを表示させる立体画像表示装置の構成例を示す機能ブロック図である。
【図20】図20(A)及び(B)は、本発明の第4の実施の形態による立体画像表示装置における最大シフトベクトルを立体視制御情報に含めて記録する例を示す図である。
【図21】本発明の第4の実施の形態による立体画像表示装置における最大シフトベクトルの情報を持つ立体視用の画像データを表示する立体画像表示装置の構成例を示す機能ブロック図である。
【図22】図22(A)から(E)までは、本発明の第5の実施の形態による立体画像表示装置における立体視用の画像データを拡大・縮小して表示する時に視差量調整を行う時の画像データの移動例を示す図である。
【図23】本発明の第5の実施の形態による立体画像表示装置の構成例を示す機能ブロック図である。
【図24】図24(A)及び(B)は、本発明の第6の実施の形態による立体画像表示装置における立体視制御情報を伝送媒体で伝送する際の格納例を示す図である。
【図25】図25(A)から(C)までは、本発明の第3の実施の形態による立体画像表示装置における飛び出し距離を算出するための計算例を示す図である。
【図26】本発明による第7の実施の形態による立体視情報の構成例を示す図である。
【図27】本発明による第7の実施の形態による画像表示領域の選択例を示す図である。
【図28】デジタルビデオテープ上のトラックの記録状態を示す図である。
【図29】デジタルVTRのトラックフォーマットを示す図である。
【図30】各トラックの画像記録領域内のデータ構成を示す図である。
【図31】本発明の第8の実施の形態による立体画像記録装置の構成を示す図である。
【図32】本発明の第8の実施の形態による立体画像記録装置の多重化部の構成を示す図である。
【符号の説明】
1…立体画像処理部、2…ユーザー入力部、3…視差量調整情報算出部、4…表示領域判定部、5…画像補間部、6…表示部、7…画像データ生成部、8…立体視情報記録部、9…立体視情報読み出し部、10…最大シフトベクトル読み出し部、11…拡大・縮小処理部、2601…飛び出し方向、2602…飛び出し距離、2603…飛び出しベクトル、2604…平面表示画像選択情報、3002…VAUXα、3003…画像符号化データ記録領域、3004…VAUXβ、3103…付随情報符号化部、3104…多重化部、3205…付随情報符号化データ振り分け部。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technique for stereoscopically displaying a plurality of images corresponding to a plurality of viewpoints.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a stereoscopic image display method is known in which a stereoscopic image can be viewed by stereoscopically viewing a set of images having parallax. For example, a left-eye image and a right-eye image are alternately output to a display device, and the user reproduces the image through glasses that can switch shutters in synchronization with the switching timing of the display, thereby forming a stereoscopic image. Can be observed.
[0003]
As a method of reproducing a stereoscopic image without using special glasses or the like, there is a method called a parallax barrier method. Each of the image for the left eye and the image for the right eye is decomposed into strips in the vertical scanning direction of the image, and alternately arranged to form one image. The display device that displays the image has a strip-shaped slit similar to that obtained when the image is decomposed. The strip-shaped image data is observed on the display device through the slit. When the image for the left eye arranged in a strip shape by the polarizing plate is reproduced with the left eye of the user and the image for the right eye is reproduced with the right eye, a stereoscopic effect can be obtained in the image. There is also a method called a lenticular method using a lenticular lens instead of a slit.
[0004]
There is disclosed a technique for changing the stereoscopic effect of a reproduced image so that a user can view a better stereoscopic image. When a human observes an object three-dimensionally, different images are observed by the left and right eyes, and these images have a shift called parallax.
[0005]
Humans perceive a three-dimensional effect based on this parallax. The amount of parallax is called a parallax amount, and the stereoscopic effect is adjusted by adjusting the parallax amount. This document describes the technology of adjusting the amount of parallax when displaying and displaying a stereoscopic image in digital broadcasting, and displaying the image on a stereoscopic display. (For example, see Patent Document 1).
[Patent Document 1]
JP-A-2000-78615, FIG.
[0006]
[Problems to be solved by the invention]
By the way, when adjusting the amount of parallax, for example, in a method in which left and right images are alternately arranged in a strip shape for each line, such as a lenticular method or a parallax barrier method, the combination position of the strip data is usually determined. The parallax amount can be adjusted by changing it, but the accuracy of the adjustment is determined by the strip width. Therefore, the three-dimensional effect cannot always be adjusted according to the user's preference.
[0007]
Further, when the combination position of the strip-shaped data is changed, a portion where data for reproducing as a stereoscopic image does not exist occurs, and the portion cannot be displayed in a good stereoscopic view. Therefore, a portion where a stereoscopic image can be displayed well (a display region where the stereoscopic image can be observed) becomes small.
[0008]
On the other hand, even if all the image data is to be displayed in the image after the parallax adjustment, the width of the strip-shaped image data after the parallax adjustment is wider than the width of the display area by the parallax adjustment, and the entire image data is displayed. Cannot be displayed.
An object of the present invention is to display a good stereoscopic image with less discomfort in a stereoscopic image in which the amount of parallax has been adjusted.
[0009]
[Means for Solving the Problems]
According to one aspect of the present invention, there is provided a stereoscopic image display device that displays a stereoscopic image based on a plurality of images corresponding to a plurality of viewpoints, and includes a parallax adjustment method for adjusting a parallax amount based on information regarding a change in the parallax amount. A parallax amount adjustment information calculation unit that calculates amount adjustment information; an image processing unit that generates an image for stereoscopic display based on the parallax amount adjustment information; and an image interpolation unit that interpolates a predetermined area in the plurality of images. Is provided.
[0010]
It is preferable that, when there is a non-pixel value area where no pixel value exists in the display area of the image for stereoscopic display, the image interpolation unit interpolates only the non-pixel value area using another pixel value. .
According to the three-dimensional image display device, it is possible to interpolate the pixel value of the non-pixel value area in association with the change in the amount of parallax.
[0011]
According to another aspect of the present invention, there is provided a stereoscopic image display device that displays a stereoscopic image based on a plurality of images corresponding to a plurality of viewpoints, and adjusts a parallax amount based on information on a change in the parallax amount. A parallax adjustment information calculation unit that calculates parallax adjustment information relating to the image, an image processing unit that generates an image for stereoscopic display based on the parallax adjustment information, and a new image in a predetermined area in the plurality of images. And a three-dimensional image display device including an image generation unit that generates the image data.
[0012]
When there is a non-pixel area where no pixel value exists in the display area of the image for stereoscopic display, the image generation unit preferably generates a new image only in the non-pixel area.
According to the three-dimensional image display device, it is possible to generate a new image in the non-pixel value area in association with the change in the amount of parallax.
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
In this specification, each of the RGB data of the three primary colors is called a dot, and a group of the RGB data of the three primary colors is called a pixel. In the present embodiment, the image data includes a moving image and a still image. Further, the image data includes, for example, compressed image data using a still image compression technology such as JPEG or a moving image compression technology such as MPEG-4.
[0014]
Hereinafter, a stereoscopic image display technique according to the first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a functional block diagram illustrating a configuration example of the stereoscopic image display device according to the present embodiment. As shown in FIG. 1, the stereoscopic image display device A according to the present embodiment generates image data capable of performing stereoscopic display based on input image data Din (hereinafter, also referred to as “stereoscopic image data”). A stereoscopic image processing unit 1 for performing image processing, a user input unit 2 for inputting by a user, a parallax amount adjustment information calculation unit 3 for calculating parallax amount adjustment information based on a user's input, A display area determining unit 4 for determining an area to be actually displayed on the stereoscopic video display device from the stereoscopic video, an image interpolating unit 5 for generating interpolation data in a specific area, and a determined area of the generated image. It comprises a display unit 6 for displaying.
[0015]
First, the left-eye image data and the right-eye image data input to the stereoscopic image display device A are converted into data that can be stereoscopically displayed in the stereoscopic image processing unit 1. For example, in the case of a stereoscopic image display device using a parallax barrier method or a lenticular method, the stereoscopic image processing unit 1 outputs a stereoscopic image in which left-eye image data and right-eye image data are alternately arranged in a strip shape. Generate data.
[0016]
The user inputs the data for adjusting the amount of parallax of the stereoscopic image to be displayed using the user input unit 2. The input parallax adjustment data is converted into parallax adjustment information in the parallax adjustment information calculation unit 3 and output to the stereoscopic image processing unit 1. The stereoscopic image processing unit 1 generates stereoscopic image data using the parallax amount adjustment information when the stereoscopic image data is input when generating the stereoscopic image data. The generated stereoscopic image data is output to the display area determination unit 4.
[0017]
The display area determination unit 4 determines whether or not the generated stereoscopic image data can be favorably displayed on the display unit 6. The image width of the stereoscopic image data on which the parallax adjustment has been performed may not correspond to the image width that can be displayed by the display unit 6. In such a case, the pixel area of the display unit 6 does not match the pixel area of the stereoscopic image data, and an uncorresponding area occurs. In such an area, there is a case where the image data cannot be displayed in a good state without knowing how to display the image data.
[0018]
Therefore, the display area determination unit 4 determines whether there is an area that cannot be handled, and if the display area determination unit 4 determines that there is an area that cannot be handled, the image interpolation unit 5 cannot be handled. The information S1 relating to the area is output. When the display area determination unit 4 determines that there is no area that cannot be matched, the stereoscopic image data S2 is output to the display unit 6 as it is (through).
[0019]
The image interpolation unit 5 performs an interpolation process on the stereoscopic image data output from the display area determination unit 4 so as to provide pixel data to the area determined by the display area determination unit 4 by a predetermined method. In addition, the stereoscopic image data subjected to the interpolation processing is output to the display unit 6. The display unit 6 displays the stereoscopic image data S2 output from the display area determination unit 4 or the stereoscopic image data S3 output from the image interpolation unit 5.
[0020]
In the stereoscopic image display apparatus A according to the present embodiment, the format of the stereoscopic image data displayed on the display unit 6 is such that the left and right images typified by the parallax barrier method and the lenticular method are image data for one pixel. This is a method in which a stereoscopic view is performed by alternately arranging the images in a strip shape every time. The input image is image data including data that can be viewed stereoscopically, and the image data to be stereoscopically viewed on the display unit 6 is that in which data of an image for the left eye and an image for the right eye are arranged in a strip shape. . The input image data only needs to be able to generate strip data in the stereoscopic image processing unit 1. For example, the input image may be image data originally synthesized in a strip shape. In this case, the stereoscopic image processing unit 1 outputs the input data as it is without creating a strip image again.
[0021]
Alternatively, the image data for the left eye and the image data for the right eye may be separated image data. In this case, the stereoscopic image processing unit 1 creates a strip-shaped image from the left-eye image and the right-eye image as described in FIG. 2A below. FIG. 2A is a diagram illustrating an example of generating stereoscopic image data from input image data for the left eye and input image data for the right eye. From the image data for the left eye and the image data for the right eye in FIG. 2A, pixels (201, 202) reproduced by the same slit when stereoscopically viewing the strip-shaped data are obtained, and they are arranged. The data 200 for stereoscopic display is generated. By repeating this processing, it is possible to generate stereoscopic image data in which the width of the strip is one pixel.
[0022]
When the strip-shaped stereoscopic image data 200 is created by such a method, the width of the strip-shaped stereoscopic image data 200 is equal to the width of the input image data 201 for the left eye and the input image data 202 for the right eye. It becomes equal to the sum of the widths of the respective images. Therefore, in order to create data that can be displayed by the display unit 6, the input image data 201 for the left eye and the input image 202 for the right eye are formed by half of the generated strip-shaped three-dimensional display image data 200. It is necessary to keep the image width.
[0023]
When the image width of the input image data 201 for the left eye and the input image data 202 for the right eye is the same as the display width of the display unit 6, when generating the strip-shaped image data, the left eye Data is thinned out so that the image width of the input image data 201 for the right eye and the input image data 202 for the right eye is reduced to half, and then strip-shaped image data is generated.
[0024]
FIG. 2B shows an example of a method for creating strip-shaped data by thinning out data from input image data. As shown in FIG. 2B, one dot of G data 204 from input image data 201 for the left eye is taken from each pixel of the image for the left eye and the image for the right eye among the three primary colors of RGB, and A process for generating one RGB pattern 203 by taking only two dots of R data 205 and B data 206 from the input image data 202 of FIG. This processing is performed for each image alternately (a pattern that takes one data from the input image data 201 for the left eye and takes two data from the input image data 202 for the right eye, A pattern in which two pieces of data are taken from the data 201 and one piece of data is taken out of the input image data 202 for the right eye) is repeated to create the image data 200 for stereoscopic vision. The method of forming a strip image is not limited to the method described with reference to FIG. 2B. For example, the pixel denoted by reference numeral 203 in FIG. 2 is a left-eye G1 dot (204), It is composed of R1 dot (205) for right eye and B1 dot (206), but R1 dot (207) for left eye, B1 dot (208) and G1 dot for right eye (209) with reversed pattern. May be used to generate image data. The stereoscopic image processing unit 1 shown in FIG. 1 compares the number of pixels of each input image with the number of displayable pixels, determines whether to thin out the input image to generate a strip image, and Is generated.
[0025]
Next, processing when the user adjusts the amount of parallax will be described. The user adjusts the amount of parallax using the user input unit 2 in FIG. The user input unit 2 is not limited to an input device such as a keyboard or a mouse, or a remote controller of any shape and type. For example, a method of adjusting a parallax amount by an amount proportional to the number of times a key is pressed in the specific direction by pressing a key for designating a specific direction of the keyboard at least once is also conceivable. The data input by the user input unit 2 is converted into parallax adjustment information in the parallax adjustment information calculation unit 3. For example, it is converted into specific information such as “the right-eye image data is moved to the left by one pixel”. The parallax adjustment information calculation unit 3 outputs the calculated parallax adjustment information to the stereoscopic image processing unit 1. The stereoscopic image processing unit 1 generates strip image data using the parallax amount adjustment information.
[0026]
The progress of the parallax adjustment process will be described with reference to FIGS. In FIG. 3, a block denoted by a reference numeral 301 and the like indicates data for one pixel, and L and R are codes indicating a left-eye image and a right-eye image, respectively. The numbers attached below L or R indicate pixel numbers, which are assigned for convenience of explanation, and are assigned in order from the left end of the image data. Reference numeral 301 indicates the leftmost pixel of the left-eye image. Reference numeral 304 in FIG. 3 and reference numeral 403 in FIG. 4 indicate the width of the display area where the display unit displays each image data.
[0027]
Further, when observing a stereoscopic image using a lenticular lens, a parallax barrier, or the like, pixels observed through the same slit (for example, pixels indicated by reference numerals 1103 and 1104 in FIG. 11) are defined as a stereoscopic image. The pair to be reproduced is represented in the upper and lower directions as indicated by reference numerals 302 and 303 in FIG. Unless the parallax amount is adjusted by the user, there is data to be displayed for all the pixels of the display unit 6 in the generated strip-shaped image data. In the area determination, it is determined that there is no area to be interpolated.
FIG. 4 shows pixels and corresponding pixel data in the case where the user's adjustment by the parallax amount adjustment information calculation unit 3 moves, for example, the left-eye image by one pixel to the right.
[0028]
If the display position of the image data is moved and displayed as it is, there is no pixel data to be displayed like the position of the pixel 401 (shown by a broken line) in FIG. As described above, pixel data that cannot be displayed because it protrudes from the display area 403 occurs. At this time, the display area determination unit 4 determines that there is no image data to be displayed in the pixel 401 and that the pixel 402 is out of the display area 403, and outputs the information to the image interpolation unit 5.
[0029]
The movement of the image for adjusting the amount of parallax described above is described in the case of a unit of one pixel. In this case, the adjustment accuracy may be too coarse depending on the size of the image data and the size of the display unit 6.
[0030]
Human recognition of an image can be considered as recognition of RGB as a set of data when each dot of the RGB primary color data forming each pixel forms an image on the eye. Therefore, for example, even if the arrangement of RGB is changed to GRB, these may be recognized as a unit by the human eye. FIG. 5 illustrates the image data for the left eye in FIG. 3 expressed in RGB dot levels. In order to recognize the L3 image data (pixel 302 in FIG. 3), LR3 (dot 501 in FIG. 5), L-G3 (dot 502 in FIG. 5), and LB3 (dot 503 in FIG. 5) It is only necessary that the three dots can be recognized collectively.
[0031]
That is, it is possible to move at the dot level of the three primary color data RGB. FIG. 6 shows this state. FIG. 6 focuses on the image for the left eye in FIG. 5, and FIG. 6A shows the same state as FIG. Reference numeral 604 indicates a display area where the display unit displays the left-eye image. FIG. 6B shows a state (FIG. 4) in which one pixel has been moved. FIG. 6C shows a state in which the image is moved by one dot at the dot level. The shaded portion indicates that dot data is missing due to the movement of the left-eye image. FIG. 6C focuses on the dots of the R data (reference numeral 601 in FIG. 6A) of the image for the left eye, and L-R1 to L-R2, L-R2 to L-R3, and L-R2, respectively. It is a figure showing the state where R3 was moved to the position of L-R4.
[0032]
Even if the data is moved in this way, as shown in FIG. 6C, the original arrangement of one RGB pixel has not changed. The moving amount of the image by this moving method is, as shown by reference numeral 602 in FIG. 6C, a movement of 1/3 pixel, which is smaller than the moving of one pixel (603 in FIG. 6B). Become. Therefore, finer adjustment of the parallax amount is possible than when the image data is moved in data units of one pixel.
[0033]
Similarly, focusing on two dots of R data and G data, as shown in FIG. 7C, L-R1, L-G1 is L-R2, L-G2 is L-R2, and L-G2 is L-G2. By moving to -R3 and L-G3, respectively, the amount of adjustment can be reduced. This movement corresponds to a movement of 2/3 pixels (reference numeral 703 in FIG. 7). Even in this case, finer adjustment of the amount of parallax is possible than when the image is moved in data units of one pixel.
[0034]
In the present embodiment, an example of movement of R data and movement of R data and G data has been described. However, the present invention is not limited to only a combination of the data. Further, the image data may be moved by combining the movement in units of color data and the movement in units of one pixel.
[0035]
When adjusting only one of the left and right images when adjusting the amount of parallax by the method described above, the center of the stereoscopic image viewed by the user is also shifted in the direction in which the stereoscopic image is moved. Is difficult. Therefore, when calculating the parallax amount adjustment information, the parallax amount adjustment information calculation unit 3 may adjust the left-eye image and the right-eye image to move together in conjunction with each other. For example, if the adjustment of the amount of parallax by the user is four pixels, instead of moving the left-eye image by four pixels, the left-eye image is two pixels and the right-eye image is the left-eye image. A method of adjusting by moving two pixels in the opposite direction can also be used. As described above, by moving the left-eye image and the right-eye image in the opposite directions by the same amount, the amount of parallax can be adjusted without shifting the center of the stereoscopic display before and after the movement.
[0036]
When the adjustment amount of the parallax amount by the user is for even-numbered pixels, it is possible to adjust so that the center of the stereoscopic display is not shifted. However, when the adjustment amount is an odd-numbered pixel, the left-eye image and the right-eye image cannot be moved by the same amount, and the center of the stereoscopic display is shifted to the left or right.
[0037]
In such a case, the parallax amount adjustment information calculation unit 3 calculates the amount by which the left-eye image and the right-eye image are moved so that the shift of the center of the stereoscopic display is minimized. For example, when the user requests the parallax adjustment for five pixels, if the unit for moving the image is one pixel, the left-eye image is three pixels and the right-eye image is two pixels. Move in the opposite direction. As described above, if it is possible to move each dot of RGB, the image for the left eye is moved by 2+ (2/3) pixels, and the image for the right eye is moved by 2+ (1/3) pixels.
[0038]
As described above, even if the shift of the center of the stereoscopic display is minimized, the shift of the center becomes large when the adjustment amount is repeatedly moved by an odd number of pixels. Therefore, when the movement is repeated, the parallax amount adjustment information calculation unit 3 calculates and stores the information of the shift, and based on this storage, the image for the left eye and the right image are shifted so that the shift of the center of the stereoscopic display is reduced. The moving amount of the eye image is determined. Preferably, the adjustment is performed so that the shift of the center of the stereoscopic display is minimized.
[0039]
FIG. 8A shows an initial state of the left-eye image and the right-eye image. Reference numeral 801 denotes a display area for displaying each image on the display unit 6, and reference numeral 802 denotes the center of the display area 801. When the image data of FIG. 8A is stereoscopically viewed, the center of the stereoscopic display and the center (802) of the display area are the same. FIG. 8B shows a state in which the user first moves the left-eye image data by one pixel to the right from the state of FIG. 8A. The parallax adjustment information calculation unit 3 calculates the amount of movement as one pixel from the input of the parallax adjustment from the user, and notifies the stereoscopic image processing unit 1 of the amount of movement. For example, it is notified as vector information indicating that "the image for the left eye is moved rightward by one pixel" (reference numeral 803 in FIG. 8B).
[0040]
The stereoscopic image processing unit 1 to which the vector information is notified generates a moved image as shown in FIG. 8B. From this information, the parallax adjustment amount information calculation unit 3 calculates and stores the deviation of the center of the stereoscopic display from the center of the display area. In this example, since only one of the images is moved, the center of the stereoscopic display is the position indicated by the reference numeral 804 in FIG. 8B. Therefore, the displacement information calculated by the parallax amount adjustment information calculation unit 3 is an arrow (vector) indicated by reference numeral 805 in FIG. 8B.
[0041]
Next, when the user adjusts the amount of parallax again, the parallax amount adjustment information calculation unit 3 calculates the amount of parallax adjustment information so as to reduce the amount of deviation by using the deviation information at the time of the previous movement. It is preferable to make an adjustment so as to minimize the deviation. When it is calculated that the left-eye image data is further moved to the right by three pixels as the parallax amount adjustment information, the left-eye image is shifted so as to eliminate the shift of reference numeral 805 in FIG. To the stereoscopic image processing unit 1 so as to move the image to the right by one pixel and the image for the right eye to the left by one pixel. FIG. 8C shows a state of movement based on this notification. Arrows (vectors) indicated by reference numerals 806 and 807 in FIG. 8C correspond to the amounts of moving the respective images. The line indicated by reference numeral 808 in FIG. 8C is the center of the stereoscopic display after the movement, and it can be seen that the deviation from the center of the display area 801 has been eliminated.
[0042]
In the present embodiment, the method of adjusting the displacement based on the stored displacement information has been described as an example, but the method of reducing the displacement of the center of the stereoscopic display after the user adjusts the amount of parallax, and preferably the method of minimizing the displacement. If so, another method may be used. For example, the user uses a device that adjusts parallax on a pixel-by-pixel basis, stores the moved image and the direction, and, in a subsequent operation, moves an image that was not a moving target in the previous operation as a moving target and alternately moves the image. Alternatively, a method of eliminating the deviation may be used. The image data adjusted in the parallax amount by the stereoscopic image processing unit 1 in this manner is output to the display area determination unit 4.
[0043]
The input image is usually created in consideration of good display on the display unit 6 without adjusting the amount of parallax. Therefore, unless the amount of parallax is adjusted, the input image is generated from the input image. The rectangular image has the same size as the display area of the display unit 6. However, the strip-shaped image generated by adjusting the amount of parallax has a size larger than the display area of the display unit 6. Therefore, the display area determination unit 4 determines which area of the strip image is to be displayed on the display unit 6. As a criterion for determining this area, for example, a method of shifting the center of stereoscopic display from the center of the display as much as possible, and a method of extracting and displaying only a region that can be stereoscopically viewed can be considered.
[0044]
With reference to FIG. 9 and FIG. 10, a process when the input image data is moved will be described. FIG. 9A shows input image data. Reference numeral 901 in FIG. 9A indicates left-eye stereoscopic image data, and reference numeral 902 indicates right-eye stereoscopic image data. It is assumed that the size of the strip image generated from the input image data is the same as the display area of the display unit 6 in FIG. Reference numerals 903, 905, and 909 in FIGS. 9A to 9C are arrows indicating the width of the display area corresponding to each of the left-eye stereoscopic image data and the right-eye stereoscopic image data.
[0045]
FIG. 9B illustrates an example in which the stereoscopic image data for the right eye is moved by a vector indicated by reference numeral 906. Reference numeral 904 denotes an area where there is no image data to be displayed, reference numeral 911 denotes the center of the display area, reference numeral 912 denotes the center of stereoscopic display, and reference numeral 913 denotes a shift amount from the reference numeral 911 to the reference numeral 912. Is shown. As shown in FIG. 9 (B), the display area determination unit 4 (FIG. 1) changes the display area of the image data and extracts an area that does not change the center of the stereoscopic display, thereby providing a good stereoscopic image. Images can be played.
[0046]
For example, a range indicated by an arrow 1001 in FIG. 10 is set as a display area. As shown in FIG. 10, areas denoted by reference numerals 1004, 1005, 1006, and 1007 are not used for display. Of these, pixels are present in the areas denoted by reference numerals 1006 and 1005, but are cut off from the display. An area 1002 and an area 1003 are display areas, but have no image data, and thus are parts to which data is to be given by image interpolation processing described later. By selecting the display area in this way, the center of the display position and the center of the stereoscopic display can be set to coincide with or be close to each other.
[0047]
As shown in FIGS. 9 and 10, when the image is moved, a display area without image data is generated, such as an area 904 in FIG. 9A and areas 1002 and 1003 in FIG. . Therefore, in order to reproduce such an area better, interpolation processing of image data is performed. In the method according to the present embodiment, it is assumed that a display that can partially switch between the two-dimensional display mode and the three-dimensional display mode (stereoscopic display) is used for the display unit 6 (FIG. 1), and the display unit 6 (FIG. Interpolation processing that can be displayed is performed. This will be described with reference to FIG.
[0048]
Switching of the display mode is instructed by the reference numerals 1103 and 1104 reproduced by one eye, for example, by eliminating a part of the barrier (reference numerals 1101 and 1102) shown in FIG. This is realized when the pixels to be reproduced can be reproduced by both eyes as shown in FIG. However, if the display mode is partially switched, the switching means is not limited to the method shown in FIG.
[0049]
As described above, in the image data on which the parallax amount has been adjusted by the user, an area to be displayed is set by the display area determination unit 4, and an area without pixel data exists in the set display area. It is determined whether or not to do. Information on this area is output to the image interpolation unit 5 together with the image data. In order to obtain image data that is favorably reproduced in the two-dimensional display mode, the image interpolating unit 5 generates pixel data by performing an interpolation process based on data of peripheral pixels for pixels having no image data.
[0050]
With reference to FIG. 9, an example of processing in the image interpolation unit 5 will be described. As described above, the area indicated by reference numeral 904 in FIG. 9B is an area where interpolation processing is required due to movement. The display area determination unit 4 determines that there is no image data to be displayed in the area indicated by reference numeral 904, and instructs the display unit 6 to display the area 904 in the two-dimensional display mode. At the same time, it instructs the image interpolation unit 5 to generate interpolation data in this area 904.
[0051]
First, the image interpolation unit 5 copies the data of the corresponding part from the left-eye image to an area where data is missing due to the movement of the image and is also a display target. In the example shown in FIG. 9C, the data in the area 907 is copied to the area 908. Actually, in the state shown in FIG. 9C, the left-eye stereoscopic image data and the right-eye stereoscopic image data are arranged in a strip shape. FIG. 12A is an enlarged view of the vicinity of the region 910 in FIG. 9C. As shown in FIG. 12A, a tree portion is shown in black and a background portion is shown in white. The image data for stereoscopic vision converted into a strip shape including this portion is as shown in FIG.
[0052]
The shaded portion (the region indicated by reference numeral 1201) in FIG. 12B is a portion having no pixel data to be displayed because the right-eye stereoscopic image data has moved. FIG. 12C is a diagram illustrating a state in which pixel data is copied from the corresponding portion of the left-eye stereoscopic image data to the right-eye stereoscopic image data as described above. FIG. 12C shows that the image data of L1 is copied to R2 and the image data of L2 is copied to R3. By performing such a process, when the corresponding region is displayed, the region is better observed than in FIG. 12B, but the roughness is actually conspicuous. Therefore, the image interpolating unit 5 generates an interpolated image as shown in FIG. For example, a two-tap low-pass filter is applied in the horizontal direction. For example, the data of the R5 image area (reference numeral 1204) is calculated from L4 (reference numeral 1203) and L5 (reference numeral 1202) based on the formula (L4 + L5) / 2. For example, pixel data of another area where there is no pixel data including the pixel data of the column indicated by reference numeral 1205 is similarly calculated based on the adjacent left-eye image data.
[0053]
The interpolation method is not limited to the method using the average value as described above. For example, the interpolation may be performed using a low-pass filter having three or more taps. In addition, in the area where interpolation is performed, horizontal aliasing or blurring due to a filter may occur due to the interpolation processing. Therefore, a good display may be obtained by using a sharp filter, a noise removal filter, or the like. . The interpolated stereoscopic image data generated in this way is output to the display unit 6. By generating the interpolated image data using the low-pass filter as described above, a good image suitable for the two-dimensional display mode can be obtained on the display unit 6. In FIG. 10, display areas 1002 and 1003 in which no pixel data exists are generated. These areas may be interpolated by the same method as described above.
[0054]
As described above, the display area determination unit 4 in FIG. 1 determines the presence or absence of pixel data in the area used for actual display, and determines the area without pixel data as the area to be interpolated in the image interpolation unit 5. . By limiting the area to be interpolated to the display area in this way, the load of the interpolation processing can be reduced.
[0055]
Further, in the present embodiment, an example of moving an image in pixel units has been described. However, as described above, similar processing for area determination processing and interpolation processing can also be performed for an example of moving three primary color data in RGB data units. Needless to say, this is possible. In addition, although the technology for partially switching the interpolated area in the display device to the two-dimensional display mode has been described, the above method is applied to a three-dimensional display device having no function of partially switching to the two-dimensional display mode. It is also possible. In this case, the interpolated area is displayed in the stereoscopic display mode as before.
[0056]
As described above, according to the stereoscopic image display technique according to the first embodiment of the present invention, in a stereoscopic image in which the amount of parallax is adjusted, an interpolated image is created and displayed for an area where stereoscopic display is difficult. Thus, it is possible to display a good three-dimensional image with less discomfort without reducing the display area.
[0057]
Next, a stereoscopic image display technique according to a second embodiment of the present invention will be described. In the three-dimensional image display technology according to the first embodiment, a technology has been described in which interpolation image data is created for a display region where no pixel data exists due to adjustment of the amount of parallax by the user, and the region is displayed two-dimensionally. The three-dimensional image display technique according to the present embodiment is a technique for performing favorable three-dimensional display by displaying other image data in a display area where no pixel data exists.
[0058]
FIG. 13 is a block diagram illustrating a configuration example of the stereoscopic image display device according to the present embodiment. The difference from the stereoscopic image display device shown in FIG. 1 is that an image data generation unit 7 is provided instead of the image interpolation unit 5 (FIG. 1). For example, the image data generation unit 7 adds new image data to the region 1002 of the left-eye image data corresponding to the region 1002 and the region of the right-eye image data corresponding to the region 1003 and the region 1003 in FIG. insert.
[0059]
FIG. 14 is a diagram showing how the image data generation unit 7 (FIG. 13) inserts new image data. In FIG. 14A, reference numerals 1401 and 1402 denote portions where no pixel data exists, and reference numerals 1403 and 1404 denote portions where there is no paired data for stereoscopic display. The image data generator 7 combines these areas (the areas indicated by arrows 1406 and 1407 in FIG. 14A) with new images 1411a and 1411b as shown in FIG. 14B. Then, an image shown in FIG. The area indicated by the arrow 1405 indicates a display area.
As described above, by newly generating and displaying image data in a region where good stereoscopic vision cannot be performed, the user can reproduce only a portion of a good stereoscopic image.
[0060]
The new image used in the present embodiment may be an image for the two-dimensional display mode or an image for the three-dimensional display mode. When an image for the two-dimensional display mode is used, the display mode may be partially switched to the two-dimensional display mode. However, when there is no such function, reproduction is performed in the three-dimensional display mode. You may.
According to the stereoscopic image display technique according to the present embodiment, it is possible to display a good stereoscopic image with less discomfort by generating a new image in an area where stereoscopic display is difficult.
[0061]
Next, a stereoscopic image display technique according to a third embodiment of the present invention will be described with reference to the drawings. The stereoscopic image display technology according to the first and second embodiments is a stereoscopic image display process when the user adjusts the amount of parallax of the stereoscopic image and adjusts the amount of parallax. By the way, when a plurality of stereoscopic images are repeatedly displayed, if the operation of adjusting the amount of parallax is performed again each time, the processing becomes complicated for the user. Therefore, in order to avoid this, in the stereoscopic image display technique according to the present embodiment, the parallax amount adjusted by the user is stored for each stereoscopic image.
[0062]
Hereinafter, the parallax amount adjustment information is referred to as a shift vector. This shift vector is, for example, a vector indicated by reference numeral 906 in FIG. 9B. The content of the shift vector may be in any format as long as it can represent the adjusted amount of parallax. For example, a state in which a stereoscopic image is captured, that is, a state in which the parallax amount is not adjusted by the user is 0, a movement of a specific image in a specific direction is +, and a movement of the specific image in the opposite direction is-. The adjustment amount (the number of dots or the number of pixels) may be indicated. When the size of the shift vector is represented by the number of pixels, the amount of parallax changes when the size of the display for observing the stereoscopic image changes, so that the appearance (protruding distance or the like) changes. Therefore, the projection distance itself of the stereoscopic image may be recorded as a shift vector in units of, for example, cm so that the same state can be observed even when the size of the display is changed. The pop-out distance is represented, for example, with a state in which the amount of parallax is not adjusted as a reference (0). An example of calculating the pop-out distance will be described with reference to FIG.
[0063]
As shown in FIG. 25A, the distance between the left and right eyes of the observer is represented by e, and the distance between the observer and the display is represented by L. The state of FIG. 25A is a state in which the pixel observed by the right eye and the pixel observed by the left eye are observed through the same slit (P1). This pixel is then observed on the display.
[0064]
Next, the image observed by the right eye is moved by one pixel to the left in the drawing. This state is shown in FIG. The pixel existing at P1 moves to the position of P2. At this time, the pixel observed with the left eye and the pixel observed with the right eye are observed through different slits, forming an image at the position of S1, and a three-dimensional effect is generated. The distance d from the display at this time is the pop-out distance.
[0065]
Here, as shown in FIG. 25B, the moving distance from P1 to P2 is w. w is a value that depends on the device (display). Further, the distance L between the display and the observer also depends on the display in the case of the parallax barrier method or the lenticular method. Therefore, in order to calculate the pop-out amount, it is necessary to know the distance L and the moving distance w between the display and the observer. The distance e between the left and right eyes of the observer is considered to be substantially constant. Based on these assumptions, the pop-out distance d is obtained by the following equation.
[0066]
e: (Ld) = w: d (1)
Equation (2) is obtained from equation (1).
d = (w × L) / (e + w) (2)
[0067]
Here, the jumping distance d and the moving distance w take positive and negative values. When the pop-out distance d takes a positive value, it indicates that the user appears to jump out of the state before the adjustment of the parallax amount, and when the pop-out distance d takes a negative value, the user does not adjust the parallax amount before the adjustment. Indicates that you can see from the state to the back. The moving distance w has a positive value when the image observed with the right eye is moved to the left, and has a negative value when the image observed with the right eye is moved to the right. In FIG. 25B, since w and d both take positive values, they appear to jump out by the distance of d. Conversely, FIG. 25C is a diagram in which the image observed by the right eye is shifted to the right by one pixel from FIG. 25A. The pixel existing at P1 moves to the position of P3 and forms an image at the position of S2. At this time, since the moving distance w has a negative value, the pop-out distance d has a negative value according to the above equation (2). Therefore, in FIG. 25C, an image can be seen in the back as compared with FIG. 25A. When the image to be observed by the left eye is moved, the positive / negative value of the moving distance w is opposite to that when the image to be observed by the right eye is moved. In the stereoscopic image display technology according to the first embodiment of the present invention, the display area is automatically set. However, when the user sets the display area arbitrarily, the display area set in addition to the shift vector is set. The area information (display area information) is recorded and used for the next display. The display area information, for example, focuses on the image for the right eye, and indicates how much the left end of the image for the right eye has moved from the left end of the initial display area.
[0068]
In the stereoscopic image display technology according to the first embodiment of the present invention, the display area is automatically set. However, when the user sets the display area arbitrarily, the display area set in addition to the shift vector is set. The area information (display area information) is recorded and used for the next display. The display area information, for example, focuses on the image for the right eye, and indicates how much the left end of the image for the right eye has moved from the left end of the initial display area.
[0069]
The stereoscopic image display technique based on the above principle will be described more specifically. FIG. 15 is a functional block diagram illustrating a configuration example of the stereoscopic image display device according to the present embodiment. As illustrated in FIG. 15, the stereoscopic image display device according to the present embodiment includes a stereoscopic image processing unit 1 that performs image processing so that an input image can be stereoscopically displayed, similarly to the stereoscopic image display device illustrated in FIG. A user input unit 2 for inputting from a user, a parallax amount adjustment information calculation unit 3 for calculating parallax amount adjustment information from a user input, and an area to be actually displayed on a display from an image-processed stereoscopic image. It includes a display area determination unit 4 for determination, an image interpolation unit 5 for generating interpolation data in a specific area, and a display unit 6 for displaying a determined area in the generated image. The difference from FIG. 1 is that a stereoscopic information recording unit 8 is provided. The basic operations of the other parts are the same as those described in the embodiments.
[0070]
In FIG. 15, the disparity amount adjustment information (shift vector) calculated by the disparity amount adjustment information calculation unit 3 is output to the stereoscopic image processing unit 1 and also to the stereoscopic information recording unit 8 (reference numeral 1501). . The display area determination unit 4 determines the display area, further changes the display area when the user arbitrarily sets the display area, and outputs the changed display area information to the stereoscopic information recording unit 8 ( Reference numeral 1502). The stereoscopic information recording unit 8 records (stores) the shift vector, and also records the display area information as needed.
[0071]
Next, an example of a method of recording the shift vector and the display area information will be described. In the present embodiment, an area for recording a shift vector and display area information is provided in stereoscopic image data. Normally, image data is provided with an area for storing information for managing the size of the image, the reproduction time, and the like. FIGS. 16A and 16B are diagrams showing examples of the data structure of image data. As shown in FIG. 16A, the image data for stereoscopic vision includes, for example, a management information area for managing image information such as a reproduction time and an image size, and an image for recording image data for each of the left and right eyes. And a data area.
[0072]
As shown in FIG. 16A, the image information 1601 describes information about the entire image such as the size of the image and the reproduction time of the moving image in the case of a moving image. Describes information necessary for decoding each image data (for example, information that the MPEG-4 technology is used as an encoding technology). Further, as shown in FIG. 16B, an area 1604 for recording information for stereoscopic image data (stereoscopic information) is provided in this management area, and shift vectors and display area positions are recorded.
[0073]
At the time of recording, a header indicating the presence of stereoscopic information is necessary so that the device can correctly read such information. For this purpose, an area for recording the stereoscopic (3D) image identification information 1605 is provided at the head of the stereoscopic vision information 1604. The stereoscopic image identification information 1605 indicates the presence of stereoscopic information and indicates that the following image data is stereoscopic image data. The stereoscopic image identification information 1605 may be a flag encoded with a fixed-length or variable-length code, but may be a specific symbol string or character string as long as it can be identified.
[0074]
In the stereoscopic information 1604, there is information on the shift vector and the display area position in addition to the stereoscopic image identification information 1605. For example, long stereoscopic vision places a burden on the eyes, so the continuous viewing time is limited. In such a case, the viewable time may be recorded together. Such information is referred to as stereoscopic control information and is recorded in an area indicated by reference numeral 1606. FIG. 16B shows a configuration example of the stereoscopic image identification information and the stereoscopic vision control information. As shown in FIG. 16B, stereoscopic vision control information 1606 is recorded following the stereoscopic image identification information 1605.
[0075]
The stereoscopic vision control information will be specifically described with reference to FIGS. The shift vector indicates the number of pixels to be moved. As shown in FIGS. 17A and 17B, the right-eye image data is shifted by 4 pixels in a direction in which the parallax is widened (right direction) by focusing on the right-eye image data. Is 4. The display area 1703 has moved from the original display area by two pixels in the horizontal direction (indicated by an arrow 1701) with the left end of the image as a reference position. This is represented by a vector 1705. The components of this vector are 2 in the horizontal direction and 0 in the vertical direction (1702), and are represented by (2, 0) as display area information in FIG.
Although the case where the stereoscopic vision control information is recorded in the management information area accompanying the image data has been described as an example, the stereoscopic vision control information may be recorded in a predetermined storage unit included in the display device. .
[0076]
FIG. 18 shows an example of shift vector and display area information stored in a predetermined recording area in the parallax amount information recording unit 8. As shown in FIG. 18, the parallax amount information recording unit includes information for identifying the stereoscopic image data by attaching file names such as contents A, B, and C, and stereoscopic control information (shift vector and display area). Information) is associated with a file name and tabulated. For example, in the content A, the shift vector (the number of pixels) is 4, and the display area information (the number of pixels) is (2, 0). In FIG. 18, the shift vector is represented as a one-dimensional vector.
[0077]
In the stereoscopic image display technology according to the present embodiment, the shift vector and the display area information are described by taking an example in which an integer pixel is a unit, but the present invention is not limited to this, and is not an integer. The pixel unit can be used as information for displaying the shift vector and the display area information.
[0078]
In the stereoscopic image display technique according to the present embodiment, the shift vector may be the number of pixels for moving the right-eye image / left-eye image in the horizontal direction or the amount of change in the stereoscopic projection distance. Therefore, information or a flag indicating whether the shift vector is represented by the number of pixels to be moved or the projection distance of stereoscopic vision may be recorded in the stereoscopic vision control information. Also, an example has been described in which both the shift vector and the display area information are recorded as the stereoscopic vision control information. However, only the shift vector is recorded, and a predetermined area that is determined in advance or an area that is automatically obtained may be used as the display area. Good. Alternatively, only the display area information may be recorded. Further, other information for stereoscopic viewing may be recorded.
[0079]
Further, in the present embodiment, an example has been described in which the stereoscopic image identification information and the stereoscopic vision control information are recorded only at one position at the head of the image file. However, as long as extraction is possible, it may be recorded in any area of the image file, or may be recorded in the image data. For example, when an image is encoded by MPEG-4, the image data includes encoded data and information (header information) for decoding the encoded data. The header information has an area (user area) that can be freely used by the user, and stereoscopic image identification information and stereoscopic vision control information may be recorded in this user area. Further, a plurality of pieces of stereoscopic image identification information and stereoscopic vision control information may exist in the image data. Thereby, for example, the amount of parallax can be changed in the middle of the image data.
[0080]
Next, a procedure for reproducing image data by the stereoscopic image display technique according to the third embodiment will be described. Here, it is assumed that the stereoscopic image identification information and the stereoscopic vision control information shown in FIG. 17 are recorded in the image data.
[0081]
FIG. 19 is a functional block diagram illustrating a configuration example of a stereoscopic image display device that displays image data for stereoscopic vision to which stereoscopic vision control information is added according to the present embodiment. In addition to the configuration shown in FIG. 1, a stereoscopic information reading unit 9 is provided. The stereoscopic information reading unit 9 reads the stereoscopic image identification information included in the input image data. When the stereoscopic image identification information confirms that the image is a stereoscopic image, the stereoscopic information reading unit 9 reads stereoscopic control information (shift vector and display area information) and encodes the stereoscopic information. If there is, decrypt it. If the shift vector exists in the stereoscopic vision control information, the shift vector is output to the parallax amount adjustment information calculation unit 3, and if the shift vector exists, it is output to the display area determination unit 4.
[0082]
The parallax adjustment information calculating unit 3 calculates parallax adjustment information using the shift vector input from the stereoscopic information reading unit 9 and the data for adjusting the parallax input from the user input unit 2. If there is no parallax adjustment by user input, parallax adjustment information is calculated from only the shift vector. The stereoscopic image processing unit 1 generates stereoscopic display image data using the parallax amount adjustment information.
[0083]
Further, the display area determination unit 4 determines a new display area according to the display area information and the parallax adjustment information input from the stereoscopic information reading unit 9. If there is no parallax adjustment by user input, the parallax adjustment information from the stereoscopic information reading unit 9 is used as it is.
[0084]
As described above, when the user repeatedly reproduces the same stereoscopic image data, the adjustment performed by the user during the previous reproduction is stored as the stereoscopic control information, and the stereoscopic control information is used during the reproduction. Thus, it is possible to perform the reproduction in the same manner as the previous reproduction without having to perform the adjustment of the parallax amount each time the reproduction is performed.
[0085]
As described above, according to the third embodiment of the present invention, by recording the shift vector related to the image data, that is, the content, it is not necessary to adjust the amount of parallax again when viewing the same content. An appropriate shift vector can be recorded every time.
[0086]
Next, a stereoscopic image display technique according to a fourth embodiment of the present invention will be described with reference to the drawings. Appropriate adjustment of the amount of parallax is effective for the user because reproduction can be performed in a better state. However, if the adjustment method is erroneous, stereoscopic vision may not be properly performed. In the present embodiment, in order to avoid this, the maximum value of the shift vector (maximum shift vector) is set, and the amount of parallax that can be adjusted by the user is limited. The maximum shift vector may be included in the image data management area (stereoscopic control information in FIG. 16B) or may be recorded in a predetermined recording area of the display device according to the present embodiment. Good.
[0087]
Description examples of the maximum shift vector are shown in FIGS. 20A and 20B, the maximum shift vector is described in the same manner as the above-described shift vector. That is, it is expressed as the number of dots to be moved or the pop-out distance. FIG. 20A shows an example in which image data is recorded, and the maximum shift vector is set to 10. FIG. 20B is an example in which the maximum shift vector value is determined for each content in a table format in a predetermined storage unit of the display device. For example, the maximum shift vector is 10 for the content A. The examples of FIGS. 20A and 20B show an example including not only the maximum shift vector but also information for other stereoscopic views, but it is not always necessary to include the information in the same region as those. Absent.
[0088]
FIG. 21 shows a configuration example of a stereoscopic image data reproducing apparatus according to the present embodiment. As shown in FIG. 21, the configuration has a configuration in which the stereoscopic information reading unit 9 shown in FIG. 19 is replaced with a maximum shift vector reading unit 10. The maximum shift vector reading unit 10 reads the maximum shift vector from the stereoscopic control information. If the stereoscopic control information exists in the same file as the input image data, the information of the maximum shift vector is extracted from the file. When the shift vector is recorded in the storage unit independent of the file, the shift vector corresponding to the input image data is read from the storage unit, and the maximum shift vector information is extracted.
[0089]
The extracted maximum shift vector is output to the parallax amount adjustment information calculation unit 3. The parallax amount adjustment information calculation unit 3 determines whether the shift vector calculated from the user input is within the range of the maximum shift vector, and if it is within the range, sends the calculated shift vector to the stereoscopic image processing unit 1 as it is. If the shift vector is larger than the maximum shift vector, the maximum shift vector is output as a shift vector. Accordingly, display using a large shift vector that makes it difficult to perform stereoscopic viewing is not performed, so that favorable stereoscopic display can be performed. The maximum shift vector can define both a positive value and a negative value, and the absolute value of the positive value and the absolute value of the negative value do not necessarily have to be equal. For example, when, for example, (−7) is defined together with (+10) as the maximum shift vector (one-dimensional vector in this example) for the content A in FIG. 20B, the shift vector calculated from the user input is The value is limited to a value between (−7) and (+10).
[0090]
If the shift vector calculated from the user input falls outside the range of the maximum shift vector, the shift vector may not be used. For example, when the shift vector by the user input is calculated as 20 at the time of reproducing the content A of FIG. 20B, the shift vector used for display is kept at the shift vector value “4”. If the display mode can be switched on the display unit 6 and the shift vector by the user input exceeds the maximum shift vector, the entire image may be displayed in the two-dimensional display mode.
[0091]
In the present embodiment, the maximum shift vector reading unit 10 is provided to extract the maximum shift vector. However, a function capable of executing the same processing is added to the stereoscopic information reading unit 9 shown in FIG. It is good.
[0092]
According to the fourth embodiment of the present invention, by setting the maximum shift vector, it is possible to prohibit the adjustment of the amount of parallax to the extent that stereoscopic viewing becomes difficult, which may impair the intention of the content creator. Therefore, a good stereoscopic image can be generated.
[0093]
Next, a three-dimensional image display device according to a fifth embodiment of the present invention will be described with reference to the drawings. When reproducing an image using stereoscopic image data in which a shift vector and a display area are set, or when adjusting the amount of parallax of a stereoscopic image during image reproduction, image processing such as image enlargement / reduction When the stereoscopic image data is reproduced by using both, the shift vector may be different from the number of pixels to be actually shifted. In such a case, it is preferable to perform the enlargement / reduction processing on the shift vector together with the image enlargement / reduction processing. This situation will be described with reference to FIGS.
[0094]
The image data shown in FIG. 22A is used as input image data, and the image data shown in FIG. 22B is used as image data that has been subjected to parallax adjustment (one-pixel shift). On the other hand, the image data shown in FIG. 22C is an image obtained by subjecting the input image data to enlargement processing (two-fold enlargement in the horizontal direction), and the image data shown in FIG. This is a parallax amount adjusted (one pixel shift) of the image data shown in (C). When the shift vector is expressed in units of pixels, the adjustment as shown in FIG. 22D is performed on the image after the enlargement as described above. Will be different. Therefore, the technology according to the present embodiment also enlarges / reduces stereoscopic control information such as a shift vector in accordance with enlargement / reduction of an image.
[0095]
FIG. 23 is a functional block diagram showing a configuration example of the stereoscopic image display device according to the present embodiment. FIG. 23 includes an enlargement / reduction processing unit 11 for performing image enlargement / reduction processing and a stereoscopic control information conversion unit 12 in addition to the configuration shown in FIG. 19. When the enlargement / reduction is performed, the enlargement / reduction processing unit 11 performs enlargement / reduction processing of the input image data, and the enlarged / reduced image data is output to the image processing unit 1. At that time, the enlargement / reduction processing unit 11 outputs the enlargement / reduction ratio to the stereoscopic vision control information conversion unit 12.
[0096]
The stereoscopic vision control information accompanying the image data is read by the stereoscopic vision information reading unit 9. The stereoscopic information reading unit 9 in the present embodiment reads the maximum shift vector in addition to the shift vector and the display area information. The read stereoscopic control information is output to the parallax adjustment information calculation unit 3 and the display area determination unit 4.
[0097]
The parallax amount adjustment information calculated by the parallax amount adjustment information calculation unit 3 is converted by the stereoscopic vision control information conversion unit 12 by multiplying the enlargement / reduction ratio of the input image data. For example, when the parallax adjustment information is a one-dimensional vector (−3) and the enlargement / reduction ratio is 2, the parallax adjustment information is converted to (−6). Similarly, the display area information generated by the display area determination unit 4 is converted by the stereoscopic control information conversion unit 12 according to the enlargement / reduction ratio.
[0098]
When the stereoscopic image display technology according to the present embodiment is used, the parallax amount adjustment according to the enlargement / reduction ratio is performed as shown in FIG. 22E instead of FIG. Can be observed.
[0099]
According to the fifth embodiment of the present invention, when the stereoscopic image is enlarged or reduced, the shift vector for adjusting the amount of parallax is corrected in accordance with the enlargement or reduction ratio. Even when the stereoscopic image data to be adjusted has been subjected to enlargement / reduction processing, a good stereoscopic image can be generated.
[0100]
Next, a stereoscopic image display technique according to a sixth embodiment of the present invention will be described with reference to the drawings. The technology in each of the above embodiments is a technology for storing stereoscopic vision information for stereoscopic image data stored in a file. When transmitting image data for stereoscopic viewing as broadcast content such as BS broadcasts and terrestrial digital broadcasts, it is necessary to store and transmit stereoscopic information in a method suitable for broadcasting. For example, it is necessary to be able to acquire such stereoscopic information even when the user changes channels and starts receiving new broadcast content.
[0101]
In the case of BS broadcasting, terrestrial digital broadcasting, and the like, program arrangement information for managing what kind of program is being broadcast is multiplexed with the content as shown in FIG. . The broadcast contents include data of a plurality of contents, and information indicating these contents is program arrangement information. The program arrangement information includes information (PMT: Program Map Table) for separating / identifying video signals and audio signals constituting each content from broadcast contents and program guide information (EIT: Event) describing the content of each content. Information Table).
[0102]
The program arrangement information is repeatedly multiplexed and transmitted in the broadcast content so that the channel switching in the receiver can be performed at any time. In the stereoscopic image display technique according to the present embodiment, stereoscopic information is included in the program arrangement information.
[0103]
FIG. 24B shows an example in which stereoscopic information is incorporated into program arrangement information. Here, it is assumed that the stereoscopic information includes the stereoscopic image identification information and the stereoscopic control information as described in the third embodiment of the present invention. That is, the stereoscopic image identification information indicates that the content is a stereoscopic image, and the stereoscopic vision control information includes information such as shift vector, display area information, and maximum shift vector.
[0104]
The receiver uses the stereoscopic image identification information from the broadcast content as described above, determines that the content is a stereoscopic image, and extracts stereoscopic vision control information. Then, as in the other embodiments described above, a shift vector or the like is obtained from the stereoscopic vision control information, and stereoscopic image data is generated and displayed.
[0105]
Although the information such as the shift vector and the area display position in the stereoscopic vision control information has been described as recording data when the user changes the stereoscopic effect of the image, the broadcast side may set these information. . For example, at the start of broadcasting, the value of the shift vector may be set to 0, and the broadcasting station may set the shift vector to a value other than 0 on the broadcasting side later, either independently or at the request of the user. It is. Also, according to the content creator's intention, the maximum shift vector can be set on the broadcast side and included in the stereoscopic view control information, which can be used to limit parallax adjustment at the receiver.
[0106]
In addition, the stereoscopic image identification information and the stereoscopic vision control information have been described as being included in the program arrangement information. However, such information may be included not only in the program arrangement information but also in image data. For example, when the broadcast content is encoded by MPEG-4, the stereoscopic image identification information and the stereoscopic vision control information may be included in the user area as described above. Even in such a case, in order to allow the content to be viewed from the middle of the program, the stereoscopic image identification information and the stereoscopic vision control information must be periodically included in the image data. The information for decoding may include stereoscopic image identification information and stereoscopic vision control information.
[0107]
According to the sixth embodiment of the present invention, by including stereoscopic information in program arrangement information such as BS broadcast and terrestrial digital broadcast, even when broadcasting the content of a stereoscopic image, adjustment and display of the amount of parallax can be performed. It is possible to change the position and limit the adjustment of the amount of parallax.
[0108]
Next, a stereoscopic image display technique according to a seventh embodiment of the present invention will be described with reference to the drawings. In the third embodiment, an example is given in which the number of pixels to be moved in the horizontal direction is specified as a shift vector that is information for adjusting the amount of parallax. An example of specifying a distance, an example of specifying a moving direction and a distance of an image, and an example of specifying a parallax angle of a stereoscopic image are described below.
[0109]
As shown in FIG. 25, with respect to the image observed with the right eye, when the pixel located at P1 moves so as to be located at P2 or P3, the stereoscopic image looks like P1 on the display surface before the movement. After moving, the pixel that forms an image at a position S1 or S2 that is separated from the display surface by a distance | d | Here, | d | is a quantity that can be expressed in units of cm equal length. d itself has positive and negative values. For example, as shown in FIG. 25 (B), the image has a positive value if the image is farther from the display surface, and as shown in FIG. 25 (C), the image is deeper than the display surface. If they are far apart, a negative value is used.
[0110]
d is an amount measured or defined under a standard environment in which the characteristics and viewing conditions of the display are known, that is, a “standard viewing environment”. In the stereoscopic image display device, an adjustment value of the actually required parallax amount is calculated based on the d. By adopting such a configuration, the viewer's impression and influence received from the stereoscopic image displayed as a result of the parallax adjustment may be affected by a plurality of stereoscopic image display devices having various display unit characteristics and viewing conditions. Thus, it is possible to perform control so as to be substantially the same. Hereinafter, an example of a method of calculating the adjustment value of the parallax amount based on the d will be described.
[0111]
The state shown in FIG. 25B will be described as an example. As described above, when the right-eye image is horizontally moved so that the right-eye pixel P1 on the display surface comes to a position P2 which is horizontally separated by a distance w, the image is moved to the position P1 on the display surface before the movement. Form an image at a position S1 that is separated by a distance d from the display surface. At this time, d is given as in the aforementioned equation (2).
[0112]
Here, all the variables d, L, w, and e used in equation (2) are values in the standard observation environment. Similarly, in an arbitrary stereoscopic image display device, the relationship of the above equation (2) holds. However, d, L, and w, excluding e, usually have different values from the standard observation environment. Here, these variables in an arbitrary stereoscopic image display device are represented as d ′, L ′, w ′. That is, the following equation (2 ′) holds.
d ′ = (w ′ × L ′) / (e + w ′) (2 ′)
[0113]
e is constant regardless of observation conditions. Solving d ′ from equations (2) and (2 ′) yields the following equation (3). Here, W and W ′ represent the image display width W on the display in the standard observation environment and the image display width W ′ on the display in the arbitrary stereoscopic image display device, respectively, and these are (W: W ′ = w: w ′).
d ′ = L ′ × W ′ × d / (L × W + (W′−W) × d) (3)
[0114]
If d ′ is obtained as in the above equation (3), w ′ is obtained from the relationship of the above equation (2 ′). Since w ′ represents the moving distance of the image on the display surface, h ′ is obtained from the following equation (4), where h ′ is the number of pixels that need to be actually moved. Here, p ′ is a horizontal pixel pitch (distance between adjacent pixels) of the display.
h ′ = w ′ / p ′ (4)
[0115]
As described above, if the parameters such as L, W, and d in the standard observation environment are known, it is possible to calculate the adjustment value of the amount of parallax required in an arbitrary stereoscopic image display device.
[0116]
Among the parameters, L and W are parameters whose values are fixed if the standard observation environment is defined, and therefore need not be specified for each stereoscopic image data, and are stored in advance in each stereoscopic image display device. Just do it. Therefore, in order to adjust the amount of parallax, the parameter corresponding to d may be recorded or transmitted in association with the stereoscopic image data. When a parameter corresponding to d is recorded or transmitted, the parameter may be composed of two parameters, a parameter indicating the positive and negative directions of d and a parameter indicating the absolute value of the distance, or may include both parameters. It may be composed of only one parameter having positive and negative values.
[0117]
FIGS. 26A and 26B show examples of the configuration of the stereoscopic information including a parameter corresponding to d. In the example of FIG. 26A, d is represented by two parameters of the pop-out direction 2601 and the pop-out distance 2602, and in the example of FIG. ing. The parameter indicating d may be a parameter indicating a protruding position (or a retracted position) from the display surface as described above, or a direction perpendicular to the display surface of a pixel at an arbitrary reference position distant from the display surface. May be a parameter representing the amount of movement of.
[0118]
Note that there are two cases where d is a value for specifying the amount of protrusion to be adjusted and a value for specifying the allowable maximum value of the amount of protrusion. Therefore, when recording or transmitting the parameter corresponding to d, whether it is determined in advance, or in the stereoscopic vision control information, separately include a parameter indicating any of these values It is good. Alternatively, both may be included in the stereoscopic vision control information.
As another example of the information for adjusting the amount of parallax, an example in which a direction and a distance in which an image is moved is specified will be described below.
[0119]
As described above, assuming that (W: W '= w: w'), if the value of W is known in advance as the condition of the standard observation environment, then if w is given, then W is given. It is possible to calculate w 'in a stereoscopic image display device satisfying the condition'. Therefore, a parameter indicating w may be specified as information for adjusting the amount of parallax. Similar to d, the parameter indicating w may be composed of two parameters, a value indicating the positive and negative directions of w and a value indicating the absolute value of the distance. It may be composed of only one parameter. The direction of w at this time is positive when the image for the right eye is moved rightward, and negative when the image is moved leftward.
As yet another example of information for adjusting the amount of parallax, an example in which the angle of parallax of a stereoscopic image is specified will be described below.
[0120]
As shown in FIG. 25, when the pixel located at P1 moves so as to be located at P2 or P3, the angle which is the parallax θ with respect to the position at which the image is formed changes to θ1, θ2. If these angles are defined as values in the standard observation environment, it is possible to calculate the parallax angle θ ′ in an arbitrary stereoscopic image display device from the relationship between L and L ′, the relationship between W and W ′, and the like. . Therefore, a parameter indicating θn may be specified as information for adjusting the amount of parallax. The parameter indicating θn may be constituted by a parameter indicating the absolute value of the angle, such as θ1 or θ2, or θ, which is in a state without parallax as shown in FIG. It may be constituted by a parameter indicating a difference from these θ1 and θ2 (that is, a value representing θ1−θ and θ2−θ).
[0121]
Next, how the display area is determined as a result of the parallax adjustment will be described. As described above, when the image is moved to adjust the amount of parallax, the width of the image that can be displayed as a stereoscopic image changes, so that the display area is not uniquely determined. In the third embodiment, an example is described in which the display area is arbitrarily set by the user and recorded as display area information. An example in which flat display image selection information is used instead of the display area information will be described below.
[0122]
The plane display image selection information is information indicating which of a left-eye image and a right-eye image is used when displaying stereoscopic image data as a plane image. Since the stereoscopic image data includes the left-eye image and the right-eye image as described above, any of the images can be displayed as it is as a planar image. Of course, the display may be performed after the interpolation processing and the correction processing are added.
[0123]
The plane display image selection information is included in the stereoscopic vision control information as shown in FIG. The plane display image selection information may record a result set by the user similarly to the display area information, or may be included in the stereoscopic information in advance as described in the sixth embodiment. Is also good.
[0124]
In the three-dimensional image display device, the two-dimensional display image selection information is interpreted by the display area determination unit 4 and is used to determine the display area of the three-dimensional image on which the parallax amount has been adjusted. That is, the display area determination unit 4 adjusts the amount of parallax so as to display the image specified by the planar display image selection information in the stereoscopic vision control information, that is, the entire left-eye image or right-eye image. The display area of the displayed stereoscopic image is determined. This operation is applicable to the three-dimensional image display devices (FIGS. 1, 13, 15, 15, 19, 21, and 23) having the configurations described in all the embodiments.
[0125]
FIG. 27 shows a display state on the display unit 6 when the display area is determined as described above. FIG. 27A shows a state where the parallax amount adjustment is not performed, and FIGS. 27B and 27C show a state where the right-eye image is shifted rightward with respect to the left-eye image. is there. Due to the shift, the horizontal positions of the left-eye image and the right-eye image do not match as shown in the figure. An area where both the left-eye image and the right-eye image (binocular image) are present is an area where stereoscopic display can be performed as it is. An area in which only one of the left-eye image and the right-eye image (one-eye image) exists is an area in which stereoscopic display cannot be performed as it is. The one-eye image area may be a two-dimensional image by showing the same image to both eyes of the observer, or may be subjected to some image processing such as generating or interpolating the other one-eye image based on the one-eye image. May be a three-dimensional image. At this time, the display area is determined so as to match the position of the image specified by the flat display image selection information. FIG. 27 (b) shows the relationship between the position of the left and right images and the display area in the example where “left-eye image” is specified in the plane display image selection information, and FIG. 27 (c) shows the plane display image selection. The relationship between the positions of the left and right images and the display area in an example in which “image for the right eye” is specified in the information is shown.
[0126]
The following effects are obtained by determining the display area as described above. That is, as described above, when a two-dimensional image is displayed on the three-dimensional image display device, display is performed using only the left-eye image or the right-eye image in accordance with the two-dimensional image selection information. For example, when “left-eye image” is specified in the plane display image selection information, the entire left-eye image is displayed. At this time, even if the display mode is switched to the stereoscopic image display, the display area is similarly selected so that the entire left-eye image is displayed. The position of the image for the left eye appears to be fixed, and as a result, it is possible to reduce the discomfort of switching the display mode.
[0127]
In the three-dimensional image display device capable of switching between the three-dimensional display and the two-dimensional display as described above, the display unit 6 has a three-dimensional display mode and a two-dimensional display mode, and is a display device that can switch between the two modes. Switching between the three-dimensional display mode and the two-dimensional display mode may be performed by a user of the three-dimensional image display device by operating a button or the like, or may be such that stereoscopic information is repeatedly transmitted as described in the sixth embodiment. In the case, the stereoscopic control information may include a parameter for switching between stereoscopic display and planar display. In addition, the configuration is such that the stereoscopic display and the planar display are switched depending on the presence or absence of the stereoscopic image identification information, that is, the stereoscopic information itself. In addition, the display mode may be switched for the entire display screen, or may be switched in arbitrary display range units.
[0128]
Next, a stereoscopic image recording technique according to an eighth embodiment of the present invention will be described. In the third embodiment or the seventh embodiment of the present invention, an example in which information for adjusting the amount of parallax is specified is described. The stereoscopic image recording technology according to the present embodiment is one form of a recording method including such stereoscopic information, and is a recording method for recording a stereoscopic image and stereoscopic information on a digital video tape, and a recording apparatus therefor. .
[0129]
First, a track format of a digital video tape recorded by the stereoscopic image recording technique according to the present embodiment will be described. 2. Description of the Related Art A generally known digital VTR employs a method called helical scan. As shown in FIG. 28, in this method, data is recorded on discontinuous tracks on a tape. FIG. 28 shows this state. A plurality of tracks 2801 are formed on the tape 2800, and one stereoscopic image is also divided into a plurality of tracks 2801 and recorded. The running direction of the tape is from right to left (the direction of the arrow) in FIG. 28. The leftmost track is scanned upward from below, and then the track adjacent to the right is scanned upward from below.
[0130]
FIG. 29 is a diagram illustrating a configuration example of one track 2801, and is a diagram illustrating a configuration example of a track format of a digital VTR recorded by the stereoscopic image recording technique according to the present embodiment. The track 2801 includes an ITI (Insert and Track Information) area 2901 for ensuring post-recording, an audio recording area 2902 for recording audio-related data, an image recording area 2903 for recording image-related data, and a time code. And a subcode recording area 2904 in which the accompanying information is recorded. In the image recording area 2903, not only the stereoscopic image itself but also accompanying information related to the stereoscopic image can be recorded. Similarly, in the audio recording area 2902, not only the audio itself but also accompanying information related to the audio can be recorded. In addition, apart from these two, as described above, additional information can be recorded in the subcode recording area 2904 as well. In addition, there is a margin between the respective areas, and dubbing can be performed individually.
[0131]
FIG. 30 is an enlarged view of the image recording area 2903. An image recording area 2903 includes a preamble 3001 in which a synchronization pattern and the like are recorded, VAUX (Video AUXiary data) α3002 and VAUXβ3004 in which accompanying information about an image is recorded, and an image encoded data recording area in which image encoded data is recorded. 3003, an error correction code 3005, and a postamble 3006 having a function for gaining a margin. In the three-dimensional image recording technique according to the present embodiment, the area in which the accompanying information about the image is recorded is divided into two parts, VAUXα3002 and VAUXβ3004. These two areas are hereinafter collectively referred to as a VAUX area.
Although not shown, an AAUX (Audio AUXiary data) area is also provided in the audio recording area 2902 as an area for recording accompanying information on audio.
[0132]
Subsequently, the recording apparatus according to the present embodiment will be described with reference to FIG. FIG. 31 is a block diagram showing the configuration of the recording apparatus of the present embodiment. As shown in FIG. 31, the present recording device includes a stereoscopic image encoding unit 3101, an audio encoding unit 3102, an accompanying information encoding unit 3103, a multiplexing unit 3104, and a tape recording unit 3105.
[0133]
The stereoscopic image encoding unit 3101 receives stereoscopic image data as input. The stereoscopic image data is image data generated based on a plurality of images and capable of stereoscopic display, as described in the first embodiment and the like. The stereoscopic image encoding unit 3101 encodes the stereoscopic image data by a predetermined method, and outputs encoded stereoscopic image data.
[0134]
Speech encoding section 3102 receives speech data as input, encodes the speech data, and outputs encoded speech data.
The accompanying information encoding unit 3103 performs stereoscopic information on the stereoscopic image data, that is, stereoscopic image identification information for indicating a stereoscopic image, a shift vector for adjusting the amount of parallax, or a pop-out direction and distance, and display. Ancillary information including plane display image selection information for determining an area is encoded, and the associated information encoded data is output. Examples of the encoding method include conversion into a fixed-length numerical value corresponding to each piece of information.
[0135]
The multiplexing unit 3104 receives the stereoscopic image encoded data, the audio encoded data, and the accompanying information encoded data, multiplexes them into a format that can be recorded on a tape, and outputs tape recording data.
The tape recording unit 3105 records the data for tape recording on a tape as a recording medium according to the format described above.
[0136]
Subsequently, the multiplexing unit 3104 will be described in more detail with reference to FIG. As shown in FIG. 32, the multiplexing unit 3104 includes an additional information coded data distribution unit 3205, an image recording area data synthesizing unit 3201, an audio recording area data synthesizing unit 3202, and a subcode recording area data synthesizing unit. Unit 3203 and a track synthesizing unit 3204.
[0137]
The associated information coded data distribution unit 3205 receives the associated information coded data as input, determines which of the VAUX area, the AAUX area, and the subcode area to record, and distributes the data. In the present embodiment, the encoded data relating to the stereoscopic image identification information and the plane display image selection information is allocated to the VAUX area, and the encoded data relating to the shift vector and the pop-out direction / distance are allocated to the subcode area.
[0138]
The image recording area data combining section 3201 receives as input the stereoscopic image encoded data output from the stereoscopic image encoding section 3101 and the VAUX area associated information encoded data output from the associated information encoded data distribution section 3205. The encoded information and the stereoscopic image encoded data are combined so as to have the format shown in FIG. 30, and the image recording area data is output.
[0139]
The audio recording area data synthesizing unit 3202 receives as input the audio encoded data output from the audio image encoding unit 3102 and the AAUX area incidental information encoded data output from the incidental information encoded data distribution unit 3205, These are synthesized so as to have a predetermined format, and the data for the audio recording area is output.
[0140]
The sub-code recording area data synthesizing unit 3203 receives the sub-code area incidental information encoded data output from the incidental information encoded data distribution unit 3205, synthesizes them into a predetermined format, and records the sub-code. Outputs area data.
[0141]
The track synthesizing unit 3204 receives the data for the image recording area, the data for the audio recording area, and the data for the subcode recording area, and synthesizes them into the format shown in FIG. The recording data is output with a margin between each area added.
[0142]
In the present embodiment, the audio recording area, the image recording area, and the subcode recording area are recorded simultaneously. However, these need not always be recorded at the same time. Can be recorded first, and the subcode recording area can be recorded by post-recording. Alternatively, even if all are recorded at the same time, each area can be individually updated by post-recording.
[0143]
Information such as the shift vector and the pop-out direction / distance for adjusting the amount of parallax may not only be determined at the time of shooting but also determined at the editing stage after shooting according to the final content. There is. For example, there is a case where a default value is recorded at the time of shooting, and after the finish is confirmed at the editing stage, information indicating the shift vector and the pop-out direction / distance is dubbed. As the default value of the shift vector and the pop-out direction / distance, for example, all 0s, that is, the parallax amount is specified not to be adjusted. As an adjustment method at the editing stage, for example, similarly to the stereoscopic image display device described in the third embodiment, the stereoscopic image recording device performs image processing so that the input image can be further stereoscopically viewed. Means, means for receiving input from a user, means for calculating adjustment information of the amount of parallax from the input of the user, and an area to be actually displayed on a display from a stereoscopic image image-processed using the adjustment information of the amount of parallax And a means for displaying the determined area. In the three-dimensional image recording apparatus, the user may adjust the amount of parallax while checking the display of the three-dimensional image. According to the recording method and the recording apparatus according to the present embodiment, since the information indicating the shift vector and the pop-out direction / distance is recorded in the sub-code area where the post-recording is easy, it is possible to easily change even in the editing stage. is there.
[0144]
Further, in the present embodiment, the information indicating the shift vector and the pop-out direction / distance is recorded in the sub-code area. However, from the viewpoint that these are also the accompanying information relating to the image, all of them are recorded together in the VAUX area. is there. For this purpose, the operation of the additional information coded data distribution unit 3205 in FIG. 32 is changed so that all the coded data of the above information is output to the VAUX area. In this case, the ease of post-recording is lost, but there is an advantage that handling is simplified because the accompanying information on the image is collected in one place. For example, when making a copy on a medium having another recording format, if only a copy of the image recording area is made, all information relating to the image can be obtained, and there is no need to handle the subcode area. Further, in order to avoid overwriting by after-recording, a method of recording in both the subcode area and the VAUX area is also possible.
[0145]
Alternatively, if the information cannot be stored in the subcode area and the VAUX area due to the size limitation of the area, the information that cannot be stored in the information related to the stereoscopic image is recorded in the AAUX area. Is also possible.
[0146]
The configuration of the present embodiment also conforms to a digital VTR system widely used for home use, except for a part specific to a stereoscopic image. For this reason, among the accompanying information recorded in the present embodiment, the accompanying information unique to the stereoscopic image, that is, the stereoscopic image identification information, the plane display image selection information, the shift vector, the information on the pop-out direction and the distance, and the like are stored in the home digital VTR. If the recording is performed in the extension area where the extension is permitted in the format of, the two-dimensional image and the three-dimensional image can be recorded on the same tape.
[0147]
Further, in the description of the stereoscopic image recording method of the present invention, recording is performed on a digital video tape as a recording medium based on the configuration of FIGS. 28 and 31, but generally, a recording area provided in an image processing apparatus or a terminal, or It is also possible to record on a recording area of an IC memory mounted on a cassette of a digital video tape. In this case, similarly to the above description, the recording area includes an audio recording area, an image recording area, a subcode recording area, and the like, and it is possible to record accompanying information such as stereoscopic information in these areas. .
Although the embodiments have been described above, the present invention is not limited to these examples, and it goes without saying that various modifications are possible.
[0148]
【The invention's effect】
As described above, according to the present invention, it is possible to display a good stereoscopic image with less discomfort in a stereoscopic image in which the amount of parallax is adjusted.
In addition, when displaying a stereoscopic image in which the amount of parallax is adjusted, the impression and influence received by the observer such as the degree of popping out of the image and the degree of fatigue when watching for a long time are compared between displays having different screen sizes and the like. Can not be so different.
[0149]
When displaying a stereoscopic image in which the amount of parallax has been adjusted, the display mode is switched between stereoscopic display and planar display by selecting the display area so that the entire left-eye image or right-eye image is displayed. In such a case, the ranges of the images displayed in both modes do not need to be shifted, and the display mode can be switched without discomfort.
[0150]
According to the present invention, it is possible to improve the convenience of editing by recording information relating to the adjustment of the amount of parallax in a subcode area in which post-recording is easy.
According to the present invention, it is possible to simplify the handling by collectively recording the stereoscopic vision control information including the information on the adjustment of the parallax amount in the image recording area.
[0151]
According to the present invention, it is possible to prevent data loss due to overwriting during post-recording by recording stereoscopic control information including information on adjustment of the amount of parallax in both the subcode area and the image recording area. Become.
[Brief description of the drawings]
FIG. 1 is a functional block diagram illustrating a configuration example of a stereoscopic image display device according to a first embodiment of the present invention.
FIGS. 2A and 2B generate stereoscopic image data from left-eye image data and right-eye image data in the stereoscopic image display device according to the first embodiment of the present invention; It is a figure showing an example.
FIG. 3 is a diagram illustrating an example of corresponding pixels of left-eye image data and right-eye image data when performing stereoscopic viewing in the stereoscopic image display device according to the first embodiment of the present invention.
FIG. 4 is a diagram illustrating an example of image movement when the amount of parallax is adjusted in the stereoscopic image display device according to the first embodiment of the present invention.
FIG. 5 is a diagram showing an example of correspondence between dot data of three primary colors of RGB and pixels in the stereoscopic image display device according to the first embodiment of the present invention.
FIG. 6 is a diagram illustrating an example in which one dot of dot data of three primary colors of RGB is moved when moving an image in the stereoscopic image display device according to the first embodiment of the present invention.
FIG. 7 is a diagram illustrating an example in which two dots of dot data of three primary colors of RGB are moved when moving an image in the stereoscopic image display device according to the first embodiment of the present invention.
FIGS. 8A to 8C are diagrams illustrating an example in which an image is moved without shifting the center when adjusting the amount of parallax in the stereoscopic image display device according to the first embodiment of the present invention. It is.
FIGS. 9A to 9C are diagrams illustrating an example in which image data is moved to adjust the amount of parallax in the stereoscopic image display device according to the first embodiment of the present invention. is there.
FIG. 10 is a diagram illustrating an interpolation target area when moving image data for a parallax amount request in the stereoscopic image display device according to the first embodiment of the present invention and determining an area so that the center after the movement is not shifted; It is a figure showing the example of.
FIGS. 11A and 11B are diagrams illustrating an example of a method of switching a display between a three-dimensional display and a two-dimensional display in the stereoscopic image display device according to the first embodiment of the present invention. .
FIGS. 12A to 12D are diagrams illustrating an example of interpolating image data in the stereoscopic image display device according to the first embodiment of the present invention.
FIG. 13 is a functional block diagram illustrating a configuration example of a stereoscopic image display device according to a second embodiment of the present invention.
FIGS. 14A to 14C illustrate an example in which parallax adjustment is performed according to the second embodiment of the present invention, and when no pixel value exists in a display area of an image, an image is displayed in that area. FIG. 9 is a diagram illustrating an example of generation.
FIG. 15 is a functional block diagram illustrating a configuration example of a stereoscopic image display device according to a third embodiment of the present invention.
FIGS. 16A and 16B are diagrams illustrating an example of a method of storing stereoscopic vision control information for performing stereoscopic vision in a stereoscopic image display device according to a third embodiment of the present invention. .
FIGS. 17A and 17B are descriptions for storing stereoscopic vision control information for performing stereoscopic vision in the stereoscopic image display device according to the third embodiment of the present invention in image data; It is a figure showing an example of a method.
FIG. 18 is a diagram illustrating an example of a description method when recording stereoscopic control information for performing stereoscopic vision in the stereoscopic image display device according to the third embodiment of the present invention in the device.
FIG. 19 is a functional block diagram illustrating a configuration example of a stereoscopic image display device that displays stereoscopic image data accompanied by stereoscopic control information.
FIGS. 20A and 20B are diagrams illustrating an example in which the maximum shift vector in the stereoscopic image display device according to the fourth embodiment of the present invention is recorded while being included in stereoscopic vision control information.
FIG. 21 is a functional block diagram illustrating a configuration example of a stereoscopic image display device that displays stereoscopic image data having information on a maximum shift vector in a stereoscopic image display device according to a fourth embodiment of the present invention.
FIGS. 22 (A) to (E) show a method for adjusting the amount of parallax when displaying stereoscopic image data in a stereoscopic image display device according to a fifth embodiment of the present invention in an enlarged or reduced manner. FIG. 9 is a diagram illustrating an example of moving image data when performing the operation.
FIG. 23 is a functional block diagram illustrating a configuration example of a stereoscopic image display device according to a fifth embodiment of the present invention.
FIGS. 24A and 24B are diagrams illustrating storage examples when transmitting stereoscopic control information by a transmission medium in a stereoscopic image display device according to a sixth embodiment of the present invention.
FIGS. 25A to 25C are diagrams illustrating calculation examples for calculating a pop-out distance in the stereoscopic image display device according to the third embodiment of the present invention.
FIG. 26 is a diagram illustrating a configuration example of stereoscopic information according to a seventh embodiment of the present invention.
FIG. 27 is a diagram showing an example of selecting an image display area according to the seventh embodiment of the present invention.
FIG. 28 is a diagram showing a recording state of a track on a digital video tape.
FIG. 29 is a diagram showing a track format of a digital VTR.
FIG. 30 is a diagram showing a data configuration in an image recording area of each track.
FIG. 31 is a diagram illustrating a configuration of a stereoscopic image recording device according to an eighth embodiment of the present invention.
FIG. 32 is a diagram illustrating a configuration of a multiplexing unit of a stereoscopic image recording device according to an eighth embodiment of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Stereo image processing part, 2 ... User input part, 3 ... Parallax amount adjustment information calculation part, 4 ... Display area determination part, 5 ... Image interpolation part, 6 ... Display part, 7 ... Image data generation part, 8 ... Solid Visual information recording unit, 9: stereoscopic information reading unit, 10: maximum shift vector reading unit, 11: enlargement / reduction processing unit, 2601: pop-out direction, 2602: pop-out distance, 2603: pop-out vector, 2604: flat display image selection Information 3002 VAUX α, 3003 Image encoded data recording area, 3004 VAUX β, 3103 Associated information encoding section, 3104 Multiplex section, 3205 Associated information encoded data distribution section.

Claims (36)

複数の視点に対応した複数の画像に基づいて立体画像を表示する立体画像表示装置であって、
視差量の変更に関する情報に基づいて、視差量の調整に関する視差量調整情報を算出する視差量調整情報算出部と、
前記視差量調整情報に基づいて立体表示用の画像を生成する画像処理部と
を有する立体画像表示装置。
A stereoscopic image display device that displays a stereoscopic image based on a plurality of images corresponding to a plurality of viewpoints,
Based on the information about the change in the amount of parallax, a parallax amount adjustment information calculation unit that calculates parallax amount adjustment information about adjustment of the amount of parallax,
A stereoscopic image display device comprising: an image processing unit that generates an image for stereoscopic display based on the parallax amount adjustment information.
前記複数の画像中の所定の領域を補間する画像補間部をさらに備え、
前記画像補間部は、前記立体表示用の画像の表示領域に画素値が存在しない無画素値領域がある場合に、該無画素値領域のみを、他の画素値を用いて補間することを特徴とする請求項1に記載の立体画像表示装置。
An image interpolating unit that interpolates a predetermined area in the plurality of images,
The image interpolating unit, when there is a non-pixel value area having no pixel value in a display area of the image for stereoscopic display, interpolates only the non-pixel value area using another pixel value. The three-dimensional image display device according to claim 1.
複数の視点に対応した複数の画像に基づいて立体画像を表示する立体画像表示装置であって、
視差量の変更に関する情報に基づいて、視差量の調整に関する視差量調整情報を算出する視差量調整情報算出部と、
前記視差量調整情報に基づいて立体表示用の画像を生成する画像処理部と、
前記複数の画像中の所定の領域に新たな画像を生成する画像生成部と
を備える立体画像表示装置。
A stereoscopic image display device that displays a stereoscopic image based on a plurality of images corresponding to a plurality of viewpoints,
Based on the information about the change in the amount of parallax, a parallax amount adjustment information calculation unit that calculates parallax amount adjustment information about adjustment of the amount of parallax,
An image processing unit that generates an image for stereoscopic display based on the parallax amount adjustment information,
A stereoscopic image display device comprising: an image generation unit configured to generate a new image in a predetermined area in the plurality of images.
前記画像生成部は、前記立体表示用の画像の表示領域に画素値が存在しない無画素領域がある場合、該無画素領域のみに、新たな画像を生成することを特徴とする請求項3に記載の立体画像表示装置。The method according to claim 3, wherein the image generation unit generates a new image only in the non-pixel region when there is a non-pixel region having no pixel value in a display region of the image for stereoscopic display. 3. The stereoscopic image display device according to claim 1. さらに、視差量の変更に関する情報を入力する入力部を有する
請求項1から4までのいずれか1項に記載の立体画像表示装置。
The stereoscopic image display device according to claim 1, further comprising an input unit configured to input information regarding a change in the amount of parallax.
前記視差量調整情報算出部は、立体表示の第1基準位置と前記立体表示用の画像の前記第1基準位置に対応する第2基準位置との間の距離が小さくなるように前記視差量調整情報を算出することを特徴とする請求項1から5までのいずれか1項に記載の立体画像表示装置。The parallax amount adjustment information calculation unit may adjust the parallax amount such that a distance between a first reference position of stereoscopic display and a second reference position corresponding to the first reference position of the image for stereoscopic display is reduced. The three-dimensional image display device according to claim 1, wherein information is calculated. さらに、立体表示を行う表示領域を判定する表示領域判定部であって、立体表示の第1基準位置と前記立体表示用の画像の前記第1基準位置との間の距離が小さくなるように、前記表示領域の判定を行う表示領域判定部を有することを特徴とする請求項1から6までのいずれか1項に記載の立体画像表示装置。Further, a display area determination unit that determines a display area for performing stereoscopic display, wherein a distance between a first reference position of stereoscopic display and the first reference position of the image for stereoscopic display is reduced. The three-dimensional image display device according to any one of claims 1 to 6, further comprising a display area determination unit that determines the display area. 前記視差量調整情報算出部は、前記視差量の変更量を制限する機能を有することを特徴とする請求項1から7までのいずれか1項に記載の立体画像表示装置。The stereoscopic image display device according to claim 1, wherein the parallax amount adjustment information calculation unit has a function of limiting a change amount of the parallax amount. さらに、少なくとも前記複数の画像が立体視用の画像であることを示す立体画像識別情報と、前記視差量の変更を示す情報とを含む立体視情報を記録する立体視情報記録部を有することを特徴とする請求項1から8までのいずれか1項に記載の立体画像表示装置。Further, a stereoscopic image information recording unit that records stereoscopic image information including at least the stereoscopic image identification information indicating that the plurality of images are stereoscopic images and information indicating a change in the amount of parallax is provided. The stereoscopic image display device according to any one of claims 1 to 8, wherein: さらに、少なくとも前記複数の画像が立体視用の画像であることを示す立体画像識別情報と前記表示領域の情報とを含む立体視情報を記録する立体視情報記録部を有することを特徴とする請求項1から8までのいずれか1項に記載の立体画像表示装置。The image processing apparatus further includes a stereoscopic information recording unit that records stereoscopic information including at least stereoscopic image identification information indicating that the plurality of images are stereoscopic images and information on the display area. Item 9. The stereoscopic image display device according to any one of Items 1 to 8. さらに、少なくとも前記複数の画像が立体視用の画像であることを示す立体画像識別情報と、前記視差量の変更の範囲を示す情報とを含む立体視情報を記録する立体視情報記録部を有することを特徴とする請求項1から8までのいずれか1項に記載の立体画像表示装置。A stereoscopic information recording unit that records stereoscopic information including at least the stereoscopic image identification information indicating that the plurality of images are stereoscopic images and information indicating a range of change in the amount of parallax. 9. The three-dimensional image display device according to claim 1, wherein: 複数の視点に対応した複数の画像を記録する記録方法であって、
前記複数の画像が立体視用の画像であることを示す立体画像識別情報と、前記複数の画像を立体表示するための立体視制御情報を記録するステップを備え、前記立体視制御情報は少なくとも視差量の変更を示す情報、前記視差量の変更の範囲を示す情報及び前記複数の画像の表示領域を示す情報のいずれかひとつの情報を含むことを特徴とする記録方法。
A recording method for recording a plurality of images corresponding to a plurality of viewpoints,
Recording stereoscopic image identification information indicating that the plurality of images are stereoscopic images, and stereoscopic control information for stereoscopically displaying the plurality of images, wherein the stereoscopic control information includes at least parallax. A recording method comprising: any one of information indicating a change in the amount, information indicating a range of the change in the parallax amount, and information indicating a display area of the plurality of images.
複数の視点に対応した複数の画像を伝送する伝送方法であって、前記複数の画像が立体視用の画像であることを示す立体画像識別情報と、前記複数の画像を立体視するための立体視制御情報を伝送するステップを備え、前記立体視制御情報は少なくとも視差量の変更を示す情報、前記視差量の変更の範囲を示す情報及び前記複数の画像の表示領域を示す情報のいずれかひとつの情報を含むことを特徴とする伝送方法。A transmission method for transmitting a plurality of images corresponding to a plurality of viewpoints, the stereoscopic image identification information indicating that the plurality of images are stereoscopic images, and a stereoscopic image for stereoscopically viewing the plurality of images. Transmitting stereoscopic control information, wherein the stereoscopic control information is at least one of information indicating a change in the amount of parallax, information indicating a range of change in the amount of parallax, and information indicating a display area of the plurality of images. A transmission method characterized by including the following information: さらに、前記複数の画像を拡大あるいは縮小する拡大・縮小処理部と、立体視制御情報を変換する立体視制御情報変換部を備え、
前記立体視制御情報変換部は、前記複数の画像が前記拡大・縮小処理部において拡大・縮小された拡大・縮小率に基づいて、前記視差量の変更を示す情報を変換することを特徴とする請求項1から11までのいずれか1項に記載の立体画像表示装置。
Furthermore, an enlargement / reduction processing unit that enlarges or reduces the plurality of images, and a stereoscopic control information conversion unit that converts stereoscopic control information is provided.
The stereoscopic vision control information conversion unit converts information indicating a change in the amount of parallax based on an enlargement / reduction rate at which the plurality of images have been enlarged / reduced by the enlargement / reduction processing unit. The stereoscopic image display device according to any one of claims 1 to 11.
さらに、前記複数の画像を拡大あるいは縮小する拡大・縮小処理部と、立体視制御情報を変換する立体視制御情報変換部を備え、
前記立体視制御情報変換部は、前記複数の画像が前記拡大・縮小処理部において拡大・縮小された拡大・縮小率に基づいて前記表示領域の情報を変換することを特徴とする請求項1から11までのいずれか1項に記載の立体画像表示装置。
Furthermore, an enlargement / reduction processing unit that enlarges or reduces the plurality of images, and a stereoscopic control information conversion unit that converts stereoscopic control information is provided.
The stereoscopic control information conversion unit converts the information of the display area based on an enlargement / reduction ratio obtained by enlarging / reducing the plurality of images in the enlargement / reduction processing unit. 12. The stereoscopic image display device according to any one of items 11 to 11.
さらに、前記複数の画像を拡大あるいは縮小する拡大・縮小処理部と、立体視制御情報を変換する立体視制御情報変換部とを備え、
前記立体視制御情報変換部は、前記複数の画像が前記拡大・縮小処理部において拡大・縮小された拡大・縮小率に基づいて、前記視差量の変更の範囲を示す情報を変換することを特徴とする請求項1から11までのいずれか1項に記載の立体画像表示装置。
Furthermore, an enlargement / reduction processing unit that enlarges or reduces the plurality of images, and a stereoscopic control information conversion unit that converts stereoscopic control information,
The stereoscopic vision control information conversion unit converts information indicating a range of change in the amount of parallax based on an enlargement / reduction rate at which the plurality of images are enlarged / reduced by the enlargement / reduction processing unit. The stereoscopic image display device according to any one of claims 1 to 11, wherein
複数の視点に対応した複数の画像を記録する記録方法であって、
前記複数の画像を立体表示するための立体視制御情報を記録するステップを備え、
前記立体視制御情報は少なくとも視差量の変更を示す情報を含み、
前記視差量の変更を示す情報は、所定の観察条件において決定されたパラメータで構成されることを特徴とする記録方法。
A recording method for recording a plurality of images corresponding to a plurality of viewpoints,
Recording a stereoscopic control information for stereoscopically displaying the plurality of images,
The stereoscopic vision control information includes at least information indicating a change in the amount of parallax,
The recording method according to claim 1, wherein the information indicating the change in the amount of parallax includes parameters determined under a predetermined observation condition.
前記パラメータは、立体画像の飛び出し方向と距離を示すパラメータであることを特徴とする請求項17記載の記録方法。18. The recording method according to claim 17, wherein the parameter is a parameter indicating a pop-out direction and a distance of the stereoscopic image. 前記パラメータは、上記複数の画像の内少なくとも一つの画像を移動させる方向と距離を示すパラメータであることを特徴とする請求項17記載の記録方法。18. The recording method according to claim 17, wherein the parameter is a parameter indicating a direction and a distance in which at least one of the plurality of images is moved. 前記視差量の変更を示す情報は、立体画像の視差の角度を示すパラメータで構成されることを特徴とする請求項17記載の記録方法。18. The recording method according to claim 17, wherein the information indicating the change in the amount of parallax includes a parameter indicating a parallax angle of the stereoscopic image. 前記立体視制御情報は、少なくとも立体画像を平面表示する際に前記複数の画像の中からいずれを用いるかを示す平面表示画像選択情報を含むことを特徴とする請求項17から20までのいずれか1項に記載の記録方法。21. The stereoscopic viewing control information according to claim 17, wherein the stereoscopic vision control information includes at least planar display image selection information indicating which one of the plurality of images is to be used when displaying a stereoscopic image in a plane. 2. The recording method according to item 1. 複数の視点に対応した複数の画像を伝送する伝送方法であって、
前記複数の画像を立体表示するための立体視制御情報を伝送するステップを備え、
前記立体視制御情報は少なくとも視差量の変更を示す情報を含み、
前記視差量の変更を示す情報は、所定の観察条件において決定されたパラメータで構成されることを特徴とする伝送方法。
A transmission method for transmitting a plurality of images corresponding to a plurality of viewpoints,
Comprising transmitting stereoscopic control information for stereoscopically displaying the plurality of images,
The stereoscopic vision control information includes at least information indicating a change in the amount of parallax,
The transmission method according to claim 1, wherein the information indicating the change in the amount of parallax includes parameters determined under predetermined observation conditions.
前記パラメータは、立体画像の飛び出し方向と距離を示すパラメータであることを特徴とする請求項22に記載の伝送方法。The transmission method according to claim 22, wherein the parameter is a parameter indicating a pop-out direction and a distance of the stereoscopic image. 前記パラメータは、上記複数の画像の内少なくとも一つの画像を移動させる方向と距離を示すパラメータであることを特徴とする、請求項22に記載の伝送方法。The transmission method according to claim 22, wherein the parameter is a parameter indicating a direction and a distance in which at least one of the plurality of images is moved. 前記視差量の変更を示す情報は、立体画像の視差の角度を示すパラメータで構成されることを特徴とする請求項22に記載の伝送方法。23. The transmission method according to claim 22, wherein the information indicating the change in the amount of parallax includes a parameter indicating a parallax angle of a stereoscopic image. 前記立体視制御情報は、少なくとも立体画像を平面表示する際に前記複数の画像の中からいずれを用いるかを示す平面表示画像選択情報を含むことを特徴とする請求項22から25までのいずれか1項に記載の伝送方法。26. The stereoscopic viewing control information according to claim 22, wherein the stereoscopic vision control information includes at least planar display image selection information indicating which one of the plurality of images is to be used when displaying the stereoscopic image in a plane. The transmission method according to claim 1. 複数の視点に対応した複数の画像に基づいて立体画像を表示する立体画像表示装置であって、
視差量の変更に関する情報に基づいて、視差量の調整に関する視差量調整情報を算出する視差量調整情報算出部と、
前記視差量調整情報に基づいて立体表示用の画像を生成する画像処理部と、
平面表示に関する画像の選択情報に基づいて、表示領域を判定する表示領域判定部を備えることを特徴とする立体画像表示装置。
A stereoscopic image display device that displays a stereoscopic image based on a plurality of images corresponding to a plurality of viewpoints,
Based on the information about the change in the amount of parallax, a parallax amount adjustment information calculation unit that calculates parallax amount adjustment information about adjustment of the amount of parallax,
An image processing unit that generates an image for stereoscopic display based on the parallax amount adjustment information,
A stereoscopic image display device comprising: a display area determination unit that determines a display area based on image selection information related to planar display.
前記視差量調整情報算出部は、立体画像の飛び出し方向と距離を示すパラメータから、視差量調整情報を算出することを特徴とする、請求項1から11まで、あるいは請求項27のいずれか1項に記載の立体画像表示装置。28. The parallax amount adjustment information calculation unit calculates parallax amount adjustment information from parameters indicating a pop-out direction and a distance of a stereoscopic image, according to any one of claims 1 to 11, or 27. 3. The stereoscopic image display device according to 1. 前記視差量調整情報算出部は、上記複数の画像の内少なくとも一つの画像を移動させる方向と距離を示すパラメータから、視差量調整情報を算出することを特徴とする、請求項1から11まで、あるいは請求項27のいずれか1項に記載の立体画像表示装置。The parallax amount adjustment information calculation unit calculates parallax amount adjustment information from a parameter indicating a direction and a distance in which at least one image of the plurality of images is moved, Alternatively, the stereoscopic image display device according to claim 27. 前記視差量調整情報算出部は、立体画像の視差の角度を示すパラメータから、視差量調整情報を算出することを特徴とする、請求項1から11まで、あるいは請求項27のいずれか1項に記載の立体画像表示装置。The parallax amount adjustment information calculation unit calculates parallax amount adjustment information from a parameter indicating a parallax angle of a stereoscopic image, wherein the parallax amount adjustment information calculation unit calculates parallax amount adjustment information based on a parameter indicating a parallax angle of the stereoscopic image. 3. The stereoscopic image display device according to claim 1. 複数の視点に対応した複数の画像から構成される立体画像を所定の記録領域に記録する立体画像記録方法であって、
立体画像の視差量の調整に関する視差量調整情報を、前記記録領域に設けられ前記立体画像を記録するための画像記録領域に記録するステップを備えることを特徴とする立体画像記録方法。
A stereoscopic image recording method for recording a stereoscopic image composed of a plurality of images corresponding to a plurality of viewpoints in a predetermined recording area,
A stereoscopic image recording method, comprising: recording parallax amount adjustment information relating to adjustment of a parallax amount of a stereoscopic image in an image recording area provided in the recording area and for recording the stereoscopic image.
複数の視点に対応した複数の画像から構成される立体画像を所定の記録領域に記録する立体画像記録方法であって、
立体画像の視差量の調整に関する視差量調整情報を、前記記録領域に設けられ音声を記録するための音声記録領域に記録するステップを備えることを特徴とする立体画像記録方法。
A stereoscopic image recording method for recording a stereoscopic image composed of a plurality of images corresponding to a plurality of viewpoints in a predetermined recording area,
A stereoscopic image recording method, comprising: recording parallax amount adjustment information relating to adjustment of a stereoscopic image parallax amount in an audio recording area provided in the recording area for recording audio.
複数の視点に対応した複数の画像から構成される立体画像を所定の記録領域に記録する立体画像記録方法であって、
立体画像の視差量の調整に関する視差量調整情報を、前記記録領域に設けられ付随情報を記録するためのサブコード領域に記録するステップを備えることを特徴とする立体画像記録方法。
A stereoscopic image recording method for recording a stereoscopic image composed of a plurality of images corresponding to a plurality of viewpoints in a predetermined recording area,
A stereoscopic image recording method, comprising the step of recording parallax amount adjustment information relating to adjustment of the parallax amount of a stereoscopic image in a subcode area provided in the recording area and for recording accompanying information.
複数の視点に対応した複数の画像から構成される立体画像を所定の記録領域に記録する立体画像記録装置であって、
立体画像の視差量の調整に関する視差量調整情報を、前記記録領域に設けられ前記立体画像を記録するための画像記録領域に記録する手段を備えることを特徴とする立体画像記録装置。
A stereoscopic image recording device that records a stereoscopic image composed of a plurality of images corresponding to a plurality of viewpoints in a predetermined recording area,
A stereoscopic image recording apparatus, comprising: means for recording parallax amount adjustment information relating to adjustment of a parallax amount of a stereoscopic image in an image recording area provided in the recording area for recording the stereoscopic image.
複数の視点に対応した複数の画像から構成される立体画像を所定の記録領域に記録する立体画像記録装置であって、
立体画像の視差量の調整に関する視差量調整情報を、前記記録領域に設けられ音声を記録するための音声記録領域に記録する手段を備えることを特徴とする立体画像記録装置。
A stereoscopic image recording device that records a stereoscopic image composed of a plurality of images corresponding to a plurality of viewpoints in a predetermined recording area,
A stereoscopic image recording apparatus, comprising: means for recording parallax amount adjustment information relating to adjustment of a parallax amount of a stereoscopic image in an audio recording area provided in the recording area for recording audio.
複数の視点に対応した複数の画像から構成される立体画像を所定の記録領域に記録する立体画像記録装置であって、
立体画像の視差量の調整に関する視差量調整情報を、前記記録領域に設けられ、付随情報を記録するためのサブコード領域に記録する手段を備えることを特徴とする立体画像記録装置。
A stereoscopic image recording device that records a stereoscopic image composed of a plurality of images corresponding to a plurality of viewpoints in a predetermined recording area,
A stereoscopic image recording apparatus, comprising: means for recording parallax amount adjustment information relating to adjustment of a parallax amount of a stereoscopic image in a sub-code area for recording accompanying information, the stereoscopic image recording apparatus.
JP2002332737A 2002-09-27 2002-11-15 Stereoscopic image display apparatus, recording method, and transmission method Expired - Fee Related JP4222817B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2002332737A JP4222817B2 (en) 2002-09-27 2002-11-15 Stereoscopic image display apparatus, recording method, and transmission method
PCT/JP2003/012302 WO2004030377A1 (en) 2002-09-27 2003-09-26 Three-dimensional image display device, recording method, and transmission method
AU2003268677A AU2003268677A1 (en) 2002-09-27 2003-09-26 Three-dimensional image display device, recording method, and transmission method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002283081 2002-09-27
JP2002318954 2002-10-31
JP2002332737A JP4222817B2 (en) 2002-09-27 2002-11-15 Stereoscopic image display apparatus, recording method, and transmission method

Publications (3)

Publication Number Publication Date
JP2004207772A true JP2004207772A (en) 2004-07-22
JP2004207772A5 JP2004207772A5 (en) 2005-10-06
JP4222817B2 JP4222817B2 (en) 2009-02-12

Family

ID=32830589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002332737A Expired - Fee Related JP4222817B2 (en) 2002-09-27 2002-11-15 Stereoscopic image display apparatus, recording method, and transmission method

Country Status (1)

Country Link
JP (1) JP4222817B2 (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008259171A (en) * 2007-04-04 2008-10-23 Mitsubishi Electric Research Laboratories Inc Method and system for acquiring, encoding, decoding and displaying three dimensional light field
EP2106152A2 (en) 2008-03-26 2009-09-30 Fujifilm Corporation Method, apparatus, and program for displaying stereoscopic images
JP2010087618A (en) * 2008-09-29 2010-04-15 Casio Hitachi Mobile Communications Co Ltd Image display device, and program
JP2010102137A (en) * 2008-10-24 2010-05-06 Fujifilm Corp Three-dimensional photographing device, method and program
US20100272417A1 (en) * 2009-04-27 2010-10-28 Masato Nagasawa Stereoscopic video and audio recording method, stereoscopic video and audio reproducing method, stereoscopic video and audio recording apparatus, stereoscopic video and audio reproducing apparatus, and stereoscopic video and audio recording medium
JP2011029700A (en) * 2009-07-21 2011-02-10 Fujifilm Corp Image reproducing apparatus and method
US7898512B2 (en) 2007-02-20 2011-03-01 Epson Imaging Devices Corporation Image display device and electronic apparatus
JP2011244412A (en) * 2009-07-21 2011-12-01 Fujifilm Corp Three-dimensional image display apparatus and three-dimensional image display method
WO2011162037A1 (en) * 2010-06-25 2011-12-29 富士フイルム株式会社 Stereoscopic image playback device, stereoscopic image playback system, and stereoscopic image playback method
WO2012060170A1 (en) * 2010-11-02 2012-05-10 シャープ株式会社 3d image display device
EP2458880A2 (en) * 2010-11-26 2012-05-30 LG Electronics Inc. Mobile terminal and operation control method thereof
JP2012227725A (en) * 2011-04-19 2012-11-15 Toshiba Corp Electronic apparatus, display control method, and display control program
JP2013118642A (en) * 2012-12-05 2013-06-13 Toshiba Corp Electronic apparatus, display control method and display control program
WO2013089183A1 (en) * 2011-12-15 2013-06-20 シャープ株式会社 Image processing device, image processing method, computer program, recording medium, and stereoscopic image display device
JP2013531440A (en) * 2010-06-28 2013-08-01 トムソン ライセンシング Method and apparatus for customizing 3D effect of 3D content
CN103686118A (en) * 2012-09-19 2014-03-26 珠海扬智电子科技有限公司 Image depth adjustment method and device
US8907866B2 (en) 2006-09-13 2014-12-09 Nikon Corporation Head mount display
JP2015005807A (en) * 2013-06-19 2015-01-08 沖電気工業株式会社 Stereoscopic video encoding device, stereoscopic video decoding device, stereoscopic video encoding system, stereoscopic video encoding program and stereoscopic video decoding program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110005205A (en) * 2009-07-09 2011-01-17 삼성전자주식회사 Signal processing method and apparatus using display size

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8907866B2 (en) 2006-09-13 2014-12-09 Nikon Corporation Head mount display
US7898512B2 (en) 2007-02-20 2011-03-01 Epson Imaging Devices Corporation Image display device and electronic apparatus
JP2008259171A (en) * 2007-04-04 2008-10-23 Mitsubishi Electric Research Laboratories Inc Method and system for acquiring, encoding, decoding and displaying three dimensional light field
EP2106152A2 (en) 2008-03-26 2009-09-30 Fujifilm Corporation Method, apparatus, and program for displaying stereoscopic images
US8159530B2 (en) 2008-03-26 2012-04-17 Fujifilm Corporation Method and apparatus for displaying stereoscopic images
JP2010087618A (en) * 2008-09-29 2010-04-15 Casio Hitachi Mobile Communications Co Ltd Image display device, and program
JP2010102137A (en) * 2008-10-24 2010-05-06 Fujifilm Corp Three-dimensional photographing device, method and program
US20100272417A1 (en) * 2009-04-27 2010-10-28 Masato Nagasawa Stereoscopic video and audio recording method, stereoscopic video and audio reproducing method, stereoscopic video and audio recording apparatus, stereoscopic video and audio reproducing apparatus, and stereoscopic video and audio recording medium
US10523915B2 (en) 2009-04-27 2019-12-31 Mitsubishi Electric Corporation Stereoscopic video and audio recording method, stereoscopic video and audio reproducing method, stereoscopic video and audio recording apparatus, stereoscopic video and audio reproducing apparatus, and stereoscopic video and audio recording medium
US9191645B2 (en) * 2009-04-27 2015-11-17 Mitsubishi Electric Corporation Stereoscopic video and audio recording method, stereoscopic video and audio reproducing method, stereoscopic video and audio recording apparatus, stereoscopic video and audio reproducing apparatus, and stereoscopic video and audio recording medium
JP2011029700A (en) * 2009-07-21 2011-02-10 Fujifilm Corp Image reproducing apparatus and method
JP2011244412A (en) * 2009-07-21 2011-12-01 Fujifilm Corp Three-dimensional image display apparatus and three-dimensional image display method
CN102959973A (en) * 2010-06-25 2013-03-06 富士胶片株式会社 Stereoscopic image playback device, stereoscopic image playback system, and stereoscopic image playback method
JP5546633B2 (en) * 2010-06-25 2014-07-09 富士フイルム株式会社 Stereoscopic image reproducing apparatus, stereoscopic image reproducing system, and stereoscopic image reproducing method
WO2011162037A1 (en) * 2010-06-25 2011-12-29 富士フイルム株式会社 Stereoscopic image playback device, stereoscopic image playback system, and stereoscopic image playback method
CN102959973B (en) * 2010-06-25 2015-01-21 富士胶片株式会社 Stereoscopic image playback device, stereoscopic image playback system, and stereoscopic image playback method
US8866881B2 (en) 2010-06-25 2014-10-21 Fujifilm Corporation Stereoscopic image playback device, stereoscopic image playback system, and stereoscopic image playback method
US10154243B2 (en) 2010-06-28 2018-12-11 Interdigital Madison Patent Holdings Method and apparatus for customizing 3-dimensional effects of stereo content
JP2013531440A (en) * 2010-06-28 2013-08-01 トムソン ライセンシング Method and apparatus for customizing 3D effect of 3D content
WO2012060170A1 (en) * 2010-11-02 2012-05-10 シャープ株式会社 3d image display device
EP2458880A2 (en) * 2010-11-26 2012-05-30 LG Electronics Inc. Mobile terminal and operation control method thereof
KR101727899B1 (en) 2010-11-26 2017-04-18 엘지전자 주식회사 Mobile terminal and operation control method thereof
EP2458880A3 (en) * 2010-11-26 2013-03-27 LG Electronics Inc. Mobile terminal and operation control method thereof
JP2012114920A (en) * 2010-11-26 2012-06-14 Lg Electronics Inc Portable terminal and operation control method thereof
JP2012227725A (en) * 2011-04-19 2012-11-15 Toshiba Corp Electronic apparatus, display control method, and display control program
WO2013089183A1 (en) * 2011-12-15 2013-06-20 シャープ株式会社 Image processing device, image processing method, computer program, recording medium, and stereoscopic image display device
CN103686118A (en) * 2012-09-19 2014-03-26 珠海扬智电子科技有限公司 Image depth adjustment method and device
JP2013118642A (en) * 2012-12-05 2013-06-13 Toshiba Corp Electronic apparatus, display control method and display control program
JP2015005807A (en) * 2013-06-19 2015-01-08 沖電気工業株式会社 Stereoscopic video encoding device, stereoscopic video decoding device, stereoscopic video encoding system, stereoscopic video encoding program and stereoscopic video decoding program

Also Published As

Publication number Publication date
JP4222817B2 (en) 2009-02-12

Similar Documents

Publication Publication Date Title
JP4174001B2 (en) Stereoscopic image display apparatus, recording method, and transmission method
US7679616B2 (en) Image data generation apparatus for adding attribute information regarding image pickup conditions to image data, image data reproduction apparatus for reproducing image data according to added attribute information, and image data recording medium related thereto
JP4222817B2 (en) Stereoscopic image display apparatus, recording method, and transmission method
US7529400B2 (en) Image encoder, image decoder, record medium, and image recorder
KR101506217B1 (en) Method and appratus for generating stereoscopic image data stream for temporally partial three dimensional data, and method and apparatus for displaying temporally partial three dimensional data of stereoscopic image
US7889196B2 (en) 3-dimensional image creating apparatus, 3-dimensional image reproducing apparatus, 3-dimensional image processing apparatus, 3-dimensional image processing program and recording medium recorded with the program
JP4181446B2 (en) Stereoscopic image display device
KR100804572B1 (en) 3-d image display unit, 3-d image recording device, 3-d image encoding device, 3-d image decoding device, 3-d image recording method and 3-d image transmitting method
CN103024408B (en) Stereoscopic image converting apparatus and stereoscopic image output apparatus
EP1501316A1 (en) Multimedia information generation method and multimedia information reproduction device
WO2010013382A1 (en) Video encoding device, video encoding method, video reproduction device, video recording medium, and video data stream
US20060290778A1 (en) 3-Dimensional video reproduction device and 3-dimensional video reproduction method
US20110254925A1 (en) Image processing apparatus, image processing method, and program
WO2011016240A1 (en) Video reproducing device
JP4145122B2 (en) Stereoscopic image display device
JP4657258B2 (en) Stereoscopic image display apparatus and method
JP4133683B2 (en) Stereoscopic image recording apparatus, stereoscopic image recording method, stereoscopic image display apparatus, and stereoscopic image display method
JP4173684B2 (en) Stereoscopic image creation device
WO2004030377A1 (en) Three-dimensional image display device, recording method, and transmission method
JP2011097564A (en) Video display control method and apparatus

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050523

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080520

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080812

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081118

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111128

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111128

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121128

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121128

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131128

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees