JP5248709B2 - 立体映像表示装置及び方法 - Google Patents

立体映像表示装置及び方法 Download PDF

Info

Publication number
JP5248709B2
JP5248709B2 JP2012513385A JP2012513385A JP5248709B2 JP 5248709 B2 JP5248709 B2 JP 5248709B2 JP 2012513385 A JP2012513385 A JP 2012513385A JP 2012513385 A JP2012513385 A JP 2012513385A JP 5248709 B2 JP5248709 B2 JP 5248709B2
Authority
JP
Japan
Prior art keywords
unit
display
viewpoint
map
viewing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012513385A
Other languages
English (en)
Other versions
JPWO2012073336A1 (ja
Inventor
隆介 平井
雄志 三田
賢一 下山
快行 爰島
理恵子 福島
雅裕 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Application granted granted Critical
Publication of JP5248709B2 publication Critical patent/JP5248709B2/ja
Publication of JPWO2012073336A1 publication Critical patent/JPWO2012073336A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction

Description

実施形態は、立体映像の表示に関する。
ある種の立体映像表示装置によれば、視聴者は特殊なメガネを使用せずに(即ち、裸眼で)立体映像を視聴することができる。係る立体映像表示装置は、視点の異なる複数の画像を表示し、これらの光線の指向方向を光線制御素子(例えばパララックスバリア、レンチキュラーレンズなど)によって制御する。指向方向が制御された光線は、視聴者の両眼に導かれる。視聴位置が適切であれば、視聴者は立体映像を認識できる。
係る立体映像表示装置の問題点の1つとして、立体映像を良好に視聴できる領域が限定的であることが挙げられる。例えば、左目に知覚される画像の視点が右目に知覚される画像の視点に比べて相対的に右側となり、立体映像を正しく認識できなくなる視聴位置が存在する。係る視聴位置は、逆視領域と呼ばれる。故に、裸眼方式の立体映像を良好に視聴できる領域を視聴者に認識させるなどの視聴支援機能が有用である。
特許第3443271号公報
従って、実施形態は、裸眼方式の立体映像の視聴支援機能を提供することを目的とする。
実施形態によれば、立体映像表示装置は、表示部と提示部とを含む。表示部は、画素からの光線を制御する複数の光線制御素子により、視点の異なる複数の画像を表示可能である。提示部は、複数の視聴位置において逆視が生じる光線制御素子の個数に基づいて算出された、表示部に対する視聴位置毎の見えのよさを視聴者に提示する。
第1の実施形態に係る立体映像表示装置を例示するブロック図。 図1の立体映像表示装置の動作を例示するフローチャート。 第2の実施形態に係る立体映像表示装置を例示するブロック図。 図3の立体映像表示装置の動作を例示するフローチャート。 第3の実施形態に係る立体映像表示装置を例示するブロック図。 図5の立体映像表示装置の動作を例示するフローチャート。 第4の実施形態に係る立体映像表示装置を例示するブロック図。 図7の立体映像表示装置の動作を例示するフローチャート。 第5の実施形態に係る立体映像表示装置を例示するブロック図。 図9の立体映像表示装置の動作を例示するフローチャート。 裸眼による立体視の原理の説明図。 左右の目が知覚する視点画像の説明図。 輝度プロファイルの周期性の説明図。 視点輝度プロファイルの周期性の説明図。 逆視の説明図。 逆視の説明図。 視点選択の説明図。 視点選択の説明図。 光線制御素子位置の説明図。 視聴位置の説明図。 輝度プロファイルの説明図。 視点輝度プロファイルの説明図。 正視領域の説明図。 視点画像生成手法の説明図。 マップを例示する図。 第1の実施形態に係るマップ生成装置を例示するブロック図。 図1の立体映像表示装置の変形例を例示するブロック図。
以下、図面を参照して、実施形態について説明する。
尚、各実施形態において、説明済みの他の実施形態と同一または類似の要素には同一または類似の符号を付し、重複する説明を基本的に省略する。
(第1の実施形態)
図1に示されるように、第1の実施形態に係る立体映像表示装置は、提示部51と、表示部(ディスプレイ)104とを備える。提示部51は、見えのよさ算出部101と、マップ生成部102と、セレクタ103とを含む。
表示部104は、立体映像信号12に含まれる複数の視点画像(信号)を表示する。表示部104は、典型的には液晶ディスプレイであるが、プラズマディスプレイ、OLED(有機発光ダイオード)ディスプレイなどの他のディスプレイであってもよい。
表示部104は、そのパネル上に複数の光線制御素子(例えばパララックスバリア、レンチキュラーレンズなど)を備えている。複数の視点画像の光線は、図11に示されるように、各光線制御素子によって例えば水平方向に分離されて視聴者の両眼に導かれる。尚、光線制御素子は、垂直方向などの他の方向に光線を分離するようにパネル上に配置されても勿論よい。
表示部104に備えられる光線制御素子は、放射輝度に関する特性(以降、輝度プロファイルとも称される)を持つ。例えば、ディスプレイの最大輝度を発光したときに、光線制御素子を透過した後の光の減衰率をプロファイルとすることができる。
例えば、図19に示されるように、各光線制御素子は、視点画像(サブ画素)1,・・・,9の光線を分離する。尚、以降の説明では、一例として9つの視点画像1,・・・,9を表示する場合について述べる。これらの視点画像1,・・・,9において、視点画像1は最も右側の視点に対応し、視点画像9は最も左側の視点に対応する。つまり、左目に入る視点画像のインデックスが右目に入る視差画像のインデックスより大きければ、逆視にはならない。視点画像5の光線は方向角θ=0に最も強く放射される。尚、輝度プロファイルは、各視点画像の光線が方向角θに放射される光の強さを輝度計などで測定することによって作成できる。ここでの方向角θは、−Π/2≦θ≦Π/2の範囲である。即ち、表示部104(に備えられる光線制御素子)の構成に依存して輝度プロファイルが決まる。
図19では、光線制御素子の背面の画素についてのみ述べたが、実際の表示部104は図13のように光線制御素子およびサブ画素が並べてある。故に、方向角θが急になるほど輝度プロファイルを計測している光線制御素子の隣の光線制御素子の背面のサブ画素の光が観測されるが、光線制御素子とサブ画素との距離が小さいことから、隣の光線制御素子の下のサブ画素との光路差は小さい。従って、輝度プロファイルは方向角θに対して周期的になると考えることができる。また、図13からもわかるように、上記周期は、光線制御素子とディスプレイとの距離、サブ画素の大きさおよび光線制御素子の特性などの設計情報から求めることが可能である。
表示部104に備えられる各光線制御素子の位置は、図17に示されるように、表示部104の中心を始点(原点)とする位置ベクトルsによって表すことができる。更に、各視聴位置は、図18に示されるように、表示部104の中心を始点とする位置ベクトルpによって表すことができる。尚、図18は、表示部104及びその周辺を鉛直方向から見た俯瞰図である。即ち、視聴位置は、表示部104及びその周辺を鉛直方向から見た平面上で規定される。
位置ベクトルpの視聴位置において、位置ベクトルsの光線制御素子からの光線によって知覚される輝度は、図20を用いて以下のように導出することができる。図20において、点Cは光線制御素子位置を表し、点Aは視聴位置(例えば、視聴者の目の位置)を表している。また、点Bは点Aから表示部104への垂線の足を表している。更に、θは点Cを基準とする点Aの方向角を表している。前述の輝度プロファイルによれば、方向角θに基づいて各視点画像の光線の放射輝度を算出できる。尚、方向角θは、幾何学的に、例えば下記の数式(1)に従って算出できる。

即ち、任意の視聴位置において、全ての光線制御素子からの放射輝度を算出すれば、図15A、図15B、図16A、図16Bに示されるような輝度プロファイルが得られる。尚、以降の説明において、前述の光線制御素子毎の輝度プロファイルとの区別のために、係る視聴位置毎の輝度プロファイルは視点輝度プロファイルと称される。
また、方向角θと輝度プロファイルの周期性を考慮すれば、視点輝度プロファイルにも周期性があることがわかる。例えば、図14において、点Cの1つ左の光線制御素子の背面にある視点画像5のサブ画素からの光を観察できる位置Aがあるとする。このとき、方向角θの周期性から、点Cの2つ左の光線制御素子の背面にある視点画像5のサブ画素を観察できる位置A’がある。同様にして、点Cの光線制御素子の背面にある視点画像5のサブ画素を観察できる位置A’’がある。視点画像iのサブ画素の並びが等間隔であることから、図14のように、ディスプレイからの垂線が同じ大きさのA、A’、A’’は等間隔に並ぶ。
この視点輝度プロファイルを利用すれば、位置ベクトルpの視聴位置において、位置ベクトルsの光線制御素子からの視点画像iの光線によって知覚される画素値は、下記の数式(2)で表すことができる。ここで、各視点画像1,・・・,9について、インデックスi=1,・・・,9と夫々定義する。また、視点輝度プロファイルをa()と定義する。また、光線制御素子wの背面のサブ画素の視点画像iの画素値をx(w、i)とする。

ここで、Ωは表示部104に備えられる全ての光線制御素子の位置ベクトルsを包含する集合である。尚、光線制御素子位置sから出力される光線には、位置ベクトルsの光線制御素子の背面にあるサブ画素のみではなくその周辺にあるサブ画素からの光線も含まれるので、数式(2)において、位置ベクトルsの光線制御素子の背面の画素のみではなく、その周辺のサブ画素値も含めた和が計算される。
上記数式(2)は、下記の数式(3)のようにベクトルを用いて表すこともできる。

即ち、視点画像の総数をNとすれば、位置ベクトルpの視聴位置において、位置ベクトルsの光線制御素子からの各視点画像の光線によって知覚される輝度は、下記の数式(4)で表すことができる。

尚、上記数式(4)は、下記数式(5),(6)を利用して、下記数式(7)のように表すこともできる。



更に、視聴位置pにおいて観察できる画像を1次元ベクトルY(p)とすれば、下記の数式(8)でこれを表すことができる。

ここで、上記数式(8)を直感的に説明する。例えば、図12に示されるように、中央の光線制御素子からの光線のうち、右目では視点画像5の光線が知覚され、左目では視点画像7の光線が知覚される。故に、視聴者の両目には相異なる視点画像が知覚され、この視点画像間の視差によって立体視が可能になる。つまり、視聴位置pが異なることで、異なる映像が知覚されることにより立体視を可能にする。
見えのよさ算出部101は、表示部104に対する視聴位置毎の見えのよさを算出する。例えば、立体映像を正しく視聴することのできる正視領域においても、逆視の生じる光線制御素子の数の大小などの要因によって、視聴位置毎に見えのよさは異なる。従って、表示部104に対する視聴位置毎の見えのよさを算出し、視聴位置毎の立体映像の品質の一指標として利用することで、効果的な視聴支援が可能となる。
見えのよさ算出部101は、少なくとも表示部104の特性(例えば、輝度プロファイル、視点輝度プロファイルなど)に基づいて視聴位置毎の見えのよさを算出する。見えのよさ算出部101は、算出した視聴位置毎の見えのよさをマップ生成部102に入力する。
例えば、見えのよさ算出部101は、下記の数式(9)に従って、関数ε(s)を算出する。関数ε(s)は、位置ベクトルsの光線制御素子によって逆視が発生するならば1を返し、逆視が発生しなければ0を返す関数である。

尚、以降の説明において、||はベクトルのノルムを表し、L1ノルムないしL2ノルムが用いられる。
ここで、位置ベクトルpは視聴者の両眼の中心を指している。尚、dは両眼視差ベクトルを表す。即ち、ベクトルp+d/2は視聴者の左目を指しており、ベクトルp−d/2は視聴者の右目を指している。視聴者の左目に最も強く知覚される視点画像のインデックスが右目に最も強く知覚される視点画像のインデックスよりも大きければ、ε(s)は1となり、そうでなければ0となる。
更に、見えのよさ算出部101は、数式(9)によって算出した関数ε(s)を用いて、下記の数式(10)に従って、位置ベクトルpの視聴位置における見えのよさQを算出する。

数式(10)において、σは、表示部104に備えられる光線制御素子の個数が多くなるほど大きな値を持つ定数である。また、Ωは表示部104に備えられる全ての光線制御素子の位置ベクトルsを包含する集合である。見えのよさQによれば、逆視の発生する光線制御素子の個数(の少なさ)を評価することができる。見えのよさ算出部101は、見えのよさQを最終的な見えのよさとして出力してもよいし、後述するように異なる演算を施してもよい。
例えば、見えのよさ算出部101は、前述の数式(9)に代えて下記の数式(11)によってε(s)を算出してもよい。

数式(11)において、σは、表示部104に備えられる光線制御素子の個数が多くなるほど大きな値を持つ定数である。数式(11)によれば、画面端において生じる逆視が画面中央において生じる逆視に比べて目立ちにくいという主観的な性質が考慮される。即ち、逆視が生じた場合にε(s)が返す値は、表示部104の中心からの距離が大きい光線制御素子ほど小さくなる。
また、見えのよさ算出部101は、下記の数式(12)に従ってQを算出し、このQと前述のQとを用いて下記の数式(13)に従って最終的な見えのよさQを算出してもよい。或いは、見えのよさ算出部101は、前述のQに代えてQを最終的な見えのよさQとして算出してもよい。


数式(12)において、σ3は、表示部104に備えられる光線制御素子の個数が多くなるほど大きな値を持つ定数である。
数式(8)では、各視点画像の線形和によって、知覚される画像が表現されていることを示している。数式(8)における視点輝度プロファイル行列A(p)は、全て正定値行列であるため、一種のローパスフィルタの操作がなされていることにより、ボケが生じる。そこで、視点pにおいて、ボケのない先鋭な画像Y^(p)(数式(14)の右辺第2項)をあらかじめ用意し、数式(14)によって定義されるエネルギーEを最小化することで、表示する視点画像Xを定める方法が提案されている。

エネルギーEは下記の数式(15)のよう書き換えることができる。数式(15)を最小化するような視聴位置pに両眼の中心があるときに数式(8)によるボケの影響が低減された先鋭な画像を観察することが可能になる。このような視聴位置pは1つないし複数設定することが可能であり、以降の説明ではこれらを設定視点Cjで表わす。

例えば図21のC1,C2は上記の設定視点を表している。設定視点とほぼ同じ視点輝度プロファイル行列は、先に述べたように異なる視点位置においても周期的に出現するので、例えば、図21、C’1,C’2も設定視点と見なすことが可能である。これらの設定視点の内、視聴位置pともっとも近い設定視点を、式(7)においてC(p)で表わしている。見えのよさQによれば、設定視点からの視聴位置のずれ(の小ささ)を評価することができる。
マップ生成部102は、見えのよさ算出部101からの視聴位置毎の見えのよさを視聴者に提示するマップを生成する。マップは、典型的には、図23に示されるように、視聴領域毎の見えのよさを対応する色によって表現する画像であるが、これに限らず視聴者が視聴位置毎の立体映像の見えのよさを把握することのできる任意の形式の情報であってよい。マップ生成部102は、生成したマップをセレクタ103に入力する。
セレクタ103は、マップ生成部102からのマップの表示の有効/無効を選択する。セレクタ103は、例えば図1に示されるように、ユーザ制御信号11に従ってマップの表示の有効/無効を選択する。尚、セレクタ103は、その他の条件に従ってマップの表示の有効/無効を選択してもよい。例えば、セレクタ103は、表示部104が立体映像信号12を表示し始めてから所定時間経過するまでマップの表示を有効にし、その後無効にしてもよい。セレクタ103がマップの表示を有効にすると、マップ生成部102からのマップがセレクタ103を介して表示部104に供給される。表示部104は、例えば表示中の立体映像信号12に重畳させてマップを表示することができる。
以下、図2を用いて図1の立体映像表示装置の動作を説明する。
処理が開始すると、見えのよさ算出部101は、表示部104に対する視聴位置毎の見えのよさを算出する(ステップS201)。マップ生成部102は、ステップS201において算出された、視聴位置毎の見えのよさを視聴者に提示するマップを生成する(ステップS202)。
セレクタ103は、例えばユーザ制御信号11に従ってマップ表示が有効であるか否かを判定する(ステップS203)。マップ表示が有効であると判定されれば処理はステップS204に進む。ステップS204では、表示部104はステップS202において生成されたマップを立体映像信号12に重畳させて表示し、処理は終了する。一方、ステップS203においてマップ表示が無効であると判定されれば、ステップS204は省略される。即ち、表示部104はステップS202において生成されたマップを表示せず、処理は終了する。
以上説明したように、第1の実施形態に係る立体映像表示装置は、表示部に対する視聴位置毎の見えのよさを算出し、これを視聴者に提示するマップを生成する。従って、本実施形態に係る立体映像表示装置によれば、視聴者は視聴位置毎の立体映像の見えのよさを容易に把握することができる。特に、本実施形態に係る立体映像表示装置によって生成されるマップは、単に正視領域を提示するものではなく、正視領域内における見えのよさを多段階で提示するものなので、立体映像の視聴支援に役立つ。
尚、本実施形態において、見えのよさ算出部101は、表示部104の特性に基づいて視聴位置毎の見えのよさを算出する。即ち、表示部104の特性が決まれば、事前に視聴位置毎の見えのよさを算出してマップを生成しておくことも可能である。このように事前生成したマップを記憶部(メモリなど)に保存すれば、図1の見えのよさ算出部101及びマップ生成部102を上記記憶部に置き換えても同様の効果を得ることができる。従って、本実施形態は、図24に示されるように、見えのよさ算出部101とマップ生成部102と記憶部105とを含むマップ生成装置も企図している。更に、本実施形態は、図25に示されるように、図24のマップ生成装置によって生成されたマップを記憶する記憶部105と、(必要ならばセレクタ103と、)表示部104とを含む立体映像表示装置も企図している。
(第2の実施形態)
図3に示されるように、第2の実施形態に係る立体映像表示装置は、提示部52と、表示部104とを備える。提示部52は、視点選択部111と、見えのよさ算出部112と、マップ生成部102と、セレクタ103とを含む。
視点選択部111は、立体映像信号12を入力し、これに含まれる複数の視点画像の表示順をユーザ制御信号11に応じて選択する。表示順選択後の立体映像信号13は、表示部104に供給される。更に、選択された表示順が見えのよさ算出部112に通知される。具体的には、視点選択部111は、例えばマップ中のいずれかの位置を指定するユーザ制御信号11に応じて、指定位置が正視領域に含まれるように(或いは、指定位置における見えのよさを最大化するように)視点画像の表示順を選択する。
図15A及び図15Bの例では、視聴者の右側に逆視領域が存在する。このような視点画像の表示順を右方向に1枚分シフトさせると、図16A及び図16Bに示されるように視聴者が知覚する視点画像が右方向に1枚分シフトする。換言すれば、正視領域及び逆視領域が夫々右方向にシフトする。係る表示順の選択により、正視領域の変更、指定位置における見えのよさの変更などが可能となる。
見えのよさ算出部112は、表示部104の特性と視点選択部111によって選択された表示順とに基づいて視聴位置毎の見えのよさを算出する。即ち、視点選択部111によって選択された表示順に応じて例えば数式(3)のx(i)が変化するので、見えのよさ算出部112はこれに基づいて視聴位置毎の見えのよさを算出する必要がある。見えのよさ算出部112は、算出した視聴位置毎の見えのよさをマップ生成部102に入力する。
以下、図4を用いて図3の立体映像表示装置の動作を説明する。
処理が開始すると、視点選択部111は、立体映像信号12を入力し、これに含まれる複数の視点画像の表示順をユーザ制御信号11に応じて選択して、立体映像信号13を表示部104に供給する(ステップS211)。
次に、見えのよさ算出部112は、表示部104の特性とステップS211において視点選択部111によって選択された表示順とに基づいて視聴位置毎の見えのよさを算出する(ステップS212)。
以上説明したように、第2の実施形態に係る立体映像表示装置は、指定位置が正視領域に含まれるように、或いは、指定位置における見えのよさを最大化するように視点画像の表示順を選択する。従って、本実施形態に係る立体映像表示装置によれば、視聴者は視聴環境(家具配置など)による制約を緩和し、所望の視聴位置における立体映像の見えのよさを向上させることができる。
尚、本実施形態において、見えのよさ算出部112は、表示部104の特性と視点選択部111によって選択された表示順とに基づいて視聴位置毎の見えのよさを算出する。ここで、視点選択部111が選択可能な表示順の数(即ち、視点の数)は有限である。即ち、事前に、各表示順が与えられた場合の視聴位置毎の見えのよさを算出してマップを生成しておくことも可能である。このように事前生成した各表示順に対応するマップを記憶部(メモリなど)に保存し、立体映像の表示時に視点選択部111によって選択された表示順に対応するマップを読み出すようにすれば、図3の見えのよさ算出部112及びマップ生成部102を上記記憶部に置き換えても同様の効果を得ることができる。従って、本実施形態は、見えのよさ算出部112とマップ生成部102と図示しない記憶部とを含むマップ生成装置も企図している。更に、本実施形態は、上記マップ生成装置によって事前生成された各表示順に対応するマップを記憶する図示しない記憶部と、視点選択部111と、(必要ならばセレクタ103と、)表示部104とを含む立体映像表示装置も企図している。
(第3の実施形態)
図5に示されるように、第3の実施形態に係る立体映像表示装置は、提示部53と、表示部104とを備える。提示部53は、視点画像生成部121と、見えのよさ算出部122と、マップ生成部102と、セレクタ103とを含む。
視点画像生成部121は、映像信号14及びデプス信号15を入力し、これらに基づいて視点画像を生成し、生成した視点画像を含む立体映像信号16を表示部104に供給する。尚、映像信号14は、2次元画像(即ち、1つの視点画像)であってもよいし、3次元画像(即ち、複数の視点画像)であってもよい。従来、映像信号14及びデプス信号15に基づいて所望の視点画像を生成するための様々な手法が知られているが、視点画像生成部121は任意の手法を利用してよい。
例えば、図22に示されるように、9個のカメラを横並びにして撮影すると、9個の視点画像を得ることができる。しかしながら、典型的には、立体映像表示装置には1個または2個のカメラによって撮影された1個または2個の視点画像が入力される。この1個または2個の視点画像から各画素のデプス値を推定したり、或いは、入力されるデプス信号15から直接的に取得したりすることによって、現実には撮影されていない視点画像を仮想的に生成する技術が知られている。図22の例に関して、i=5に対応する視点画像が映像信号14として与えられているならば、各画素のデプス値に基づいて視差量を調整することによりi=1,・・・,4,6,・・・,9に対応する視点画像を仮想的に生成することができる。
具体的には、視点画像生成部121は、例えばマップ中のいずれかの位置を指定するユーザ制御信号11に応じて、指定位置において知覚される立体映像の品質が向上するように、生成した視点画像の表示順を選択する。例えば視点数が3以上であれば、視点画像生成部121は指定位置に(映像信号14からの)視差量の小さな視点画像が導かれるように視点画像の表示順を選択する。視点数が2であれば、視点画像生成部121は指定位置が正視領域に含まれるように視点画像の表示順を選択する。視点画像生成部121によって選択された表示順と、映像信号14に対応する視点とが、見えのよさ算出部122に通知される。
ここで、視差量の小さな視点画像を指定位置に導くことと、当該指定位置における立体映像の品質の向上との関係について簡単に説明する。
映像信号14及びデプス信号15に基づいて生成される立体映像の品質を劣化させる一要因としてオクルージョンが知られている。即ち、映像信号14において参照できない(存在しない)領域(例えば、オブジェクトによって遮蔽される領域(陰面))を、異なる視点の画像では表現しなければならないことがある。この事象は、一般に、映像信号14との間の視点間距離が大きくなるほど、即ち、映像信号14からの視差量が大きくなるほど起こりやすい。例えば、図22の例に関して、i=5に対応する視点画像が映像信号14として与えられているならば、i=6に対応する視点画像に比べてi=9に対応する視点画像の方が、i=5に対応する視点画像において存在しない領域(陰面)が大きくなる。従って、視差量の小さな視点画像を視聴させることでオクルージョンによる立体映像の品質劣化を抑制できる。
見えのよさ算出部122は、表示部104の特性と、視点画像生成部121によって選択された表示順と、映像信号14に対応する視点とに基づいて、視聴位置毎の見えのよさを算出する。即ち、視点画像生成部121によって選択された表示順に応じて数式(3)のx(i)が変化するし、映像信号14の視点からの距離が大きくなるほど立体映像の品質が劣化するので、見えのよさ算出部122は、これらに基づいて視聴位置毎の見えのよさを算出する必要がある。見えのよさ算出部122は、算出した視聴位置毎の見えのよさをマップ生成部102に入力する。
具体的には、見えのよさ算出部122は、下記の数式(16)に従って、関数λ(s,p,i)を算出する。尚、簡単化のために、数式(16)では、映像信号14が1つの視点画像であることが仮定される。関数λ(s,p、i)は、視聴位置ベクトルpの視聴位置において知覚される視差画像の視点が映像信号14の視点iに近いほど小さな値を持つ。

更に、見えのよさ算出部122は、数式(16)によって算出した関数λ(s,p,i)を用いて、数式(17)に従って位置ベクトルpの視聴位置における見えのよさQを算出する。

数式(17)において、σは、表示部104に備えられる光線制御素子の個数が多くなるほど大きな値を持つ定数である。また、Ωは表示部104に備えられる全ての光線制御素子の位置ベクトルsを包含する集合である。見えのよさQによれば、オクルージョンによる立体映像の品質劣化の程度を評価することができる。見えのよさ算出部122は、この見えのよさQを最終的な見えのよさQとして出力してもよいし、前述の見えのよさQまたはQと組み合わせて最終的な見えのよさQを算出してもよい。即ち、見えのよさ算出部122は、下記の数式(18),(18)などに従って、最終的な見えのよさQを算出してもよい。


以下、図6を用いて図5の立体映像表示装置の動作を説明する。
処理が開始すると、視点画像生成部121は、映像信号14及びデプス信号15に基づく視点画像を生成し、ユーザ制御信号11に応じてこれらの表示順を選択して、立体映像信号16を表示部104に供給する(ステップS221)。
次に、見えのよさ算出部122は、表示部104の特性と、ステップS221において視点画像生成部121によって選択された表示順と、映像信号14に対応する視点とに基づいて、視聴位置毎の見えのよさを算出する(ステップS222)。
以上説明したように、第3の実施形態に係る立体映像表示装置は、映像信号及びデプス信号に基づいて視点画像を生成し、これら視点画像のうち映像信号からの視差量の小さいものが指定位置に導かれるように視点画像の表示順を選択する。従って、本実施形態に係る立体映像表示装置によれば、オクルージョンによる立体映像の品質劣化を抑制できる。
尚、本実施形態において、見えのよさ算出部122は、表示部104の特性と、視点画像生成部121によって選択された表示順と、映像信号14に対応する視点とに基づいて視聴位置毎の見えのよさを算出する。ここで、視点画像生成部121が選択可能な表示順の数(即ち、視点の数)は有限である。また、映像信号14に対応する可能性のある視点の数も有限であるし、映像信号14に対応する視点は固定(例えば、中央の視点)であるかもしれない。即ち、事前に、各表示順(及び映像信号14の各視点)が与えられた場合の視聴位置毎の見えのよさを算出してマップを生成しておくことも可能である。このように事前生成した各表示順(及び映像信号14の各視点)に対応するマップを記憶部(メモリなど)に保存し、立体映像の表示時に視点画像生成部121によって選択された表示順と、映像信号14の視点とに対応するマップを読み出すようにすれば、図5の見えのよさ算出部122及びマップ生成部102を上記記憶部に置き換えても同様の効果を得ることができる。従って、本実施形態は、見えのよさ算出部122とマップ生成部102と図示しない記憶部とを含むマップ生成装置も企図している。更に、本実施形態は、上記マップ生成装置によって事前生成された各表示順(及び映像信号14の各視点)に対応するマップを記憶する図示しない記憶部と、視点画像生成部121と、(必要ならばセレクタ103と、)表示部104とを含む立体映像表示装置も企図している。
(第4の実施形態)
図7に示されるように、第4の実施形態に係る立体映像表示装置は、提示部54と、センサ132と、表示部104とを備える。提示部54は、視点画像生成部121と、見えのよさ算出部122と、マップ生成部131と、セレクタ103とを含む。尚、視点画像生成部121及び見えのよさ算出部122は、見えのよさ算出部101に置き換えられてもよいし、視点画像選択部111及び見えのよさ算出部112に置き換えられてもよい。
センサ132は、視聴者の位置情報(以下、視聴者位置情報17と称される)を検出する。例えば、センサ132は、顔認識技術を利用して視聴者位置情報17を検出してもよいし、人感センサなどの分野で知られている他の手法を利用して視聴者位置情報17を検出してもよい。
マップ生成部131は、マップ生成部102と同様に、視聴位置毎の見えのよさに応じたマップを生成する。更に、マップ生成部131は、生成したマップに視聴者位置情報17を重畳してからセレクタ103に供給する。例えば、マップ生成部131は、マップ中の視聴者情報17に対応する位置に所定のシンボル(例えば、丸印、×印、特定の視聴者を識別するマーク(例えば、事前に設定された顔マーク)など)を付加する。
以下、図8を用いて図7の立体映像表示装置の動作を説明する。
ステップS222(或いは、ステップS202またはステップS212でもよい)の終了後、マップ生成部131は算出された見えのよさに応じてマップを生成する。マップ生成部131は、センサ132によって検出された視聴者位置情報17をマップに重畳してからセレクタ103に供給し(ステップS231)、処理はステップS203に進む。
以上説明したように、第4の実施形態に係る立体映像表示装置は、視聴者位置情報を重畳したマップを生成する。従って、本実施形態に係る立体映像表示装置によれば、視聴者はマップ中の自己の位置を把握できるので、スムーズに移動、視点の選択などを実施することができる。
尚、本実施形態において、マップ生成部131が見えのよさに応じて生成するマップは、前述のように事前生成して図示しない記憶部に記憶させておくことも可能である。即ち、マップ生成部131が上記記憶部から適切なマップを読み出して、視聴者位置情報17を重畳するようにすれば、図7の見えのよさ算出部122を上記記憶部に置き換えても同様の効果を得ることができる。従って、本実施形態は、事前生成されたマップを記憶する図示しない記憶部と、この記憶部に記憶されたマップを読み出して視聴者位置情報17を重畳するマップ生成部131と、視点画像生成部121と、(必要ならばセレクタ103と、)表示部104とを含む立体映像表示装置も企図している。
(第5の実施形態)
図9に示されるように、第5の実施形態に係る立体映像表示装置は、提示部55と、センサ132と、表示部104とを備える。提示部55は、視点画像生成部141と、見えのよさ算出部142と、マップ生成部131と、セレクタ103とを含む。尚、マップ生成部131は、マップ生成部102に置き換えられてもよい。
視点画像生成部141は、前述の視点画像生成部121とは異なり、ユーザ制御信号11ではなく視聴者位置情報17に応じて映像信号14及びデプス信号15に基づく視点画像を生成し、生成した視点画像を含む立体映像信号18を表示部104に供給する。具体的には、視点画像生成部141は、現在の視聴者位置において知覚される立体映像の品質が向上するように、生成した視点画像の表示順を選択する。例えば視点数が3以上であれば、視点画像生成部141は現在の視聴者位置に(映像信号14からの)視差量の小さな視点画像が導かれるように視点画像の表示順を選択する。視点数が2であれば、視点画像生成部141は現在の視聴者位置が正視領域に含まれるように視点画像の表示順を選択する。視点画像生成部141によって選択された表示順と、映像信号14に対応する視点とが見えのよさ算出部142に通知される。
尚、視点画像生成部141は、センサ132の検出精度次第で視点画像の生成手法を選択してもよい。具体的には、視点画像生成部141は、センサ132の検出精度が閾値よりも低ければ、視点画像生成部121と同様に、ユーザ制御信号11に応じて視点画像を生成してもよい。一方、センサ132の検出精度が閾値以上であれば視聴者位置情報17に応じて視点画像を生成する。
或いは、視点画像生成部141は、立体映像信号12を入力し、これに含まれる複数の視点画像の表示順を視聴者位置情報17に応じて選択する図示しない視点画像選択部に置き換えられてもよい。この視点画像選択部は、例えば、現在の視聴者位置が正視領域に含まれるように、或いは、現在の視聴者位置における見えのよさを最大化するように視点画像の表示順を選択する。
見えのよさ算出部142は、見えのよさ算出部122と同様に、表示部104の特性と、視点画像生成部121によって選択された表示順と、映像信号14に対応する視点とに基づいて、視聴位置毎の見えのよさを算出する。見えのよさ算出部142は、算出した視聴位置毎の見えのよさをマップ生成部131に入力する。
以下、図10を用いて図9の立体映像表示装置の動作を説明する。
処理が開始すると、視点画像生成部141は、映像信号14及びデプス信号15に基づく視点画像を生成し、センサ132によって検出された視聴者位置情報17に応じてこれらの表示順を選択して、立体映像信号18を表示部104に供給する(ステップS241)。
次に、見えのよさ算出部142は、表示部104の特性と、ステップS241において視点画像生成部141によって選択された表示順と、映像信号14に対応する視点とに基づいて、視聴位置毎の見えのよさを算出する(ステップS242)。
以上説明したように、第5の実施形態に係る立体映像表示装置は、視聴者位置情報に応じて立体映像信号を自動生成する。従って、本実施形態に係る立体映像表示装置によれば、視聴者は移動及び操作を必要とせずに高品質な立体映像を視聴することができる。
尚、本実施形態において、見えのよさ算出部142は、見えのよさ算出部122と同様に、表示部104の特性と、視点画像生成部141によって選択された表示順と、映像信号14に対応する視点とに基づいて視聴位置毎の見えのよさを算出する。即ち、事前に、各表示順(及び映像信号14の各視点)が与えられた場合の視聴位置毎の見えのよさを算出してマップを生成しておくことも可能である。このように事前生成した各表示順(及び映像信号14の各視点)に対応するマップを記憶部(メモリなど)に保存し、立体映像の表示時に視点画像生成部141によって選択された表示順と、映像信号14の視点とに対応するマップを読み出すようにすれば、図9の見えのよさ算出部142を上記記憶部に置き換えても同様の効果を得ることができる。従って、本実施形態は、見えのよさ算出部142とマップ生成部102と図示しない記憶部とを含むマップ生成装置も企図している。更に、本実施形態は、上記マップ生成装置によって事前生成されたマップを記憶する図示しない記憶部と、この記憶部に記憶されたマップを読み出して視聴者位置情報17を重畳するマップ生成部131と、視点画像生成部141と、(必要ならばセレクタ103と、)表示部104とを含む立体映像表示装置も企図している。
上記各実施形態の処理は、汎用のコンピュータを基本ハードウェアとして用いることで実現可能である。上記各実施形態の処理を実現するプログラムは、コンピュータで読み取り可能な記憶媒体に格納して提供されてもよい。プログラムは、インストール可能な形式のファイルまたは実行可能な形式のファイルとして記憶媒体に記憶される。記憶媒体としては、磁気ディスク、光ディスク(CD−ROM、CD−R、DVD等)、光磁気ディスク(MO等)、半導体メモリなど、プログラムを記憶でき、かつ、コンピュータが読み取り可能な記憶媒体であれば、何れの形態であってもよい。また、上記各実施形態の処理を実現するプログラムを、インターネットなどのネットワークに接続されたコンピュータ(サーバ)上に格納し、ネットワーク経由でコンピュータ(クライアント)にダウンロードさせてもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
11・・・ユーザ制御信号
12,13,16,18・・・立体映像信号
14・・・映像信号
15・・・デプス信号
17・・・視聴者位置情報
51,52,53,54,55・・・提示部
101,112,122,142・・・見えのよさ算出部
102,131・・・マップ生成部
103・・・セレクタ
104・・・表示部
105・・・記憶部
111・・・視点選択部
121,141・・・視点画像生成部
132・・・センサ

Claims (10)

  1. 画素からの光線を制御する複数の光線制御素子により、視点の異なる複数の画像を表示可能な表示部と、
    前記表示部に対する複数の視聴位置毎の見えのよさを当該視聴位置において逆視が生じる前記光線制御素子の個数に基づいて算出する算出部と、
    前記視聴位置毎の見えのよさを示すマップを生成する生成部
    を具備する立体映像表示装置。
  2. 前記算出部は、前記視聴位置において逆視が生じる前記光線制御素子の位置に更に基づいて前記見えのよさを算出する、請求項1の立体映像表示装置。
  3. 前記算出部は、予め設定された理想的な視聴位置からのずれに更に基づいて前記見えのよさを算出する、請求項1または請求項2の立体映像表示装置。
  4. 前記生成部は、前記視聴位置毎の見えのよさを各々対応する色を用いて表現することにより前記マップを生成する、請求項1乃至請求項3のいずれか1項の立体映像表示装置。
  5. ユーザからの指示に応じて、前記マップ前記表示部に表示させるか否かを判定する判定部を更に具備する、請求項1の立体映像表示装置。
  6. ユーザからの指示に応じて、指定された位置における前記見えのよさを最大化するように、前記複数の画像の前記表示部における表示順を選択する選択部を更に具備する、請求項1の立体映像表示装置。
  7. 映像信号及びデプス信号に基づいて前記複数の画像を生成し、ユーザの制御に応じて前記複数の画像の前記表示部における表示順を選択する画像生成部を更に具備する、請求項1の立体映像表示装置。
  8. 視聴者の位置を検出するセンサを更に具備し
    前記生成部は、前記視聴者の位置を前記マップに重畳する、
    請求項1の立体映像表示装置。
  9. 視聴者の位置を検出するセンサと、
    映像信号及びデプス信号に基づいて前記複数の画像を生成し、前記視聴者の位置に応じて前記複数の画像の前記表示部における表示順を選択する画像生成部と
    を更に具備する、請求項1の立体映像表示装置。
  10. 画素からの光線を制御する複数の光線制御素子により、視点の異なる複数の画像を表示部に表示し、
    前記表示部に対する複数の視聴位置毎の見えのよさを当該視聴位置において逆視が生じる前記光線制御素子の個数に基づいて算出し、
    前記視聴位置毎の見えのよさを示すマップを生成する、
    立体映像表示方法。
JP2012513385A 2010-11-30 2010-11-30 立体映像表示装置及び方法 Expired - Fee Related JP5248709B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/071389 WO2012073336A1 (ja) 2010-11-30 2010-11-30 立体映像表示装置及び方法

Publications (2)

Publication Number Publication Date
JP5248709B2 true JP5248709B2 (ja) 2013-07-31
JPWO2012073336A1 JPWO2012073336A1 (ja) 2014-05-19

Family

ID=46171322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012513385A Expired - Fee Related JP5248709B2 (ja) 2010-11-30 2010-11-30 立体映像表示装置及び方法

Country Status (5)

Country Link
US (1) US20120293640A1 (ja)
JP (1) JP5248709B2 (ja)
CN (1) CN102714749B (ja)
TW (1) TWI521941B (ja)
WO (1) WO2012073336A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010009737A1 (de) * 2010-03-01 2011-09-01 Institut für Rundfunktechnik GmbH Verfahren und Anordnung zur Wiedergabe von 3D-Bildinhalten
WO2013085513A1 (en) * 2011-12-07 2013-06-13 Intel Corporation Graphics rendering technique for autostereoscopic three dimensional display
CN102802014B (zh) * 2012-08-01 2015-03-11 冠捷显示科技(厦门)有限公司 一种多人跟踪功能的裸眼立体显示器
JP5395934B1 (ja) * 2012-08-31 2014-01-22 株式会社東芝 映像処理装置および映像処理方法
KR101996655B1 (ko) * 2012-12-26 2019-07-05 엘지디스플레이 주식회사 홀로그램 표시 장치
JP2014206638A (ja) * 2013-04-12 2014-10-30 株式会社ジャパンディスプレイ 立体表示装置
EP2853936A1 (en) 2013-09-27 2015-04-01 Samsung Electronics Co., Ltd Display apparatus and method
WO2021132013A1 (ja) * 2019-12-27 2021-07-01 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
CN112449170B (zh) * 2020-10-13 2023-07-28 万维仁和(北京)科技有限责任公司 一种立体视频重定位方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10271536A (ja) * 1997-03-24 1998-10-09 Sanyo Electric Co Ltd 立体映像表示装置
JP2003169351A (ja) * 2001-09-21 2003-06-13 Sanyo Electric Co Ltd 立体画像表示方法および立体画像表示装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3443272B2 (ja) * 1996-05-10 2003-09-02 三洋電機株式会社 立体映像表示装置
US7277121B2 (en) * 2001-08-29 2007-10-02 Sanyo Electric Co., Ltd. Stereoscopic image processing and display system
JP4207981B2 (ja) * 2006-06-13 2009-01-14 ソニー株式会社 情報処理装置および情報処理方法、プログラム、並びに記録媒体
US20080123956A1 (en) * 2006-11-28 2008-05-29 Honeywell International Inc. Active environment scanning method and device
JP2009077234A (ja) * 2007-09-21 2009-04-09 Toshiba Corp 三次元画像処理装置、方法及びプログラム
US8189035B2 (en) * 2008-03-28 2012-05-29 Sharp Laboratories Of America, Inc. Method and apparatus for rendering virtual see-through scenes on single or tiled displays
US9406132B2 (en) * 2010-07-16 2016-08-02 Qualcomm Incorporated Vision-based quality metric for three dimensional video

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10271536A (ja) * 1997-03-24 1998-10-09 Sanyo Electric Co Ltd 立体映像表示装置
JP2003169351A (ja) * 2001-09-21 2003-06-13 Sanyo Electric Co Ltd 立体画像表示方法および立体画像表示装置

Also Published As

Publication number Publication date
CN102714749B (zh) 2015-01-14
JPWO2012073336A1 (ja) 2014-05-19
CN102714749A (zh) 2012-10-03
TW201225640A (en) 2012-06-16
US20120293640A1 (en) 2012-11-22
WO2012073336A1 (ja) 2012-06-07
TWI521941B (zh) 2016-02-11

Similar Documents

Publication Publication Date Title
JP5248709B2 (ja) 立体映像表示装置及び方法
CN106170084B (zh) 多视点图像显示设备及其控制方法及多视点图像产生方法
RU2541936C2 (ru) Система трехмерного отображения
KR101675961B1 (ko) 적응적 부화소 렌더링 장치 및 방법
EP3350989B1 (en) 3d display apparatus and control method thereof
JP5625979B2 (ja) 表示装置および表示方法ならびに表示制御装置
JP4937424B1 (ja) 立体画像表示装置および方法
EP2869571B1 (en) Multi view image display apparatus and control method thereof
US20190166360A1 (en) Binocular fixation imaging method and apparatus
US9905143B1 (en) Display apparatus and method of displaying using image renderers and optical combiners
US9081194B2 (en) Three-dimensional image display apparatus, method and program
CN105376558B (zh) 多视图图像显示设备及其控制方法
KR20160025522A (ko) 위치 감지와 뷰들의 적응 수를 갖는 멀티뷰 3차원 디스플레이 시스템 및 방법
EP3409013A1 (en) Viewing device adjustment based on eye accommodation in relation to a display
WO2015132828A1 (ja) 映像表示方法、及び、映像表示装置
KR20160081773A (ko) 광시각 나안 입체 영상 표시 방법 및 표시 장치
JP2015520961A (ja) 立体視ディスプレイにおける調節効果による歪み誤差を補正する方法および装置
US8983125B2 (en) Three-dimensional image processing device and three dimensional image processing method
US20130342536A1 (en) Image processing apparatus, method of controlling the same and computer-readable medium
JP2014241015A (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
JP5323222B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
Wu et al. Design of stereoscopic viewing system based on a compact mirror and dual monitor
JP5422684B2 (ja) 立体画像決定装置、立体画像決定方法、および立体画像表示装置
Kim et al. Parallax adjustment for visual comfort enhancement using the effect of parallax distribution and cross talk in parallax-barrier autostereoscopic three-dimensional display
KR20160044918A (ko) 동공 간격에 기반하여 입체 영상의 깊이를 설정하는 방법 및 장치

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130410

R151 Written notification of patent or utility model registration

Ref document number: 5248709

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

Free format text: JAPANESE INTERMEDIATE CODE: R313121

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees