JP2012244466A - 立体画像処理装置 - Google Patents

立体画像処理装置 Download PDF

Info

Publication number
JP2012244466A
JP2012244466A JP2011113444A JP2011113444A JP2012244466A JP 2012244466 A JP2012244466 A JP 2012244466A JP 2011113444 A JP2011113444 A JP 2011113444A JP 2011113444 A JP2011113444 A JP 2011113444A JP 2012244466 A JP2012244466 A JP 2012244466A
Authority
JP
Japan
Prior art keywords
distance
observer
acquisition unit
parallax
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011113444A
Other languages
English (en)
Inventor
Shotaro Miwa
祥太郎 三輪
Kazuhiko Washimi
和彦 鷲見
Takashi Hirai
隆史 平位
Yasushi Kage
裕史 鹿毛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2011113444A priority Critical patent/JP2012244466A/ja
Publication of JP2012244466A publication Critical patent/JP2012244466A/ja
Withdrawn legal-status Critical Current

Links

Abstract

【課題】自動的に観察者に対して適正な視差を計算し自然な立体表示を可能とする立体画像処理装置を提供する。
【解決手段】観察者の眼間距離を平均顔モデル113を用いて求め、顔検出部111及びスクリーン距離取得部114は、顔からスクリーンまでのスクリーン距離を求める。焦点角度取得部116は、眼間距離及びスクリーン距離から焦点角度θfを求める。さらに適正視差設定部119は、焦点角度θfと適正差分視差αとから視差角度θeを設定する。
【選択図】図1

Description

本発明は、視差に対応する複数の視点画像を元に、擬似的に立体表示された3次元画像を生成する立体画像処理装置に関する。
近年、観察者が、表示画像において擬似的に奥行き感を得るための画像表示技術として、両眼視差を利用した立体画像表示技術が多く提案されている。これは、3次元空間を左眼で見た映像と右眼で見た映像とをそれぞれ観察者の左右眼に見せることによって、擬似的に奥行き感を誘発し3次元的に物体を認識させる技術である。
立体視の方式としては、偏光方式、フレームシーケンシャル方式、及び光線利用方式がある。偏光方式は、単一の視差映像の左右の眼に対応した画像を同時に画面表示する方式であり、円偏光方式及び直線偏光方式がある。フレームシーケンシャル方式は、単一の視差映像の左右の眼に対応した画像を時間的に切り替えて画面表示する方式であり、液晶シャッター方式がある。光線利用方式は、単一もしくは複数の視差映像の左右の眼に入る光線を制御する方式であり、レンティキュラー方式等がある。
特許文献1では、立体画像処理装置において、表示装置上にGUI(グラフィカルユーザーインタフェース)等を表示し、観察者が実際の立体画像の表示状態を見ながら、観察者自身が視差の許容範囲を設定することで、違和感のない適正な視差を設定し、立体画像処理装置での自然な立体表示を可能とする、という技術が開示されている。
特許第4118146号
上述の光線利用方式は、表示装置側で、観察者の左、右のそれぞれの眼に入る映像を制御するため、観察者側では特に眼鏡等の視聴用のデバイスを必要としないが、偏光方式及びフレームシーケンシャル方式では、観察者側において、左右の眼に対応した映像を選択して透過させる眼鏡等の形態にてなる視聴用デバイスが必要となる。これらの偏光方式及びフレームシーケンシャル方式では、観察者と表示装置との距離、及び観察者の眼間距離によって計算される輻輳角に応じて、適正な視差画像を表示する必要がある。
一方、上述した特許文献1の立体画像処理装置では、以下のような課題がある。
即ち、この立体画像処理装置は、視差調節の自動計算を行うことができず、観察者によるマニュアル調整用の機構を有する必要がある。一方、観察者側では、視聴位置で画面を見ながら適正な視差を調整しなければならないという煩雑な作業が必要となる。また、コンテンツ側では、設計した視差を立体画像処理装置に設定するのが困難であり、そのため観察者にとって適正な視差の一意な設定が困難となる。
また、適正に視差が計算された視聴位置から異なる視聴位置へ観察者が移動したときには、視差が適正な値から外れるため、手動での視差調節が再度必要となる。
さらに、観察者の顔が傾いた場合、視差にずれが生じるが、特許文献1の立体画像処理装置には、その際に視差制御を行う機能はない。
本発明は、上述したような問題点を解決するためになされたもので、観察者自身が立体画像処理装置の視差調整操作を行うことなく、立体画像処理装置側で自動的に観察者に対して適正な視差を計算し自然な立体表示を可能とする立体画像処理装置を提供することを眼的とする。
上記眼的を達成するため、本発明は以下のように構成する。
即ち、本発明の一態様における立体画像処理装置は、両眼視差によって表示画像を擬似的に立体画像として認識させる立体画像処理装置において、観察者の両眼間の眼間距離を求める眼間距離取得部と、表示画面に対して観察者が正面視の状態における観察者と表示画面との間の表示画面距離を求める表示画面距離取得部と、求めた眼間距離及び表示画面距離から、観察者の両眼による表示画面での焦点位置と各眼とで形成される焦点角度を求める焦点角度取得部と、求めた焦点角度から適正視差を求める適正視差取得部と、を備え、適正視差を自動生成することを特徴とする。
本発明の一態様における立体画像処理装置によれば、以下の効果が得られる。即ち、対象物を表示画面上で擬似的に立体画像として認識させるための奥行きの指標として視差角度(両眼視差あるいは輻輳角)がある。この視差角度は、観察者が見る擬似的な立体画像の位置に相当する焦点位置と観察者との距離d0を決定するのに使用可能であり、適正な視差を得るためにはこの視差角度を適正に設定する必要がある。視差角度は、観察者の焦点角度θfと、適正差分視差αとから求まる。ここで、焦点角度θfは、観察者の両眼の間隔d1と、観察者から表示画面までの表示画面距離d2とから求まる角度であることから、各観察者及び観察者の視聴位置によって変動する値である。
そこで本発明の一態様における立体画像処理装置では、眼間距離取得部、表示画面距離取得部、焦点角度取得部、及び適正視差取得部を備えることにより、観察者を撮像した画像を元に、眼間距離取得部及び表示画面距離取得部により眼間距離及び表示画面距離を求め、求めた眼間距離及び表示画面距離によって焦点角度取得部が焦点角度θfを求める。さらに、求めた焦点角度から、適正視差取得部が適正視差を生成する。このようにして、本発明の一態様における立体画像処理装置は、観察者のマニュアル操作を必要とせず、観察者ごとに差分角度を自動生成し設定することが可能である。よって、観察者及び観察者の視聴位置が変化した場合でも、各変化に対応して適正な視差を生成することができ、自然な立体表示が可能となる。
本発明の実施の形態1における立体画像処理装置の構成を示すブロック図である。 図1に示す立体画像処理装置において、観察者、スクリーン、画像入力装置の位置関係を説明するための斜視図である。 図1に示す立体画像処理装置において、視差の計算方法を説明するための図である。 図1に示す立体画像処理装置において、平均顔モデルを用いた視差の計算方法を説明するための図である。 図1に示す立体画像処理装置において、スケールと距離変換との関係を説明するための図である。 本発明の実施の形態2における立体画像処理装置の構成を示すブロック図である。 図5に示す立体画像処理装置において、眼の位置を用いた視差計算を説明するための図である。 本発明の実施の形態3における立体画像処理装置の構成を示すブロック図である。 図7に示す立体画像処理装置において、視聴用デバイスの大きさを用いた視差計算を説明するための図である。 本発明の実施の形態4における立体画像処理装置の構成を示すブロック図である。 図9に示す立体画像処理装置における同期パターンを説明するための図である。 図9に示す立体画像処理装置において、差分画像の計算を説明するための図である。 本発明の実施の形態5における立体画像処理装置の構成を示すブロック図である。 図12に示す立体画像処理装置における映像パターンを説明するための図である。 本発明の実施の形態6における立体画像処理装置の構成を示すブロック図である。 図14に示す立体画像処理装置における光線方式に関する説明を行うための図である。 図14に示す立体画像処理装置において、投影パターンの説明を行うための図である。 図14に示す立体画像処理装置において、差分画像の計算を説明するための図である。 本発明の実施の形態7における立体画像処理装置の構成を示すブロック図である。 図18に示す立体画像処理装置において、複数人の視差設定に関する説明を行うための図である。 本発明の実施の形態8における立体画像処理装置の構成を示すブロック図である。 図20に示す立体画像処理装置において、顔の傾きによる視差方向制御に関する説明を行うための図である。 本発明の実施の形態9における立体画像処理装置の構成を示すブロック図である。 図22に示す立体画像処理装置において、視差方向判定に関する説明を行うための図である。 図22に示す立体画像処理装置において、顔の傾きによる視差反転に関する説明を行うための図である。 本発明の実施の形態8における立体画像処理装置を説明するための図であって、横方向の視差画像を示す図である。 本発明の実施の形態8における立体画像処理装置を説明するための図であって、横方向及び縦方向の視差画像を示す図である。
本発明の実施形態である立体画像処理装置について、図を参照しながら以下に説明する。尚、各図において、同一又は同様の構成部分については同じ符号を付している。
実施の形態1.
図1には、本実施の形態1による立体画像処理装置201の構成を示すブロック図が示されている。立体画像処理装置201は、撮像された観察者の画像を元にして、観察者に対して適正な視差を自動的に生成し自然な立体画像表示を可能にする装置であり、図1に示す構成を有するが、その中で基本的構成部分として、眼間距離取得部115、スクリーン距離取得部114、焦点角度取得部115、及び適正視差取得部118を備える。また、図2Aに示すようにスクリーン1に対して観察者3が位置する場合において、図2Bでは、視差を一般的に説明するための図、視差を計算するための計算モデル、及び計算方法を示している。
以下の各実施形態における立体画像処理装置の説明にて参照する符号について、図2Bを参照して説明する。図2Bにおいて、
1は、表示画面に相当するスクリーン、
3は、表示画面を見る観察者、
Lは、向かって観察者3の左眼、
Rは、向かって観察者3の右眼、
A0は、視差によって観察者3が見る対象物5の擬似的な立体画像の位置に相当する焦点位置、
A0’は、スクリーン1上における対象物5の焦点位置、
A1は、スクリーン1上において右眼Rが見る立体画像5の位置、
A2は、スクリーン1上において左眼Lが見る立体画像5の位置、
d1は、観察者3の両眼間の眼間距離、
d2は、観察者3がスクリーン1に対して正面視の状態において両眼とスクリーン1との間の表示画面距離、
d0は、正面視の状態での観察者3の両眼と焦点位置A0との間の疑似画像距離、
d3は、スクリーン1上における位置A1と位置A2との間の距離つまり適正視差、
θfは、正面視の状態での観察者3の左眼L及び右眼Rと、スクリーン1上での対象物5の焦点位置A0’とで形成される焦点角度、
θeは、正面視の状態での観察者3の左眼L及び右眼Rと、対象物5の擬似的な立体画像の焦点位置A0とで形成される視差角度、
をそれぞれ示している。
また、αは、適正差分視差であり、詳しくは後述するが、焦点角度θfと視差角度θeとのずれであり、実験的に求めた値である。
尚、上記正面視とは、観察者3の両眼がスクリーン1に対して平行に位置して観察者3がスクリーン1を見ている状態をいう。
本実施形態1の立体画像処理装置201における、図1に示す構成部分の内、画像入力装置110を除いた構成部分は、実際にはコンピュータを用いて実現され、以下に説明する各構成部分における機能に対応するソフトウェアと、これらを実行するためのCPU(中央演算処理装置)やメモリ等のハードウェアから構成されている。上記コンピュータは、実際には当該立体画像処理装置201に組み込まれたマイクロコンピュータに相当するのが好ましいが、スタンドアロン型のパーソナルコンピュータを用いることもできる。また、上記プログラムは、コンピュータによって直接実行可能なものだけでなく、例えば通信線を介して読み込まれハードディスク等にインストールすることによって実行可能となるものも含む。又、圧縮されたり、暗号化されたりしたものも含まれる。
図1に示す、立体画像処理装置201の各構成部分について、以下に順次説明する。
画像入力装置110は、スクリーン1における表示画像を視聴する観察者3を撮像する撮像装置であり、例えばカメラ等に相当し、図2Aに示すように、例えばスクリーン1の上部に設置される。尚、本実施形態では、画像入力装置110は、立体画像処理装置201に含まれる構成を採るが、立体画像処理装置201は観察者3の撮像画像情報の供給を受ければよいことから、立体画像処理装置201における必須の構成部分ではない。
画像入力装置110から観察者3の撮像画像情報が供給される顔検出部111は、顔検出アルゴリズムを有し、該アルゴリズムに従い撮像画像情報から観察者3の顔を抽出し、図3に示すように、画像中の顔の大きさh1、w1を検出する。顔検出アルゴリズムとしては、例えば、P.Viola、 M.Jones、 D.Snow、 ”Detecting Pedestrians Using Patterns of Motion and Appearance”、 IEEE International Conference on Computer Vision (ICCV)、 Vol.2、 pp.734-741、 October 2003)を用いることができる。
図3に示すように、観察者3の検出された顔の大きさh1は、顔の縦寸法であり、w1は横寸法である。
顔検出部111で検出された顔の大きさh1、w1の各情報は、スクリーン距離取得部114へ供給される。平均顔モデル113は、図3に示すように、人間の実際の顔の平均的な大きさha,wa、及び平均的な眼間距離daの各データを有し、スクリーン距離取得部114は,顔検出部111で検出された顔の大きさと平均顔モデル113との比を求め,最終的に表示画面距離d2を求める。スクリーン距離取得部114は、以下に説明する動作にて上述の表示画面距離d2を求める。ここで、平均的な顔の大きさhaは、顔の縦寸法であり、waは横寸法である。
スクリーン距離取得部114は、まず、顔検出部111で得られた画像中の顔の大きさh1、w1と、平均顔モデル113における平均的な顔の大きさha、waとの比s、つまりw1/wa,h1/ha、を求める。次に、スクリーン距離取得部114は、予め設定している距離変換関数f(s)を用いて、求めた距離比sにて、表示画面距離d2を求める。この際、図4に示すような距離変換テーブル112を用いてもよい。スクリーン距離取得部114は、求めた表示画面距離d2の情報を、後述の焦点角度取得部116及び適正視差取得部118へ送出する。
また、上述した平均顔モデル113として、顔の形状等によって複数の顔モデルを格納しておき、比sを用いる代わりに、顔検出部111にて計測された顔の縦横比h1:w1に最も近いモデルを利用してもよい。
眼間距離取得部115は、観察者3における眼間距離を求める部分であり、本実施形態では、平均顔モデル113を用いて、平均的な眼間距離daを観察者の眼間距離d1に一意に設定する。眼間距離取得部115は、求めた眼間距離d1を焦点角度取得部116及び適正視差取得部118へ送出する。
焦点角度取得部116は、上述の焦点角度θfを求める部分であり、眼間距離取得部115で求めた眼間距離d1と、スクリーン距離取得部114で求めた表示画面距離d2とから焦点角度θfを求める。焦点角度θfの求め方としては、例えば図2Bに示すような計算式による方法がある。
適正視差取得部118は、上述の視差角度θeを求める部分であり、焦点角度取得部116で求めた焦点角度θfと、適正差分角度入力部117から入力された適正差分視差αとから視差角度θeを求める。本実施形態では、視差角度θeは、図2Bに示すように、焦点角度θfと適正差分視差αとを加算して求めている。ここで適正差分視差αとは、眼精疲労を引き起こす輻輳と調節とのずれである、焦点角度θfと視差角度θeとのずれであり、人が疲労を起こしにくい値として、実験的に求められる。また、予め、複数の値をプリセット値として用意しておき、観察者に選択させることもできる。
適正視差設定部119は、適正視差d3を設定する部分であり、適正視差取得部118で求めた視差角度θeを元に、適正視差d3の設定を行う。
以上のように構成することで、本実施形態における立体画像処理装置201は、観察者が手動で視差を調整することを必要とせず、観察者に対して適正な視差を自動的に生成し、自然な立体画像を表示することを可能にする。また、観察者毎に差分角度を設定することが可能となる。
実施の形態2.
実施の形態1では、観察者3の眼間距離d1、表示画面距離d2を、上述のように観察者3の撮像画像における観察者3の顔の大きさを元に求めた。これに対し、図5に示す、本実施の形態2における立体画像処理装置202では、観察者3の撮像画像における観察者3の両眼を検出し、眼間距離d1、表示画面距離d2を求める。したがって、立体画像処理装置202では、立体画像処理装置201における顔検出部111に代えて、眼検出部121を有する。また、スクリーン距離取得部122を有する。眼検出部121及びスクリーン距離取得部122についても、上述した他の構成部分と同様に、コンピュータを用いて実現される。
尚、立体画像処理装置202におけるその他の構成部分は、実施の形態1における立体画像処理装置201の構成に同じである。よって以下では、主に相違する構成部分について詳しく説明を行う。
図5には、本実施の形態2における立体画像処理装置202の構成を示している。
眼検出部121は、画像入力装置110から供給される、観察者3の撮像画像情報から、図6に示すように、画像中の左眼位置L(Lx、Ly)、及び、右眼位置R(Rx、Ry)の各座標値を求め、画像中の眼間距離e1を求める。眼検出の方法としては、上述した顔検出と同様の方法を用いることができる。
このように本実施形態2では、眼検出部121が、実施形態1の立体画像処理装置101に備わる眼間距離取得部115に相当する。
スクリーン距離取得部122は、表示画面距離d2を求める部分であり、眼検出部121から、求めた眼間距離e1が供給される。スクリーン距離取得部122は、まず、平均顔モデル113からの平均的な眼間距離daと眼間距離e1とから、距離比s=e1/daを求める。さらにスクリーン距離取得部122は、予め設定している距離変換関数f(s)を用いて、求めた距離比sにて、表示画面距離d2を求め、求めた表示画面距離d2を焦点角度取得部116及び適正視差取得部118へ送出する。
以後、焦点角度取得部116、適正差分角度入力部117、適正視差取得部118、及び適正視差設定部119は、実施の形態1で説明した動作を行い、適正視差d3の設定が行われる。
このように構成される立体画像処理装置202においても、立体画像処理装置201と同様に、観察者に対して適正な視差を自動的に生成し、自然な立体画像を表示することを可能にする。さらに、直接に観察者の眼の位置を検出して眼間距離を求めることで、顔を検出する場合と比べて、より正確な視差角度θeを設定することが可能となる。
実施の形態3.
既に説明したように、立体視の方式として、偏光方式及びフレームシーケンシャル方式を採る場合には、表示画像を見るとき、観察者は、視聴用デバイスを用いる必要がある。本実施形態3では、その視聴用デバイスを用いた場合に、視聴用デバイスを検出することで眼間距離d1を求める構成を有する立体画像処理装置を開示する。
図7には、本実施の形態3による立体画像処理装置203の構成が示されている。上述のように、本実施形態では視聴用デバイスの検出を行うことから、実施の形態1の立体画像処理装置201における顔検出部111に代えて、視聴用デバイス検出部123を有する。また、スクリーン距離取得部124を、平均顔モデル113に代えて視聴用デバイスモデル125を、それぞれ有する。ここで視聴用デバイス検出部123、スクリーン距離取得部124、及び視聴用デバイスモデル125についても、上述した他の構成部分と同様に、コンピュータを用いて実現される。
尚、立体画像処理装置203におけるその他の構成部分は、実施の形態1における立体画像処理装置201の構成に同じである。よって以下では、主に相違する構成部分について詳しく説明を行う。
視聴用デバイス検出部123は、画像入力装置110から観察者3の撮像画像情報が供給されるが、上述のように観察者3は、図8に示すように、視聴用デバイス10を顔面に装着している。よって、観察者3の撮像画像情報には、視聴用デバイス10の画像が含まれる。よって視聴用デバイス検出部123は、まず、図8に示すように、画像中における視聴用デバイス10の大きさgh1、gw1を求める。視聴用デバイス10の検出の方法としては、上述した顔検出と同様の方法を用いることができる。ここで、大きさgh1は、視聴用デバイス10の縦寸法を、gw1は横寸法に相当する。そして視聴用デバイス検出部123は、求めた大きさgh1、gw1をスクリーン距離取得部124へ送出する。
スクリーン距離取得部124は、画像中の視聴用デバイス10の大きさgw1、gh1と、視聴用デバイスモデル125中の視聴用デバイス10の横幅gw0、高さgh0とから、スケール(比)sを求める。この求め方は、上述の実施形態1の場合と同様であり、ここで、視聴用デバイスモデル125における横幅gw0、高さgh0は、視聴用デバイスの平均的な横幅及び高さの大きさであり、ge0は平均的な眼間距離である。また上記スケールsは、gh1/gh0=gw1/gw0である。
また、スクリーン距離取得部124は、予め設定している距離変換関数f(s)を用いて、求めたスケールsにて、表示画面距離d2を求め、求めた表示画面距離d2を焦点角度取得部116及び適正視差取得部118へ送出する。また、眼間距離取得部115は、視聴用デバイスモデル125中の眼間距離ge0を用いて、眼間距離d1=ge0として求める。
以後、焦点角度取得部116、適正差分角度入力部117、適正視差取得部118、及び適正視差設定部119は、実施の形態1で説明した動作を行い、適正視差d3の設定が行われる。
このように構成される立体画像処理装置203においても、立体画像処理装置201と同様に、観察者に対して適正な視差を自動的に生成し、自然な立体画像を表示することを可能にする。さらに、観察者3が装着している視聴用デバイス10を検出することで、顔を検出する場合と比べて、より正確な視差角度θeを設定することが可能となる。
実施の形態4.
本実施の形態4も、実施の形態3の場合と同様に、観察者が視聴用デバイスを装着した場合に関する。実施の形態3では視聴用デバイス10の大きさを検出して表示画面距離d2を求めたが、本実施の形態4では、観察者3の左右の眼に対応した映像を選択して透過させるという視聴用デバイス10の機能を利用して表示画面距離d2を求める立体画像処理装置について説明する。
図9には、本実施の形態4における立体画像処理装置204の構成が示されている。実施の形態3における立体画像処理装置203と比較すると、同期制御部126、及び左右画像距離算出部129を新たに備え、視聴用デバイス検出部123に代えて左右明滅パターン検出部128を備える。また、視聴用デバイス10は、同期信号受信部11を有する。また、眼間距離取得部115の機能は、左右明滅パターン検出部128及び左右画像距離算出部129にて実行され、眼間距離取得部115は削除している。ここで同期制御部126、左右明滅パターン検出部128、及び左右画像距離算出部129についても、上述した他の構成部分と同様に、コンピュータを用いて実現される。
尚、立体画像処理装置204におけるその他の構成部分は、実施の形態3における立体画像処理装置203の構成に同じである。よって以下では、主に相違する構成部分について詳しく説明を行う。
観察者3が擬似的に立体画像を認識するために、既に説明したように偏光方式及びフレームシーケンシャル方式では、観察者側において、視聴用デバイス10を装着して、左右の眼に対応した映像を選択して透過させる必要がある。そのため、本実施の形態4における立体画像処理装置204の同期制御部126は、視聴用デバイス10の左眼、右眼に対して映像の透過、不透過を行わせる信号を発する。視聴用デバイス10に備わる同期信号受信部11は、この信号を受信し、図10に示すように、左眼、右眼で映像の透過のON/OFFを制御する。これによって、視聴用デバイス10の左眼、右眼では、輝度値が異なる明暗が発生する。
画像入力装置110は、実施形態3の場合と同様に、このような視聴用デバイス10を装着した観察者3を撮像しており、その画像情報には、視聴用デバイス10の左眼、右眼において明暗が発生している。
よって、左右明滅パターン検出部128は、同期制御部126から供給される同期信号に対応して、画像入力装置110の画像情報を取り込む。これにより、視聴用デバイス10の映像では、左眼及び右眼のうち一方のみが映像透過状態、つまり「明」として取り込まれる。このようにして左右明滅パターン検出部128は、視聴用デバイス10における左眼及び右眼の明滅パターンを検出し、左右画像距離取得部129へ送出する。
左右画像距離取得部129は、図11に示すように、取り込んだ画像間での差分画像ΔItnを求める。この差分画像ΔItnによれば、図示するように、輝度値が正の領域Sl(x、y)と輝度値が負の領域Sr(x、y)の部分のみ、つまり視聴用デバイス10の両眼に対応する部分のみが抽出されることになる。さらに左右画像距離取得部129は、正の領域Sl(x、y)における重心位置gl(x、y)、及び、負の領域Sr(x、y)における重心位置gr(x、y)をそれぞれ求め、各重心位置間の距離を眼間距離e1として求める(図11)。左右画像距離取得部129は、求めた眼間距離e1をスクリーン距離取得部124へ送出する。
スクリーン距離取得部124は、上述の実施形態3等と同様に、供給された眼間距離e1と、視聴用デバイスモデル125中のデバイス眼間距離ge0とから、スケール(比)s=ge0/e1を求め、そこから距離変換関数f(s)を用いて、スクリーン1と観察者3との間の表示画面距離d2を求める。
以後、上述の各実施形態と同様に、焦点角度取得部116、適正差分角度入力部117、適正視差取得部118、及び適正視差設定部119は、実施の形態1で説明した動作を行い、適正視差d3の設定が行われる。
このように構成される立体画像処理装置204においても、立体画像処理装置201と同様に、観察者に対して適正な視差を自動的に生成し、自然な立体画像を表示することを可能にする。また、観察者3が装着している視聴用デバイス10の大きさを検出する実施の形態3の構成に比べると、視聴用デバイス10の両眼対応部分を抽出することから、より正確な視差角度θeを設定することが可能となる。さらに、本実施形態4の立体画像処理装置204では以下の効果が得られる。
即ち、一般的に対象物体を検出する技術は、計算機への処理負荷が高く、対象物体以外の物を検出してしまう誤検出、及び対象物体を見逃す未検出が起きやすい。本実施の形態4では、視聴用デバイス10の左右の明滅パターンを検出する左右明滅パターン検出部128と、明滅パターンから視聴デバイス10の左右間の距離を計算する左右画像距離取得部129とを用いることで、低い処理負荷で安定したスクリーン距離d2を求めることができ、安定した視差角度θeを設定することができる。
実施の形態5.
本実施の形態5における立体画像処理装置も、上述の実施形態4と同様に、観察者が視聴用デバイスを装着し、視聴用デバイス10における左右の明滅パターンを利用したものである。但し、実施形態4では、視聴用デバイス10は、左眼及び右眼の映像を切り替える機能を有する必要があるが、本実施の形態5では、このような機能を有しない視聴用デバイス10に対しても有効とする構成を備える。
図12には、本実施の形態5における立体画像処理装置205の構成が示されている。
実施の形態4の構成と比較すると、同期制御部126及び同期信号受信部11に代えて、左右映像パターン制御部130及び左右映像パターン生成部131とを有する点で異なる。左右映像パターン制御部130及び左右映像パターン生成部131についても、上述した他の構成部分と同様に、コンピュータを用いて実現される。
尚、立体画像処理装置205におけるその他の構成部分は、実施の形態4における立体画像処理装置204の構成に同じである。よって以下では、主に相違する構成部分について詳しく説明を行う。
立体画像処理装置205を使用する映像システムでは、視聴用デバイス10は、左眼、右眼部分で偏光性が異なり、画像の表示装置上における映像の偏光性との組み合わせにより、視聴用デバイス10を装着した観察者3の左右の眼に対応した別々の映像が届くように構成されている。立体画像処理装置205は、このような映像システムを前提とする。
左右映像パターン制御部130は、左右で輝度値の差を持つパターン、例えば白と黒、からなる映像パターンを生成する左右映像パターン生成部131を制御する。この左右映像パターン生成部131は、生成した映像パターンを上記映像システムにおける表示装置へ送出する。よって表示装置は、図13に示すように、時間によって映像パターンを反転させて表示する。一方、これにより、視聴用デバイス10は、左右の映像パターンに同期して、輝度値の差を持った領域、例えば、白は明るい領域、黒は暗い領域、として、画像入力装置110によって撮像される。画像入力装置110は、この撮像情報を左右明滅パターン検出部128へ送出する。
左右明滅パターン検出部128には、左右映像パターン制御部130から映像パターンの生成タイミングが供給され、左右明滅パターン検出部128は、左右映像パターン制御部130と同期する画像間で視聴用デバイス10における明滅パターンを検出し、検出した明滅パターンを左右画像距離取得部129へ送出する。
左右画像距離取得部129は、左右映像パターン制御部130と同期する画像間での差分画像ΔItnを求める。そして、上述の実施形態4にて図11を参照して説明したように、左右画像距離取得部129は、輝度値が正の領域Sl(x、y)と輝度値が負の領域Sr(x、y)とを求め、各領域の重心位置gl(x、y)、gr(x、y)の距離を眼間距離e1として求める。
以後、上述の実施形態4の場合と同様に、スクリーン距離取得部124は、スクリーン1と観察者3との間の表示画面距離d2を求め、焦点角度取得部116、適正差分角度入力部117、適正視差取得部118、及び適正視差設定部119は、実施の形態1で説明した動作を行い、適正視差d3の設定が行われる。
尚、左右の明滅パターンが分かり易くなるように、映像パターン表示に近赤外を用い、画像入力装置110では近赤外を検出可能なカメラを用いてもよい。
このように構成される立体画像処理装置205においても、立体画像処理装置201と同様に、観察者に対して適正な視差を自動的に生成し、自然な立体画像を表示することを可能にする。また、実施の形態3と同様に視聴用デバイス10の両眼対応部分を抽出することから、より正確な視差角度θeを設定することが可能となる。さらに、本実施形態5の立体画像処理装置205では以下の効果が得られる。
即ち、本実施形態5では、左右映像パターン制御部130と左右映像パターン生成部131とを用いて、左右の明滅パターンを生成し、これによる視聴用デバイス10の左右の明滅パターンを検出する左右明滅パターン検出部128と、明滅パターンから視聴用デバイス10の左右間の距離を計算する左右画像距離算出部129とを用い、さらにスクリーン距離取得部124を用いて表示画面距離d2を求める。これにより、偏光方式等、視聴用デバイス側でアクティブに左右の映像を切り替えて受信する機能を持たない立体視表示装置において、低い処理負荷で安定した視差角度θeを設定することができる。
実施の形態6.
本実施の形態6の立体画像処理装置は、光線方式を利用した映像システムに適用されるものである。よって、視聴用デバイス10を用いることなく、表示装置上に施したパララックス・バリアもしくはレンティキュラ・レンズ等の光学装置により、表示装置上における左右の眼の映像が観察者3の対応する各眼に届くことになる。
図14には、本実施の形態6による立体画像処理装置206の構成が示されている。実施の形態5における立体画像処理装置205の構成と比べると立体画像処理装置206では、左右映像パターン制御部130、左右映像パターン生成部131、及び左右明滅パターン検出部128に代えて、上記光線方式に対応して、映像パターン制御部132、映像パターン生成部133、及び明滅パターン検出部134を備える点で異なる。これら映像パターン制御部132、映像パターン生成部133、及び明滅パターン検出部134についても、上述した他の構成部分と同様に、コンピュータを用いて実現される。
また、視聴用デバイスモデル125に対して、平均顔モデル113を使用する点でも異なる。
尚、立体画像処理装置206におけるその他の構成部分は、実施の形態5における立体画像処理装置205の構成に類似する。よって以下では、主に相違する構成部分について詳しく説明を行う。
映像パターン制御部132は、図15に示すように、左右で輝度値の差を持つパターン、例えば白と黒、からなる映像パターンを生成する映像パターン生成部133を制御する。この映像パターン生成部133は、生成した映像パターンを上記映像システムにおける表示装置へ送出する。よって表示装置は、図15に示すように、時間によってパターンを反転させて表示する。
これにより、視聴者の顔は、左右の短冊状の映像パターンに対応して、図16に示すように、左右で輝度値の差を有する領域を含んで、画像入力装置110で撮像される。画像入力装置110は、撮像情報を明滅パターン検出部134へ送出する。
明滅パターン検出部134には、映像パターン制御部132から映像パターンの生成タイミングが供給され、明滅パターン検出部134は、映像パターン制御部132と同期する画像間で観察者3の顔における明滅パターンを検出し、検出した明滅パターンを左右画像距離取得部129へ送出する。
以後の処理動作は、上述の実施の形態4、5における対応の動作に基本的に同じである。即ち、左右画像距離取得部129は、映像パターン制御部132によるタイミングと同期する顔の画像間の差分画像ΔItnを求める。つまり、観察者3の顔の画像には、図17に示すように輝度値の異なる、例えば短冊状の領域が存在し、左右画像距離取得部129は、図17に示すように、輝度値が正の領域Sl(x、y)と輝度値が負の領域Sr(x、y)とを求め、さらに、各領域の重心位置gl(x、y)、gr(x、y)の距離を眼間距離e1として求める。
スクリーン距離取得部124は、左右画像距離取得部129で求められた眼間距離e1と、平均顔モデル113中の平均眼間距離e0とから、実施形態1〜5の場合と同様に、スケール(比)s=e1/e0を求め、さらに、距離変換関数f(s)を用いて、スクリーンと観察者3との間の表示画面距離d2を求める。
以後、上述の実施形態5の場合と同様に、焦点角度取得部116、適正差分角度入力部117、適正視差取得部118、及び適正視差設定部119は、実施の形態1で説明した動作を行い、適正視差d3の設定が行われる。
尚、左右の明滅パターンが分かり易くなるように、映像パターン表示に近赤外を用い、画像入力装置110では近赤外を検出可能なカメラを用いてもよい。
このように構成される立体画像処理装置206においても、立体画像処理装置201と同様に、観察者に対して適正な視差を自動的に生成し、自然な立体画像を表示することを可能にする。また、本実施形態6の立体画像処理装置206では以下の効果が得られる。
即ち、本実施形態6では、映像パターン制御部132と映像パターン生成部133とを用いて明滅パターンを生成し、これにより、観察者3の顔の明滅パターンを検出する明滅パターン検出部134を備え、顔の明滅パターンから表示画面距離d2を求める。よって、表示する映像の到達方向を制限する光線方式を用いた立体表示装置において、低い処理負荷で安定した視差角度θeを設定することができる。
実施の形態7.
上述した各実施の形態1〜6では、一人の観察者3を対象とした場合を例に採っているが、本実施の形態7では、複数の観察者3がスクリーン1の表示画像を見ている場合を例に採る。
図18には、本実施の形態7における立体画像処理装置207の構成が示されている。図19は、複数の観察者3における視差の設定を説明する図である。図1に示す立体画像処理装置201と、本実施の形態7における立体画像処理装置207とは、観察者選択部135を有する点でのみ異なる。よって以下では、観察者選択部135について詳しく説明を行う。
尚、観察者選択部135についても、上述した他の構成部分と同様に、コンピュータを用いて実現される。
観察者選択部135には、実施形態1で説明した顔検出部111で検出された複数の観察者3における顔のそれぞれの大きさh1、w1(図3)が供給され、観察者選択部135は、ある特定の観察者3を選択し、その観察者3の顔の大きさw1、h1を、スクリーン距離取得部114へ送出する。ここで、観察者3の選択方法としては、図19に示すように、視差が最も大きくなる、スクリーン1に最も近い観察者3を選択する、もしくは、予め定めた特定の個人を選択するという方法がある。
スクリーン距離取得部114は、平均顔モデル113に格納されている平均的な顔の縦、横のwa,haデータと、選択された観察者3の顔の大きさw1、h1とから、上述のようにスケール(比)sを求め、さらに表示画面距離d2を求める。
以後、眼間距離取得部115、焦点角度取得部116、適正差分角度入力部117、適正視差取得部118、及び適正視差設定部119は、実施の形態1で説明した動作を行い、適正視差d3の設定が行われる。
尚、平均顔モデル113として、顔の形状等により複数の顔モデルを持つことも可能である。
このように構成される立体画像処理装置207においても、立体画像処理装置201と同様に、観察者に対して適正な視差を自動的に生成し、自然な立体画像を表示することを可能にする。また、本実施形態7の立体画像処理装置207では以下の効果が得られる。
即ち、視差角度θeと焦点角度θfとの差が大きくなると立体視の違和感は大きくなる。本実施の形態7では、顔検出部111で複数の顔が見つかった場合に、観察者選択部135において、視差角度θeと焦点角度θfとの差が一番大きい、即ち最もスクリーン1に近い観察者3を選択して、適正視差を設定する。したがって、複数の観察者3がいる場合でも、全ての観察者3に対して適正な視差角度θeを設定することができる。
実施の形態8.
上述した各実施形態1〜7では、観察者3の左右両眼は、水平な位置状態にあることを前提としている(図25)。しかしながら、顔が傾いた場合は、本来水平方向だけでなく上下方向にも視差が発生する(図26)。
そこで、本実施の形態8では、観察者3が顔を傾け左右両眼が水平位置状態からずれた場合でも、正常な立体視が可能となる立体画像処理装置について説明を行う。
図20には、本実施の形態8における立体画像処理装置208の構成が示されている。例えば図1を参照した実施の形態1における立体画像処理装置201を例に採ると、本実施の形態8における立体画像処理装置208は、立体画像処理装置201に対してさらに、傾き検出部137、視差回転取得部138、及び視差設定部139を設けた構成を備える。また、図20に示す「視差入力部」は、立体画像処理装置201における構成部分の内、図1にて「112」から「119」の符号を付した構成部分に相当する。また、視差回転取得部138及び視差設定部139が視差補正部の構成の一例に相当する。
以下では、主に、立体画像処理装置208において新たな構成部分である、傾き検出部137、視差回転取得部138、及び視差設定部139について説明を行う。
尚、傾き検出部137、視差回転取得部138、及び視差設定部139は、既に説明した他の構成部分と同様に、コンピュータを用いて実現される。
顔検出部111は、画像入力装置110で撮像された観察者3の画像を元に、顔の傾きを検出可能な顔検出アルゴリズム、例えば、M.Jones and P.Viola、 “Fast Multi-View Face Detection、” MERL Technical Report 2003-96、 2003 を用いて、画像中の観察者3の顔を検出し、検出した顔の画像を傾き検出部137へ送出する。
傾き検出部137は、観察者3の顔の傾きθを検出する。ここで傾きθは、図21に示すように、観察者3の左右両眼が水平位置状態からずれたときの、顔の中心軸と鉛直方向軸とのなす角度である。検出した顔の傾きθは、視差回転取得部138へ送出される。
視差回転取得部138は、回転行列Mθを計算し、視差設定部139へ送出する。
また、上記視差入力部112〜119は、実施の形態1にて説明した通り、観察者3の両眼が水平位置にある場合における視差d3を求める部分であり、求めた視差d3を視差設定部139へ送出する。尚、視差d3は、観察者3の左右両眼が水平位置状態にありy軸座標をゼロとし、図21に示すようにd3=(Xd、0)となる。
視差設定部139は、供給される回転行列Mθ及び視差d3を用いて、観察者3の顔が傾きθで傾いたときの視差d4を計算する。
このように構成される立体画像処理装置208においても、立体画像処理装置201と同様に、観察者3に対して適正な視差を自動的に生成し、自然な立体画像を表示することを可能にする。また、本実施形態8の立体画像処理装置208では、さらに以下の効果が得られる。
即ち、本実施の形態8では、傾き検出部137を用いて、観察者3の顔の傾きを判定し、視差回転取得部138を用いて、視差の回転方向を計算するようにした。よって、観察者3の顔が傾いた場合でも、正確な立体視の表示を行うことができる。
尚、図20では、視差入力部として、実施の形態1における図1に示す構成の内、112〜119が付された構成部分が相当する場合を例に採ったが、視聴用デバイス10を用いない形態における他の実施の形態2、6、7の場合では、視差入力部としては視差d3を生成するための構成部分が相当する。
実施の形態9.
本実施の形態9においても、実施の形態8の場合と同様に、観察者3の顔が傾いた場合においても対応可能な立体画像処理装置について説明を行う。実施の形態8の立体画像処理装置208では、顔の傾き方向は考慮していないが、本実施の形態9では、顔の傾き方向をも考慮して視差d4を求めることが可能な立体画像処理装置を開示する。
図22には、本実施の形態9における立体画像処理装置209の構成が示されている。また、図23は視差方向判定を説明するための図、図24は顔の傾きによる視差反転に関する図である。図24において、直線偏光の場合、偏光の方向性を左右の眼鏡に直線で表示し、円偏光の場合、偏光の向きを左右の眼鏡の中に表示する。
図24に示すように、円偏光の場合、顔の傾きの問題は受けないが、直線偏光の場合、顔の傾きがある場合に、本来左目に入るべき映像が右目に、また右目に入るべき映像が左目に入るという左右の映像反転による視差反転が起きる。
本実施の形態9における立体画像処理装置209は、実施の形態8の立体画像処理装置208と比べて、視差方向判定部140を有する点で異なる。よって以下では、主に、視差方向判定部140について詳しく説明を行う。
尚、視差方向判定部140は、既に説明した他の構成部分と同様に、コンピュータを用いて実現される。
傾き検出部137は、上述したように観察者3の顔の傾きθを検出し、検出した顔の傾きθを視差回転取得部138、及び視差方向判定部140へ送出する。
視差方向判定部140は、図23に示す視差方向テーブルを有する。この視差方向テーブルは、鉛直軸に対する観察者3の顔の中心軸の傾き方向と、視差方向ベクトルとの関係を示すテーブルである。図23に示すy軸の傾きを示す矢印が傾きθに付す「+」の符号に対応する。
よって、視差方向判定部140は、顔の傾きθから、視差方向テーブルを用いて視差方向ベクトル(rx、ry)を求め、求めた視差方向ベクトル(rx、ry)を視差設定部139へ送出する。
視差設定部139は、視差方向ベクトル(rx、ry)、回転行列Mθ、及び視差入力部112〜119から供給された視差d3を用いて、顔の傾き方向を考慮した視差d4を計算する。
このように構成される立体画像処理装置209においても、立体画像処理装置201と同様に、観察者3に対して適正な視差を自動的に生成し、自然な立体画像を表示することを可能にする。また、本実施形態9の立体画像処理装置209では以下の効果が得られる。
即ち、本実施形態9では、傾き検出部137を用いて観察者3の顔の傾き方向を検出した後、その傾き方向から、視差が反転している場合にはそれを補正する視差方向判定部140を用いることで、観察者3の顔が傾いたとしても、左、右の映像が誤って右眼、左眼に入るのを防ぎ、正確な立体視の表示を行うことができる。
1 スクリーン、3 観察者、10 視聴用デバイス、
115 眼間距離取得部、116 焦点角度取得部、118 適正視差取得部、121 眼検出部、122、124 スクリーン距離取得部、123 視聴用デバイス検出部、128 明滅パターン検出部、129 左右画像距離取得部、133 映像パターン生成部、135 観察者選択部、137 傾き検出部、138 視差回転取得部、139 視差設定部、140 視差方向判定部、
201〜209 立体画像処理装置。

Claims (10)

  1. 両眼視差によって表示画像を擬似的に立体画像として認識させる立体画像処理装置において、
    観察者の両眼間の眼間距離を求める眼間距離取得部と、
    表示画面に対して観察者が正面視の状態における観察者と表示画面との間の表示画面距離を求める表示画面距離取得部と、
    求めた眼間距離及び表示画面距離から、観察者の両眼による表示画面での焦点位置と各眼とで形成される焦点角度を求める焦点角度取得部と、
    求めた焦点角度から適正視差を求める適正視差取得部と、
    を備え、適正視差を自動生成することを特徴とする立体画像処理装置。
  2. 顔の平均的な大きさ、及び平均的な眼間距離を格納した平均顔モデルをさらに備え、
    上記眼間距離取得部は、上記平均顔モデルにおける平均的な眼間距離を眼間距離とし、
    表示画面距離取得部は、観察者の撮像画像における顔の大きさと、上記平均顔モデルにおける顔の平均的な大きさとの比から表示画面距離を求める、
    請求項1記載の立体画像処理装置。
  3. 上記眼間距離取得部は、観察者の撮像画像から観察者の各眼を検出し検出した各眼から眼間距離を求める眼検出部を有し、
    表示画面距離取得部は、求めた眼間距離と、上記平均顔モデルにおける平均的な眼間距離との比から表示画面距離を求める、
    請求項1記載の立体画像処理装置。
  4. 観察者の撮像画像から観察者が装着している視聴用デバイスを検出し、検出した視聴用デバイスの大きさを求める視聴用デバイス検出部と、
    視聴用デバイスの平均的な大きさ、及び平均的なデバイス眼間距離を格納した視聴用デバイスモデルと、をさらに備え、
    上記眼間距離取得部は、視聴用デバイスモデルにおける平均的なデバイス眼間距離を眼間距離とし、
    表示画面距離取得部は、観察者の撮像画像における視聴用デバイスの大きさと、上記視聴用デバイスモデルにおける視聴用デバイスの平均的な大きさとの比から表示画面距離を求める、
    請求項1記載の立体画像処理装置。
  5. 観察者が視聴用デバイスを装着している状態において、
    視聴用デバイスに対して左眼、右眼における映像の透過、不透過を行わせる信号を送出する同期制御部をさらに備え、
    上記眼間距離取得部は、視聴用デバイスにおける左眼及び右眼の明滅パターンを検出する明滅パターン検出部と、検出された明滅パターンから眼間距離を求める画像距離取得部とを有し、
    視聴用デバイスの平均的な大きさ、及び平均的なデバイス眼間距離を格納した視聴用デバイスモデルをさらに備え、
    表示画面距離取得部は、平均的なデバイス眼間距離と、上記画像距離取得部で求めた眼間距離との比から表示画面距離を求める、
    請求項1記載の立体画像処理装置。
  6. 左右で輝度値の差を持つ映像パターンを生成する左右映像パターン生成部と、
    視聴用デバイスの平均的な大きさ、及び平均的なデバイス眼間距離を格納した視聴用デバイスモデルと、をさらに備え、
    観察者が視聴用デバイスを装着している状態において、
    上記眼間距離取得部は、上記左右映像パターン生成部によって生成された映像パターンによって視聴用デバイスにおける左眼及び右眼に生じる明滅パターンを検出する明滅パターン検出部と、検出された明滅パターンから眼間距離を求める画像距離取得部とを有し、
    表示画面距離取得部は、平均的なデバイス眼間距離と、上記画像距離取得部で求めた眼間距離との比から表示画面距離を求める、
    請求項1記載の立体画像処理装置。
  7. 観察者の顔に投影する左右で輝度値の異なる映像パターンを生成する映像パターン生成部と、
    顔の平均的な大きさ、及び平均的な眼間距離を格納した平均顔モデルと、をさらに備え、
    上記眼間距離取得部は、観察者の撮像画像から上記映像パターンの明滅パターンを検出する明滅パターン検出部と、検出された明滅パターンから眼間距離を求める画像距離取得部とを有し、
    表示画面距離取得部は、上記平均顔モデルによる平均的な眼間距離と、上記画像距離取得部で求めた眼間距離との比から表示画面距離を求める、
    請求項1記載の立体画像処理装置。
  8. 複数の観察者が存在する状態において、眼間距離を求める観察者を選択する観察者選択部をさらに有し、
    上記適正視差取得部は、選択された観察者の眼間距離を元に適正視差を求める、請求項1記載の立体画像処理装置。
  9. 表示画面に対して観察者の両眼間が水平状態から傾斜して位置する状態において、観察者の画像から両眼間の傾斜を検出する傾き検出部と、
    上記適正視差取得部にて求めた適正視差に対して、上記傾き検出部で検出した傾斜にて補正した補正視差を生成する視差補正部と、
    をさらに備えた、請求項1記載の立体画像処理装置。
  10. 上記傾き検出部で検出した両眼間の傾斜によって視差の左右反転を検出して反転を補正する視差方向判定部をさらに備えた、請求項9記載の立体画像処理装置。
JP2011113444A 2011-05-20 2011-05-20 立体画像処理装置 Withdrawn JP2012244466A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011113444A JP2012244466A (ja) 2011-05-20 2011-05-20 立体画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011113444A JP2012244466A (ja) 2011-05-20 2011-05-20 立体画像処理装置

Publications (1)

Publication Number Publication Date
JP2012244466A true JP2012244466A (ja) 2012-12-10

Family

ID=47465680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011113444A Withdrawn JP2012244466A (ja) 2011-05-20 2011-05-20 立体画像処理装置

Country Status (1)

Country Link
JP (1) JP2012244466A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014192550A (ja) * 2013-03-26 2014-10-06 Seiko Epson Corp 頭部装着型表示装置および頭部装着型表示装置の制御方法
US11054650B2 (en) 2013-03-26 2021-07-06 Seiko Epson Corporation Head-mounted display device, control method of head-mounted display device, and display system
WO2021220832A1 (ja) * 2020-04-28 2021-11-04 京セラ株式会社 眼間距離測定方法および較正方法
CN117490986A (zh) * 2024-01-02 2024-02-02 深圳市立体通技术有限公司 立体显示效果的评判方法、装置、设备及介质
JP7475191B2 (ja) 2020-04-28 2024-04-26 京セラ株式会社 眼間距離測定方法および較正方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014192550A (ja) * 2013-03-26 2014-10-06 Seiko Epson Corp 頭部装着型表示装置および頭部装着型表示装置の制御方法
US11054650B2 (en) 2013-03-26 2021-07-06 Seiko Epson Corporation Head-mounted display device, control method of head-mounted display device, and display system
WO2021220832A1 (ja) * 2020-04-28 2021-11-04 京セラ株式会社 眼間距離測定方法および較正方法
CN115462067A (zh) * 2020-04-28 2022-12-09 京瓷株式会社 眼间距离测量方法以及校正方法
JP7475191B2 (ja) 2020-04-28 2024-04-26 京セラ株式会社 眼間距離測定方法および較正方法
CN117490986A (zh) * 2024-01-02 2024-02-02 深圳市立体通技术有限公司 立体显示效果的评判方法、装置、设备及介质
CN117490986B (zh) * 2024-01-02 2024-03-12 深圳市立体通技术有限公司 立体显示效果的评判方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
JP6020923B2 (ja) 焦点可変レンズを有するビューア、および映像表示システム
CN106199964B (zh) 能自动调节景深的双目ar头戴设备及景深调节方法
US6788274B2 (en) Apparatus and method for displaying stereoscopic images
US20120200680A1 (en) Display device and method for providing 3D image of the display device
CN109510977A (zh) 使用同心观察圆来生成立体光场全景
JP2010072477A (ja) 画像表示装置、画像表示方法及びプログラム
KR101046259B1 (ko) 응시위치를 추적하여 입체영상을 표시하는 입체영상 표시장치
JPWO2011102136A1 (ja) 立体画像表示システム及び立体視メガネ
JP4634863B2 (ja) 立体視画像生成装置及び立体視画像生成プログラム
US11012681B2 (en) System and method for enhanced motion parallax in a 3D display
JP2012244466A (ja) 立体画像処理装置
JP2016032227A (ja) 映像表示システム、三次元映像ポインティング装置、および映像表示装置
WO2016067729A1 (ja) 画像生成装置、画像生成方法および較正方法
US20220060680A1 (en) Head mounted display apparatus
JP2012244453A (ja) 画像表示装置、画像表示システム、及び3次元眼鏡
CN104216126A (zh) 一种变焦3d显示技术
TWI486052B (zh) 立體影像處理裝置以及立體影像處理方法
US20130044109A1 (en) Control method and apparatus for stereoscopic display
US20140285484A1 (en) System of providing stereoscopic image to multiple users and method thereof
WO2012147482A1 (ja) 立体画像表示装置および立体画像表示方法
JP2001218231A (ja) 立体画像を表示する装置および方法
KR20110136326A (ko) 삼차원 입체안경의 수평각 정보를 반영한 삼차원 스테레오스코픽 렌더링 시스템
US20060152580A1 (en) Auto-stereoscopic volumetric imaging system and method
TW202205851A (zh) 可透光顯示系統及其圖像輸出方法與處理裝置
JP5037713B1 (ja) 立体画像表示装置および立体画像表示方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140805