JP2013153421A - 表示装置 - Google Patents
表示装置 Download PDFInfo
- Publication number
- JP2013153421A JP2013153421A JP2012272935A JP2012272935A JP2013153421A JP 2013153421 A JP2013153421 A JP 2013153421A JP 2012272935 A JP2012272935 A JP 2012272935A JP 2012272935 A JP2012272935 A JP 2012272935A JP 2013153421 A JP2013153421 A JP 2013153421A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- display device
- display unit
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】立体像(3次元画像)を多視点に表示する。
【解決手段】表示装置は、第1の画像を表示する第1表示部と、第1の画像が表示される奥行き位置とは異なる奥行き位置に第1の画像に対応する第2の画像を表示する第2表示部とを備え、第1表示部または第2表示部のうちのいずれか一方は、互いに異なる位置を視点とする多視点画像を表示可能である。
【選択図】図1
【解決手段】表示装置は、第1の画像を表示する第1表示部と、第1の画像が表示される奥行き位置とは異なる奥行き位置に第1の画像に対応する第2の画像を表示する第2表示部とを備え、第1表示部または第2表示部のうちのいずれか一方は、互いに異なる位置を視点とする多視点画像を表示可能である。
【選択図】図1
Description
本発明は、表示装置に関する。
近年、例えば、立体像(3次元画像)の奥行き位置に応じた明るさ(例えば、輝度)の比を付けた複数の画像を、奥行き位置の異なる複数の表示面に表示させることによって、これら複数の画像を視認した観察者に立体像を認識させる表示方法が知られている(例えば、特許文献1を参照)。
しかしながら、上記のような表示方法は、立体像(3次元画像)を観察者に認識させることができる視点が限定されることがあり、この場合には、観察者によって立体像(3次元画像)が認識される範囲を広範囲にして表示することができないという問題があった。
本発明は、上記問題を解決すべくなされたもので、その目的は、観察者によって立体像(3次元画像)が認識される範囲を広範囲にして表示することができる表示装置を提供することにある。
本発明の一実施形態は、第1の画像を表示する第1表示部と、前記第1の画像が表示される奥行き位置とは異なる奥行き位置に、前記第1の画像に対応する第2の画像を表示する第2表示部と、を備え、前記第1表示部または前記第2表示部のうちのいずれか一方は、多視点画像を表示可能であることを特徴とする表示装置である。
この発明によれば、観察者によって立体像(3次元画像)が認識される範囲を広範囲にして表示することができる。
[第1の実施形態]
以下、図面を参照して、本発明の第1の実施形態を説明する。
図1は、本実施形態における表示装置10を含む表示システム100の構成の一例を示す構成図である。
本実施形態の表示システム100は、画像情報供給装置2と、表示装置10とを備えている。
以下、各図の説明においてはXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。表示装置10が画像を表示している方向をZ軸の正の方向とし、当該Z軸方向に垂直な平面上の直交方向をそれぞれX軸方向及びY軸方向とする。ここでは、X軸方向は、表示装置10の水平方向とし、Y軸方向は表示装置10の鉛直方向とする。
画像情報供給装置2は、表示装置10に第1の画像情報と第2の画像情報とを供給する。ここで、第1の画像情報は、表示装置10によって表示される第1の画像P11を表示するための情報である。第2の画像情報は、表示装置10によって表示される第2の画像P12を表示するための情報であり、例えば、第1の画像情報に基づいて生成されているエッジ画像PEの画像情報である。このエッジ画像PEは、第1の画像P11内のエッジ部分Eを示す画像である。このエッジ画像PEについては、図2を参照して後述する。また、この第2の画像情報には、図8A〜8Cを参照して後述するように、第1視点画像P12Aと、第2視点画像P12Bと、第3視点画像P12Cとが含まれている。
以下、図面を参照して、本発明の第1の実施形態を説明する。
図1は、本実施形態における表示装置10を含む表示システム100の構成の一例を示す構成図である。
本実施形態の表示システム100は、画像情報供給装置2と、表示装置10とを備えている。
以下、各図の説明においてはXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。表示装置10が画像を表示している方向をZ軸の正の方向とし、当該Z軸方向に垂直な平面上の直交方向をそれぞれX軸方向及びY軸方向とする。ここでは、X軸方向は、表示装置10の水平方向とし、Y軸方向は表示装置10の鉛直方向とする。
画像情報供給装置2は、表示装置10に第1の画像情報と第2の画像情報とを供給する。ここで、第1の画像情報は、表示装置10によって表示される第1の画像P11を表示するための情報である。第2の画像情報は、表示装置10によって表示される第2の画像P12を表示するための情報であり、例えば、第1の画像情報に基づいて生成されているエッジ画像PEの画像情報である。このエッジ画像PEは、第1の画像P11内のエッジ部分Eを示す画像である。このエッジ画像PEについては、図2を参照して後述する。また、この第2の画像情報には、図8A〜8Cを参照して後述するように、第1視点画像P12Aと、第2視点画像P12Bと、第3視点画像P12Cとが含まれている。
表示装置10は、第1表示部11と第2表示部12とを備えており、画像情報供給装置2から取得した第1の画像情報に基づいて、第1の画像P11を表示するとともに、画像情報供給装置2から取得した第2の画像情報に基づいて、第2の画像P12を表示する。
本実施形態の第1表示部11及び第2表示部12は、(+Z)方向に第2表示部12、第1表示部11の順に配置されている。つまり、第1表示部11と、第2表示部12とは、異なる奥行き位置に配置されている。ここで、奥行き位置とは、Z軸方向の位置である。
本実施形態の第1表示部11及び第2表示部12は、(+Z)方向に第2表示部12、第1表示部11の順に配置されている。つまり、第1表示部11と、第2表示部12とは、異なる奥行き位置に配置されている。ここで、奥行き位置とは、Z軸方向の位置である。
第2表示部12は、(+Z)方向に向けて画像を表示する第2表示面120を備えており、画像情報供給装置2から取得した第2の画像情報に基づいて、第2の画像P12を第2表示面120に表示する。第2表示面120に表示された第2の画像P12から発せられる第2光束R12は、光学像として観察者1に視認される。
また、本実施形態の第2表示部12は、図7を参照して後述するように、方向設定部121を備えており、互いに異なる位置を視点とする多視点画像を表示可能である。ここで、視点とは、画像の表示面に表示されている画像が観察者1によって、例えば、立体像(3次元画像)として認識される位置である。本実施形態の方向設定部121は、例えば、レンチキュラーレンズを有しており、第2表示面120に表示される第2の画像P12から発せられる第2光束R12の出射方向を設定する。なお、方向設定部121は、例えば、スリットアレイシートを用いるパララックス方式などの多視点が設定できる方式であってもよい。また、ここで、多視点画像とは、互いに異なる位置を視点とする画像である。
また、本実施形態の第2表示部12は、図7を参照して後述するように、方向設定部121を備えており、互いに異なる位置を視点とする多視点画像を表示可能である。ここで、視点とは、画像の表示面に表示されている画像が観察者1によって、例えば、立体像(3次元画像)として認識される位置である。本実施形態の方向設定部121は、例えば、レンチキュラーレンズを有しており、第2表示面120に表示される第2の画像P12から発せられる第2光束R12の出射方向を設定する。なお、方向設定部121は、例えば、スリットアレイシートを用いるパララックス方式などの多視点が設定できる方式であってもよい。また、ここで、多視点画像とは、互いに異なる位置を視点とする画像である。
第1表示部11は、(+Z)方向に向けて画像を表示する第1表示面110を備えており、画像情報供給装置2から取得した第1の画像情報に基づいて、第1の画像P11を第1表示面110に表示する。第1表示面110に表示された第1の画像P11から発せられる、第1光束R11は、光学像として観察者1に視認される。
ここで、本実施形態の第1表示部11は、第2表示部12によって表示されている第2の画像P12に応じた第2光束R12(光)を透過することが可能な透過型表示部11aである。つまり、第1表示面110は、第1の画像P11を表示するとともに、第2表示部12によって表示される第2の画像P12の第2光束R12を透過させる。すなわち、表示装置10は、観察者1によって、第1の画像P11と第2の画像P12とが重なるように視認されるようにして、第1の画像P11と第2の画像P12とを表示する。このように、第2表示部12は、第1の画像P11が表示される奥行き位置とは異なる奥行き位置に、第1の画像P11内のエッジ部分を示す第2の画像P12を表示する。
次に、図2A及び図2Bを参照して、本実施形態の第1の画像P11と第2の画像P12を説明する。ここで、以下の図面において画像を示す場合には、便宜上、画像の明るさが明るい(例えば、輝度が高い)部分を濃く示している。
図2Aは、本実施形態における第1の画像P11の一例を示す模式図である。
図2Bは、本実施形態における第2の画像P12の一例を示す模式図である。
本実施形態の第1の画像P11は、例えば、図2Aに示すように四角形のパターンを示す画像である。ここで、第1の画像P11が示す四角形のパターンにおいては、四角形を構成する4辺がそれぞれエッジ部分になりうるが、以下の説明においては、便宜上、四角形の左辺を示すエッジ部分E1及び右辺を示すエッジ部分E2をエッジ部分Eとして説明する。
本実施形態の第2の画像P12は、例えば、図2Bに示すように四角形のパターンの左辺エッジ部分E1を示す左辺エッジ画像PE1及び、右辺エッジ部分E2を示す右辺エッジ画像PE2を含む画像である。ここで、エッジ部分(単にエッジ、又はエッジ領域と表現してもよい)とは、例えば、画像内において隣接する又は近傍の画素の明るさ(例えば、輝度)が急変する部分である。例えば、エッジ部分Eは、図2Aに示す四角形の左辺または右辺の、幅が無い理論的な線分を示すとともに、例えば、第2表示部12の解像度に応じた有限の幅を有するエッジ周囲の領域をも示している。
図2Aは、本実施形態における第1の画像P11の一例を示す模式図である。
図2Bは、本実施形態における第2の画像P12の一例を示す模式図である。
本実施形態の第1の画像P11は、例えば、図2Aに示すように四角形のパターンを示す画像である。ここで、第1の画像P11が示す四角形のパターンにおいては、四角形を構成する4辺がそれぞれエッジ部分になりうるが、以下の説明においては、便宜上、四角形の左辺を示すエッジ部分E1及び右辺を示すエッジ部分E2をエッジ部分Eとして説明する。
本実施形態の第2の画像P12は、例えば、図2Bに示すように四角形のパターンの左辺エッジ部分E1を示す左辺エッジ画像PE1及び、右辺エッジ部分E2を示す右辺エッジ画像PE2を含む画像である。ここで、エッジ部分(単にエッジ、又はエッジ領域と表現してもよい)とは、例えば、画像内において隣接する又は近傍の画素の明るさ(例えば、輝度)が急変する部分である。例えば、エッジ部分Eは、図2Aに示す四角形の左辺または右辺の、幅が無い理論的な線分を示すとともに、例えば、第2表示部12の解像度に応じた有限の幅を有するエッジ周囲の領域をも示している。
次に、図3を参照して、本実施形態の表示装置10が、第1の画像P11と第2の画像P12とを対応させて表示する構成について説明する。
図3は、本実施形態における表示装置10によって表示される画像の一例を示す模式図である。
本実施形態において、第1表示部11は、第1の画像P11を観察者1に視認されるように表示する。また、第2表示部12は、第2の画像P12を観察者1に視認されるように表示する。そして、第2の画像P12は、第1の画像P11が表示される位置からZ軸方向に所定の距離Lpだけ離れている位置に表示される。上述したように本実施形態の第1表示部11は、光を透過させる透過型表示部11aである。このため、第1表示部11に表示される第1の画像P11と第2表示部12に表示される第2の画像P12とは、重なるように観察者1によって視認される。ここで、所定の距離Lpとは、第1の画像P11が表示されている位置と、第2の画像P12が表示されている位置の間の距離である。本実施形態の所定の距離Lpは、例えば、第1の画像P11が表示されている位置と、観察者1の位置とに基づいて予め定められる。
図3は、本実施形態における表示装置10によって表示される画像の一例を示す模式図である。
本実施形態において、第1表示部11は、第1の画像P11を観察者1に視認されるように表示する。また、第2表示部12は、第2の画像P12を観察者1に視認されるように表示する。そして、第2の画像P12は、第1の画像P11が表示される位置からZ軸方向に所定の距離Lpだけ離れている位置に表示される。上述したように本実施形態の第1表示部11は、光を透過させる透過型表示部11aである。このため、第1表示部11に表示される第1の画像P11と第2表示部12に表示される第2の画像P12とは、重なるように観察者1によって視認される。ここで、所定の距離Lpとは、第1の画像P11が表示されている位置と、第2の画像P12が表示されている位置の間の距離である。本実施形態の所定の距離Lpは、例えば、第1の画像P11が表示されている位置と、観察者1の位置とに基づいて予め定められる。
また、図3に示すように、表示装置10は、第1表示部11によって表示されている第1の画像P11内の左辺エッジ部分E1と、当該エッジ部分に対応している左辺エッジ画像PE1とが、対応して視認されるように第1の画像P11および第2の画像P12を表示する。同様に、表示装置10は、第1表示部11によって表示されている第1の画像P11内の右辺エッジ部分E2と、当該エッジ部分に対応している右辺エッジ画像PE2とが、対応して視認されるように第1の画像P11および第2の画像P12を表示する。
このとき、例えば、表示装置10は、観察者1の左眼Lに、第1の画像P11によって示される四角形の左辺エッジ部分E1の(−X)側(つまり、四角形の外側)に、左辺エッジ部分E1と左辺エッジ画像PE1とが重なって視認されるように各画像を表示する。また、表示装置10は、観察者1の左眼Lに、第1の画像P11によって示される四角形の右辺エッジ部分E2の(−X)側(つまり、四角形の内側)に、右辺エッジ部分E2と右辺エッジ画像PE2とが重なって視認されるように各画像を表示する。同様に、例えば、表示装置10は、観察者1の右眼Rに、第1の画像P11によって示される四角形の右辺エッジ部分E2の(+X)側(つまり、四角形の外側)に、右辺エッジ部分E2と右辺エッジ画像PE2とが重なって視認されるように各画像を表示する。また、表示装置10は、観察者1の右眼Rに、第1の画像P11によって示される四角形の左辺エッジ部分E1の(+X)側(つまり、四角形の内側)に、左辺エッジ部分E1と左辺エッジ画像PE1が重なって視認されるように各画像を表示する。
このとき、例えば、表示装置10は、観察者1の左眼Lに、第1の画像P11によって示される四角形の左辺エッジ部分E1の(−X)側(つまり、四角形の外側)に、左辺エッジ部分E1と左辺エッジ画像PE1とが重なって視認されるように各画像を表示する。また、表示装置10は、観察者1の左眼Lに、第1の画像P11によって示される四角形の右辺エッジ部分E2の(−X)側(つまり、四角形の内側)に、右辺エッジ部分E2と右辺エッジ画像PE2とが重なって視認されるように各画像を表示する。同様に、例えば、表示装置10は、観察者1の右眼Rに、第1の画像P11によって示される四角形の右辺エッジ部分E2の(+X)側(つまり、四角形の外側)に、右辺エッジ部分E2と右辺エッジ画像PE2とが重なって視認されるように各画像を表示する。また、表示装置10は、観察者1の右眼Rに、第1の画像P11によって示される四角形の左辺エッジ部分E1の(+X)側(つまり、四角形の内側)に、左辺エッジ部分E1と左辺エッジ画像PE1が重なって視認されるように各画像を表示する。
次に、観察者1によって、第1の画像P11と第2の画像P12とから立体像(3次元画像)が認識される仕組みについて説明する。
まず、観察者1が第1の画像P11と、第1の画像P11のエッジ部分Eに対応するエッジ画像PEとを重なる位置で観察すると、第1の画像P11とエッジ画像PEとの輝度比に合わせて表示面間内の奥行き位置(例えば、Z軸方向の位置)に像を知覚する。
例えば、四角形のパターンを観察したとき、観察者1の網膜像上では認識できないくらいの微小な輝度の段差ができる。このような場合においては、明るさ(例えば、輝度)の段差間に仮想的なエッジを知覚して1つの物体として認識する。このとき、左眼Lと右眼Rとで少しだけ仮想的なエッジに、ずれが生じて両眼視差として知覚して奥行き位置が変化する。
この仕組みについて、図4から図6を参照して、詳細に説明する。
まず、観察者1が第1の画像P11と、第1の画像P11のエッジ部分Eに対応するエッジ画像PEとを重なる位置で観察すると、第1の画像P11とエッジ画像PEとの輝度比に合わせて表示面間内の奥行き位置(例えば、Z軸方向の位置)に像を知覚する。
例えば、四角形のパターンを観察したとき、観察者1の網膜像上では認識できないくらいの微小な輝度の段差ができる。このような場合においては、明るさ(例えば、輝度)の段差間に仮想的なエッジを知覚して1つの物体として認識する。このとき、左眼Lと右眼Rとで少しだけ仮想的なエッジに、ずれが生じて両眼視差として知覚して奥行き位置が変化する。
この仕組みについて、図4から図6を参照して、詳細に説明する。
図4は、本実施形態における光学像IMの一例を示す模式図である。ここで、光学像IMとは、第1の画像P11及び第2の画像P12が観察者1によって視認される画像である。
まず、観察者の左眼Lに視認される光学像IMLについて説明する。
図4に示すように、観察者の左眼Lにおいては、左眼Lに視認される第1の画像P11Lと、左眼Lに視認される第2の画像P12Lとが合成された光学像IMLが結像する。例えば、図3を参照して説明したように、左眼Lにおいては、第1の画像P11によって示される四角形の左辺エッジ部分E1の(−X)側(つまり、四角形の外側)に、左辺エッジ部分E1を示す画像と左辺エッジ画像PE1とが合成された光学像IMLが結像する。また、左眼Lにおいては、第1の画像P11によって示される四角形の右辺エッジ部分E2の(−X)側(つまり、四角形の内側)に、右辺エッジ部分E2を示す画像と右辺エッジ画像PE2とが合成された光学像IMLが結像する。
まず、観察者の左眼Lに視認される光学像IMLについて説明する。
図4に示すように、観察者の左眼Lにおいては、左眼Lに視認される第1の画像P11Lと、左眼Lに視認される第2の画像P12Lとが合成された光学像IMLが結像する。例えば、図3を参照して説明したように、左眼Lにおいては、第1の画像P11によって示される四角形の左辺エッジ部分E1の(−X)側(つまり、四角形の外側)に、左辺エッジ部分E1を示す画像と左辺エッジ画像PE1とが合成された光学像IMLが結像する。また、左眼Lにおいては、第1の画像P11によって示される四角形の右辺エッジ部分E2の(−X)側(つまり、四角形の内側)に、右辺エッジ部分E2を示す画像と右辺エッジ画像PE2とが合成された光学像IMLが結像する。
図4の場合において、左眼Lに視認されている光学像IMLの明るさの分布を図5に示す。
図5は、本実施形態における光学像IMの明るさの分布の一例を示すグラフである。図5において、X座標X1〜X6は、光学像IMの明るさの変化点に対応するX座標である。
図5に示すように、左眼Lに視認される第1の画像P11Lの明るさは、X座標X1〜X2において、ここではゼロとして説明する。また、第1の画像P11Lの明るさは、X座標X2〜X6において輝度値BR2である。なお、ここでは、画像の明るさの一例として、輝度値BRの場合について説明する。左眼Lに視認される第2の画像P12Lの明るさは、X座標X1〜X2及びX座標X4〜X5において輝度値BR1であり、X座標X2〜X4においてゼロである。したがって、左眼Lに視認される光学像IMLの明るさ(例えば、輝度)は、X座標X1〜X2において輝度値BR1になる。また、光学像IMLの明るさは、X座標X2〜X4及びX座標X5〜X6において、輝度値BR2になり、X座標X4〜X5において輝度値BR1と輝度値BR2とが合成された明るさである輝度値BR3になる。
図5は、本実施形態における光学像IMの明るさの分布の一例を示すグラフである。図5において、X座標X1〜X6は、光学像IMの明るさの変化点に対応するX座標である。
図5に示すように、左眼Lに視認される第1の画像P11Lの明るさは、X座標X1〜X2において、ここではゼロとして説明する。また、第1の画像P11Lの明るさは、X座標X2〜X6において輝度値BR2である。なお、ここでは、画像の明るさの一例として、輝度値BRの場合について説明する。左眼Lに視認される第2の画像P12Lの明るさは、X座標X1〜X2及びX座標X4〜X5において輝度値BR1であり、X座標X2〜X4においてゼロである。したがって、左眼Lに視認される光学像IMLの明るさ(例えば、輝度)は、X座標X1〜X2において輝度値BR1になる。また、光学像IMLの明るさは、X座標X2〜X4及びX座標X5〜X6において、輝度値BR2になり、X座標X4〜X5において輝度値BR1と輝度値BR2とが合成された明るさである輝度値BR3になる。
次に、観察者1の左眼Lにエッジ部分が視認される仕組みについて説明する。
図6は、本実施形態における左眼Lと右眼Rとに生じる両眼視差の一例を示すグラフである。
左眼Lの網膜上に結像された光学像IMLによって、観察者1に認識される画像の明るさの分布は、図6の波形WLのようになる。ここで、観察者1は、例えば、視認される画像の明るさの変化が最大になる(つまり、波形WL及び波形WRの傾きが最大になる)X軸上の位置を、視認している物体のエッジ部分であると認識する。本実施形態の場合、観察者1は、例えば、左眼L側の波形WLについて、図6に示すXELの位置(つまり、X軸の原点Oから距離LELの位置)を視認している四角形の左辺側のエッジ部分であると認識する。
図6は、本実施形態における左眼Lと右眼Rとに生じる両眼視差の一例を示すグラフである。
左眼Lの網膜上に結像された光学像IMLによって、観察者1に認識される画像の明るさの分布は、図6の波形WLのようになる。ここで、観察者1は、例えば、視認される画像の明るさの変化が最大になる(つまり、波形WL及び波形WRの傾きが最大になる)X軸上の位置を、視認している物体のエッジ部分であると認識する。本実施形態の場合、観察者1は、例えば、左眼L側の波形WLについて、図6に示すXELの位置(つまり、X軸の原点Oから距離LELの位置)を視認している四角形の左辺側のエッジ部分であると認識する。
次に、観察者の右眼Rに視認される光学像IMRについての、光学像IMLとの相違点を説明し、その相違点によって立体像(3次元画像)を認識する仕組みについて説明する。
図4に示すように、観察者の右眼Rにおいては、右眼Rに視認される第1の画像P11Rと、右眼Rに視認される第2の画像P12Rとが合成された光学像IMRが結像する。
また、図5に示すように、右眼Rに視認される光学像IMRの明るさ(例えば、輝度)は、X座標X1〜X3及びX座標X4〜X6において、左眼Lに視認される光学像IMLの明るさと相違している。
右眼Rの網膜上に合成された光学像IMRによって、観察者1に認識される画像の明るさの分布は、図6の波形WRのようになる。ここで、観察者1は、例えば、右眼R側の波形WRについて、図6に示すXERの位置(つまり、X軸の原点Oから距離LERの位置)を視認している四角形のエッジ部分であると認識する。
これにより、観察者1は、左眼Lが視認する四角形のエッジ部分の位置XELと、右眼Rが視認する四角形のエッジ部分の位置XERとを両眼視差として認識する。そして、観察者1は、エッジ部分の両眼視差に基づいて四角形の画像を立体像(3次元画像)として認識する。
図4に示すように、観察者の右眼Rにおいては、右眼Rに視認される第1の画像P11Rと、右眼Rに視認される第2の画像P12Rとが合成された光学像IMRが結像する。
また、図5に示すように、右眼Rに視認される光学像IMRの明るさ(例えば、輝度)は、X座標X1〜X3及びX座標X4〜X6において、左眼Lに視認される光学像IMLの明るさと相違している。
右眼Rの網膜上に合成された光学像IMRによって、観察者1に認識される画像の明るさの分布は、図6の波形WRのようになる。ここで、観察者1は、例えば、右眼R側の波形WRについて、図6に示すXERの位置(つまり、X軸の原点Oから距離LERの位置)を視認している四角形のエッジ部分であると認識する。
これにより、観察者1は、左眼Lが視認する四角形のエッジ部分の位置XELと、右眼Rが視認する四角形のエッジ部分の位置XERとを両眼視差として認識する。そして、観察者1は、エッジ部分の両眼視差に基づいて四角形の画像を立体像(3次元画像)として認識する。
次に、図7を参照して、本実施形態における表示装置10が出射する光束の一例について説明する。
図7は、本実施形態における表示装置10が出射する光束の一例を示す模式図である。
ここでは、一例として、3つの位置において観察者によって立体像(3次元画像)が視認されている場合を説明する。上述したように、本実施形態の第2表示部12は、表示面120の(+Z)方向の位置に方向設定部121を備えている。また、上述したように、本実施形態の表示装置10が備える第2表示部12は、画像情報供給装置2から供給される第2の画像情報に基づいて、第2の画像P12を表示する。また、上述したように、画像情報供給装置2から供給される第2の画像情報には、第1視点画像P12Aの情報と、第2視点画像P12Bの情報と、第3視点画像P12Cの情報とが含まれている。本実施形態の方向設定部121は、例えば、レンチキュラーレンズを有しており、第1の視点VP1に第1視点画像P12Aが表示されるように第2の画像P12から発せられる第2光束R12の出射方向を設定する。同様に、方向設定部121は、第2の視点VP2に第2視点画像P12Bが表示されるように第2光束R12の出射方向を設定し、第3の視点VP3に第3視点画像P12Cが表示されるように第2光束R12の出射方向を設定する。これにより、例えば、第1の視点VP1にいる観察者1Aによって、第1視点画像P12Aが視認され、第2の視点VP2にいる観察者1Bによって、第2視点画像P12Bが視認され、第3の視点VP3にいる観察者1Cによって、第3視点画像P12Cが視認される。
図7は、本実施形態における表示装置10が出射する光束の一例を示す模式図である。
ここでは、一例として、3つの位置において観察者によって立体像(3次元画像)が視認されている場合を説明する。上述したように、本実施形態の第2表示部12は、表示面120の(+Z)方向の位置に方向設定部121を備えている。また、上述したように、本実施形態の表示装置10が備える第2表示部12は、画像情報供給装置2から供給される第2の画像情報に基づいて、第2の画像P12を表示する。また、上述したように、画像情報供給装置2から供給される第2の画像情報には、第1視点画像P12Aの情報と、第2視点画像P12Bの情報と、第3視点画像P12Cの情報とが含まれている。本実施形態の方向設定部121は、例えば、レンチキュラーレンズを有しており、第1の視点VP1に第1視点画像P12Aが表示されるように第2の画像P12から発せられる第2光束R12の出射方向を設定する。同様に、方向設定部121は、第2の視点VP2に第2視点画像P12Bが表示されるように第2光束R12の出射方向を設定し、第3の視点VP3に第3視点画像P12Cが表示されるように第2光束R12の出射方向を設定する。これにより、例えば、第1の視点VP1にいる観察者1Aによって、第1視点画像P12Aが視認され、第2の視点VP2にいる観察者1Bによって、第2視点画像P12Bが視認され、第3の視点VP3にいる観察者1Cによって、第3視点画像P12Cが視認される。
この、本実施形態の第2表示部12が各視点に表示する第1視点画像P12A、第2視点画像P12B及び第3視点画像P12Cについて、図8A〜8Cを参照して説明する。なお、便宜上、第1視点画像P12A、第2視点画像P12B及び第3視点画像P12Cはそれぞれ別の画像として説明するが、本実施形態の第2表示部12は、表示面120にこれらの画像を第2の画像P12として、例えば、同時に表示する。
図8Aは、本実施形態における第1視点画像P12Aの一例を示す模式図である。
図8Aに示すように、第1視点画像P12Aは、例えば、図2Aに示す四角形のパターンのエッジ部分Eを示すエッジ画像PEを含む画像である。本実施形態の第1視点画像P12Aは、例えば、四角形のパターンの左辺エッジ部分E1を示す左辺エッジ画像PE1A及び、右辺エッジ部分E2を示す右辺エッジ画像PE2Aを含む画像である。また、本実施形態の方向設定部121は、例えば、この第1視点画像P12Aの左辺エッジ画像PE1Aが、第1の視点VP1にいる観察者1Aの位置から、図2Aに示す四角形のパターンの左辺エッジ部分E1と重なって視認されるように視点を設定する。同様に、方向設定部121は、例えば、この第1視点画像P12Aの右辺エッジ画像PE2Aが、第1の視点VP1にいる観察者1Aの位置から、図2Aに示す四角形のパターンの右辺エッジ部分E2と重なって視認されるように視点を設定する。このようにして、本実施形態の方向設定部121は、第1の視点VP1に第1視点画像P12Aが表示されるように視点を設定する。
図8Aに示すように、第1視点画像P12Aは、例えば、図2Aに示す四角形のパターンのエッジ部分Eを示すエッジ画像PEを含む画像である。本実施形態の第1視点画像P12Aは、例えば、四角形のパターンの左辺エッジ部分E1を示す左辺エッジ画像PE1A及び、右辺エッジ部分E2を示す右辺エッジ画像PE2Aを含む画像である。また、本実施形態の方向設定部121は、例えば、この第1視点画像P12Aの左辺エッジ画像PE1Aが、第1の視点VP1にいる観察者1Aの位置から、図2Aに示す四角形のパターンの左辺エッジ部分E1と重なって視認されるように視点を設定する。同様に、方向設定部121は、例えば、この第1視点画像P12Aの右辺エッジ画像PE2Aが、第1の視点VP1にいる観察者1Aの位置から、図2Aに示す四角形のパターンの右辺エッジ部分E2と重なって視認されるように視点を設定する。このようにして、本実施形態の方向設定部121は、第1の視点VP1に第1視点画像P12Aが表示されるように視点を設定する。
図8Bは、本実施形態における第2視点画像P12Bの一例を示す模式図である。
図8Bに示すように、第2視点画像P12Bは、例えば、四角形のパターンの左辺エッジ部分E1を示す左辺エッジ画像PE1B及び、右辺エッジ部分E2を示す右辺エッジ画像PE2Bを含む画像である。ここで、図8Bに示すように、本実施形態の第2表示部12は、左辺エッジ画像E1Bと右辺エッジ画像PE2Bとを、第1視点画像P12Aのエッジ画像PE(例えば、左辺エッジ画像PE1A及び右辺エッジ画像PE2A)の表示位置から距離LABだけ(+X)方向に離れた位置に表示する。また、本実施形態の方向設定部121は、例えば、この第2視点画像P12Bの左辺エッジ画像PE1Bが、第2の視点VP2にいる観察者1Bの位置から、図2Aに示す四角形のパターンの左辺エッジ部分E1と重なって視認されるように視点を設定する。同様に、方向設定部121は、例えば、この第2視点画像P12Bの右辺エッジ画像PE2Bが、第2の視点VP2にいる観察者1Bの位置から、図2Aに示す四角形のパターンの右辺エッジ部分E2と重なって視認されるように視点を設定する。このようにして、本実施形態の方向設定部121は、第2の視点VP2に第2視点画像P12Bが表示されるように視点を設定する。
図8Bに示すように、第2視点画像P12Bは、例えば、四角形のパターンの左辺エッジ部分E1を示す左辺エッジ画像PE1B及び、右辺エッジ部分E2を示す右辺エッジ画像PE2Bを含む画像である。ここで、図8Bに示すように、本実施形態の第2表示部12は、左辺エッジ画像E1Bと右辺エッジ画像PE2Bとを、第1視点画像P12Aのエッジ画像PE(例えば、左辺エッジ画像PE1A及び右辺エッジ画像PE2A)の表示位置から距離LABだけ(+X)方向に離れた位置に表示する。また、本実施形態の方向設定部121は、例えば、この第2視点画像P12Bの左辺エッジ画像PE1Bが、第2の視点VP2にいる観察者1Bの位置から、図2Aに示す四角形のパターンの左辺エッジ部分E1と重なって視認されるように視点を設定する。同様に、方向設定部121は、例えば、この第2視点画像P12Bの右辺エッジ画像PE2Bが、第2の視点VP2にいる観察者1Bの位置から、図2Aに示す四角形のパターンの右辺エッジ部分E2と重なって視認されるように視点を設定する。このようにして、本実施形態の方向設定部121は、第2の視点VP2に第2視点画像P12Bが表示されるように視点を設定する。
図8Cは、本実施形態における第3視点画像P12Cの一例を示す模式図である。
図8Cに示すように、第3視点画像P12Cは、例えば、四角形のパターンの左辺エッジ部分E1を示す左辺エッジ画像PE1C及び、右辺エッジ部分E2を示す右辺エッジ画像PE2Cを含む画像である。ここで、図8Cに示すように、本実施形態の第2表示部12は、左辺エッジ画像PE1Cと右辺エッジ画像PE2Cとを、第1視点画像P12Aのエッジ画像PE(例えば、左辺エッジ画像PE1A及び右辺エッジ画像PE2A)の表示位置から距離LACだけ(−X)方向に離れた位置に表示する。また、本実施形態の方向設定部121は、例えば、この第3視点画像P12Cの左辺エッジ画像PE1Cが、第3の視点VP3にいる観察者1Cの位置から、図2Aに示す四角形のパターンの左辺エッジ部分E1と重なって視認されるように視点を設定する。このようにして、本実施形態の方向設定部121は、第3の視点VP3に第3視点画像P12Cが表示されるように視点を設定する。
図8Cに示すように、第3視点画像P12Cは、例えば、四角形のパターンの左辺エッジ部分E1を示す左辺エッジ画像PE1C及び、右辺エッジ部分E2を示す右辺エッジ画像PE2Cを含む画像である。ここで、図8Cに示すように、本実施形態の第2表示部12は、左辺エッジ画像PE1Cと右辺エッジ画像PE2Cとを、第1視点画像P12Aのエッジ画像PE(例えば、左辺エッジ画像PE1A及び右辺エッジ画像PE2A)の表示位置から距離LACだけ(−X)方向に離れた位置に表示する。また、本実施形態の方向設定部121は、例えば、この第3視点画像P12Cの左辺エッジ画像PE1Cが、第3の視点VP3にいる観察者1Cの位置から、図2Aに示す四角形のパターンの左辺エッジ部分E1と重なって視認されるように視点を設定する。このようにして、本実施形態の方向設定部121は、第3の視点VP3に第3視点画像P12Cが表示されるように視点を設定する。
以上、説明したように、本実施形態の表示装置10は、第1の画像P11を表示する第1表示部11と、第1の画像P11が表示される奥行き位置とは異なる奥行き位置に、第1の画像P11内に対応する第2の画像P12を表示する第2表示部12とを備えており、第1表示部11または第2表示部12のうちのいずれか一方は、互いに異なる位置を視点とする多視点画像を表示可能である。これにより、表示装置10は、複数の視点VPにおいて、第1の画像P11と第2の画像P12とが、観察者1によって重ねて視認されるように、第1の画像P11と第2の画像P12とを表示することができる。これにより、本実施形態の表示装置10は、異なる視点VPにいる複数の観察者によって同時に立体像(3次元画像)として視認される画像を表示することができる。
ここで、第2表示部12は、第1の画像P11内に対応する第2の画像P12の画像として、第1の画像P11内のエッジ部分を示すエッジ画像PEを含む第2の画像P12を表示する。これにより、表示装置10は、複数の視点VPにおいて、第1の画像P11のエッジ部分と第2の画像P12のエッジ画像PEとが(つまり、エッジ部分が)、観察者1によって重ねて視認されるように、第1の画像P11と第2の画像P12とを表示することができる。これにより、本実施形態の表示装置10は、異なる視点VPにいる複数の観察者によって同時に立体像(3次元画像)として視認される画像を表示することができる。なお、ここで、第2表示部12が表示するエッジ画像PEは、第1の画像P11内のエッジ部分のみならず、エッジ部分に囲まれる領域を含む画像であってもよい。
また、本実施形態の表示装置10は、第2の画像P12がエッジ画像PEであり、観察者1によって重ねて視認される第1の画像P11の精細度への影響が少ない。ここで、精細度とは、例えば、画像を構成する画素の数である。
したがって、本実施形態の表示装置10は、第2の画像P12を多視点画像とした場合には、1視点あたりの画像の精細度が第2の画像P12を単一の視点の画像とした場合に比べて低下するが、第1の画像P11の精細度が低下することを低減することができる。
したがって、本実施形態の表示装置10は、第2の画像P12を多視点画像とした場合には、1視点あたりの画像の精細度が第2の画像P12を単一の視点の画像とした場合に比べて低下するが、第1の画像P11の精細度が低下することを低減することができる。
さらに、本実施形態の表示装置10は、例えば、複数の視点VPの間を観察者1が移動する場合においても、観察者1によって立体像(3次元画像)が継続して認識されるように画像を表示することができる。一般に、立体像(3次元画像)の運動視差が観察者1に認識されると、当該立体像(3次元画像)の立体感を高めることができるが。本実施形態の表示装置10は、観察者1が複数の視点VPの間を移動する場合に、画像の運動視差が観察者1に認識されるように設定されている第1視点画像P12A、第2視点画像P12B及び第3視点画像P12Cを表示させることにより、表示する立体像(3次元画像)の立体感を高めることができる。
また、仮に、第1表示部11と第2表示部12とに、明るさ(例えば、輝度)の比を設定した画像をそれぞれ表示した場合には、第1表示部11と第2表示部12との表示条件のばらつきが、立体像(3次元画像)の表示精度に影響を及ぼす可能性がある。また、この場合、高精度に立体像(3次元画像)を表示するためには、第1表示部11と第2表示部12との表示条件(例えば、表示される画像の明るさや色彩)のばらつきを低減させて、表示条件を一致させる必要が生じる。
一方、本実施形態の表示装置10は、第2表示部12にエッジ画像PEを表示するため、第1表示部11と第2表示部12との表示条件にばらつきがあっても、第1表示部11に表示されているエッジ部以外の画像に影響を与えることがない。これにより、第1表示部11と第2表示部12との表示条件を厳密に一致させなくても、立体像(3次元画像)を高精度に表示することができる。つまり、本実施形態の表示装置10は、立体像(3次元画像)を高精度に表示することができる。
また、本実施形態の表示装置10は、第2表示部12にエッジ画像PEのみを表示させればよいため、第2表示部12にエッジ画像PE以外の画像をも表示する場合に比べて、消費電力を抑えることができる。
また、図6に示すように、観察者1は画像の明るさ(例えば、輝度)の段階的な変化を波形WL及び波形WRのように滑らかな明るさ(例えば、輝度)の変化として認識する。このため、本実施形態の表示装置10は、エッジ画像PEの精細度が低い場合であっても、観察者1に立体像(3次元画像)を認識させることができる。ここで、精細度とは、例えば、画像を構成する画素の数である。これにより、本実施形態の表示装置10は、第1表示部11の精細度に比べて第2表示部12の精細度を低減することができる。つまり、本実施形態の表示装置10は、第2表示部12を安価な表示デバイスによって構成することができる。
また、本実施形態の表示装置10は、第1表示部11によって表示されている第1の画像P11内のエッジ部分と、エッジ画像PEとが、対応して視認されるように第1の画像P11および第2の画像P12を表示する。これにより、本実施形態の表示装置10が表示する各画像は、第1の画像P11内のエッジ部分と、エッジ画像PEとが、観察者1によって分離しないように視認される。したがって、本実施形態の表示装置10は、立体像(3次元画像)を高精度に表示することができる。
また、本実施形態の表示装置10の第1表示部11および第2表示部12のうちの少なくとも1つは、他方の表示部に表示される画像に応じた光を透過可能な透過型表示部である。これにより、実施形態の表示装置10は、第1表示部11と第2表示部12とを重ねた状態にして構成することができ、表示装置10を小型化することができる。
また、本実施形態の表示装置10は、立体像(3次元画像)を表示する視点VPと、立体像(3次元画像)を表示しない視点VPとを、視点VP毎に設定することもできる。一例として、表示装置10は、第1視点画像P12Aと、第2視点画像P12Bとを第2表示部12にそれぞれ表示するとともに、第3視点画像P12Cを第2表示部12に表示しないようにすることができる。この場合には、第1の視点VP1にいる観察者1A、および第2の視点VP2にいる観察者1Bには、立体像(3次元画像)がそれぞれ視認できるようにし、第3の視点VP3にいる観察者1Cには、立体像(3次元画像)が視認できないようにすることができる。すなわち、表示装置10は、立体像(3次元画像)が視認できる視点VPと、立体像(3次元画像)が視認できない視点VPとを、1つの表示装置によって設定することができる。
より具体的には、表示装置10が映画館における映画の上映装置であり、映画の観客が視点VPとしての観客席に座っている場合には、映画の画像を立体視できる観客席と、立体視できない観客席とを、1つの表示装置10によって振り分けて設定することができる。また、一例として、これらの観客席に立体視のオン・オフを設定する切換えスイッチが備えられている場合には、表示装置10を次のように構成することもできる。すなわち、表示装置10は、観客席に備えられている切り換えスイッチがオンの場合には、当該観客席に対応する視点画像を表示して立体視できるようにする。また、表示装置10は、観客席に備えられている切り換えスイッチがオフの場合には、当該観客席に対応する視点画像を表示せず、立体視できないようにする。このように構成することによって、表示装置10は、映画館の観客席毎に立体視のオン・オフを設定することができる。さらに、表示装置10は、映画館の観客席に座る観客による切り換えスイッチの操作に基づいて、立体視のオン・オフを設定することができる。
また、より具体的には、表示装置10が家庭用のテレビであり、テレビを視聴している視聴者が視点VPの座席に座っている場合に、テレビに表示されている映像を立体視とするか立体視としないかをオン・オフ可能に設定してもよい。なお、立体視のオン・オフを切替える方法としては、テレビ番組を変更するためのリモコンにオン・オフを切替えるためのスイッチを備えてもよいし、また携帯電話等の電子機器のリモコン機能に立体視のオン・オフの切替えスイッチを設け、立体視のオン・オフを切替えるようにしてもよい。なお、携帯電話等の電子機器を操作する操作部材としては、既存の技術である、タッチパネルなどが挙げられる。なお、立体視のオン・オフを変更する領域の設定方法としては、リモコンから照射された光がどの方向からきたかを検出し、光を検出した方向に基づいて、立体視のオン・オフを変更する領域を設定してもよい。
[第2の実施形態]
以下、図面を参照して、本発明の第2の実施形態を説明する。なお、上述した第1の実施形態と同様である構成及び動作については、説明を省略する。
図9は、本実施形態における表示装置10を含む表示システム100の構成の一例を示す構成図である。
画像情報供給装置2は、表示装置10に画像情報を供給する。ここで、画像情報は、表示装置10によって表示される第1の画像P11を表示するための情報である。
以下、図面を参照して、本発明の第2の実施形態を説明する。なお、上述した第1の実施形態と同様である構成及び動作については、説明を省略する。
図9は、本実施形態における表示装置10を含む表示システム100の構成の一例を示す構成図である。
画像情報供給装置2は、表示装置10に画像情報を供給する。ここで、画像情報は、表示装置10によって表示される第1の画像P11を表示するための情報である。
本実施形態の表示装置10は、エッジ画像生成部14を備えている。
エッジ画像生成部14は、画像情報供給装置2から、第1の画像P11の奥行き位置を示す位置情報が含まれている画像情報を取得する。そして、エッジ画像生成部14は、取得した画像情報からエッジ部分を抽出する。そして、エッジ画像生成部14は、抽出したエッジ部分を示すエッジ画像PEを生成して、生成したエッジ画像PEを含む第2の画像P12を第2表示部12に供給する。ここで、本実施形態のエッジ画像生成部14は、例えば、取得した画像情報に対して、例えば、ラプラシアンフィルタなどの微分フィルタを適用することによって、エッジ部分を抽出する。
エッジ画像生成部14は、画像情報供給装置2から、第1の画像P11の奥行き位置を示す位置情報が含まれている画像情報を取得する。そして、エッジ画像生成部14は、取得した画像情報からエッジ部分を抽出する。そして、エッジ画像生成部14は、抽出したエッジ部分を示すエッジ画像PEを生成して、生成したエッジ画像PEを含む第2の画像P12を第2表示部12に供給する。ここで、本実施形態のエッジ画像生成部14は、例えば、取得した画像情報に対して、例えば、ラプラシアンフィルタなどの微分フィルタを適用することによって、エッジ部分を抽出する。
次に、図10を参照して、本実施形態における表示装置10の動作について説明する。
図10は、本実施形態における表示装置10の動作の一例を示すフローチャートである。
まず、表示装置10の第1表示部11は、画像情報供給装置2から画像情報を取得する(ステップS110)。また、表示装置10の第2表示部12は、画像情報供給装置2から画像情報を取得する(ステップS120)。本実施形態の第1表示部11は、画像情報供給装置2が生成した画像情報を、通信線を介して画像情報供給装置2から取得する。また、本実施形態の第2表示部12は、画像情報供給装置2が生成した画像情報を、通信線を介して画像情報供給装置2から取得する。ここで、本実施形態の画像情報供給装置2は、立体画像(3次元画像)の画像情報を生成する。この画像情報には、第1の画像P11の奥行き位置を示す位置情報が含まれている。ここで、第1の画像P11の奥行き位置を示す位置情報とは、第1の画像P11が観察者1に立体画像として認識されるために画像情報に付加される情報であって、例えば、左眼Lと右眼Rとの両眼視差を設定するための情報である。また、ここで、第1の画像P11の奥行き位置とは、例えば、図3のZ軸方向の位置のうちの、第1の画像P11が観察者1に立体画像として認識されている、第1の画像P11の各画素の仮想的な位置である。例えば、第1の画像P11の奥行き位置が第1の画像P11が表示されている位置(Z軸の原点Oの位置)から奥方向(−Z方向)に設定される場合には、Z軸の原点Oの位置の両眼視差に比べて、両眼視差が大きくなるような位置情報が、画像情報に付加されている。
図10は、本実施形態における表示装置10の動作の一例を示すフローチャートである。
まず、表示装置10の第1表示部11は、画像情報供給装置2から画像情報を取得する(ステップS110)。また、表示装置10の第2表示部12は、画像情報供給装置2から画像情報を取得する(ステップS120)。本実施形態の第1表示部11は、画像情報供給装置2が生成した画像情報を、通信線を介して画像情報供給装置2から取得する。また、本実施形態の第2表示部12は、画像情報供給装置2が生成した画像情報を、通信線を介して画像情報供給装置2から取得する。ここで、本実施形態の画像情報供給装置2は、立体画像(3次元画像)の画像情報を生成する。この画像情報には、第1の画像P11の奥行き位置を示す位置情報が含まれている。ここで、第1の画像P11の奥行き位置を示す位置情報とは、第1の画像P11が観察者1に立体画像として認識されるために画像情報に付加される情報であって、例えば、左眼Lと右眼Rとの両眼視差を設定するための情報である。また、ここで、第1の画像P11の奥行き位置とは、例えば、図3のZ軸方向の位置のうちの、第1の画像P11が観察者1に立体画像として認識されている、第1の画像P11の各画素の仮想的な位置である。例えば、第1の画像P11の奥行き位置が第1の画像P11が表示されている位置(Z軸の原点Oの位置)から奥方向(−Z方向)に設定される場合には、Z軸の原点Oの位置の両眼視差に比べて、両眼視差が大きくなるような位置情報が、画像情報に付加されている。
次に、第2表示部12は、ステップS120において取得した画像情報に基づいて、第1の画像P11内のエッジ部分を示すエッジ画像PEを含む第2の画像P12を生成する(ステップS122)。本実施形態の第2表示部12は、例えば、画像情報供給装置2が生成した画像情報に含まれている、第1視点画像P12Aの情報から第1視点画像P12Aを生成する。同様に、第2表示部12は、例えば、第2視点画像P12Bの情報から、第2視点画像P12Bを、第3視点画像P12Cの情報から第3視点画像P12Cを、それぞれ生成する。
次に、第1表示部11は、ステップS110において取得した画像情報に基づいて、第1の画像P11を生成し、生成した第1の画像P11を表示して、処理を終了する(ステップS113)。
また、第2表示部12は、ステップS122において生成した第2の画像P12を表示して、処理を終了する(ステップS123)。本実施形態の第2表示部12は、例えば、生成した第1視点画像P12Aと、第2視点画像P12Bと、第3視点画像P12Cとを、それぞれ表示して、処理を終了する。
また、第2表示部12は、ステップS122において生成した第2の画像P12を表示して、処理を終了する(ステップS123)。本実施形態の第2表示部12は、例えば、生成した第1視点画像P12Aと、第2視点画像P12Bと、第3視点画像P12Cとを、それぞれ表示して、処理を終了する。
以上説明したように、本実施形態の表示装置10は、エッジ画像生成部14を備えている。これにより、本実施形態の表示装置10は、画像情報供給装置2からエッジ画像PEの供給を受けることなく、立体像(3次元画像)を表示することができる。
なお、エッジ画像生成部14は、第2表示部12又は画像情報供給装置2に備えられていてもよい。この場合、表示装置10は、エッジ画像生成部14を独立して備えなくてもよいため、表示装置10の構成を簡略化することができる。
なお、本実施形態の表示装置10の第2表示部12は、立体像の奥行き位置を示す位置情報に基づいて、エッジ画像PEを表示してもよい。
この場合において、例えば、エッジ画像生成部14は、画像情報供給装置2から、第1の画像P11を立体像(3次元画像)として表示するZ軸方向の位置(奥行き位置)を示す位置情報が含まれている画像情報を取得する。ここで、位置情報とは、第1の画像P11が観察者1に立体像(3次元画像)として認識されるために画像情報に付加される情報であって、例えば、左眼Lと右眼Rとの視差を設定するための情報である。例えば、第1の画像P11の奥行き位置が第1の画像P11が表示されている位置(Z軸の原点Oの位置)から奥方向(−Z方向)に設定される場合には、Z軸の原点Oの位置の視差に比べて、視差が大きくなるような位置情報が、画像情報に付加されている。
そして、エッジ画像生成部14は、第2の画像P12の画素ごとに、取得した画像情報に含まれている位置情報に応じた明るさ(例えば、輝度)に設定したエッジ画像PEを生成する。
すなわち、本実施形態の第2表示部12は、立体像の奥行き位置を示す位置情報に基づいて、エッジ画像PEを表示する。これにより、本実施形態の表示装置10は、第1表示部11に表示される第1の画像P11の立体像の奥行き位置を設定することができる。つまり、本実施形態の表示装置10は、観察者1に認識される立体像の奥行き位置を可変にすることができる。
この場合において、例えば、エッジ画像生成部14は、画像情報供給装置2から、第1の画像P11を立体像(3次元画像)として表示するZ軸方向の位置(奥行き位置)を示す位置情報が含まれている画像情報を取得する。ここで、位置情報とは、第1の画像P11が観察者1に立体像(3次元画像)として認識されるために画像情報に付加される情報であって、例えば、左眼Lと右眼Rとの視差を設定するための情報である。例えば、第1の画像P11の奥行き位置が第1の画像P11が表示されている位置(Z軸の原点Oの位置)から奥方向(−Z方向)に設定される場合には、Z軸の原点Oの位置の視差に比べて、視差が大きくなるような位置情報が、画像情報に付加されている。
そして、エッジ画像生成部14は、第2の画像P12の画素ごとに、取得した画像情報に含まれている位置情報に応じた明るさ(例えば、輝度)に設定したエッジ画像PEを生成する。
すなわち、本実施形態の第2表示部12は、立体像の奥行き位置を示す位置情報に基づいて、エッジ画像PEを表示する。これにより、本実施形態の表示装置10は、第1表示部11に表示される第1の画像P11の立体像の奥行き位置を設定することができる。つまり、本実施形態の表示装置10は、観察者1に認識される立体像の奥行き位置を可変にすることができる。
また、本実施形態の第2表示部12は、位置情報に応じた明るさに設定されているエッジ画像PEを表示する。これにより、本実施形態の表示装置10は、第2表示部12によって表示される第2の画像P12の明るさ(例えば、輝度)を設定することによって、観察者1に認識される立体像の奥行き位置を可変にすることができる。つまり、本実施形態の表示装置10は、第1の画像P11と第2の画像P12との距離Lpを変化させることなく、観察者1に認識される立体像の奥行き位置を可変に設定することができる。
また、本実施形態の表示装置10の第2表示部12は、第2の画像P12の画素ごとに、位置情報に応じた明るさを設定する。これにより、本実施形態の表示装置10は、観察者1に認識される立体像の奥行き位置を画素ごとに可変にすることができる。つまり、本実施形態の表示装置10は、立体像(3次元画像)を高精度に表示することができる。
なお、本実施形態の表示装置10の第1表示部11は、第2表示部12によって表示される第2の画像P12の明るさに基づいて、第1の画像P11の明るさを設定してもよい。ここで、表示装置10は、第1の画像P11と第2の画像P12とを重ねて表示するため、第1の画像P11と第2の画像P12とを重ねた画像(つまり、光学像IM)が明るくなりすぎることがある。この場合、光学像IMは、エッジ部分が目立って観察者1に視認されることになるため、立体像として認識されにくくなることがある。そこで、第1表示部11は、第2表示部12によって表示される第2の画像P12の明るさに基づいて、第1の画像P11の明るさを設定する。本実施形態の第1表示部11は、例えば、第2の画像P12の明るさを示す値と、第1の画像P11の明るさを示す値との和が、所定のしきい値を超える場合には、第1の画像P11の明るさを減じるように設定する。これにより、本実施形態の表示装置10は、エッジ部分のみが目立つことによる観察者1の違和感を低減することができ、立体像(3次元画像)を高精度に表示することができる。
[第3の実施形態]
以下、図面を参照して、本発明の第3の実施形態を説明する。なお、上述した第1の実施形態及び第2の実施形態と同様である構成及び動作については、説明を省略する。
図11は、本実施形態における表示装置10を含む表示システム100の構成の一例を示す構成図である。
本実施形態の表示システム100は、検出部21と、表示装置10と、上述した画像情報供給装置2とを備えている。
検出部21は、第1の画像P11が視認されている方向を検出する。本実施形態の検出部21は、例えば、観察者1の顔の方向を検出する顔検出センサを備えており、検出した観察者1の顔の方向を示す情報を検出結果として出力する。
本実施形態の表示装置10は、設定部13を備えている。
設定部13は、第1の画像P11が視認されている方向が検出された検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して表示されるように、表示状態を設定する。本実施形態の設定部13は、例えば、検出部21によって検出された検出結果(例えば、観察者1の顔の方向を示す情報)を検出部21から取得する。また、本実施形態の設定部13は、例えば、画像情報供給装置2から取得した画像情報と、検出部21から取得した検出結果とに基づいて、図12に示すように、第1の画像P11とエッジ画像PEとが対応して表示されるように、表示状態を設定する。
以下、図面を参照して、本発明の第3の実施形態を説明する。なお、上述した第1の実施形態及び第2の実施形態と同様である構成及び動作については、説明を省略する。
図11は、本実施形態における表示装置10を含む表示システム100の構成の一例を示す構成図である。
本実施形態の表示システム100は、検出部21と、表示装置10と、上述した画像情報供給装置2とを備えている。
検出部21は、第1の画像P11が視認されている方向を検出する。本実施形態の検出部21は、例えば、観察者1の顔の方向を検出する顔検出センサを備えており、検出した観察者1の顔の方向を示す情報を検出結果として出力する。
本実施形態の表示装置10は、設定部13を備えている。
設定部13は、第1の画像P11が視認されている方向が検出された検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して表示されるように、表示状態を設定する。本実施形態の設定部13は、例えば、検出部21によって検出された検出結果(例えば、観察者1の顔の方向を示す情報)を検出部21から取得する。また、本実施形態の設定部13は、例えば、画像情報供給装置2から取得した画像情報と、検出部21から取得した検出結果とに基づいて、図12に示すように、第1の画像P11とエッジ画像PEとが対応して表示されるように、表示状態を設定する。
図12は、本実施形態における設定部13の設定の一例を示す模式図である。
本実施形態の表示装置10の設定部13は、例えば、検出部21から取得した検出結果(例えば、観察者1の顔の方向を示す情報)に基づいて、第2の画像P12に含まれているエッジ画像PEの位置と、エッジ画像PEの画像変換(例えば、射影変換やアフィン変換)の方法とを設定する。すなわち、表示状態には、第1の画像P11とエッジ画像PEとの相対位置が含まれ、設定部13は、検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して視認されるように、相対位置を設定する。また、表示状態には、エッジ画像PEの画像変換(例えば、射影変換やアフィン変換)が含まれ、設定部13は、検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して視認されるように、エッジ画像PEの画像変換の方法を設定する。本実施形態の設定部13は、エッジ画像PEとしての第1視点画像P12Aと、第2視点画像P12Bと、第3視点画像P12Cとについての画像変換の方法をそれぞれ設定する。以下、エッジ画像PEとしての第1視点画像P12Aについて説明するが、設定部13は、第2視点画像P12B及び第3視点画像P12Cについても同様に画像変換の方法を設定する。
本実施形態の表示装置10の設定部13は、例えば、検出部21から取得した検出結果(例えば、観察者1の顔の方向を示す情報)に基づいて、第2の画像P12に含まれているエッジ画像PEの位置と、エッジ画像PEの画像変換(例えば、射影変換やアフィン変換)の方法とを設定する。すなわち、表示状態には、第1の画像P11とエッジ画像PEとの相対位置が含まれ、設定部13は、検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して視認されるように、相対位置を設定する。また、表示状態には、エッジ画像PEの画像変換(例えば、射影変換やアフィン変換)が含まれ、設定部13は、検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して視認されるように、エッジ画像PEの画像変換の方法を設定する。本実施形態の設定部13は、エッジ画像PEとしての第1視点画像P12Aと、第2視点画像P12Bと、第3視点画像P12Cとについての画像変換の方法をそれぞれ設定する。以下、エッジ画像PEとしての第1視点画像P12Aについて説明するが、設定部13は、第2視点画像P12B及び第3視点画像P12Cについても同様に画像変換の方法を設定する。
例えば、図12に示すように、表示装置10に表示されている第1の画像P11が、図3において示した位置よりも(−X)側から観察者1によって視認されている場合には、設定部13は、第2の画像P12に含まれているエッジ画像PEを、図3において示した位置よりも(+X)側に移動させる。すなわち、設定部13は、エッジ画像PEの位置を、観察者1によって第1の画像P11が視認されている方向に基づいて、第1の画像P11とエッジ画像PEとが対応して表示されるように、表示状態を設定する。
また、例えば、図13A及び図13Bに示すように、設定部13は、第2の画像P12に含まれているエッジ画像PEのうちの、四角形の右辺部分を示すエッジ画像PE1と、四角形の左辺部分を示すエッジ画像PE2との間隔を変更するように画像変換する。
図13Aは、本実施形態における第1の画像P11の一例を示す模式図である。
図13Bは、本実施形態における第2の画像P12の一例を示す模式図である。
例えば、図12に示すように、第1の画像P11がZ軸に対して斜めの方向から観察者1によって視認されている場合、設定部13は、第1の画像P11とエッジ画像PEとが対応して視認されるように画像変換して表示状態を設定する。例えば、設定部13は、図13Bに示すように、第2の画像P12に含まれるエッジ画像PEについて、図13Aの四角形の左辺を示すエッジ画像PE1と、右辺を示すエッジ画像PE2との間隔(つまり、長さLw2)を変更するように画像変換する。ここで、設定部13は、例えば、長さLw2を右方向の長さ第1の画像P11に表示されている四角形の左右(幅)方向の長さLw1よりも長くなるように画像変換する。すなわち、表示状態には、エッジ画像PEの画像変換の方法が含まれ、設定部13は、検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して視認されるように、エッジ画像PEを画像変換して表示状態を設定する。
図13Aは、本実施形態における第1の画像P11の一例を示す模式図である。
図13Bは、本実施形態における第2の画像P12の一例を示す模式図である。
例えば、図12に示すように、第1の画像P11がZ軸に対して斜めの方向から観察者1によって視認されている場合、設定部13は、第1の画像P11とエッジ画像PEとが対応して視認されるように画像変換して表示状態を設定する。例えば、設定部13は、図13Bに示すように、第2の画像P12に含まれるエッジ画像PEについて、図13Aの四角形の左辺を示すエッジ画像PE1と、右辺を示すエッジ画像PE2との間隔(つまり、長さLw2)を変更するように画像変換する。ここで、設定部13は、例えば、長さLw2を右方向の長さ第1の画像P11に表示されている四角形の左右(幅)方向の長さLw1よりも長くなるように画像変換する。すなわち、表示状態には、エッジ画像PEの画像変換の方法が含まれ、設定部13は、検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して視認されるように、エッジ画像PEを画像変換して表示状態を設定する。
次に、図14を参照して本実施形態の表示装置10の動作について説明する。
図14は、本実施形態における表示装置10の動作の一例を示すフローチャートである。以下、エッジ画像PEとしての第1視点画像P12Aについて説明するが、表示装置10の動作は、第2視点画像P12B及び第3視点画像P12Cについても同様である。
まず、表示装置10の設定部13は、画像情報供給装置2から画像情報を取得する(ステップS200)。本実施形態の設定部13は、画像情報供給装置2が生成した画像情報を、通信線を介して画像情報供給装置2から取得する。ここで、第1の実施形態と同様に、本実施形態の画像情報供給装置2は、立体画像(3次元画像)の画像情報を生成する。この画像情報には、第1の画像P11の奥行き位置を示す位置情報が含まれている。
図14は、本実施形態における表示装置10の動作の一例を示すフローチャートである。以下、エッジ画像PEとしての第1視点画像P12Aについて説明するが、表示装置10の動作は、第2視点画像P12B及び第3視点画像P12Cについても同様である。
まず、表示装置10の設定部13は、画像情報供給装置2から画像情報を取得する(ステップS200)。本実施形態の設定部13は、画像情報供給装置2が生成した画像情報を、通信線を介して画像情報供給装置2から取得する。ここで、第1の実施形態と同様に、本実施形態の画像情報供給装置2は、立体画像(3次元画像)の画像情報を生成する。この画像情報には、第1の画像P11の奥行き位置を示す位置情報が含まれている。
次に、表示装置10の設定部13は、検出部21によって検出された第1の画像P11が観察者1によって視認されている方向を示す情報を検出結果として取得する(ステップS210)。本実施形態の設定部13は、例えば、検出部21が備える顔センサによって検出された観察者1の視線の方向を示す情報を検出部21から取得する。
次に、設定部13は、ステップS200において取得した画像情報から、位置情報を抽出する(ステップS220)。本実施形態の設定部13は、画像情報供給装置2から取得した立体画像(3次元画像)の画像情報に含まれている立体像の奥行き位置を示す位置情報を抽出する。
次に、設定部13は、ステップS200において取得した画像情報に基づいて、エッジ部分を示すエッジ画像PEを生成し、ステップS220において抽出した位置情報に応じて、生成したエッジ画像の各画素の明るさを設定する(ステップS230)。
次に、設定部13は、ステップS210において取得した検出結果に基づいて、ステップS230において生成したエッジ画像PEを変換する(ステップS240)。本実施形態の設定部13は、例えば、取得した検出結果が示す観察者1の顔の方向に応じて設定した画像変換に基づいて、エッジ画像PEの表示位置を変換する。つまり、設定部13は、検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して視認されるように、相対位置を設定する。
次に、表示装置10の第1表示部11は、設定部13から画像情報を取得する。そして、第1表示部11は、取得した画像情報に基づいて第1の画像P11を生成し、生成した第1の画像P11を表示して、処理を終了する。また、第2表示部12は、設定部13から画像情報を取得する。そして、第2表示部12は、取得した画像情報に基づいて第2の画像P12を生成し、生成した第2の画像P12を表示して、処理を終了する(ステップS250)。
以上、説明したように、本実施形態の表示装置10は、第1の画像P11が視認されている方向が検出された検出結果に基づいて、第1の画像P11および第2の画像P12の表示状態を設定する設定部13を備えている。これにより、本実施形態の表示装置10は、表示装置10の正面の位置にいる観察者1だけでなく、表示装置10の正面以外の位置にいる観察者1に対しても、立体像(3次元画像)を表示することができる。つまり、本実施形態の表示装置10は、広範囲に立体像(3次元画像)を表示することができる。
また、本実施形態の表示装置10の表示状態には、第1の画像P11と第2の画像P12との相対位置が含まれており、表示装置10の設定部13は、検出結果に基づいて、相対位置を設定する。これにより、本実施形態の表示装置10は、表示装置10の正面以外の位置にいる観察者1に対して、第1の画像P11と、エッジ画像PEとを対応させて表示することができる。つまり、本実施形態の表示装置10は、広範囲に立体像(3次元画像)を表示することができる。さらに、本実施形態の表示装置10は、検出された観察者1の位置が移動した場合には、検出結果に基づいて、移動後の位置にいる観察者1に対して、第1の画像P11と、エッジ画像PEとを対応させて表示することができる。つまり、本実施形態の表示装置10は、移動する観察者1の位置に追従して立体像(3次元画像)を表示することができる。
また、本実施形態の表示装置10の表示状態には、エッジ画像PEの画像変換が含まれ、設定部13は、検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して視認されるように、エッジ画像PEの画像変換の方法を設定する。これにより、本実施形態の表示装置10は、第1の画像P11に対応するエッジ画像PEが、歪んで視認される位置にいる観察者1に対しても、第1の画像P11と、エッジ画像PEとを対応させて表示することができる。つまり、本実施形態の表示装置10は、広範囲に立体像(3次元画像)を表示することができる。
[第4の実施形態]
以下、図面を参照して、本発明の第4の実施形態を説明する。なお、上述した第1の実施形態から第3の実施形態までと同様である構成及び動作については、説明を省略する。また、以下の説明においては、エッジ画像PEとしての第1視点画像P12Aについて説明するが、表示装置10は、第2視点画像P12B及び第3視点画像P12Cについても同様に表示する。
図15は、本実施形態における第2表示部12としての立体表示部12bを備える表示装置10の構成の一例を示す構成図である。
本実施形態の表示装置10は、第2表示部12としての立体表示部12bを備えている。
立体表示部(第2表示部)12bは、入力される画像情報に応じた奥行き位置に立体像を表示する。例えば、本実施形態の立体表示部12bは、第2の画像P12に含まれているエッジ画像PEを観察者1に立体視させる(立体表示する)ことができる。つまり、表示装置10は、立体表示(3次元表示)されたエッジ画像PEを、当該エッジ画像PEに対応している第1表示部11によって表示されている第1の画像P11内のエッジ部分と対応して視認されるように表示することができる。これにより、本実施形態の表示装置10は、エッジ画像PEを、例えば、図3のX軸方向だけでなく、Z軸方向にも移動させて表示することができる。つまり、本実施形態の表示装置10は、観察者1に認識される立体像の奥行き位置を広範囲に設定することができる。
以下、図面を参照して、本発明の第4の実施形態を説明する。なお、上述した第1の実施形態から第3の実施形態までと同様である構成及び動作については、説明を省略する。また、以下の説明においては、エッジ画像PEとしての第1視点画像P12Aについて説明するが、表示装置10は、第2視点画像P12B及び第3視点画像P12Cについても同様に表示する。
図15は、本実施形態における第2表示部12としての立体表示部12bを備える表示装置10の構成の一例を示す構成図である。
本実施形態の表示装置10は、第2表示部12としての立体表示部12bを備えている。
立体表示部(第2表示部)12bは、入力される画像情報に応じた奥行き位置に立体像を表示する。例えば、本実施形態の立体表示部12bは、第2の画像P12に含まれているエッジ画像PEを観察者1に立体視させる(立体表示する)ことができる。つまり、表示装置10は、立体表示(3次元表示)されたエッジ画像PEを、当該エッジ画像PEに対応している第1表示部11によって表示されている第1の画像P11内のエッジ部分と対応して視認されるように表示することができる。これにより、本実施形態の表示装置10は、エッジ画像PEを、例えば、図3のX軸方向だけでなく、Z軸方向にも移動させて表示することができる。つまり、本実施形態の表示装置10は、観察者1に認識される立体像の奥行き位置を広範囲に設定することができる。
なお、本実施形態における表示装置10は、第1表示部11としての立体表示部11bを備えていてもよい。
立体表示部(第1表示部)11bは、入力される画像情報に応じた奥行き位置に立体像を表示する。例えば、本実施形態の立体表示部11bは、第1の画像P11を立体表示することができる。つまり、表示装置10は、立体表示(3次元表示)されたに第1の画像P11内のエッジ部分と、当該エッジ部分に対応しているエッジ画像PEとが、対応して視認されるように表示することができる。これにより、本実施形態の表示装置10は、第1の画像P11を、例えば、図3のX軸方向だけでなく、Z軸方向にも移動させて表示することができる。つまり、本実施形態の表示装置10は、観察者1に認識される立体像の奥行き位置を広範囲に設定することができる。
立体表示部(第1表示部)11bは、入力される画像情報に応じた奥行き位置に立体像を表示する。例えば、本実施形態の立体表示部11bは、第1の画像P11を立体表示することができる。つまり、表示装置10は、立体表示(3次元表示)されたに第1の画像P11内のエッジ部分と、当該エッジ部分に対応しているエッジ画像PEとが、対応して視認されるように表示することができる。これにより、本実施形態の表示装置10は、第1の画像P11を、例えば、図3のX軸方向だけでなく、Z軸方向にも移動させて表示することができる。つまり、本実施形態の表示装置10は、観察者1に認識される立体像の奥行き位置を広範囲に設定することができる。
なお、本実施形態における表示装置10は、第1表示部11としての立体表示部11bと、第2表示部12としての立体表示部12bとを備えていてもよい。
上述したように、これにより、本実施形態の表示装置10は、第1の画像P11を、例えば、Z軸方向にも移動させて表示することができるとともに、エッジ画像PEを、例えば、Z軸方向にも移動させて表示することができる。つまり、本実施形態の表示装置10は、観察者1に認識される立体像の奥行き位置を広範囲に設定することができる。
上述したように、これにより、本実施形態の表示装置10は、第1の画像P11を、例えば、Z軸方向にも移動させて表示することができるとともに、エッジ画像PEを、例えば、Z軸方向にも移動させて表示することができる。つまり、本実施形態の表示装置10は、観察者1に認識される立体像の奥行き位置を広範囲に設定することができる。
なお、上述した実施形態において、第2の画像P12は、例えば、図2Bに示すような画像であるが、これに限られない。
例えば、図16に示すように、第2の画像P12は、第1の画像P11の左右のエッジ部分に加えて上下のエッジ部分を示すエッジ画像PEa含む第2の画像P12aであってもよい。
図16は、第1の画像P11の左右及び上下のエッジ部分を含む第2の画像P12aの一例を示す模式図である。例えば、第2の画像P12aは、第1の画像P11が示す四角形の各辺をエッジ部分とする、エッジ部分を示す画像であってもよい。
また、図17に示すように第2の画像P12は、エッジ部分を例えば、破線状に示すエッジ画像PEb含む画像(第2の画像P12b)であってもよい。
図17は、破線状にエッジ部分を示す第2の画像P12bの一例を示す模式図である。
また、図18に示すように第2の画像P12は、エッジ部分を例えば、主観的輪郭状に示すエッジ画像PEc含む画像(第2の画像P12c)であってもよい。ここで、主観的輪郭とは、例えば、輪郭線が存在しないにもかかわらず、輪郭線が存在するように観察者1に認識される輪郭である。
図18は、主観的輪郭状にエッジ部分を示す第2の画像P12cの一例を示す模式図である。
これにより、表示装置10の第2表示部12は、エッジ部分を示す画像のすべてを表示する必要がなくなり、すべてのエッジ部分を示す画像を表示している場合に比べて消費電力を低減することができる。
また、図19に示すように第2の画像P12は、エッジ部分の内部を所定の明るさ(例えば、輝度)にして表示されるものであってもよい。
図19は、エッジ部分の内部を所定の明るさにした第2の画像P12dの一例を示す模式図である。
これにより、表示装置10は、第1の画像P11を変化させることなく、第1の画像P11の明るさを明るくすることができる。
例えば、図16に示すように、第2の画像P12は、第1の画像P11の左右のエッジ部分に加えて上下のエッジ部分を示すエッジ画像PEa含む第2の画像P12aであってもよい。
図16は、第1の画像P11の左右及び上下のエッジ部分を含む第2の画像P12aの一例を示す模式図である。例えば、第2の画像P12aは、第1の画像P11が示す四角形の各辺をエッジ部分とする、エッジ部分を示す画像であってもよい。
また、図17に示すように第2の画像P12は、エッジ部分を例えば、破線状に示すエッジ画像PEb含む画像(第2の画像P12b)であってもよい。
図17は、破線状にエッジ部分を示す第2の画像P12bの一例を示す模式図である。
また、図18に示すように第2の画像P12は、エッジ部分を例えば、主観的輪郭状に示すエッジ画像PEc含む画像(第2の画像P12c)であってもよい。ここで、主観的輪郭とは、例えば、輪郭線が存在しないにもかかわらず、輪郭線が存在するように観察者1に認識される輪郭である。
図18は、主観的輪郭状にエッジ部分を示す第2の画像P12cの一例を示す模式図である。
これにより、表示装置10の第2表示部12は、エッジ部分を示す画像のすべてを表示する必要がなくなり、すべてのエッジ部分を示す画像を表示している場合に比べて消費電力を低減することができる。
また、図19に示すように第2の画像P12は、エッジ部分の内部を所定の明るさ(例えば、輝度)にして表示されるものであってもよい。
図19は、エッジ部分の内部を所定の明るさにした第2の画像P12dの一例を示す模式図である。
これにより、表示装置10は、第1の画像P11を変化させることなく、第1の画像P11の明るさを明るくすることができる。
なお、上述した実施形態において、表示装置10において第1表示部11は、第2表示部12と平行に配置されているが、これに限られない。例えば、図20に示すように、表示装置10は、第1表示部11が表示する第1の画像P11が観察者1に視認されるように、第1の画像P11を反射するハーフミラーHMを備えていてもよい。
図20は、ハーフミラーHMを備えている表示装置10の構成の一例を示す図である。
これにより、第1表示部11が光を透過させる透過度によらず、第2表示部12が表示する第2の画像P12と、第1の画像P11とを重ねた状態にして観察者1に視認させることができる。
図20は、ハーフミラーHMを備えている表示装置10の構成の一例を示す図である。
これにより、第1表示部11が光を透過させる透過度によらず、第2表示部12が表示する第2の画像P12と、第1の画像P11とを重ねた状態にして観察者1に視認させることができる。
なお、例えば、図21に示すように、表示装置10は、第1表示部11が透過型表示部11aであり、第2表示部12が透過型表示部12aであって、バックライト15を備えている構成であってもよい。
図21は、バックライト15を備える表示装置10の構成の一例を示す構成図である。
これにより、表示装置10は、第1表示部(透過型表示部)11aと、第2表示部(透過型表示部)12aとの特性を揃えることができ、観察者1に視認される画像(第1の画像P11及び第2の画像P12)の明るさを揃えることが容易になる。つまり、観察者1に認識される立体画像(3次元画像)の奥行き位置をさらに高精度に設定することができる。
図21は、バックライト15を備える表示装置10の構成の一例を示す構成図である。
これにより、表示装置10は、第1表示部(透過型表示部)11aと、第2表示部(透過型表示部)12aとの特性を揃えることができ、観察者1に視認される画像(第1の画像P11及び第2の画像P12)の明るさを揃えることが容易になる。つまり、観察者1に認識される立体画像(3次元画像)の奥行き位置をさらに高精度に設定することができる。
なお、例えば、図22に示すように、表示装置10の第1表示部11は、第1半透過スクリーン11cと、第1プロジェクタ11dとを備えており、第1半透過スクリーン11cに第1プロジェクタ11dが第1の画像P11を投射する構成であってもよい。
図22は、半透過スクリーン11cを備える表示装置10の構成の一例を示す構成図である。
これにより、表示装置10は、第1の画像P11の表示領域(表示面)としての第1半透過スクリーン11cを、例えば、液晶表示装置などを用いる場合に比べて薄くすることができる。
図22は、半透過スクリーン11cを備える表示装置10の構成の一例を示す構成図である。
これにより、表示装置10は、第1の画像P11の表示領域(表示面)としての第1半透過スクリーン11cを、例えば、液晶表示装置などを用いる場合に比べて薄くすることができる。
なお、例えば、図23に示すように、表示装置10の第1表示部11は、第1半透過スクリーン11cと、第1プロジェクタ11dとを備えており、第2表示部12は、第2半透過スクリーン12cと、第2プロジェクタ12dとを備えている構成であってもよい。この場合に、第1プロジェクタ11dが第1半透過スクリーン11cに第1の画像P11を投射するとともに、第2プロジェクタ12dが第2半透過スクリーン12cに第2の画像P12を投射する構成であってもよい。
図23は、第1半透過スクリーン11c及び第2半透過スクリーン12cを備える表示装置10の構成の一例を示す構成図である。
これにより、表示装置10は、例えば、表示領域を大型化することができる。また、表示装置10は、例えば、表面と裏面との2面に立体画像(3次元画像)を表示することができる。
図23は、第1半透過スクリーン11c及び第2半透過スクリーン12cを備える表示装置10の構成の一例を示す構成図である。
これにより、表示装置10は、例えば、表示領域を大型化することができる。また、表示装置10は、例えば、表面と裏面との2面に立体画像(3次元画像)を表示することができる。
以上、本発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。
なお、上記の実施形態における第1表示部11、第2表示部12、及び設定部13(以下、これらを総称して制御部CONTと記載する)又はこの制御部CONTが備える各部は、専用のハードウェアにより実現されるものであってもよく、また、メモリおよびマイクロプロセッサにより実現させるものであってもよい。
なお、この制御部CONTが備える各部は、メモリおよびCPU(中央演算装置)により構成され、制御部CONTが備える各部の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。
また、制御部CONTが備える各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、制御部CONTが備える各部による処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
1…観察者、10…表示装置、11…第1表示部、11a…第1表示部(透過型表示部)、12…第2表示部、13…設定部
Claims (12)
- 第1の画像を表示する第1表示部と、
前記第1の画像が表示される奥行き位置とは異なる奥行き位置に、前記第1の画像と対応する第2の画像を表示する第2表示部と、
を備え、
前記第1表示部または前記第2表示部のうちのいずれか一方は、多視点画像を表示可能である
ことを特徴とする表示装置。 - 前記第1表示部によって表示されている前記第1の画像内のエッジ部分と、前記第1の画像内のエッジ部分を示すエッジ画像とが、対応して視認されるように前記第1の画像および前記第2の画像が表示される
ことを特徴とする請求項1に記載の表示装置。 - 前記第2表示部は、
多視点画像を表示可能である
ことを特徴とする請求項1または請求項2に記載の表示装置。 - 前記第1表示部は、
前記第2表示部に表示される画像に応じた光を透過可能な透過型表示部である
ことを特徴とする請求項1から請求項3のいずれか一項に記載の表示装置。 - 前記第2表示部は、
立体像の奥行き位置を示す位置情報に基づいて、前記第2の画像を表示する
ことを特徴とする請求項1から請求項4のいずれか一項に記載の表示装置。 - 前記第2表示部は、
前記位置情報に応じた明るさに設定されている前記第2の画像を表示する
ことを特徴とする請求項5に記載の表示装置。 - 前記第1の画像が視認されている方向が検出された検出結果に基づいて、前記第1の画像と前記第2の画像とが対応して表示されるように、前記第1表示部および前記第2表示部の表示状態を設定する設定部を備える
ことを特徴とする請求項1から請求項6のいずれか一項に記載の表示装置。 - 前記表示状態を設定することには、前記第1の画像と前記第2の画像との間の相対位置を設定することが含まれ、
前記設定部は、
前記検出結果に基づいて、前記第1の画像と前記第2の画像とが対応して視認されるように、前記相対位置を設定する
ことを特徴とする請求項7に記載の表示装置。 - 前記表示状態を設定することには、前記第2の画像の画像変換の方法を設定することが含まれ、
前記設定部は、
前記検出結果に基づいて、前記第1の画像と前記第2の画像とが対応して視認されるように、前記第2の画像の前記画像変換の方法を設定する
ことを特徴とする請求項7または請求項8に記載の表示装置。 - 前記第1表示部は、
立体視が可能となるように前記第1の画像を表示する
ことを特徴とする請求項1から請求項9のいずれか一項に記載の表示装置。 - 前記第2表示部は、
立体視が可能となるように前記第2の画像を表示する
ことを特徴とする請求項1から請求項10のいずれか一項に記載の表示装置。 - 前記第1表示部は、
前記第2表示部によって表示される前記第2の画像の明るさに基づいて、前記第1の画像の明るさを設定する
ことを特徴とする請求項1から請求項11のいずれか一項に記載の表示装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2012/082567 WO2013089249A1 (ja) | 2011-12-15 | 2012-12-14 | 表示装置、表示制御装置、表示制御プログラム、およびプログラム |
JP2012272935A JP2013153421A (ja) | 2011-12-28 | 2012-12-14 | 表示装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011287349 | 2011-12-28 | ||
JP2011287349 | 2011-12-28 | ||
JP2012272935A JP2013153421A (ja) | 2011-12-28 | 2012-12-14 | 表示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013153421A true JP2013153421A (ja) | 2013-08-08 |
Family
ID=49049406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012272935A Pending JP2013153421A (ja) | 2011-12-15 | 2012-12-14 | 表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013153421A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022514069A (ja) * | 2018-12-20 | 2022-02-09 | レイア、インコーポレイテッド | シフト可能な収束面を有するマルチビューディスプレイ、システム、及び方法 |
-
2012
- 2012-12-14 JP JP2012272935A patent/JP2013153421A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022514069A (ja) * | 2018-12-20 | 2022-02-09 | レイア、インコーポレイテッド | シフト可能な収束面を有するマルチビューディスプレイ、システム、及び方法 |
US11418775B2 (en) | 2018-12-20 | 2022-08-16 | Leia Inc. | Multiview display, system, and method having shiftable convergence plane |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8976323B2 (en) | Switching dual layer display with independent layer content and a dynamic mask | |
JP6443654B2 (ja) | 立体画像表示装置、端末装置、立体画像表示方法、及びそのプログラム | |
US9848184B2 (en) | Stereoscopic display system using light field type data | |
JP3966830B2 (ja) | 立体表示装置 | |
CN103392342B (zh) | 视区调整的方法和装置、能实现立体显示视频信号的设备 | |
JPH05122733A (ja) | 3次元画像表示装置 | |
US20090033741A1 (en) | 2d-3d convertible display device and method having a background of full-parallax integral images | |
US9723297B2 (en) | 3D display device | |
JP2002092656A (ja) | 立体画像表示装置及び画像データの表示方法 | |
TW200900736A (en) | Hybrid multiplexed 3D display and a displaying method thereof | |
JPWO2012176445A1 (ja) | 映像表示装置 | |
JP2013065951A (ja) | 表示装置、表示方法、及びプログラム | |
US20170230647A1 (en) | Multiview image display device and control method therefor | |
CN111095348A (zh) | 基于摄像头的透明显示器 | |
CN106559662B (zh) | 多视图图像显示设备及其控制方法 | |
JP2007199295A (ja) | 表示装置 | |
JP2011197675A (ja) | 投影システム | |
Minami et al. | Portrait and landscape mode convertible stereoscopic display using parallax barrier | |
JP2013168781A (ja) | 表示装置 | |
JP2013153421A (ja) | 表示装置 | |
US20140354785A1 (en) | Method of providing a correct 3d image for a viewer at different watching angles of the viewer | |
JP2006215256A (ja) | 3次元表示装置 | |
KR20130031492A (ko) | 입체영상 필터 합착 장치, 입체영상 디스플레이 장치의 제조 방법 및 입체영상 디스플레이 장치 | |
TWI533663B (zh) | 立體影像處理裝置及立體影像處理方法 | |
JP2013145373A (ja) | 表示装置、表示制御装置、および表示制御プログラム |