JP2014197776A - 表示装置及びプログラム - Google Patents

表示装置及びプログラム Download PDF

Info

Publication number
JP2014197776A
JP2014197776A JP2013072374A JP2013072374A JP2014197776A JP 2014197776 A JP2014197776 A JP 2014197776A JP 2013072374 A JP2013072374 A JP 2013072374A JP 2013072374 A JP2013072374 A JP 2013072374A JP 2014197776 A JP2014197776 A JP 2014197776A
Authority
JP
Japan
Prior art keywords
display
image
stereoscopic
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013072374A
Other languages
English (en)
Inventor
正樹 大槻
Masaki Otsuki
正樹 大槻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013072374A priority Critical patent/JP2014197776A/ja
Publication of JP2014197776A publication Critical patent/JP2014197776A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】複数のユーザ間において立体感を共有する。
【解決手段】表示装置は、表示対象の光による像を透過し、表示対象に立体感を付与する表示対象に対応する画像を表示する表示部と、自表示装置とは異なる装置によって記憶部へ記憶される、表示対象に立体感を付与する表示対象に対応する画像を生成するための立体表示情報を記憶部から取得する取得部と、取得部が取得した立体表示情報に基づいて、表示対象に立体感を付与する表示対象に対応する画像を生成する画像生成部とを備える。
【選択図】図3

Description

本発明は、表示装置及びプログラムに関する。
近年、3次元画像の奥行き位置に応じて輝度比を付けた二つの画像を、奥行き位置の異なる手前の表示面と奥の表示面とに表示して両眼視差を生じさせることにより、ユーザに立体感を知覚させる表示方法が知られている(例えば、特許文献1を参照)。
特許第3464633号公報
しかしながら、上記のような表示方法によっては、複数のユーザ間において立体感を共有することまではできないという問題があった。
本発明は、上記問題を解決すべくなされたもので、その目的は、複数のユーザ間において立体感を共有することができる表示装置を提供することにある。
本発明の一実施形態は、表示対象の光による像を透過し、前記表示対象に立体感を付与する前記表示対象に対応する画像を表示する表示部と、自表示装置とは異なる装置によって記憶部へ記憶される、前記表示対象に立体感を付与する前記表示対象に対応する画像を生成するための立体表示情報を前記記憶部から取得する取得部と、前記取得部が取得した前記立体表示情報に基づいて、前記表示対象に立体感を付与する前記表示対象に対応する画像を生成する画像生成部とを備えることを特徴とする表示装置である。
また、本発明の一実施形態は、表示対象の光による像を透過し、前記表示対象に立体感を付与する前記表示対象に対応する画像を表示する表示部と、画像を撮像する撮像部と、前記撮像部が前記表示対象を撮像した複数の画像に基づいて、前記表示対象に立体感を付与する前記表示対象に対応する画像を生成するための立体表示情報を生成する情報生成部と、前記生成された前記立体表示情報に基づいて、前記表示対象に立体感を付与する前記表示対象に対応する画像を生成する画像生成部とを備えることを特徴とする表示装置である。
また、本発明の一実施形態は、入射する光を透過可能である表示部を備える表示装置のコンピュータに、前記表示対象に立体感を付与する前記表示対象に対応する画像を表示する表示ステップと、自表示装置とは異なる装置によって記憶部へ記憶され、前記表示対象に立体感を付与する前記表示対象に対応する画像を生成するための立体表示情報を前記記憶部から取得する取得ステップと、前記取得ステップにおいて取得された前記立体表示情報に基づいて、前記表示対象に立体感を付与する前記表示対象に対応する画像を生成する画像生成ステップとを実行させるためのプログラムである。
この発明によれば、複数のユーザ間において立体感を共有することができる。
本発明の第1の実施形態における表示装置の使用態様の一例を示す概要図である。 本実施形態の表示対象と虚像との一例を示す模式図である。 本実施形態の表示システムの構成の一例を示す構成図である。 本実施形態の表示装置の外観の一例を示す斜視図である。 本実施形態の表示装置が虚像を表示する構成の概要の一例を示す模式図である。 本実施形態の表示対象の一例を示す模式図である。 本実施形態の虚像の一例を示す模式図である。 本実施形態における表示対象と虚像と視点位置との位置の関係の一例を示す模式図である。 本実施形態における観察者の眼に見える光学像の一例を示す模式図である。 本実施形態の視点位置における光学像の明るさの一例を示すグラフである。 本実施形態における観察者が光学像に基づいて認識する表示対象の輪郭部の一例を示すグラフである。 本実施形態の表示装置の動作の一例を示すフローチャートである。 本発明の第2の実施形態における表示システムの構成の一例を示す概要図である。
[第1の実施形態]
以下、図面を参照して、本発明の第1の実施形態を説明する。
図1は、本発明の第1の実施形態における表示装置10の使用態様の一例を示す概要図である。本実施形態の表示装置10とは、例えば、ユーザ(以下の説明において、観察者Uともいう。)の頭部に装着されるヘッドマウントディスプレイHMDである。以下の説明においては、表示装置10が、ヘッドマウントディスプレイHMDである例について説明する。ここでは、一例として、3名の観察者がそれぞれヘッドマウントディスプレイHMDを装着して表示対象OBJを見ている場合について説明する。すなわち、観察者U1は、ヘッドマウントディスプレイHMD−1を装着して表示対象OBJを見ている。また、観察者U2は、ヘッドマウントディスプレイHMD−2を装着して表示対象OBJを見ている。観察者U3は、ヘッドマウントディスプレイHMD−3を装着して表示対象OBJを見ている。また、本実施形態の例において、表示対象OBJとは、ロボットの頭部などの球状の物体である。このロボットの頭部には、鼻NSが付いている。以下、表示対象OBJが、鼻NSが付いているロボットの頭部である場合について説明する。
以下、各図の説明においてはXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。表示装置10−2が画像を表示している方向をZ軸の正の方向とし、当該Z軸方向に垂直な平面上の直交方向をそれぞれX軸方向及びY軸方向とする。ここでX軸方向は、表示装置10−2の水平方向とし、Y軸方向は表示装置10−2の鉛直上方向とする。
表示装置10は、表示部102に画像を表示する。この表示部102に表示される画像とは、視点位置VPから観察者Uが見た場合に、表示部102の位置から奥行き方向に離れた位置に虚像VIを生じさせる画像である。ここで、虚像VIとは、表示対象OBJに対応する画像であり、表示対象OBJと重ねて表示されることにより、表示対象OBJに立体感を付与する画像である。また、視点位置VPとは、観察者Uの眼の位置である。また、奥行き方向とは、観察者Uの視点位置VPから表示対象OBJの中心OOに向かう方向である。
すなわち、表示装置10は、表示対象OBJに対応する虚像VIを、表示部102の位置から奥行き方向に離れた位置に表示する。具体的には、表示装置10−1は、視点位置VP1から見た表示対象OBJに対応する虚像VI1を、表示部102−1の位置から奥行き方向に離れた位置に表示する。また、表示装置10−2は、視点位置VP2から見た表示対象OBJに対応する虚像VI2を、表示部102−2の位置から奥行き方向に離れた位置に表示する。また、表示装置10−3は、視点位置VP3から見た表示対象OBJに対応する虚像VI3を、表示部102−3の位置から奥行き方向に離れた位置に表示する。次に、この表示装置10が虚像VIを表示する使用態様の具体例について、図2を参照して説明する。
図2は、本実施形態の表示対象OBJと虚像VIとの一例を示す模式図である。この例において、虚像VIとは、ロボットの鼻NSの部分を示す立体画像である。また、この例において、虚像VI1とは、観察者U1が視点位置VP1から見たロボットの鼻NSを示す立体画像である。また、虚像VI2とは、観察者U2が視点位置VP2から見たロボットの鼻NSを示す立体画像である。
この表示装置10は、複数の観察者Uにおいて表示対象OBJの立体感を共有することができる。ここでは観察者U1と観察者U2とが立体感を共有する場合の具体例について、図2(1A)〜(3A)を参照して説明する。図2(1A)に示すように、表示装置10−1は、観察者U1に対して虚像VI1を表示する。これにより、観察者U1は、表示対象OBJとしてのロボットの鼻NSと、虚像VI1によるロボットの鼻NSを示す立体画像とが重なった像を、表示装置10−1の表示部102−1を介して見ることができる。また、図2(2A)に示すように、表示装置10−2は、観察者U2に対して虚像VI2を表示する。これにより、観察者U2は、表示対象OBJとしてのロボットの鼻NSと、虚像VI2によるロボットの鼻NSを示す立体画像とが重なった像を、表示装置10−2の表示部102−2を介して見ることができる。また、図2(3A)に示すように、表示装置10−3は、観察者U3に対しては虚像VIを表示しない。これにより、観察者U3は、鼻NSが付いているロボットの頭部の像を、表示装置10−3の表示部102−3を介して見ることができる。
ここで、観察者Uは、表示対象OBJとしてのロボットの鼻NSと、虚像VIによるロボットの鼻NSを示す立体画像とが重なった像を観察すると、ロボットの鼻NSの立体感が変化したように感じることがある。例えば、虚像VIが示すロボットの鼻の立体画像が、表示対象OBJのロボットに付されている鼻NSよりも高い鼻の立体画像である場合には、虚像VIを見た観察者Uは、ロボットの鼻NSが高くなったように感じる。すなわち、表示装置10は、ロボットの鼻NSに重ねるように、ロボットの鼻NSを示す立体画像を表示することにより、視点位置VPから観察する観察者Uがロボットの鼻NSを見て感じる立体感を変化させることができる。この虚像VIによって立体感が変化する仕組みについては後述する。なお、後述するように立体感を付与する画像とは、ロボットの鼻NSの輪郭画像である。また、立体感を付与する画像とは、輪郭画像に限られず、輪郭部の内部にも画像が表示されている画像であってもよい。例えば、立体感を付与する画像とは、輪郭部の内部にロボットの鼻NSの画像が表示された画像であってもよい。
このように表示装置10がロボットの鼻NSを示す虚像VIを表示することにより、表示対象OBJの一部であるロボットの鼻NSの立体感が変化した像を、観察者U1と観察者U2とのいずれもが観察することができる。この例においては、観察者U1と観察者U2とが立体感を共有することができる。すなわち、表示装置10によれば、複数の観察者Uが立体感を共有することできる。なお、この例においては、観察者U3は、観察者U1と観察者U2とのいずれとも立体感を共有していない。このように、表示装置10によれば、複数の観察者Uのうち、一部の観察者Uの間において立体感を共有し、他の観察者Uとの間においては立体感を共有しないとすることもできる。
次に、観察者U1と観察者U2とが共有する立体感を、観察者U3がさらに共有する場合の具体例について、図2(1B)〜(3B)を参照して説明する。図2(1B)〜(2B)に示すように、表示装置10−1は、観察者U1に対して虚像VI1を表示し、表示装置10−2は、観察者U2に対して虚像VI2を表示する。図2(3B)に示すように、表示装置10−3は、観察者U3に対して虚像VI3を表示する。ここで、虚像VI3とは、視点位置VP3からみたロボットの鼻NSを示す立体画像である。観察者U3は、表示対象OBJとしてのロボットの鼻NSと、虚像VI3によるロボットの鼻NSを示す立体画像とが重なった像を、表示装置10−3の表示部102−3を介して見ることができる。すなわち、表示対象OBJの一部であるロボットの鼻NSの立体感が変化した像を、観察者U1〜U3のいずれもが観察することができる。このように表示装置10がロボットの鼻NSを示す虚像VIを表示することにより、表示対象OBJの一部であるロボットの鼻NSの立体感が変化した像を、観察者U1、観察者U2および観察者U3のいずれもが観察することができる。このように、表示装置10によれば、複数の観察者Uの間において共有している立体感を、さらに他の観察者Uが共有することもできる。次に、複数の観察者Uの間において立体感を共有する表示装置10の具体的な構成について、図3を参照して説明する。
図3は、本実施形態の表示システム1の構成の一例を示す構成図である。表示システム1は、表示装置10(ヘッドマウントディスプレイHMD)と、記憶部20とを備えている。このうち、ヘッドマウントディスプレイHMDの構成の一例について、図4を参照して説明する。
図4は、本実施形態の表示装置10(ヘッドマウントディスプレイHMD)の外観の一例を示す斜視図である。表示装置10(ヘッドマウントディスプレイHMD)は、撮像部101と、表示部102と、制御部110とを備えている。
撮像部101は、カメラなどの撮像デバイスを備えており、ヘッドマウントディスプレイHMDの視線方向の画像を撮像する。このヘッドマウントディスプレイHMDの視線方向に表示対象OBJがある場合には、撮像部101は、表示対象OBJの画像を含む画像を撮像する。
表示部102は、例えば、透過型の液晶ディスプレイであり、観察者Uの左眼Lに左眼用画像PLを表示する左眼表示部102Lと、観察者Uの右眼Rに右眼用画像PRを表示する右眼表示部102Rとを備えている。表示部102は、左眼表示部102Lと右眼表示部102Rとにより両眼視差を有する画像を虚像VIとして表示する。この虚像VIと表示対象OBJとを観察者Uが重ねて見た場合、表示対象OBJの表面にこの虚像VIによる立体的な形状が認識される。すなわち、表示部102は、入射する光を透過可能であり、透過した表示対象の光による像に対応する画像であって当該表示対象に立体感を付与する画像を表示する。この表示部102が虚像VIを表示する仕組みについては、図5を参照して後述する。
図3に戻り、制御部110は、CPU(Central Processing Unit)などの演算デバイスを備えており、情報処理を行う。具体的には、制御部110は、情報生成部103と、書込部104と、取得部105と、画像生成部106とを備える。
情報生成部103は、撮像部101が表示対象OBJを撮像した複数の画像に基づいて、表示対象OBJの立体表示情報を生成する。この表示対象OBJの立体表示情報とは、虚像VIを表示するための情報である。すなわち、立体表示情報とは、表示対象に立体感を付与する画像を生成するための情報である。ここでは、一例として、観察者Uが視点位置VP1〜視点位置VP3を移動しながら表示対象OBJを観察する場合について説明する。撮像部101は、複数の視点位置VPにおいて表示対象OBJの画像を撮像する。情報生成部103は、既知の三角測量による座標算出方法によって、撮像部101が複数の視点位置VPにおいて撮像した画像に含まれる表示対象OBJの画像に基づいて、表示対象OBJの表面の3次元形状を検出する。具体的には、情報生成部103は、撮像部101が撮像した視点位置VPの座標と、この視点位置VPにおいて撮像部101が撮像した表示対象OBJの画像とに基づいて、表示対象OBJの表面の各部の座標を算出する。また、情報生成部103は、算出した表示対象OBJの表面の各部の座標に基づいて、立体表示情報を生成する。
より具体的な一例として、上述したロボットの鼻NSの画像を、ヘッドマウントディスプレイHMD−1の撮像部101が撮像した場合について説明する。情報生成部103は、撮像部101が視点位置VP1〜視点位置VP3においてそれぞれ撮像したロボットの鼻NSの画像に基づいて、ロボットの鼻NSの表面の各部の座標を算出する。また、情報生成部103は、算出したロボットの鼻NSの表面の各部の座標に基づいて、ロボットの鼻NSの形状を示す立体表示情報を生成する。
書込部104(記憶制御部)は、情報生成部103が生成した立体表示情報を記憶部20に書き込む。ここで、記憶部20とは、例えば、クラウドサーバやネットワークストレージシステムなどの記憶装置であって、ヘッドマウントディスプレイHMDが表示する虚像VIを表示するための立体表示情報を記憶する。各ヘッドマウントディスプレイHMDからは、この記憶部20に対する情報の書き込みおよび読み出し等の記憶の制御が可能である。
なお、記憶部20は、各ヘッドマウントディスプレイHMDから情報の書き込みおよび読み出しが可能であればよく、例えば、ヘッドマウントディスプレイHMDに内蔵されている記憶装置であってもよい。
取得部105は、記憶部20から、立体表示情報を取得する。上述したように、記憶部20に対する情報の書き込みおよび読み出しは、各ヘッドマウントディスプレイHMDから可能である。したがって、各ヘッドマウントディスプレイHMDの取得部105は、他のヘッドマウントディスプレイHMDの書込部104が記憶部20に書き込んだ立体表示情報を読み出すことができる。例えば、ヘッドマウントディスプレイHMD−2の取得部105は、他のヘッドマウントディスプレイHMD(例えば、ヘッドマウントディスプレイHMD−1)の書込部104が記憶部20に書き込んだ立体表示情報を読み出すことができる。すなわち、取得部105は、自表示装置10以外の装置によって記憶された情報であって、表示対象に立体感を付与する画像を生成するための立体表示情報を記憶する記憶部20から、立体表示情報を取得する。
画像生成部106は、取得部105が取得した立体表示情報に基づいて、虚像VIを生成する。具体的には、画像生成部106は、取得部105が取得した立体表示情報から、表示対象OBJの表面の各部の座標を抽出し、抽出した座標に基づいて、虚像VIとして表示する画像の奥行き位置を算出する。また、画像生成部106は、算出した奥行き位置に基づいて、ヘッドマウントディスプレイHMDに表示する左眼用画像PLおよび右眼用画像PRの視差量を算出し、算出した視差量に基づいて、左眼用画像PLおよび右眼用画像PRを生成する。この左眼用画像PLおよび右眼用画像PRを観察者Uが見た場合、立体的な虚像VIが認識される。さらにこの虚像VIと表示対象OBJとを観察者Uが重ねて見た場合、表示対象OBJの表面にこの虚像VIによる立体的な形状が認識される。すなわち、画像生成部106は、取得部105が取得した立体表示情報に基づいて、表示対象に立体感を付与する画像を生成する。なお、この立体感を付与する画像とは、上述の視差を有する画像に限られない。例えば、立体感を付与する画像とは、視差を有さない2次元表示の画像であってもよい。
次に、図5を参照して、この表示装置10が表示対象OBJを示す虚像VIを表示する構成の概要について説明する。
図5は、本実施形態の表示装置10が虚像VIを表示する構成の概要の一例を示す模式図である。表示装置10は、接眼光学系OPとしての液晶パネルLPと、レンズ群LSと、ハーフミラーHMとを備えている。このハーフミラーHMとは、表示部102が備える表示面102Sの一例である。液晶パネルLPが表示対象OBJを示す画像の光を発すると、この表示対象OBJを示す画像の光は、レンズ群LSを介してハーフミラーHMに照射される。このとき、視点位置VPから、ハーフミラーHMに照射される光を観察すると、ハーフミラーHMを介して(−Z)方向、つまり奥行き方向に虚像VIが生じる。このようにして表示装置10は、表示対象OBJを示す虚像VIを表示する。
また、表示装置10は、接眼光学系OPを制御することにより、虚像VIが表示される奥行き方向の位置を変化させることができる。具体的には、表示装置10は、液晶パネルLPのY方向の位置を位置Y0〜Y2に設定する。これにより、虚像VIの奥行き方向の位置は、位置Zv0〜Zv2に変化する。このようにして、表示装置10は、虚像VIが表示される奥行き方向の位置を可変にする。
ここで、表示装置10は、表示対象OBJと、その表示対象OBJを示す虚像VIとを重ねて表示する。これにより、観察者Uが観察する表示対象OBJに立体感を与えることができる。つまり、観察者Uは、表示対象OBJと、その表示対象OBJを示す虚像VIとを重ねて見た場合、表示対象OBJが奥行き方向に飛び出すような立体像を認識する。この表示装置10が表示する虚像VIによって観察者Uに立体感を与える仕組みについて、図6から図11を参照して説明する。
図6は、本実施形態の表示対象OBJの一例を示す模式図である。これまで、表示対象OBJがロボットの頭部などの球状である例について説明したが、ここでは、表示対象OBJが、四角形のパターンである場合について、以下説明する。この四角形のパターンとは、等しい長さの4辺が各頂点においてそれぞれ直角に交わる正方形のパターンである。この四角形のパターンは、四角形のパターンの外部と内部とを分ける輪郭線としての4辺を有している。この四角形のパターンを見る観察者は、四角形のパターンの外部と内部との明るさの差が大きい場合に、この輪郭線を、四角形のパターンのエッジ部分Eであると認識する。つまり、エッジ部分Eとは、表示対象OBJのうち、周囲の明るさの差が他の部分の明るさの差に比して相対的に大きい部分である。四角形のパターンの場合、各辺がエッジ部分Eになりうるが、ここでは、各エッジ部分Eのうち、四角形のパターンのY軸方向に平行な2辺を、それぞれエッジ部分E1およびエッジ部分E2として説明する。
次に、図7を参照して、この四角形のパターンに対応する虚像VIの一例について説明する。
図7は、本実施形態の虚像VIの一例を示す模式図である。上述したように表示対象OBJが四角形のパターンである場合、虚像VIとは、四角形のパターンのエッジ部分E1を示すエッジ画像PE1、およびエッジ部分E2を示すエッジ画像PE2を含む画像である。つまり、表示部102は、表示対象OBJが上述したように四角形のパターンである場合、そのエッジ部分E1およびエッジ部分E2にそれぞれ対応するエッジ画像PE1およびエッジ画像PE2を含む虚像VIを表示する。
次に、図8を参照して、表示対象OBJとしての四角形のパターンの位置と、エッジ画像PE1およびエッジ画像PE2を含む虚像VIの位置と、観察者の視点位置VPとの位置の関係について説明する。
図8は、本実施形態における表示対象OBJと虚像VIと視点位置VPとの位置の関係の一例を示す模式図である。観察者は、位置Z0にある視点位置VPから、位置Z1にある虚像VIと、位置Z2にある表示対象OBJとを重ねて見る。この虚像VIとは、上述したように、表示対象OBJとしての四角形のパターンのエッジ部分E1およびエッジ部分E2に対応するエッジ画像PE1およびエッジ画像PE2を含む画像である。ここで、四角形のパターンのエッジ部分E1のX方向の位置、位置X2であり、エッジ部分E2のX方向の位置は、位置X5である。
上述したように、表示部102は、位置X2にあるエッジ部分E1と、虚像VIのエッジ画像PE1とが視点位置VPにおいて重なって見えるように、虚像VIを表示する。同様に表示部102は、位置X5にあるエッジ部分E2と、虚像VIのエッジ画像PE2とが視点位置VPにおいて重なって見えるように、虚像VIを表示する。このように表示される虚像VIと、表示対象OBJ(例えば、四角形のパターン)とを、観察者が重ねて見ると、観察者の網膜像上では認識できないくらいの微小な輝度の段差ができる。このような場合においては、明るさ(例えば、輝度)の段差間に仮想的な輪郭(エッジ)を知覚して、虚像VIと表示対象OBJとを1つの物体として認識する。このとき、左眼Lが見る光学像IMLと、右眼Rが見る光学像IMRとには両眼視差が生ずるため、この仮想的な輪郭にも少しだけずれが生じて両眼視差として知覚して、表示対象OBJの見かけの奥行き位置が変化する。以下、この左眼Lが見る光学像IML、右眼Rが見る光学像IMRの順に説明し、あわせて表示対象OBJの見かけの奥行き位置が変化する仕組みについて説明する。
図9は、本実施形態における観察者の眼に見える光学像IMの一例を示す模式図である。このうち、図9(L)は、観察者の左眼Lに見える光学像IMLの一例を示す模式図である。同図に示すように、位置Z0にある視点位置VPの左眼Lの位置において、表示対象OBJと虚像VIとを見ると、エッジ画像PE1とエッジ部分E1とが、位置X2〜位置X3の範囲において重なって見える。上述したように四角形のパターンのエッジ部分E1は位置X2にあるため、観察者の左眼Lには、エッジ画像PE1とエッジ部分E1とが、エッジ部分E1よりも四角形のパターンの内側(+X方向)の位置において重なって見える。また、位置Z0にある視点位置VPの左眼Lの位置において、表示対象OBJと虚像VIとを見ると、エッジ画像PE1とエッジ部分E1とが、位置X5〜位置X6の範囲において重なって見える。上述したように四角形のパターンのエッジ部分E2は位置X5にあるため、観察者の左眼Lには、エッジ画像PE2とエッジ部分E2とが、エッジ部分E2よりも四角形のパターンの外側(+X方向)の位置において重なって見える。
このとき、観察者の左眼Lの位置における光学像の明るさについて、図10を参照して説明する。
図10は、本実施形態の視点位置VPにおける光学像IMの明るさの一例を示すグラフである。このうち、図10(L)は、視点位置VPの左眼Lの位置における光学像IMLの明るさの一例を示すグラフである。視点位置VPの左眼Lの位置においては、表示対象OBJの明るさと、左眼Lの位置から見える虚像VILの明るさとが合成された明るさの光学像IMLが生じる。ここで、表示対象OBJとしての四角形のパターンの視点位置VPから見た明るさ、および虚像VILの視点位置VPから見た明るさの具体例について説明する。視点位置VPから見た四角形のパターンの内部の明るさは、明るさBR2である。また、視点位置VPから見た四角形のパターンの外部の明るさと、明るさ0(ゼロ)である。上述したように、位置Z2における四角形のパターンのエッジ部分E1の位置は位置X2であり、エッジ部分E2の位置は位置X5である。したがって、四角形のパターンの視点位置VPから見た明るさは、位置X2〜位置X5において明るさBR2であり、位置X2から(−X)方向、および位置X5から(+X)方向の位置において明るさ0(ゼロ)である。
また、虚像VIのエッジ画像PE1およびエッジ画像PE2の視点位置VPから見た明るさは、明るさBR1である。上述したように、左眼Lの位置から見える虚像VILのエッジ画像PE1は、位置X2〜位置X3の範囲において、四角形のパターンのエッジ部分E1と重なるように表示される。また、虚像VILのエッジ画像PE2は、位置X5〜位置X6の範囲において、四角形のパターンのエッジ部分E2と重なるように表示される。したがって、虚像VILの視点位置VPから見た明るさは、位置X2〜X3および位置X5〜位置X6において明るさBR1であり、その他のX方向の位置において明るさ0(ゼロ)である。
したがって、表示対象OBJと虚像VILとを視点位置VPにおいて重ねて見た場合、その光学像IMLの明るさは、次に説明するようになる。すなわち光学像IMLの明るさは、位置X2〜位置X3が明るさBR3、位置X3〜位置X5が明るさBR2、位置X5〜位置X6が明るさBR1、位置X2から(−X)方向、および位置X6から(+X)方向の位置において明るさ0(ゼロ)である。
次に、光学像IMLを見た観察者が表示対象OBJの輪郭部を認識する仕組みについて説明する。
図11は、本実施形態における観察者が光学像IMに基づいて認識する表示対象OBJの輪郭部の一例を示すグラフである。このうち、図11(L)は、観察者の左眼Lの位置における光学像IMLに基づいて、観察者が認識する表示対象OBJの輪郭部の一例を示すグラフである。ここで、表示対象OBJの輪郭部とは、表示対象OBJを示す光学像の部分のうち、明るさの変化が周囲の部分の明るさの変化に比して大きい部分である。視点位置VPにいる観察者の左眼Lの網膜上に結像された光学像IMLによって、観察者に認識される画像の明るさの分布は、図11(L)の波形WLのようになる。このとき、観察者は、認識した光学像IMLの明るさの変化が最大になる(つまり、波形WLの傾きが最大になる)X軸上の位置を、観察している表示対象OBJの輪郭部であると認識する。具体的には、光学像IMLを観察している観察者は、図11(L)に示すXELの位置(つまり、X軸の原点Oから距離LELの位置)を四角形のパターンの輪郭部であると認識する。
ここまで、観察者の左眼Lに見える光学像IMLと、光学像IMLによる輪郭部の位置とについて説明した。次に、観察者の右眼Rに見える光学像IMRと、光学像IMRによる輪郭部の位置とについて説明する。
図9(R)に示すように、位置Z0にある視点位置VPの右眼Rの位置において、表示対象OBJと虚像VIとを見ると、エッジ画像PE1とエッジ部分E1とが、位置X1〜位置X2の範囲において重なって見える。これは、左眼Lの位置において、エッジ画像PE1とエッジ部分E1とが重なって見える位置が、位置X2〜位置X3の範囲であることと相違する。また、上述したように四角形のパターンのエッジ部分E1は位置X2にあるため、観察者の右眼Rには、エッジ画像PE1とエッジ部分E1とが、エッジ部分E1よりも四角形のパターンの外側(−X方向)の位置において重なって見える。これは、観察者の左眼Lには、エッジ画像PE1とエッジ部分E1とが、エッジ部分E1よりも四角形のパターンの内側(+X方向)の位置において重なって見えることと相違する。
また、位置Z0にある視点位置VPの右眼Rの位置において、表示対象OBJと虚像VIとを見ると、エッジ画像PE1とエッジ部分E1とが、位置X4〜位置X5の範囲において重なって見える。これは、左眼Lの位置において、表示対象OBJと虚像VIとを見ると、エッジ画像PE1とエッジ部分E1とが、位置X5〜位置X6の範囲において重なって見えることと相違する。また、上述したように四角形のパターンのエッジ部分E2は位置X5にあるため、観察者の右眼Rには、エッジ画像PE2とエッジ部分E2とが、エッジ部分E2よりも四角形のパターンの内側(−X方向)の位置において重なって見える。これは、観察者の左眼Lには、エッジ画像PE2とエッジ部分E2とが、エッジ部分E2よりも四角形のパターンの外側(+X方向)の位置において重なって見えることと相違する。
このとき、観察者の右眼Rの位置における光学像の明るさについて、図10(R)を参照して説明する。この図10(R)は、視点位置VPの右眼Rの位置における光学像IMRの明るさの一例を示すグラフである。視点位置VPの右眼Rの位置においては、表示対象OBJの明るさと、右眼Rの位置から見える虚像VIRの明るさとが合成された明るさの光学像IMRが生じる。このうち、表示対象OBJとしての四角形のパターンの視点位置VPから見た明るさは、左眼Lの位置における明るさと同一である。虚像VIRの視点位置VPから見た明るさの具体例について説明する。虚像VIRのエッジ画像PE1およびエッジ画像PE2の視点位置VPから見た明るさは、明るさBR1である。上述したように、右眼Rの位置から見える虚像VIRのエッジ画像PE1は、位置X1〜位置X2の範囲において、四角形のパターンのエッジ部分E1と重なるように表示される。これは、左眼Lの位置から見える虚像VILのエッジ画像PE1が、位置X2〜位置X3の範囲において、四角形のパターンのエッジ部分E1と重なるように表示されることと相違する。また、虚像VIRのエッジ画像PE2は、位置X4〜位置X5の範囲において、四角形のパターンのエッジ部分E2と重なるように表示される。これは、虚像VILのエッジ画像PE2が、位置X5〜位置X6の範囲において、四角形のパターンのエッジ部分E2と重なるように表示されることと相違する。
したがって、虚像VIRの視点位置VPから見た明るさは、位置X1〜X2および位置X4〜位置X5において明るさBR1であり、その他のX方向の位置において明るさ0(ゼロ)である。これは、虚像VILの視点位置VPから見た明るさが、位置X2〜X3および位置X5〜位置X6において明るさBR1であることと相違する。
したがって、表示対象OBJと虚像VIRとを視点位置VPにおいて重ねて見た場合、その光学像IMRの明るさは、次に説明するようになる。すなわち光学像IMRの明るさは、位置X1〜位置X2が明るさBR1、位置X2〜位置X4が明るさBR2、位置X4〜位置X5が明るさBR3、位置X1から(−X)方向、および位置X5から(+X)方向の位置において明るさ0(ゼロ)である。これは、光学像IMLの明るさが、位置X2〜位置X3が明るさBR3、位置X3〜位置X5が明るさBR2、位置X5〜位置X6が明るさBR1であることと相違する。
次に、光学像IMRを見た観察者が、表示対象OBJの輪郭部を認識する仕組みについて説明する。図11(R)は、観察者の右眼Rの位置における光学像IMRに基づいて、観察者が認識する表示対象OBJの輪郭部の一例を示すグラフである。視点位置VPにいる観察者の右眼Rの網膜上に結像された光学像IMRによって、観察者に認識される画像の明るさの分布は、図11(R)の波形WRのようになる。このとき、観察者は、認識した光学像IMRの明るさの変化が最大になる(つまり、波形WRの傾きが最大になる)X軸上の位置を、観察している表示対象OBJの輪郭部であると認識する。具体的には、光学像IMRを観察している観察者は、図11(R)に示すXERの位置(つまり、X軸の原点Oから距離LERの位置)を四角形のパターンの輪郭部であると認識する。これは、光学像IMLを観察している観察者は、X軸の原点Oから距離LELの位置を四角形のパターンの輪郭部であると認識することと相違する。
これにより、観察者は、左眼Lが観察する四角形の輪郭部の位置XELと、右眼Rが観察する四角形の輪郭部の位置XERとを両眼視差として認識する。そして、観察者は、輪郭部の両眼視差に基づいて四角形のパターンを立体像(3次元画像)として認識する。
ここまで、表示装置10が、視点位置VPにいる観察者Uに表示対象OBJの立体像を認識させる仕組みについて説明した。次に、表示装置10の具体的な動作について説明する。
図12は、本実施形態の表示装置10の動作の一例を示すフローチャートである。このうち、図12(A)は、表示装置10が記憶部20に立体表示情報を記憶させる動作の一例を示すフローチャートである。また、図12(B)は、表示装置10が記憶部20から立体表示情報を取得して立体画像を表示する動作の一例を示すフローチャートである。ここでは、ヘッドマウントディスプレイHMD−1が記憶部20に立体表示情報を記憶させる動作を説明し、次にヘッドマウントディスプレイHMD−2が記憶部20から立体表示情報を取得して立体画像を表示する動作を説明する。
ヘッドマウントディスプレイHMD−1の撮像部101は、表示対象OBJを含む画像を撮像する(ステップS10)。
次に、ヘッドマウントディスプレイHMD−1の情報生成部103は、ステップS10において撮像部101が撮像した表示対象OBJの画像に基づいて、表示対象OBJの立体表示情報を生成する(ステップS20)。
次に、ヘッドマウントディスプレイHMD−1の書込部104は、ステップS20において生成された立体表示情報を記憶部20に書き込む(ステップS30)。これにより、記憶部20には、ヘッドマウントディスプレイHMD−1の情報生成部103が生成した立体表示情報が記憶される。
次に、ヘッドマウントディスプレイHMD−2の取得部105は、ステップS30において記憶された立体表示情報を記憶部20から取得する(ステップS40)。このステップS30において記憶された立体表示情報とは、ヘッドマウントディスプレイHMD−1の情報生成部103が生成した立体表示情報である。すなわち、立体表示情報が、ヘッドマウントディスプレイHMD−1とヘッドマウントディスプレイHMD−2との間において共有される。
次に、ヘッドマウントディスプレイHMD−2の画像生成部106は、ステップS40において取得部105が取得した立体表示情報に基づいて、表示対象OBJに立体感を付与する画像を生成する(ステップS50)。上述したエッジ画像PEとは、この表示対象OBJに立体感を付与する画像の一例である。
次に、ヘッドマウントディスプレイHMD−2の表示部102は、ステップS50において画像生成部106が生成した表示対象OBJに立体感を付与する画像を表示する(ステップS60)。これにより、ヘッドマウントディスプレイHMD−2は、ヘッドマウントディスプレイHMD−1において生成された立体表示情報に基づく立体画像を表示することができる。
以上、説明したように、本実施形態の表示装置10は、複数の表示装置10の間において、記憶部20を介して立体表示情報を共有することができる。したがって、表示装置10によれば、複数のユーザが立体感を共有することできる。
また、表示装置10は、撮像部101と、情報生成部103とを備えているため、撮像した画像に基づいて立体表示情報を生成することができる。
なお、これまで立体表示情報が、1つの表示装置10(ヘッドマウントディスプレイHMD)によって生成される場合について説明した。すなわち、表示装置10(ヘッドマウントディスプレイHMD)を装着した観察者Uが移動して、複数の視点位置VPにおいて撮像した複数の画像に基づいて、情報生成部103が立体表示情報を生成する場合について説明した。この場合には、複数の画像とは、撮像部101が複数の位置において撮像した画像であって、情報生成部103は、撮像部101が複数の位置において撮像した画像に基づいて、表示対象の立体表示情報を生成する。
しかしながら、立体表示情報は、複数の視点位置VPから撮像された画像に基づいて生成すればよく、必ずしも観察者Uが移動しなくてもよい。例えば、表示装置10の情報生成部103は、複数の表示装置10がそれぞれ備える撮像部101が各視点位置VPにおいてそれぞれ撮像した画像に基づいて立体表示情報を生成してもよい。具体的には、表示装置10−2の情報生成部103は、表示装置10−1の撮像部101が撮像した画像と、表示装置10−2の撮像部101が撮像した画像とに基づいて、立体表示情報を生成する。また、このような構成の場合には、記憶部20は、各表示装置10の撮像部101が撮像した画像を記憶し、情報生成部103は、取得部105を介して記憶部20から取得した各表示装置10の撮像部101が撮像した画像に基づいて、立体表示情報を生成する。すなわち、複数の画像とは、複数の撮像部101がそれぞれ撮像した画像であって、情報生成部103は、複数の撮像部101がそれぞれ撮像した画像に基づいて、表示対象の立体表示情報を生成する。このように構成することにより、観察者Uが移動しなくても立体表示情報を生成することができるため、表示装置10は、観察者Uの手間を低減することができる。
[第2の実施形態]
次に、本発明の第2の実施形態による表示装置10aについて、図13を参照して説明する。
図13は、本発明の第2の実施形態における表示システム1aの構成の一例を示す概要図である。本実施形態の表示装置10aは、立体表示情報を補正する補正部107を備えており、立体表示情報を補正することにより表示対象OBJの立体感を変化させることができる点において、上述した実施形態と相違する。さらに、本実施形態の表示装置10aは、観察者Uによる指示を検出する指示検出部108を備えており、観察者Uの指示に基づいて立体表示情報を補正することにより表示対象OBJの立体感を変化させることができる点において、上述した実施形態と相違する。なお、上述した実施形態と同一の構成については、同一の符号を付してその説明を省略する。
指示検出部108は、例えば、モーションセンサやカメラなどが取得した情報に基づいて、観察者Uの指示を検出する。ここで、観察者Uの指示とは、表示対象OBJの立体感を変更するために観察者Uが行う動作である。一例として、指示検出部108は、撮像部101が撮像した画像に基づいて、観察者Uの指の軌跡を判定することにより、観察者Uの指示を検出する。また、指示検出部108は、検出した指示を示す情報を補正部107に出力する。
補正部107は、入力される補正情報に基づいて、取得部105が取得した立体表示情報を補正する。補正情報とは、立体表示情報の一部または全部の情報を変化させることにより、表示対象OBJの立体感を変化させるための情報である。この補正情報は、表示装置10aの各部から入力されてもよく、他の表示装置10aから入力されてもよい。
一例として、補正部107は、指示検出部108が検出した観察者Uの指示を示す情報に基づいて、取得部105が取得した立体表示情報を補正する。この場合、補正情報とは、観察者Uによる指示を示す情報である。具体的には、ロボットの鼻NSを高くするように観察者Uが指を動かした場合に、指示検出部108は、この指の軌跡を判定することにより、観察者Uの指の動きをロボットの鼻NSを高くする指示として検出する。補正部107は、指示検出部108が検出した指示に基づいて、取得部105が記憶部20から取得している立体表示情報を、ロボットの鼻NSが高くなるように補正する。また、補正部107は、補正した立体表示情報を、書込部104を介して記憶部20に書き込む。
この場合、画像生成部106は、取得部105を介して記憶部20に書き込まれている補正後の立体表示情報を取得し、取得した補正後の立体表示情報に基づいて画像を生成する。すなわち、取得部105は、補正後の立体表示情報を記憶部20から取得する。また、画像生成部106は、取得された補正後の立体表示情報に基づいて、表示対象に立体感を付与する画像を生成する。また、表示部102は、補正後の立体表示情報に基づいて画像生成部106が生成した画像を表示する。すなわち、表示部102は、生成された表示対象に立体感を付与する画像を表示する。これにより、表示装置10aは、ロボットの鼻NSが高くなるように立体感が補正された画像を観察者Uに対して表示する。これにより、表示装置10aは、観察者Uの指示に基づいて立体表示情報を補正することにより表示対象OBJの立体感を変化させることができる。
また、表示装置10aによれば、1つの表示対象OBJに対して、複数の観察者Uが指示を行うことにより、これら複数の観察者Uの間において、表示対象OBJの立体感が変化する様子を共有することができる。例えば、観察者U1が表示装置10a−1を装着し、観察者U2が表示装置10a−2を装着している場合について説明する。この場合、観察者U1の表示装置10a−1は、指示検出部108が観察者U1によるロボットの鼻NSを高くする指示を検出する。また、表示装置10a−1は、この検出した指示に基づいて補正部107が立体表示情報を補正し、書込み部104を介して記憶部20に補正後の立体表示情報を書き込む。これにより、記憶部20に記憶されているロボットの鼻NSについての立体表示情報が更新される。
次に、表示装置10a−1は、画像生成部106が補正後の立体表示情報に基づいて虚像VI1を生成して、表示部102がこの虚像VI1を表示する。また、観察者U2の表示装置10a−2は、取得部105を介して更新されたロボットの鼻NSについての立体表示情報を取得し、画像生成部106が取得した立体表示情報に基づいて虚像VI2を生成して、表示部102がこの虚像VI2を表示する。これにより、観察者U1の指示に基づいて更新された虚像VIによる立体感を、観察者U1と観察者U2との間において共有することができる。また、同様にして観察者U2による指示に基づいて更新された虚像VIによる立体感を、観察者U1と観察者U2との間において共有することができる。すなわち、このように構成することにより、表示装置10aは、1つの表示対象OBJに対して複数の観察者Uが指示を行うことにより、これら複数の観察者Uの間において、表示対象OBJの立体感が変化する様子を共有することができる。
また、表示装置10aによれば、立体感を共有していない他の観察者U(例えば、観察者U3)が、立体感を共有する観察者Uとして加わった場合には、立体感をさらに変化させることもできる。つまり、表示装置10aによれば、立体感を共有する観察者Uの構成が変化した場合には、観察者Uの構成に応じて立体感を変化させることができる。具体的には、表示装置10aは、観察者U1と観察者U2との間において立体感が共有されている場合において、観察者U1と観察者U3との間において立体感を共有する場合には、観察者U2の指示による補正を反映していない虚像VIを表示する。この場合、表示装置10aは、補正後の立体表示情報に、観察者Uを識別する識別情報(例えば、ユーザID)を付与して記憶部20に記憶させる。これにより、記憶部20には、補正後の立体表示情報と、識別情報とが関連付けて記憶される。表示装置10aは、取得部105が記憶部20から補正後の立体表示情報を取得する際に、この立体表示情報に関連付けられている識別情報を合わせて取得する。これにより、表示装置10aは、立体表示情報がどの観察者Uによって補正されたものであるかを判定することができる。この例においては、観察者U1の表示装置10a−1、および観察者U3の表示装置10a−3は、観察者U1の識別情報、および観察者U3の識別情報が付されている補正後の立体表示情報を取得する。これにより、表示装置10aは、観察者U2の指示による補正を反映していない虚像VIを表示することができる。
また、表示装置10aによれば、観察者Uによる立体感を変更する指示の履歴を記憶することもできる。この場合、表示装置10aは、観察者Uの指示による補正後の立体表示情報に、観察者Uを識別する識別情報(例えば、ユーザID)と、この指示を検出した日付および時刻の情報(例えば、タイムスタンプ)を付与して記憶部20に記憶させる。これにより、記憶部20には、補正後の立体表示情報と、識別情報と、指示を検出した日付および時刻の情報とが関連付けて記憶される。このように構成することにより、表示装置10aは、指示を行った観察者U、指示を行った時刻、および指示の頻度等に基づいて、立体感を変更する指示による貢献度を観察者Uごとに算出することができる。表示装置10aは、この算出した貢献度を表示部102に表示することができる。また、表示装置10aは、複数の観察者Uが同時に指示を行った場合にいずれの指示が立体感に反映されるのかを示す優先度を、算出した貢献度に基づいて判定することができる。
また、一例として、補正部107は、撮像部101が表示対象を撮像した複数の画像を示す情報に基づいて、取得部105が取得した立体表示情報を補正するように構成してもよい。すなわち、補正部107は、撮像部101が撮像した画像に基づいて、記憶部20に記憶されている立体表示情報を更新することにより、立体表示情報を補正してもよい。この場合、補正情報とは、撮像部101が表示対象を撮像した画像を示す情報である。このように構成しても、表示装置10aは、立体表示情報を補正することにより表示対象OBJの立体感を変化させることができる。
なおこれまで、表示装置10(または、表示装置10a)が、ロボットの鼻NSなどの表示対象OBJに虚像VIを重ねて表示することにより、複数の観察者Uにおいて表示対象OBJの立体感を共有する例について説明したが、これに限られない。例えば、表示装置10(または、表示装置10a)は、鼻NSがないロボットの頭部に鼻NSを示す虚像VIを表示することができる。以下、表示装置10についての具体例を説明する。表示装置10−1は、観察者U1に対して虚像VI1を表示する。これにより、観察者U1は、表示対象OBJとしてのロボットの頭部と、虚像VI1によるロボットの鼻NSの部分とが重なった像を、表示装置10−1の表示部102−1を介して見ることができる。また、表示装置10−2は、観察者U2に対して虚像VI2を表示する。これにより、観察者U2は、表示対象OBJとしてのロボットの頭部と、虚像VI2によるロボットの鼻NSの部分とが重なった像を、表示装置10−2の表示部102−2を介して見ることができる。また、表示装置10−3は、観察者U3に対しては虚像VIを表示しない。これにより、観察者U3は、鼻NSがないロボットの頭部の像を、表示装置10−3の表示部102−3を介して見ることができる。このように構成される表示装置10(または、表示装置10a)によっても、複数の観察者Uにおいて表示対象OBJの立体感を共有することができる。
また、表示部102は、表示対象OBJの輪郭部を示すエッジ画像PEを、この表示対象OBJの大きさよりも小さくして表示することが好ましい。これにより、表示装置10(または、表示装置10a)は、観察者Uに対して表示対象OBJと、この表示対象OBJの輪郭部を示すエッジ画像PEとの見かけの大きさを揃えて表示することができる。
以上、本発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。上述した各実施形態に記載の構成を組み合わせてもよい。
なお、上述した各実施形態の表示装置(表示装置10、または表示装置10a。以下、これらを総称して表示装置と記載する。)が備える各部は、専用のハードウェアにより実現されるものであってもよく、また、メモリおよびマイクロプロセッサにより実現させるものであってもよい。
なお、表示装置が備える各部は、メモリおよびCPU(中央演算装置)により構成され、表示装置が備える各部の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。
また、表示装置が備える各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、制御部が備える各部による処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
10、10a…表示装置、101…撮像部、102…表示部、103…情報生成部、104…書込部、105…取得部、106…画像生成部、107…補正部、108…指示検出部

Claims (11)

  1. 表示対象の光による像を透過し、前記表示対象に立体感を付与する前記表示対象に対応する画像を表示する表示部と、
    自表示装置とは異なる装置によって記憶部へ記憶される、前記表示対象に立体感を付与する前記表示対象に対応する画像を生成するための立体表示情報を前記記憶部から取得する取得部と、
    前記取得部が取得した前記立体表示情報に基づいて、前記表示対象に立体感を付与する前記表示対象に対応する画像を生成する画像生成部と
    を備えることを特徴とする表示装置。
  2. 画像を撮像する撮像部と、
    前記撮像部が前記表示対象を撮像した複数の画像に基づいて、前記表示対象の前記立体表示情報を生成する情報生成部と、
    前記生成された前記立体表示情報を前記記憶部に記憶させる記憶制御部と
    を備えることを特徴とする請求項1に記載の表示装置。
  3. 前記複数の画像とは、複数の前記撮像部がそれぞれ撮像した画像であって、
    前記情報生成部は、
    複数の前記撮像部がそれぞれ撮像した画像に基づいて、前記表示対象の前記立体表示情報を生成する
    ことを特徴とする請求項2に記載の表示装置。
  4. 前記複数の画像とは、前記撮像部が複数の位置において撮像した画像であって、
    前記情報生成部は、
    前記撮像部が複数の位置において撮像した画像に基づいて、前記表示対象の前記立体表示情報を生成する
    ことを特徴とする請求項2に記載の表示装置。
  5. 入力される補正情報に基づいて、前記取得部が取得した前記立体表示情報を補正する補正部とを備え、
    前記書込部は、
    前記補正後の立体表示情報を前記記憶部に書き込む
    ことを特徴とする請求項2から請求項4のいずれか一項に記載の表示装置。
  6. ユーザによる指示を検出する指示検出部とを備え、
    前記補正情報とは、前記ユーザによる指示を示す情報であって、
    前記補正部は、
    前記検出された前記ユーザによる指示を示す情報に基づいて、前記取得部が取得した前記立体表示情報を補正する
    ことを特徴とする請求項5に記載の表示装置。
  7. 前記表示対象に立体感を付与する前記表示対象に対応する画像は、前記表示対象の輪郭部分を示す画像である
    ことを特徴とする請求項1から請求項6のいずれか一項に記載の表示装置。
  8. 前記表示対象に立体感を付与する前記表示対象に対応する画像は、前記表示対象を示す虚像であり、
    前記表示部は、前記表示対象とは異なる奥行き位置に前記表示対象を示す虚像を表示する
    ことを特徴とする請求項1から請求項7のいずれか一項に記載の表示装置。
  9. 前記取得部は、
    前記補正後の立体表示情報を前記記憶部から取得し、
    前記画像生成部は、
    前記取得された前記補正後の立体表示情報に基づいて、前記表示対象に立体感を付与する前記表示対象に対応する画像を生成し、
    前記表示部は、
    前記生成された前記表示対象に立体感を付与する前記表示対象に対応する画像を表示する
    を備えることを特徴とする請求項5から請求項7のいずれか一項に記載の表示装置。
  10. 表示対象の光による像を透過し、前記表示対象に立体感を付与する前記表示対象に対応する画像を表示する表示部と、
    画像を撮像する撮像部と、
    前記撮像部が前記表示対象を撮像した複数の画像に基づいて、前記表示対象に立体感を付与する前記表示対象に対応する画像を生成するための立体表示情報を生成する情報生成部と、
    前記生成された前記立体表示情報に基づいて、前記表示対象に立体感を付与する前記表示対象に対応する画像を生成する画像生成部と、
    を備えることを特徴とする表示装置。
  11. 入射する光を透過可能である表示部を備える表示装置のコンピュータに、
    前記表示対象に立体感を付与する前記表示対象に対応する画像を表示する表示ステップと、
    自表示装置とは異なる装置によって記憶部へ記憶され、前記表示対象に立体感を付与する前記表示対象に対応する画像を生成するための立体表示情報を前記記憶部から取得する取得ステップと、
    前記取得ステップにおいて取得された前記立体表示情報に基づいて、前記表示対象に立体感を付与する前記表示対象に対応する画像を生成する画像生成ステップと
    を実行させるためのプログラム。
JP2013072374A 2013-03-29 2013-03-29 表示装置及びプログラム Pending JP2014197776A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013072374A JP2014197776A (ja) 2013-03-29 2013-03-29 表示装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013072374A JP2014197776A (ja) 2013-03-29 2013-03-29 表示装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2014197776A true JP2014197776A (ja) 2014-10-16

Family

ID=52358299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013072374A Pending JP2014197776A (ja) 2013-03-29 2013-03-29 表示装置及びプログラム

Country Status (1)

Country Link
JP (1) JP2014197776A (ja)

Similar Documents

Publication Publication Date Title
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
US20160267720A1 (en) Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
WO2019152617A1 (en) Calibration system and method to align a 3d virtual scene and 3d real world for a stereoscopic head-mounted display
US10999412B2 (en) Sharing mediated reality content
JP6038583B2 (ja) 3次元画像処理装置
US9467685B2 (en) Enhancing the coupled zone of a stereoscopic display
KR20110070326A (ko) 머리 위치 추적을 이용한 입체 영상 표시 장치 및 이의 동작 방법
US11956415B2 (en) Head mounted display apparatus
JP2015060071A (ja) 画像表示装置、画像表示方法、および画像表示プログラム
Hu et al. Alignment-free offline calibration of commercial optical see-through head-mounted displays with simplified procedures
WO2019039229A1 (ja) 情報処理装置、システム、画像処理方法、コンピュータプログラム、及び記憶媒体
JP2015154091A (ja) 画像処理方法、画像処理装置、及び電子機器
JP2011205195A (ja) 画像処理装置、プログラム、画像処理方法、椅子および観賞システム
CN115868158A (zh) 一种显示调节方法、装置、设备及介质
JP2005312605A (ja) 注視点位置表示装置
JP2016152023A (ja) 情報処理装置、情報処理方法、プログラム
JP2013009864A (ja) 3次元画像処理装置
JP2012244466A (ja) 立体画像処理装置
US20140285484A1 (en) System of providing stereoscopic image to multiple users and method thereof
JP2006197036A (ja) 立体画像表示装置および立体画像表示方法
JP2013168781A (ja) 表示装置
JP2014150402A (ja) 表示装置及びプログラム
JP2014197776A (ja) 表示装置及びプログラム
JP5746908B2 (ja) 医用画像処理装置
JP5868055B2 (ja) 画像処理装置および画像処理方法