JP2022128876A - 画像表示装置及び方法 - Google Patents
画像表示装置及び方法 Download PDFInfo
- Publication number
- JP2022128876A JP2022128876A JP2021027327A JP2021027327A JP2022128876A JP 2022128876 A JP2022128876 A JP 2022128876A JP 2021027327 A JP2021027327 A JP 2021027327A JP 2021027327 A JP2021027327 A JP 2021027327A JP 2022128876 A JP2022128876 A JP 2022128876A
- Authority
- JP
- Japan
- Prior art keywords
- user
- eye
- image display
- display device
- eyes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】容易に空中接眼することのできる画像表示装置を提供する。【解決手段】画像表示装置100は、画像Imが生成される位置に入力側の焦点を有し、画像を形成する光が出力される出力側に射出瞳を形成する光学ユニット12と、光学ユニットから出力される光を反射又は透過して、射出瞳の共役位置にアイポイントExpを形成する光学素子14と、を有する表示部10と、ユーザ99の眼99L,99Rの位置を検出する検出部20と、検出部が検出したユーザの眼の位置とアイポイントの位置とに基づいて映像ガイド及び/又は音声ガイドを生成して、ユーザの眼をアイポイントの位置に相対的に誘導する誘導部30と、を備える。これによれば、ユーザは、誘導部による誘導に従って表示部により空中に形成されるアイポイントの位置内に眼を位置合わせ(空中接眼)することが可能となる。【選択図】図1A
Description
本発明は、画像表示装置及び方法に関する。
従来、光学素子を利用して光学ユニットが形成する射出瞳をリレーすることにより空中にアイポイントを配置し、画像を形成する光を光学ユニットに入れることで、ユーザが、そのアイポイント内に眼(すなわち、瞳孔)を入れた際に画像を目視することのできる画像表示装置が知られている。ここで、光学素子として、再帰性反射素子を用いることができる(特許文献1参照)。斯かる表示装置は、アイポイント内に眼を入れた一人のユーザのみが画像を目視することができるため、特に高いセキュリティ効果が得られることで注目されている。
特許文献1 特開2009-288696号公報
特許文献1 特開2009-288696号公報
本発明の第1の態様においては、画像が生成される位置に入力側の焦点を有し、画像を形成する光が出力される出力側に射出瞳を形成する光学ユニットと、光学ユニットから出力される光を反射又は透過して、射出瞳の共役位置にアイポイントを形成する光学素子と、を有する表示部と、ユーザの眼の位置を検出する検出部と、検出部が検出したユーザの眼の位置とアイポイントの位置に基づいて、ユーザの眼を、アイポイントの位置に相対的に誘導する誘導部と、を備える画像表示装置が提供される。
本発明の第2の態様においては、ユーザの眼の位置を検出する段階と、検出する段階で検出したユーザの眼の位置と、画像が生成される位置に入力側の焦点を有し、画像を形成する光が出力される出力側に射出瞳を形成する光学ユニットと、光学ユニットから出力される光を反射又は透過して、射出瞳の共役位置にアイポイントを形成する光学素子と、により空中に形成されるアイポイントの位置と、に基づいて、ユーザの眼を、アイポイントの位置に相対的に誘導する段階と、画像を表示する段階と、を備える画像表示方法が提供される。
なお、上記の発明の概要は、本発明の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1A、図1B、及び図1Cに、第1の実施形態に係る画像表示装置100の構成をそれぞれ側面視、正面視、及び上面視において概略的に示す。画像表示装置100は、画像Imを、ユーザ99が構成部材に物理的接触することなく目視可能に表示する装置であり、表示部10、検出部20、及び誘導部30を備える。なお、画像Imは、静止画であってもよいし動画であってもよく、モノクロ画像であってもよいしカラー画像であってもよい。また、画像Imを目視するユーザ99を基準にして左右方向(ユーザの眼幅方向)をX軸方向、前後方向をY軸方向、及び上下方向をZ軸方向とする。
表示部10は、空中にアイポイントExpを形成し、そのアイポイントExpの位置内にユーザ99が両眼を入れる(空中接眼とも呼ぶ)と視界内にその画角全体を目視可能な画像Imを表示するユニットであり、ケース19、表示装置11、光学ユニット12(12L,12R)、ハーフミラー13、及び光学素子14を有する。なお、表示部10は、フレーム(不図示)を介して床面上に或いは壁面に支持されている。
ケース19は、例えば三角形状の側面を有する中空の箱体であり、その上面上に表示装置11及び光学ユニット12(12L,12R)を支持し、その内部にハーフミラー13及び光学素子14を保持する。
表示装置11は、画像Imを表示する装置であり、左眼用及び右眼用表示画面11L,11Rを有する。左眼用及び右眼用表示画面11L,11Rは、例えば液晶ディスプレイ等であってよく、それぞれ後述する光学ユニット12L,12Rの筐体に支持されてケース19の上面上の左右に配置される。表示装置11は、通信装置(不図示)を介して外部から画像信号を受信或いは記憶装置(不図示)に記憶された画像信号を読み出して、左眼用及び右眼用表示画面11L,11R上にそれぞれ左眼用及び右眼用画像ImL,ImRを表示する。なお、本明細書では、左眼用及び右眼用の部材等を示す符号にそれぞれ記号L,Rを加えるが、左眼及び右眼の区別を要さない場合にはこれらの記号を省略する。なお、表示画面を左眼用及び右眼用として別個に配置する代わりに、表示画面を左眼用及び右眼用で共通する表示画面として配置してもよい。
光学ユニット12は、画像Imを形成する光、特に平行光束を屈折等させて平行光束として射出するアフォーカル系の対物レンズとして機能するユニットであり、左眼用及び右眼用光学ユニット12L,12Rを有する。左眼用及び右眼用光学ユニット12L,12Rは、それぞれ、1又は複数のレンズ素子等の光学素子を含み、筐体内に保持されてケース19の上面上のそれぞれ左右に配置されている。光学ユニット12L,12Rは、画像ImL,ImRが生成される位置、すなわち表示画面11L、11R上に入力側(すなわち、+Z側)の焦点を有し、画像ImL,ImRを形成する光が出力される出力側(すなわち、-Z側)に射出瞳(不図示)を形成する。
ハーフミラー13及び光学素子14は、光学ユニット12から出力される光をユーザ99に向けて+Y方向に指向する素子であり、ケース19内に保持されている。
ハーフミラー13は、半透過性のミラー素子であり、ケース19の+Y,-Z方向を向く傾斜面上に支持されている。これにより、ハーフミラー13は、画像Imから出力される光の光路において光学ユニット12及び光学素子14の間に配置されることとなり、光学ユニット12から-Z方向に出力される光を光学素子14に向けて-Y方向に反射し、光学素子14から出力される光を+Y方向に透過する。
光学素子14は、一例として90度の角度をなす2つの平面鏡を有するコーナーリフレクタが平面上にアレイ配置された再帰性反射素子であり、ケース19の-Y面上に支持されている。これにより、光学素子14は、光学ユニット12から出力され、ハーフミラー13により-Y方向に反射された光を+Y方向に再帰反射することで、光学ユニット12L,12Rの射出瞳(不図示)をその共役位置にリレー(すなわち、再形成)して、ケース19の+Y側、例えば200mmの位置にアイポイントExpL,ExpRを形成する。ここで、アイポイントExpは、例えばユーザ99の眼幅(約50mm)程度の直径(X軸方向及びZ軸方向の幅)及び100mm程度の奥行(Y軸方向の幅)又は50度程度の見込み角度を有する。
なお、ハーフミラー13が配置される位置にハーフミラー13の代わりに、光学素子14として、複数の反射面が積層された積層部を、複数の反射面が互いに交差するように複数積層した再帰性透過素子を採用してもよい。斯かる場合、表示装置11及び光学ユニット12を光学素子14の-Y側に配置し、光学ユニット12から画像Imを形成する光を光学素子14に向けて+Y方向に出力する。これにより、光学素子14は、光学ユニット12から出力された光を+Y方向に再帰透過することで、光学ユニット12L,12Rの射出瞳(不図示)をその共役位置にリレー(すなわち、再形成)して、ケース19の+Y側にアイポイントExpL,ExpRを形成する。
上述の構成の表示部10において、左眼用表示画面11Lが左眼用画像ImLを表示すると、左眼用画像ImLを形成する光が光軸10L,10L'に沿って光学ユニット12L、ハーフミラー13、光学素子14を介して送られ、アイポイントExpLにおいて集光する。右眼用表示画面11Rが右眼用画像ImRを表示すると、右眼用画像ImRを形成する光が光軸10R,10R'に沿って光学ユニット12R、ハーフミラー13、光学素子14を介して送られ、アイポイントExpRの位置において集光する。このように、表示部10がユーザ99の左眼及び右眼に対してそれぞれアイポイントExpL,ExpRを形成することで、ユーザ99が、左眼及び右眼(すなわち、瞳孔、単に眼とも呼ぶ)99L,99RをそれぞれアイポイントExpL,ExpRの位置内に入れて空中接眼すると、左眼及び右眼により左眼及び右眼用画像ImL,ImRの画角全体をそれぞれ目視することができる。ここで、左眼及び右眼用画像ImL,ImRとして視差画像を表示することにより、ユーザ99は立体像を視認することもできる。
検出部20は、ユーザ99の眼99L,99Rの位置及び向きを検出するユニットである。検出部20は、一例として、ケース19の上面手前に左右に離間して配置される2つのステレオカメラ21を有し、これを用いてユーザ99の頭部、特に顔部を撮像する。なお、ステレオカメラ21は、ケース19内に設置され、ハーフミラー13を介してユーザ99の顔部を撮像するよう構成してもよい。2つのステレオカメラ21によりそれぞれ得られる画像、特に視差画像により、ユーザ99の眼99L,99Rの左右方向の位置(X位置)、上下方向の位置(Z位置)、及び前後方向の位置(Y位置)だけでなく、それらの向きも検出される。これらの検出結果は、誘導部30に転送される。なお、ユーザ99の眼99L,99Rの位置及び向きを検出する場合、一例としてユーザの左眼及び右眼それぞれの瞳孔の位置及び向きを検出する。
なお、検出部20は、ステレオカメラ21に代えて、超音波或いは赤外線レーザを用いて飛行時間差(ToF)法によりユーザの頭部までの距離を測定する距離計を含み、これによりユーザ99の眼99L,99Rの位置及び向きを検出してもよい。
誘導部30は、検出部20により検出されたユーザ99の眼99L,99Rの位置及びアイポイントの位置に基づいて、ユーザ99の眼99L,99Rを、アイポイントExpL,ExpRの位置に相対的に誘導するユニットであり、本実施形態では、液晶ディスプレイ等の表示モニタ31及び指向性スピーカ、骨伝導スピーカ等のスピーカ32を有する。表示モニタ31は、ユーザ99がその表示を目視可能な位置、本例ではケース19の左側に設置されている。スピーカ32は、ユーザ99が音声を聴くことができる位置、本例ではケース19の左下側に設置されている。
誘導部30は、検出部20による検出結果に基づいて、表示モニタ31及びスピーカ32を用いて視覚及び/又は音声により、ユーザ99に眼99L,99Rの位置を移動するようガイドする。例えば、アイポイントExpL,ExpRの位置に対して眼99L,99Rが左方(右方)に位置する場合には右方(左方)に移動するよう、上方(下方)に位置する場合には頭部を下げる(上げる)よう、前方(後方)に位置する場合には後ろに下がる(前に出る)よう、左(右)を向いている場合には右(左)を向くよう、表示モニタ31に映像ガイドを表示する及び/又はスピーカ32により音声ガイドを流す。
図2に、画像表示装置100の制御系50の構成を示す。制御系50は、前述の表示部10、検出部20、及び誘導部30を含む。これらは互いに信号を送受信可能に接続されている。
図3に、第1の実施形態に係る画像表示方法のフローS100を示す。なお、フローS100は、検出部20がユーザ99の画像表示装置100への接近を検知することで開始する。
ステップS102では、検出部20により、アイポイントExpL,ExpRの位置に対するユーザ99の眼99L,99Rの位置を検出する。検出部20は、ステレオカメラ21を用いてユーザ99の眼99L,99RのX位置、Y位置、Z位置、及び向きを検出し、その検出結果を誘導部30に転送する。
ステップS104では、検出部20により、ステップS102で得られた検出結果に基づいて、ユーザ99の眼99L,99Rの位置がアイポイントExpL,ExpRの位置から離れているかどうか判断する。このとき、例えば、検出部20は、ユーザ99の眼99L,99Rの位置と、アイポイントExpL,ExpRの位置(例えば、アイポイントExpL,ExpRの中心位置)との相対的な位置ずれを検出する。眼99L,99RがアイポイントExpL,ExpRの位置から離れている、すなわち、眼99L,99Rの位置と、アイポイントExpL,ExpRの位置が相対的にずれていると判断されるとステップS106に進み、眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に位置していると判断されるとステップS108に進む。
ステップS106では、誘導部30により、ステップS102で得られた検出結果及びアイポイントExpL,ExpRの位置に基づいて映像ガイド及び/又は音声ガイドを生成して、ユーザ99の眼99L,99Rを、アイポイントExpL,ExpRの位置に相対的に誘導する。誘導部30は、例えば、アイポイントExpL,ExpRの位置に対して眼99L,99Rが左方(右方)に位置する場合には右方(左方)に移動するよう、上方(下方)に位置する場合には頭部を下げる(上げる)よう、前方(後方)に位置する場合には後ろに下がる(前に出る)よう、左(右)を向いている場合には右(左)を向くよう、表示モニタ31に映像ガイドを表示する及び/又はスピーカ32により音声ガイドを流す。
ステップS106の実行後、ステップS102~S106が、ステップS104で眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に位置している、つまりユーザ99が空中接眼したと判断されるまで繰り返される。
ステップS108では、ユーザ99の眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に入ったことで、表示部10により画像ImL,ImRを表示する。それにより、ユーザ99は、左眼及び右眼により左眼及び右眼用画像ImL,ImRの画角全体をそれぞれ目視することができる。ここで、表示部10が左眼及び右眼用画像ImL,ImRとして視差画像を表示した場合、ユーザ99は立体像を視認することができる。なお、ユーザ99の眼99L,99Rに対してアイポイントExpL,ExpRが十分に大きい場合、ステップS108において、ユーザ99の眼99L,99Rのいずれか一方がアイポイントExpL,ExpRの位置内に入ったことを検出した後に、表示部10により画像ImL,ImRを表示してもよい。
なお、フローS100は、検出部20によりユーザ99が画像表示装置100から離れたことを検知することで終了する。
第1の実施形態に係る画像表示装置100は、画像Imが生成される位置に入力側の焦点を有し、画像を形成する光が出力される出力側に射出瞳を形成する光学ユニット12と、光学ユニットから出力される光を反射又は透過して、射出瞳の共役位置にアイポイントExpを形成する光学素子14と、を有する表示部10と、ユーザ99の眼99L,99Rの位置を検出する検出部20と、検出部の検出結果及びアイポイントの位置に基づいて映像ガイド及び/又は音声ガイドを生成して、ユーザの眼をアイポイントの位置に相対的に誘導する誘導部30と、を備える。画像表示装置100は物理的に接触する接眼部を有さないためにユーザによっては接眼するのに戸惑うことが予想されるところ、検出部20により、アイポイントの位置に対するユーザの眼の位置を検出し、誘導部により、その検出結果に基づいて映像ガイド及び/又は音声ガイドを生成して、ユーザの眼をアイポイントの位置に相対的に誘導することにより、ユーザは、その誘導に従って表示部により空中に形成されるアイポイントの位置内に眼を容易に位置合わせ(すなわち、空中接眼)することが可能となる。また、光学素子14として再帰性反射素子又は再帰性透過素子を用いることでアイポイントが拡張されるため、ユーザの眼をアイポイントの位置に相対的に誘導する際の位置設定の自由度が上がり、容易にアイポイント位置内に眼を合わせることができる。
図4A、図4B、及び図4Cに、第2の実施形態に係る画像表示装置110の構成をそれぞれ側面視、正面視、及び上面視において概略的に示す。画像表示装置110は、先述の画像表示装置100と同様に、画像Imを、ユーザ99が構成部材に物理的接触することなく目視可能に表示する装置であり、表示部10、検出部20、及び誘導部30dを備える。なお、画像Imは、静止画であってもよいし動画であってもよく、モノクロ画像であってもよいしカラー画像であってもよい。また、画像Imを目視するユーザ99を基準にして左右方向(ユーザの眼幅方向)をX軸方向、前後方向をY軸方向、及び上下方向をZ軸方向とする。表示部10及び検出部20は、先述の画像表示装置100におけるそれらと同様に構成される。
図5に、画像表示装置110の制御系50の構成を示す。制御系50は、前述の表示部10、検出部20、及び誘導部30dを含む。これらは互いに信号を送受信可能に接続されている。
誘導部30dは、検出部20によるユーザ99の眼99L,99Rの位置の検出結果に基づいて、ユーザ99の眼99L,99Rを、アイポイントExpL,ExpRの位置に相対的に誘導するユニットであり、本実施形態では触覚生成装置33(33L,33R)を有する。触覚生成装置33は、風圧等を含む圧力又は超音波振動等を含む振動によりユーザの眼99L,99RをアイポイントExpL,ExpRの位置に相対的に誘導する。特に本実施形態に係る触覚生成装置33は、複数の超音波振動子がアレイ状に配列されたディスプレイ装置であり、これにより空中に超音波の強度分布(すなわち、粗密分布)を生成してアイポイントExpの位置の近傍に位置する人体表面の少なくとも一箇所に触覚を与える。触覚生成装置33は、それぞれケース19の上面の左側及び右側にアイポイントExpL,ExpRの位置に向けて配置された2つの触覚生成装置33L,33Rを含む。
触覚生成装置33L,33Rは、図4Aから図4Cに示すように、アイポイントExpL,ExpRの中央の幾らか上方、すなわち眼99L,99RをそれぞれアイポイントExpL,ExpRの位置内に位置合わせしたユーザ99の額の位置に触覚98を生成する。それにより、ユーザ99は、額に感じる触覚98を通じてアイポイントExpL,ExpRの位置を知り、それらに眼99L,99Rを位置合わせすることができる。
触覚生成装置33L,33Rは、アイポイントExpL,ExpRの位置に対するユーザ99の眼99L,99Rの位置、特にY軸方向の位置に応じて触覚98を生成する位置及びその強度を制御してもよい。図6Aから図6Cに、触覚98の生成位置及び強度の制御の一例を示す。検出部20がユーザ99を検知しない場合又は十分遠くに検知した場合、触覚生成装置33L,33Rは触覚98を生成しない。
図6Aに示すように、誘導部30dは、検出部20によりユーザ99のアイポイントExpへの接近を検知した場合に触覚生成装置33L,33Rにより触覚98を生成する。ここでは、ユーザ99はまだ画像表示装置100から離れているため、触覚生成装置33L,33Rはユーザ99の額に弱い触覚を生成する。
図6Bに示すようにユーザ99が画像表示装置100に接近すると、触覚生成装置33L,33Rは、検出部20によるユーザ99の位置の検出結果に基づいて触覚98をユーザ99の移動に合わせてアイポイントExpに向けて移動させるとともにその強度を上げる。それにより、ユーザ99は、眼99L,99RがアイポイントExpL,ExpRの位置に近づくにつれて強くなる触覚98を額に受ける。
図6Cに示すように、ユーザ99が画像表示装置100に到達し、眼99L,99RがそれぞれアイポイントExpL,ExpRの位置に入ると、触覚生成装置33L,33Rは、検出部20によりユーザ99の位置を検知して触覚98の強度をさらに上げる(又は最大強度に上げる)。このように、ユーザ99の眼99L,99RがアイポイントExpL,ExpRの位置に近づくにつれて、ユーザ99の額の位置に合わせて触覚98を生成する位置をY軸方向に移動するとともに触覚98の強度を上げることで、ユーザ99は触覚98を通じてアイポイントExpL,ExpRの位置を知り眼99L,99RをアイポイントExpL,ExpRの位置に容易に入れることが可能となる。
なお、誘導部30dは、触覚生成装置33L,33Rにより、ユーザ99の属性に応じて触覚98の強度を変更してもよい。ユーザの属性は、年齢、性別及び体重のいずれか1つを含む。検出部20によりユーザの属性を検出し、その検出結果に応じて誘導部30dが、例えば、女性、子供に対して触覚98の強度を下げ、大柄なユーザに対しては強度を上げる。
なお、触覚生成装置33L,33Rは、ユーザ99の額の位置に1つの触覚98を生成することに代えて、後述するようにユーザ99の左右のこめかみ又は頬の位置に2つの触覚98L,98Rを生成し、アイポイントExpL,ExpRの位置に対するユーザ99の眼99L,99Rの位置に応じてそれらを生成する位置をY軸方向に移動するとともに強度を制御してもよい。
触覚生成装置33L,33Rは、検出部20により検出されたユーザ99の眼99L,99Rの向き及びアイポイントExp(ExpL、ExpR)の位置に基づいて、アイポイントExp(ExpL、ExpR)の位置の左及び/又は右に、すなわち眼99L,99RをそれぞれアイポイントExpL,ExpRの位置内に位置合わせしたユーザ99の左右のこめかみの位置にそれぞれ触覚98L,98Rを生成してよく、さらに、それぞれの触覚98L,98Rの強度を制御してもよい。図7A及び図7Bに、触覚98の生成位置及び強度の制御の別の例を示す。
図7Aに示すように、誘導部30dは、検出部20によりユーザ99の眼99L,99RがアイポイントExpL,ExpRの位置に対して左方(白抜き矢印)を向いていることを検知した場合、触覚生成装置33L,33Rにより触覚98Lを弱く(又は強く)且つ触覚98Rを強く(又は弱く)生成する。それにより、ユーザ99は、頭部を右方に回転(黒塗り矢印)させようとする意識がはたらく力この結果、ユーザ99は、触覚98L,98Rを通じて頭部を右方に向けることで、眼99L,99RをそれぞれアイポイントExpL,ExpRの位置内に入れることができる。
図7Bに示すように、誘導部30dは、検出部20によりユーザ99の眼99L,99RがアイポイントExpL,ExpRに対して右方(白抜き矢印)を向いていることを検知した場合、触覚生成装置33L,33Rにより触覚98Lを強く(又は弱く)且つ触覚98Rを弱く(又は強く)生成する。それにより、ユーザ99は、頭部を左方に回転(黒塗り矢印)させようとする意識がはたらく。この結果、ユーザ99は、触覚98L,98Rを通じて頭部を左方に向けることで、眼99L,99RをそれぞれアイポイントExpL,ExpRの位置内に入れることができる。
このように、触覚生成装置33L,33Rにより、アイポイントExpL,ExpRの位置の左及び右にそれぞれ触覚98L,98Rを生成してユーザ99の左右のこめかみに触覚を与えるとともに、ユーザ99の眼99L,99Rの向きの検出結果に基づいてそれらの触覚98L,98Rの強度を制御することにより、ユーザ99は、左右のこめかみに感じる触覚の強度を通じて眼99L,99Rの向きを決めてアイポイントExpL,ExpRの位置内に入れることができる。
なお、図7A及び図7Bを用いて説明した触覚98L,98Rの生成位置及び強度の制御によるユーザ99の頭部の回転を、図6Aから図6Cを用いて説明した触覚98の生成位置及び強度の制御によるユーザ99のアイポイントExpへの誘導に続けて実行してもよい。例えば、ユーザ99のX軸方向の位置に応じて触覚98を生成する位置及びその強度を制御してもよい。この場合、ユーザ99の眼99L,99Rが、アイポイントExpL,ExpRの位置に対して-X方向にずれていた場合、触覚生成装置33L,33Rにより触覚98Lを強く(又は弱く)且つ触覚98Rを弱く(又は強く)生成する。ユーザ99は、触覚98L,98Rを通じて+X方向に移動することで、眼99L,99RをそれぞれアイポイントExpL,ExpRの位置内に入れることができる。なお、触覚生成装置33L,33Rを駆動装置(図示しない)によりX軸方向、Y軸方向及びZ軸方向に移動可能、又はチルト可能としてもよい。それにより、ユーザ99が画像表示装置100から離れていた場合に、触覚生成装置33L,33Rを駆動してユーザ99の方向に風圧や圧力等を発生させることで、確実にユーザ99に対して風圧や圧力等の触覚を感じさせることができる。
検出部20によりユーザ99の眼99L,99RがアイポイントExpL,ExpRの位置内に入ったこと、例えば眼99L,99Rが予め定めた時間より長くアイポイントExpL,ExpRの位置内に留まったことを検知すると、誘導部30dは、触覚生成装置33L,33Rを停止する。これに続いて、表示部10が画像Imを表示してよい。
図8に、第2の実施形態に係る画像表示方法のフローS200を示す。なお、フローS200は、検出部20がユーザ99の画像表示装置110への接近を検知することで開始する。
ステップS202では、検出部20により、アイポイントExp(ExpL,ExpR)の位置に対するユーザ99の眼99L,99Rの位置(X位置、Y位置、及びZ位置)及び向きを検出する。その検出結果は、誘導部30dに転送される。
ステップS204では、検出部20により、ステップS202で得られた検出結果に基づいて、ユーザ99の眼99L,99Rの位置がアイポイントExpL,ExpRの位置から離れているかどうか判断する。眼99L,99RがアイポイントExpL,ExpRの位置から離れていると判断されるとステップS206に進み、眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に位置していると判断されるとステップS208に進む。
ステップS206では、誘導部30dにより、ステップS202で得られた検出結果及びアイポイントExpL,ExpRの位置に基づいて触覚生成装置33L,33Rを用いて触覚ガイドを生成して、ユーザ99の眼99L,99Rを、アイポイントExpL,ExpRの位置に相対的に誘導する。
ステップS206の実行後、ステップS202~S206が、ステップS204で眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に位置している、つまりユーザ99が空中接眼したと判断されるまで繰り返される。
それにより、誘導部30dは、検出部20によりユーザ99の眼99L,99RのアイポイントExpの位置への接近を検知すると、図6Aに示したように、触覚生成装置33L,33Rにより触覚98を生成する。誘導部30dは、検出部20によりユーザ99が画像表示装置100に接近するのを検知すると、図6Bに示したように、触覚生成装置33L,33Rにより、検出部20によるユーザ99の位置の検出結果に基づいて触覚98をユーザ99の移動に合わせてアイポイントExpの位置に向けて移動させるとともにその強度を上げる。誘導部30dは、検出部20によりユーザ99が画像表示装置100に到達し、眼99L,99RがアイポイントExpL,ExpRの位置に到達したのを検知すると、触覚生成装置33L,33Rにより、検出部20によりユーザ99の位置を検知して触覚98の強度をさらに上げる(又は最大強度に上げる)。
このように、触覚生成装置33L,33Rにより、ユーザ99の眼99L,99RがアイポイントExpL,ExpRの位置に近づくにつれて、ユーザ99の額の位置に合わせて触覚98を生成する位置を移動するとともに触覚98の強度を上げることで、ユーザ99は触覚98を通じてアイポイントExpの位置を知り、眼99L,99RをアイポイントExpL,ExpRの位置に接近させることが可能となる。
さらに、誘導部30dは、検出部20によりユーザ99の眼99L,99RがアイポイントExpL,ExpRの位置に到達したがそれらに対して左方又は右方を向いていることを検知すると、図7A及び図7Bに示したように、触覚生成装置33L,33Rにより触覚98Lを弱く又は強く且つ触覚98Rを強く又は弱く生成する。それにより、ユーザ99は、頭部を右方又は左方に回転させようとする意識がはたらく。この結果、ユーザ99は、触覚98L,98Rを通じて頭部を右方又は左方に向けることで、眼99L,99RをそれぞれアイポイントExpL,ExpRの位置内に入れることができる。
このように、触覚生成装置33L,33Rにより、アイポイントExpL,ExpRの位置の左及び右にそれぞれ触覚98L,98Rを生成してユーザ99の左右のこめかみに触覚を与えるとともに、ユーザ99の眼99L,99Rの向きの検出結果に基づいてそれらの触覚98L,98Rの強度を制御することにより、ユーザ99は、左右のこめかみに感じる触覚の強度を通じて眼99L,99Rの向きを決めてアイポイントExpL,ExpRの位置内に入れることができる。
ステップS208では、検出部20によりユーザ99の眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に入ったことを検知すると、誘導部30dは、触覚生成装置33L,33Rを停止して触覚ガイドを終了する。なお、検出部20によりユーザ99の眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に入ったことを検知した場合、触覚生成装置33L,33Rが風圧又は圧力を断続的に変化させてもよい。ユーザ99は、風圧又は圧力の断続的な変化を触覚として感知することで、眼99L,99RのそれぞれがアイポイントExpL,ExpRの位置内に入ったことを認識することができる。
ステップS210では、表示部10により画像Im(ImL,ImR)を表示する。それにより、ユーザ99は、左眼及び右眼により左眼及び右眼用画像ImL,ImRの画角全体をそれぞれ目視することができる。ここで、表示部10が左眼及び右眼用画像ImL,ImRとして視差画像を表示した場合、ユーザ99は立体像を視認することができる。
なお、フローS200は、検出部20によりユーザ99が画像表示装置110から離れたことを検知することで終了する。
第2の実施形態に係る画像表示装置110は、画像Imが生成される位置に入力側の焦点を有し、画像を形成する光が出力される出力側に射出瞳を形成する光学ユニット12と、光学ユニットから出力される光を反射又は透過して、射出瞳の共役位置にアイポイントExpを形成する光学素子14と、を有する表示部10と、ユーザ99の眼99L,99Rの位置を検出する検出部20と、検出部の検出結果及びアイポイントの位置に基づいて触覚ガイドを生成して、ユーザの眼をアイポイントの位置に相対的に誘導する誘導部30dと、を備える。画像表示装置100は物理的に接触する接眼部を有さないためにユーザによっては接眼するのに戸惑うことが予想されるところ、検出部20により、アイポイントの位置に対するユーザの眼の位置を検出し、誘導部により、その検出結果に基づいて触覚ガイドを生成して、ユーザの眼をアイポイントの位置に相対的に誘導することにより、ユーザは、その誘導に従って表示部により空中に形成されるアイポイントの位置内に眼を容易に位置合わせ(すなわち、空中接眼)することが可能となる。
図9A、図9B、及び図9Cに、第3の実施形態に係る画像表示装置120の構成をそれぞれ側面視、正面視、及び上面視において概略的に示す。画像表示装置120は、先述の画像表示装置100,110と同様に、画像Imを、ユーザ99が構成部材に物理的接触することなく目視可能に表示する装置であり、表示部10、検出部20、及び誘導部30ddを備える。なお、画像Imは、静止画であってもよいし動画であってもよく、モノクロ画像であってもよいしカラー画像であってもよい。また、画像Imを目視するユーザ99を基準にして左右方向(ユーザの眼幅方向)をX軸方向、前後方向をY軸方向、及び上下方向をZ軸方向とする。表示部10及び検出部20は、先述の画像表示装置100,110におけるそれらと同様に構成される。ただし、表示部10のケース19は壁面W上に固定され、光学ユニット12(12L,12R)は、駆動装置34,35,36によりケース19の上面に設けられた開口(不図示)を介して下方に向けてケース19上に支持される。
図10に、画像表示装置120の制御系50の構成を示す。制御系50は、前述の表示部10、検出部20、及び誘導部30ddを含む。これらは互いに信号を送受信可能に接続されている。
誘導部30ddは、検出部20によるユーザ99の眼99L,99Rの位置の検出結果に基づいて、ユーザ99の眼99L,99Rを、アイポイントExpL,ExpRの位置に相対的に誘導するユニットであり、本実施形態では駆動装置34,35,36を含む。
駆動装置34は、光学ユニット12をXY方向に駆動する、特に本実施形態では左眼用及び右眼用光学ユニット12L,12Rを一体的に駆動する装置であり、X駆動装置34X及びY駆動装置34Yを有する。X駆動装置34X及びX駆動装置34Xとして、例えばリニアモータを採用してよい。X駆動装置34Xは、光学ユニット12L,12Rが固定された表示装置11L,11Rのそれぞれの±Y端部を保持してX軸方向に駆動する。Y駆動装置34Yは、X駆動装置34Xの±X端部を保持してY軸方向に駆動する。
駆動装置35は、駆動装置34をZ軸方向に駆動する装置である。駆動装置35として、例えばリニアモータを採用してよい。駆動装置35は、ケース19の上面上に固定され、駆動装置34の-Y端部を保持してZ軸方向に駆動する。
誘導部30ddは、検出部20による検出結果に基づいて駆動装置34,35を制御して、光学ユニット12L,12Rを光軸10L,10R(Z軸に平行)に対して平行な方向及び/又は直交する方向に駆動する。光学ユニット12L,12RをZ軸方向に駆動すると、アイポイントExpL,ExpRの位置は光軸10L',10R'(Y軸に平行)に沿ってY軸方向に移動する(図9Aに示す矢印(実線)参照)。光学ユニット12L,12RをY軸方向に駆動すると、アイポイントExpL,ExpRの位置をZ軸方向に移動する(図9Aに示す矢印(点線)参照)。光学ユニット12L,12RをX軸方向に駆動すると、アイポイントExpL,ExpRの位置をX軸方向に移動する(図9B及び図9Cに示す矢印参照)。
図11に示すように、誘導部30ddは、さらに、ハーフミラー13を光軸10L',10R'(Y軸に平行)に対して傾動する駆動装置36を含んでもよい。駆動装置36として、例えば回転モータを採用してよい。誘導部30ddは、検出部20による検出結果に基づいて駆動装置36を用いてハーフミラー13を上下に傾動することで、アイポイントExpL,ExpRの位置を上下動する(図11に示す矢印参照)。例えば、子供又は幼児など低身長のユーザ99を検知した場合、ハーフミラー13を下方に回動して、アイポイントExpL,ExpRの位置を下げる。さらに、誘導部30ddは、ハーフミラー13を左右に振ることで、アイポイントExpL,ExpRの位置を左右に移動してもよい。誘導部30ddにより、検出部20による検出結果に基づいて、光学ユニット12(12L,12R)をX軸方向、Y軸方向、Z軸方向に駆動する及び/又はハーフミラー13を傾動して、アイポイントExpL,ExpRの位置を前後、上下、左右に移動してユーザ99の眼99L,99Rの位置に合わせることができる。
図12に、第3の実施形態に係る画像表示方法のフローS300を示す。なお、フローS300は、検出部20がユーザ99の画像表示装置120への接近を検知することで開始する。
ステップS302では、検出部20により、アイポイントExp(ExpL,ExpR)の位置に対するユーザ99の眼99L,99Rの位置(X位置、Y位置、及びZ位置)及び向きを検出する。その検出結果は、誘導部30ddに転送される。
ステップS304では、検出部20により、ステップS302で得られた検出結果に基づいて、ユーザ99の眼99L,99Rの位置がアイポイントExpL,ExpRの位置から離れているかどうか判断する。眼99L,99RがアイポイントExpL,ExpRの位置から離れていると判断されるとステップS306に進み、眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に位置していると判断されるとステップS308に進む。
ステップS306では、誘導部30ddにより、ステップS302で得られた検出結果及びアイポイントExpL,ExpRの位置に基づいて駆動装置34,35,36を制御して光学ユニット12(12L,12R)を駆動及び光学素子14を傾動することにより、ユーザ99の眼99L,99RをアイポイントExpL,ExpRの位置に相対的に誘導する。
ステップS306の実行後、ステップS302~S306が、ステップS304で眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に位置している、つまりユーザ99が空中接眼したと判断されるまで繰り返される。
それにより、誘導部30ddは、光学ユニット12L,12RをZ軸方向に駆動することにより、アイポイントExpL,ExpRの位置を光軸10L',10R'(Y軸に平行)に沿ってY軸方向に移動し(図9Aに示す矢印(実線)参照)、光学ユニット12L,12RをY軸方向に駆動することにより、アイポイントExpL,ExpRの位置をZ軸方向に移動し(図9Aに示す矢印(点線)参照)、光学ユニット12L,12RをX軸方向に駆動することにより、アイポイントExpL,ExpRの位置をX軸方向に移動する(図9B及び図9Cに示す矢印参照)。さらに、誘導部30ddは、光学素子14を光軸10L',10R'(Y軸に平行)に対して上下に傾動することにより、アイポイントExpL,ExpRの位置を上下動する(図11に示す矢印参照)。
このように、駆動装置34,35,36により、光学ユニット12(12L,12R)をX軸方向、Y軸方向、Z軸方向に駆動する及び/又は光学素子14を傾動して、アイポイントExpL,ExpRの位置を前後、上下、左右に移動してユーザ99の眼99L,99Rの位置に合わせることができる。
ステップS308では、検出部20によりユーザ99の眼99L,99RがそれぞれアイポイントExpL,ExpRの位置内に入ったことを検知すると、誘導部30ddは、駆動装置34,35,36を停止して光学ユニット12(12L,12R)及び光学素子14を位置決めする。
ステップS310では、表示部10により画像Im(ImL,ImR)を表示する。それにより、ユーザ99は、左眼及び右眼により左眼及び右眼用画像ImL,ImRの画角全体をそれぞれ目視することができる。ここで、表示部10が左眼及び右眼用画像ImL,ImRとして視差画像を表示した場合、ユーザ99は立体像を視認することができる。
なお、フローS300は、検出部20によりユーザ99が画像表示装置120から離れたことを検知することで終了する。
第3の実施形態に係る画像表示装置120は、画像Imが生成される位置に入力側の焦点を有し、画像を形成する光が出力される出力側に射出瞳を形成する光学ユニット12と、光学ユニットから出力される光を反射又は透過して、射出瞳の共役位置にアイポイントExpを形成する光学素子14と、を有する表示部10と、アイポイントの位置に対するユーザ99の眼99L,99Rの位置を検出する検出部20と、検出部の検出結果に基づいて駆動装置34,35,36を制御して光学ユニットを駆動及び/又は光学素子を傾動して、ユーザの眼をアイポイントの位置に相対的に誘導する誘導部30ddと、を備える。画像表示装置100は物理的に接触する接眼部を有さないためにユーザによっては接眼するのに戸惑うことが予想されるところ、検出部20により、ユーザの眼の位置を検出し、誘導部により、その検出結果及びアイポイントの位置に基づいて光学ユニットを駆動及び/又は光学素子を傾動して、ユーザの眼をアイポイントの位置に相対的に誘導することにより、ユーザは、表示部により空中に形成されるアイポイントの位置内に眼を容易に位置合わせ(すなわち、空中接眼)することが可能となる。
なお、上述の構成の画像表示装置100,110,120において、検出部20を用いてユーザによる情報入力を受けるよう構成してもよい。検出部20は、ステレオカメラ21を用いて、ユーザ99のうなずき、首振りのような顔の動き、指の形、動きのような指によるジェスチャ、眼の大きさ、視線、表情の変化、瞬きの回数のような生体反応を検出し、それにより暗証番号のような秘匿情報の入力を受け付けてもよい。また、検出部20は、顔、虹彩を検出してユーザ認証してもよい。
また、図1Aから図1Cで示される、検出部20を除く画像表示装置100がXY平面に対して反転して配置されてもいてもよく、また、検出部20を含む画像表示装置100がXY平面に対して反転して配置されていてもよい。また、ユーザの眼の位置と、アイポイントの位置に基づいて、ユーザの眼をアイポイントの位置に相対的に誘導する代わりに、ユーザの眼の位置と、光学ユニット12L,12Rの射出瞳(不図示)をその共役位置(アイポイントの位置)にリレー(すなわち、再形成)することにより形成される瞳の領域とを用いてユーザの眼を瞳の領域内に相対的に誘導してもよい。例えば、瞳の領域が十分に大きい場合は、ユーザの左眼及び右眼のそれぞれが、アイポイントの位置に形成される左右の瞳のそれぞれの領域内に入っていれば、左眼及び右眼がアイポイントの位置に形成される左右の瞳それぞれの中心に位置していなくとも、ユーザは、表示部10により表示される画像Im(ImL,ImR)をケラレの発生なく視認することができる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10…表示部、10L,10R…光軸、11…表示装置、11L…左眼用表示画面、11R…右眼用表示画面、12…光学ユニット、12L…左眼用光学ユニット、12R…右眼用光学ユニット、13…ハーフミラー、14…光学素子、19…ケース、20…検出部、21…ステレオカメラ、30,30d,30dd…誘導部、31…表示モニタ、32…スピーカ、33…触覚生成装置、33,33L,33R…触覚生成装置、34,35,36…駆動装置、34X…X駆動装置、34Y…Y駆動装置、50…制御系、98…触覚、98L,98R…触覚、99…ユーザ、99L,99R…眼、100,110,120…画像表示装置、Exp,ExpL,ExpR…アイポイント、Im…画像、ImL…左眼用画像、ImR…右眼用画像、W…壁面。
Claims (18)
- 画像が生成される位置に入力側の焦点を有し、前記画像を形成する光が出力される出力側に射出瞳を形成する光学ユニットと、該光学ユニットから出力される光を反射又は透過して、前記射出瞳の共役位置にアイポイントを形成する光学素子と、を有する表示部と、
ユーザの眼の位置を検出する検出部と、
前記検出部が検出したユーザの眼の位置とアイポイントの位置に基づいて、前記ユーザの眼を、前記アイポイントの位置に相対的に誘導する誘導部と、
を備える画像表示装置。 - 前記誘導部は、前記アイポイントの位置の近傍の少なくとも一箇所に触覚を生成する触覚生成装置を有する、請求項1に記載の画像表示装置。
- 前記触覚生成装置は、圧力又は振動により前記ユーザの眼を、前記アイポイントの位置に相対的に誘導する、請求項2に記載の画像表示装置。
- 前記触覚生成装置は、前記アイポイントの位置の上方に触覚を生成する、請求項2又は3に記載の画像表示装置。
- 前記触覚生成装置は、前記アイポイントの位置に対する前記ユーザの眼の位置に応じて触覚を生成する位置又は強度を制御する、請求項4に記載の画像表示装置。
- 前記触覚生成装置は、前記ユーザの属性に応じて前記触覚の強度を変更し、ユーザの属性は、年齢、性別及び体重のいずれか1つを含む、請求項5に記載の画像表示装置。
- 前記検出部は、ユーザの眼の向きをさらに検出し、
前記触覚生成装置は、前記検出部が検出したユーザの眼の向きとアイポイントの位置に基づいて、前記アイポイントの位置の左又は右にそれぞれ触覚を生成する、請求項2から6のいずれか一項に記載の画像表示装置。 - 前記検出部は、ユーザの眼の向きをさらに検出し、前記触覚生成装置は、前記アイポイントの位置の左及び右にそれぞれ触覚を生成し、前記検出部が検出したユーザの眼の向きと前記アイポイントの位置に基づいて、それぞれの触覚の強度を制御する、請求項2から6のいずれか一項に記載の画像表示装置。
- 前記誘導部は、前記検出部によりユーザの眼の前記アイポイントの位置への接近を検知した場合に前記触覚生成装置により触覚を生成する、請求項2から8のいずれか一項に記載の画像表示装置。
- 前記誘導部は、前記検出部によりユーザの眼が前記アイポイントの位置内に入ったことを検知した場合に前記触覚生成装置を停止する、請求項2から9のいずれか一項に記載の画像表示装置。
- 前記誘導部は、前記光学ユニットを駆動する駆動装置を含み、前記検出部による検出結果に基づいて前記駆動装置を制御して、前記光学ユニットを光軸に対して平行な方向及び/又は交差する方向に駆動する、請求項1から10のいずれか一項に記載の画像表示装置。
- 前記検出部は、ユーザの眼の向きをさらに検出し、
前記誘導部は、前記検出部による検出結果に基づいて前記駆動装置を制御して、前記光学素子を光軸に対して傾動する、請求項11に記載の画像表示装置。 - 前記駆動装置は、ユーザの左眼及び右眼に対応する前記光学ユニットを一体で駆動する、請求項11又は12に記載の画像表示装置。
- 前記誘導部は、視覚及び/又は音声により、ユーザの眼の前記アイポイントの位置に対する相対位置を案内する、請求項1から13のいずれか一項に記載の画像表示装置。
- 前記光学素子は、前記光学ユニットから出力される光を反射する再帰性反射素子であり、
前記表示部は、前記光の光路における前記光学素子及び前記光学ユニットの間にハーフミラーをさらに有する、請求項1から14のいずれか一項に記載の画像表示装置。 - 前記光学素子は、複数の反射面が積層された積層部を前記複数の反射面が互いに交差するように複数積層した再帰性透過素子である、請求項1から請求項14のいずれか一項に記載の画像表示装置。
- 前記表示部は、ユーザの左眼及び右眼に対する2つのアイポイントをそれぞれ形成する、請求項1から16のいずれか一項に記載の画像表示装置。
- ユーザの眼の位置を検出する段階と、
前記検出する段階で検出したユーザの眼の位置と、画像が生成される位置に入力側の焦点を有し、前記画像を形成する光が出力される出力側に射出瞳を形成する光学ユニットと、該光学ユニットから出力される光を反射又は透過して、前記射出瞳の共役位置にアイポイントを形成する光学素子と、により空中に形成されるアイポイントの位置と、に基づいて、前記ユーザの眼を、前記アイポイントの位置に相対的に誘導する段階と、
前記画像を表示する段階と、
を備える画像表示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021027327A JP2022128876A (ja) | 2021-02-24 | 2021-02-24 | 画像表示装置及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021027327A JP2022128876A (ja) | 2021-02-24 | 2021-02-24 | 画像表示装置及び方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022128876A true JP2022128876A (ja) | 2022-09-05 |
Family
ID=83150623
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021027327A Pending JP2022128876A (ja) | 2021-02-24 | 2021-02-24 | 画像表示装置及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022128876A (ja) |
-
2021
- 2021-02-24 JP JP2021027327A patent/JP2022128876A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106249412B (zh) | 头戴式显示器装置 | |
US11378802B2 (en) | Smart eyeglasses | |
US20020113755A1 (en) | Wearable display apparatus | |
JP3151770B2 (ja) | 複眼式画像表示装置 | |
JPH0821975A (ja) | 頭部装着型映像表示システム | |
WO2016098412A1 (ja) | 頭部装着型表示装置、及び映像表示システム | |
US20070097319A1 (en) | Stereoscopic display | |
JP6279881B2 (ja) | 虚像表示装置 | |
CN112285934B (zh) | 图像显示装置及可穿戴设备 | |
JP2008176096A (ja) | 画像表示装置 | |
JPWO2018003859A1 (ja) | 表示装置、プログラム、表示方法および制御装置 | |
JP2018206149A (ja) | 入力装置 | |
JP2000249974A (ja) | 表示装置及び立体表示装置 | |
JP2006195665A (ja) | 情報処理装置 | |
JP3900578B2 (ja) | 追従型虚像視ディスプレイシステム | |
KR20190097894A (ko) | 가상 오브젝트의 처리가 가능한 스마트 안경 | |
KR102269833B1 (ko) | 스마트 안경 | |
CN112204453B (zh) | 影像投射系统、影像投射装置、影像显示光衍射光学元件、器具以及影像投射方法 | |
KR20190106900A (ko) | 전자 디바이스 | |
JP2022128876A (ja) | 画像表示装置及び方法 | |
JPH06235885A (ja) | 立体映像表示装置 | |
JP2001290101A (ja) | 奥行き方向視点調節意志検出と意志駆動方式および遠近自動補正眼鏡 | |
JP2011059435A (ja) | ヘッドマウントディスプレイ | |
JP2006011145A (ja) | 双眼顕微鏡装置 | |
JPH09218376A (ja) | 立体表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231002 |