JP6056171B2 - 立体画像表示装置及び方法 - Google Patents

立体画像表示装置及び方法 Download PDF

Info

Publication number
JP6056171B2
JP6056171B2 JP2012076801A JP2012076801A JP6056171B2 JP 6056171 B2 JP6056171 B2 JP 6056171B2 JP 2012076801 A JP2012076801 A JP 2012076801A JP 2012076801 A JP2012076801 A JP 2012076801A JP 6056171 B2 JP6056171 B2 JP 6056171B2
Authority
JP
Japan
Prior art keywords
optical unit
pixels
images
lens
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012076801A
Other languages
English (en)
Other versions
JP2013205749A (ja
Inventor
佐藤 輝幸
輝幸 佐藤
峰生 守部
峰生 守部
馬田 孝博
孝博 馬田
浩寧 吉川
浩寧 吉川
伊藤 隆
伊藤  隆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012076801A priority Critical patent/JP6056171B2/ja
Priority to CN201210587599.4A priority patent/CN103364959B/zh
Priority to US13/747,097 priority patent/US9030737B2/en
Publication of JP2013205749A publication Critical patent/JP2013205749A/ja
Application granted granted Critical
Publication of JP6056171B2 publication Critical patent/JP6056171B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/34Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Description

開示の技術は立体画像表示装置及び立体画像表示方法に関する。
ウェアラブルコンピューティングにおいて、身につけるディスプレイとしてHMD(Head Mount Display:頭部装着型ディスプレイ)が知られている。HMDは装着状態で両手が空くことから、作業者を支援するデバイスとしても期待されている。HMDは、動画像等の画像を表示する表示部と、その明視距離を遠くにするための接眼レンズが主要構成要素である。一般にHMDは、表示部及び接眼レンズの組が左眼用と右眼用の一対設けられており、それぞれの目に独立した画像を見せることが可能である。左眼用の画像及び右眼用の画像として同じ画像を表示にすれば一般的な2Dディスプレイとなり、左眼用の画像及び右眼用の画像として視差のついた別の画像を表示すれば、両眼視による奥行き認知が可能な3Dディスプレイとして機能する。
なお、2D表示と3D表示を切り替え可能なHMDに関し、表示部と接眼レンズの間にレンチキュラーレンズを設けることで、左右の画像光を異なる方向に振り分ける構成が提案されている。
また、両眼視差を利用した立体画像の表示では、鑑賞者が不自然さを感じ易く、また鑑賞者の眼精疲労が大きいという課題があることが知られている。この解決策として多眼式立体表示法や超多眼式立体表示法が提案されている。
以下、まず図14を参照して多眼式立体表示法について説明する。多眼式立体表示法は、鑑賞位置に応じた視点画像を空間上に複数作ることで、頭を振ると見えが変わる『運動視差』を表現し、より自然に近い立体映像を表示する技術である。図14に示すように、代表的な多眼式の立体ディスプレイでは、視点画像を眼間距離の間隔で配置する。これによって鑑賞位置に応じて見える立体像が変化し、運動視差が表現される。
次に、図15及び図16を参照して超多眼式立体表示法の説明を用いて説明する。人間が三次元空間を知覚するための手がかりとなる光線は、実際の物体からの連続的な光線のうち左右の眼の瞳孔を通った光線である。自然界における上記の連続的な光線をサンプリングするには、図15(A)に示す多眼式ではサンプリング間隔が粗すぎであり、図15(B)に示すようにサンプリング間隔は瞳孔径よりも狭くする必要がある。超多眼式立体表示法では、図15(B)に示すように上記のサンプリング間隔を瞳孔径よりも狭くすると共に、瞳孔径よりも間隔を狭くした個々の光線が成す画像同士に僅かな視差をつけている。このように僅かな視差のついた画像の光線が同時に眼球に入ると、図16(A)に示すように、眼球の焦点調節をスクリーン面上に合わせた場合、異なる視点映像PR1,PR2が網膜上の異なる場所に2重像として投影される。これは、網膜上でボケとして認知される。ボケの視覚を避ける脳の働きにより、2重像を視認している状態から、図16(B)のように網膜上で一点になるように眼球の調節刺激が誘起される。
観察者が自然界で物体を見るとき、両目の輻輳により知覚する物体の空間上の位置に、焦点も合わせる。つまり映像の両眼視差によって知覚した空間上の位置に2重像を避ける調節運動により焦点も一致すれば、自然界で物体を見ている状態と区別ができなくなる。すなわち自然な立体視が可能になる。
特開2011−145488号公報
独立行政法人 情報通信研究機構、"高度立体動画像通信プロジェクト最終成果報告書"、[online]、[平成24年3月16日検索]、インターネット<URL:http://seika-kokai.nict.go.jp/doc/result/199611005/199611005_houkoku-04.pdf>
HMDでは、内蔵されている表示部に対して目の位置が変化しないので、眼間距離の個人差を除けば運動視差を表現する必要はないものの、HMDにおいて、超多眼式立体表示法を適用して立体画像の表示を行えば、上述のように自然な立体視の実現が期待できる。しかしながら、HMDのように、接眼レンズを通じて虚像を視認させる構成の光学系を有する表示装置において、超多眼式立体表示法を適用して立体画像の表示を行った例は知られていない。このため、上記構成の表示装置において、超多眼式立体表示法を適用した立体画像の適正な表示を実現するための光学条件は知られていなかった。
開示の技術は、接眼レンズを通じて虚像を視認させる構成の光学系を有する構成において、超多眼式立体表示法を適用した立体画像の適正な表示を実現できる光学条件を得ることが目的である。
開示の技術は、互いに視点が異なるN個の画像を合成した合成画像を表示する表示部を含んでいる。合成画像は、N個の画像から対応する1画素を各々取り出し、取り出したN画素を所定方向に沿って所定の順序で並べて要素画素を形成することを、前記N個の画像の全画素に対して行うことで生成される。また、開示の技術は、所定方向に沿って配列された幅pの小レンズ群を備えた焦点距離f1の第1の光学部を含んでいる。第1の光学部は、個々の小レンズが、所定方向に沿って表示部の互いに異なる単一の要素画素の表示領域に対応するように配置され、対応する要素画素のN画素から射出される光線を、互いに光線方向の異なるN本の平行光に分離する。また、開示の技術は、第1の光学部から射出された個々の小レンズ当りN本の平行光を、光軸からオフセットさせて集光する焦点距離f2の第2の光学部を含んでいる。そして、開示の技術は、第1の光学部と第2の光学部の距離d1がf2−f1≦d1≦f2とされ、第2の光学部からの観察距離d2がd2≒f2とされ、N個の視点が分布する観察視域幅Wvが、瞳孔径以下で、かつWv=f2/f1×pとされている。
開示の技術により、接眼レンズを通じて虚像を視認させる構成の光学系を有する構成において、超多眼式立体表示法を適用した立体画像の適正な表示を実現できる、という効果を有する。
実施形態で説明したHMDの概略構成図である。 HMDの筐体内における光学系の配置を示す概略上面図である。 HMDの筐体の外観を示す斜視図である。 画素配置制御部の概略構成を示すブロック図である。 N=5の場合に、レンチキュラーレンズの各要素レンズに対応する画素と、レンチキュラーレンズによって形成される5個の視点の異なる画像を各々示す概略図である。 レンチキュラーレンズの要素レンズの中央からのずれ量xと集光位置の変位量yとの関係を示す概略図である。 図6において、レンチキュラーレンズと接眼レンズを近づけた場合を示す概略図である。 本実施形態における光学系の配置を説明するための概略図である。 光学条件の導出過程を説明するための概略図である。 光学条件の導出過程を説明するための概略図である。 光学条件の導出過程を説明するための概略図である。 光学条件の導出過程を説明するための概略図である。 光学条件の導出過程を説明するための概略図である。 多眼式立体表示法を説明するための概略図である。 多眼式立体表示法と超多眼式立体表示法の相違を示す概略図である。 超多眼式立体表示法で誘起される眼球の調節を説明するための概略図である。
以下、図面を参照して開示の技術の実施形態の一例を詳細に説明する。図1には、本実施形態に係るHMD10が示されている。なお、図1及び後述する図2,3では、左眼用の構成要素には符号の末尾に"L"を付し、右眼用の構成要素には符号の末尾に"R"を付して各々を区別している。
HMD10は、ディスプレイ12と、ディスプレイ12の表示面に貼り付けられたレンチキュラーレンズ14と、レンチキュラーレンズ14から間隔を空けて配置された接眼レンズ16と、を備えた光学系が2組設けられている。なお、ディスプレイ12としては、LCD(Liquid Crystal Display)や有機EL(ElectroLuminescence)ディスプレイ等を適用することができる。また接眼レンズ16は、観察者に虚像を観察させることで、ディスプレイ12までの短い距離を仮想的に長くする目的で設けられている。
一方、レンチキュラーレンズ14は、断面がおよそ半円状で細長い形状の小レンズ(要素レンズという)を小レンズの幅方向に沿って複数並べたレンズである。HMD10は超多眼式立体表示法を適用した立体画像の表示を可能とする装置であり、レンチキュラーレンズ14の各要素レンズは、ディスプレイ12の表示面のうち、各要素レンズの幅方向に沿って視点の数Nと同数のN画素に対応する幅とされている。なお、一例として、後述する図5には、N=5の場合に、レンチキュラーレンズ14の各要素レンズが各々N=5個の画素に対応している状態が示されている。
なお、ディスプレイ12は開示の技術における表示部の一例であり、レンチキュラーレンズ14は開示の技術における第1の光学部の一例であり、接眼レンズ16は開示の技術における第2の光学部の一例である。
図2に示すように、上記の光学系は、HMD10の筐体18内のうち、それぞれ左眼に対応する位置、右眼に対応する位置に各々配置されている。また、上記の光学系は、接眼レンズ16側が眼に近い側となり、レンチキュラーレンズ14の要素レンズの配列方向がHMD10の左右方向に対応する向きで各々配置されている。なお、図3に示すように、HMD10の筐体18には、HMD10が利用者に装着された状態で、利用者の鼻に接触するノーズパッド30が取り付けられている。
一方、HMD10の筐体18内のうち、2組の光学系の間には表示制御部20が配置されており、2個のディスプレイ12は表示制御部20に接続されている。図1に示すように、表示制御部20は、動画像データ記憶部22、一対の動画像データ読出部24、動画像データ読出制御部26及び一対の画素配置制御部28を備えている。
動画像データ記憶部22は、左眼用及び右眼用の動画像データとして、左右方向に沿って視点位置が互いに異なるN個(N≧2)の動画像データを記憶している。動画像データ読出制御部26は、一対の動画像データ読出部24による動画像データ記憶部22からの動画像データの読み出しを制御する。動画像データ読出部24Lは、左眼用の動画像データとして、互いに視点位置が異なるN個の動画像データを各々読み出し、読み出したN個の動画像データを画素配置制御部28Lへ出力する。動画像データ読出部24Rは、右眼用の動画像データとして、互いに視点位置が異なるN個の動画像データを各々読み出し、読み出したN個の動画像データを画素配置制御部28Rへ出力する。
図4に示すように、一対の画素配置制御部28は、N個のローパスフィルタ(LPF)32、N個のダウンサンプリング部34、N個の選択部36及び画素配列処理部38を各々備えている。N個のLPF32は、動画像データ読出部24から入力された視点位置が異なるN個の動画像データ(図4では視点画像#1〜#Nと表記)の各フレームに対し、画像の左右方向について解像度を低下させるための前処理として、高周波成分を除去する処理を各々行う。N個のダウンサンプリング部34は、LPF32から出力された、N個の動画像データの各フレームに対し、画像の左右方向について画素を1/Nに間引くことで解像度を1/Nに低下させるダウンサンプリング処理を行う。
N個の選択部36及び画素配列処理部38は、N個の動画像データの対応するN個のフレームから対応する1画素を各々取り出し、取り出したN画素を所定の順序で並べて要素画素を形成することを、N個のフレームの全画素に対して行う。ここで、上記の要素画素は、レンチキュラーレンズ14の各要素レンズが各々対応するN個の画素の集合である。また、個々の要素画素内におけるN個の画素の配列順序は、N個の画素の取り出し元のフレーム(動画像)の左右方向に沿った視点位置の順序に対して逆の順序である。このN個の選択部36及び画素配列処理部38により、N個の動画像データの各フレーム毎に、N個のフレームを合成した単一のフレーム画像が生成される。
次に本実施形態の作用を説明する。本実施形態に係るHMD10では、超多眼式立体表示法の実現を目的として、ディスプレイ12の表示面にレンチキュラーレンズ14を貼り付けている。これにより、レンチキュラーレンズ14の個々の要素レンズに対応する、単一の要素画素を成すN個の画素から各々射出された光の方向が互いに変化する。レンチキュラーレンズ14の要素レンズの中心に位置する画素からの光は真っ直ぐ射出され、要素レンズの中心からずれた画素からの光は、要素レンズの中心からのずれに応じた角度の方向に射出される。
N=5の場合を示す図5を参照して更に説明する。レンチキュラーレンズ14が表示面に貼り付けられたディスプレイ12を真正面から観察した際の視点は、図5に示す視点#1〜視点#5の5視点のうち、中央に位置している視点#3である。例えば視点#3に形成される画像(この画像を視点画像という)は、レンチキュラーレンズ14の各要素レンズの中心に位置している画素列40C,42C,44C,46C,48Cを含んでいる。また、例えば視点#3の左隣の視点#4に形成される視点画像は、レンチキュラーレンズ14の各要素レンズの中心の画素列の右隣に位置している画素列40D,42D,44D,46D,48Dを含んでいる。また、例えば右端の視点#1に形成される視点画像は、レンチキュラーレンズ14の各要素レンズに対応する画素のうち左端に位置している画素列40A,42A,44A,46A,48Aを含んでいる。他の視点#2,#5についても同様である。
上記のように、視点が変わり、見る方向が変わることで、見える画像、すなわち視点画像が変化する。個々の要素レンズに対応するN個の画素のうちの画素の位置に応じて、光が射出される方向、すなわち視点が変化する。また、視点画像における一画素は、レンチキュラーレンズ14の1つの要素レンズに相当している。また、個々の視点画像における同一位置の画素は、レンチキュラーレンズ14の同一要素レンズに対応する画素から発光された光によって形成されている。すなわち、例えば図5で、視点#1〜#5の視点画像の中央に位置する画素列44A〜44Eは、レンチキュラーレンズ14の中央の要素レンズに対応する画素列である。
多眼式立体表示法や超多眼式立体表示法では多くの視点画像を形成する必要があるものの、左右の眼の間には視点画像を形成する必要はない。本実施形態に係るHMD10は、ディスプレイ12と、レンチキュラーレンズ14及び接眼レンズ16を備えた光学系が左右の眼に対応して2組設けられており、個々の光学系で左眼用、右眼用の複数の視点画像を効率良く形成できるので、構成が簡単で済む。
次に、接眼レンズ16越しに観察される視点画像について説明する。図6の右側に拡大表示したように、ディスプレイ12の表示面にレンチキュラーレンズ14を貼り付けた発光部からは、レンチキュラーレンズ14の各要素レンズの中央からのずれ量xに応じた射出角度θで平行光が射出される。なお、レンチキュラーレンズ14の焦点位置はディスプレイ12の表示面に一致しているものとする。
図6の左側に示したように、接眼レンズ16は、レンチキュラーレンズ14側からの平行光を、接眼レンズ16の焦点距離だけ隔てた位置において、入射角度θに応じて光軸から変位量yだけ変位した位置に集光する。この集光位置で観察すると、接眼レンズ16越しに視点画像の虚像が観察できる。図6では、破線で囲んだ範囲内が視点Aから観察される画像であり、一点鎖線で囲んだ範囲内が中央の視点Bから観察される画像である。視点A,Bから観察される画像の一例を図6に視点画像A,Bとして示す。
このように、眼の位置をずらせば観察される視点画像が変化する。このとき、ディスプレイ12の表示面上の画素配置において、レンチキュラーレンズ14のN本目の要素レンズが視点画像を構成する画素のN番目に相当しており、また各要素レンズ内の位置(ずれ量)xが平行光の射出方向、ひいては視点位置に相当する。
しかしながら、HMD10における上述した超多眼式立体表示法の実現においては、次のような課題がある。すなわち、図7では、レンチキュラーレンズ14と接眼レンズ16の距離を図6に示した距離よりも近づけている。各視点で観察される視点画像は、各視点から光線軌跡を辿って、レンチキュラーレンズ14に達したところの要素レンズに対応する画素から形成される画像である。図7において、視点Aからの光線軌跡は、図6における視点Aと比べてレンチキュラーレンズ14の同一の要素レンズではなく一つ左隣りの要素レンズに達しており、図7における視点Aでは、一つ左隣りの要素レンズに対応する画素から形成される画像が観察されることになる。これは、図7に視点画像A'として破線で示すように右にずれた画像がみえることになり、視点画像間の視差が不適切になっている。
上記の課題を解決するため、本実施形態では、図8に示すように、レンチキュラーレンズ14の焦点距離をf1、接眼レンズ16の焦点距離をf2としたときに、レンチキュラーレンズ14と接眼レンズ16との距離d1を
f2−f1≦d1≦f2 …(1)
としている。また、接眼レンズ16からの観察距離d2が
d2≒f2 …(2)
となるように、HMD10が利用者に装着された状態で利用者の鼻に接触するノーズパッド30の位置が設定されている。
次に、上記の(1),(2)式の光学条件の原理(導出過程)について説明する。まず図8,9を参照し、接眼レンズからの観察距離d2について考える。ディスプレイ12の表示面にレンチキュラーレンズ14が貼り付けられ、間隔を空けて接眼レンズ16が配置された構成では、レンチキュラーレンズ14の各要素レンズから平行に射出された光線が、接眼レンズ16を通った先で一点に収束する。図9に示すように、例えばレンチキュラーレンズ14の各要素レンズに対応する要素画素のうちの中央の画素から射出された光は、接眼レンズ16を通った先で一点に収束する。これは、接眼レンズ16からの観察距離d2は接眼レンズ16の焦点距離f2と等しくなることを意味している。
次に、図10を参照し、レンチキュラーレンズ14と接眼レンズ16との距離d1について考える。図10は、レンチキュラーレンズ14の同一の要素レンズから射出された5本の光線の軌跡を示したものである。各視点画像における同一位置の画素は、レンチキュラーレンズ14の同一の要素レンズに対応する画素である必要がある。この原理に基づくと、異なる視点画像における同一位置の画素を形成する光線は、レンチキュラーレンズ14の同一の要素レンズの一点を通過する。すなわち、視点から逆に辿った光線が、一点に収束することを意味する。このことから、レンチキュラーレンズ14と接眼レンズ16との距離d1は接眼レンズ16の焦点距離f2と等しいのが理想的であることが理解できる。
但し、距離d1が焦点距離f2を僅かでも超えると、接眼レンズ16を通じて虚像が観察できなくなることから、レンチキュラーレンズ14と接眼レンズ16との距離d1は接眼レンズ16の焦点距離f2よりも大きくはならない。製造公差を考慮すると、レンチキュラーレンズ14と接眼レンズ16との距離d1に許容範囲を与えることで、レンチキュラーレンズ14と接眼レンズ16との距離d1を焦点距離f2より短く設計しておくことが現実的である。以下、この条件についてより詳細に説明する。
まず、図11を参照し、ディスプレイ12の表示面に貼り付けられたレンチキュラーレンズ14と接眼レンズ16によって形成される光線の光路について説明する。図11(A)に示すレンチキュラーレンズ14の役割は、ディスプレイ12の表示面上に位置する画素を、レンチキュラーレンズ14の要素レンズの中心位置からのずれ量xに応じて、平行光として射出される光線の射出角度θを制御する点である。図11(A)に太線で示した三角形に注目すると、このずれ量xと射出角度θの関係式は、
x=f1×tanθ …(3)
で与えられる。
また、図11(B)に示す接眼レンズ16の役割は、入射角度θで入射してきた平行光を、入射角度θに応じて、接眼レンズ16の光軸から変位量yだけずれた位置に収斂させる点である。図11(B)に太線で示した三角形に注目すると、入射角度θと変位量yの関係式は、
y=f2×tanθ …(4)
である。観察者は、接眼レンズ16からの観察距離d2≒f2の位置から観察すれば、レンチキュラーレンズ14から平行に射出された光線によって形成される視点画像を、接眼レンズ16越しに虚像として観察することができる。
次に、図12を参照し、レンチキュラーレンズ14の要素レンズと観察視域との関係式を導く。レンチキュラーレンズ14の視野角を2φとすると、光線の射出角度θの最大値はφである。また、図12(A),(B)に示すように、レンチキュラーレンズ14の各要素レンズの幅をp、鑑賞位置での視域幅をWvとする。先の(3)式を導いた三角形の底辺xがp/2、先の(4)式を導いた3角形の底辺yがWv/2であることから、
p/2=f1×tanφ …(5)
Wv/2=f2×tanφ …(6)
と表記することができ、ここからtanφを消去することで次の(7)式が得られる。
Wv=f2/f1×p …(7)
上記の(7)式がレンチキュラーレンズ14の要素レンズと観察視域の関係式である。この(7)式から、接眼レンズ16の焦点距離f2の設計によって、観察視域幅Wv、ひいては視点間距離の疎密を設計できることが示される。超多眼式立体表示法の場合、観察視域幅Wvが人間の眼の瞳孔径に応じて定まり(観察視域幅Wv≦瞳孔径)、視点間距離は観察視域幅Wvと視点の数Nに応じて定まるので、これらの条件に基づいて接眼レンズ16の焦点距離f2が設計される。
続いて図13を参照し、レンチキュラーレンズ14と接眼レンズ16との距離d1の条件を示す。レンチキュラーレンズ14と接眼レンズ16との距離をdとおくと、レンチキュラーレンズ14から射出された射出角度θ=φの光線により、接眼レンズ16では、光線を射出した要素レンズに対してd×tanφだけずれた位置に光線が入射する。観察視域の一番端から、図13に太線で示すように光線の軌跡を辿ると、軌跡はそれだけずれてレンチキュラーレンズ14に辿り着き、それが適正な要素レンズに到達していればよく、隣の要素レンズに到達していると問題となる。
これを式で表すと、
Wv/2−d×tanφ≦p/2 …(8)
となる。()式からtanφを消去すると、次の(9)式が得られる。
Wv/2−(Wv/2)×(d/f2)≦p/2 …(9)
上記の()式の両辺をWvで除して2倍すると、次の(10)式が得られる。
(1−d/f2)≦p/Wv …(10)
先の()式より、(10)式の右辺を書き換えると、次の(11)式が得られる。
(1−d/f2)≦f1/f2 …(11)
(11)式を整理すると次の(12)式が得られる。
d≧f2−f1 …(12)
以上から、レンチキュラーレンズ14と接眼レンズ16との距離d1を接眼レンズ16の焦点距離f2より短く設計する場合、その許容範囲は、レンチキュラーレンズ14の焦点距離f1であることが示された。従って、レンチキュラーレンズ14と接眼レンズ16との距離d1の製造公差はレンチキュラーレンズ14の焦点距離f1以下に抑制する必要があることが理解できる。また、レンチキュラーレンズ14と接眼レンズ16との距離d1の設計値は、製造公差を考慮し、距離d1の上限値が焦点距離f2に等しくなるように定めればよいことが理解できる。
本実施形態に係るHMD10において、動画像データ読出部24Lは、左眼用の動画像データとして、互いに視点位置が異なるN個の動画像データを動画像データ記憶部22から各々読み出し、読み出したN個の動画像データを画素配置制御部28Lへ出力する。また、動画像データ読出部24Rは、右眼用の動画像データとして、互いに視点位置が異なるN個の動画像データを動画像データ記憶部22から各々読み出し、読み出したN個の動画像データを画素配置制御部28Rへ出力する。
一対の画素配置制御部28のN個のLPF32は、動画像データ読出部24から入力された視点位置が異なるN個の動画像データの各フレームに対し、画像の左右方向について高周波成分を除去する処理を各々行う。また、一対の画素配置制御部28のN個のダウンサンプリング部34は、LPF32から出力されたN個の動画像データの各フレームに対し、画像の左右方向について画素を1/Nに間引くことで解像度を1/Nに低下させるダウンサンプリング処理を行う。
一対の画素配置制御部28のN個の選択部36及び画素配列処理部38は、N個の動画像データの各フレームから対応する1画素を各々取り出し、取り出したN画素を所定の順序で並べて要素画素を形成することを、N個のフレームの全画素に対して行う。ここで、個々の要素画素内におけるN個の画素の配列順序は、N個の画素の取り出し元のフレーム(動画像)の左右方向に沿った視点位置の順序に対して逆の順序である。これにより、N個の動画像データの各フレーム毎に、N個のフレームを合成した単一のフレーム画像が生成され、生成されたフレーム画像がディスプレイ12に表示される。
従って、例えば視点の数N=5であるとすると、5個の視点のうち右端の視点に対応する動画像のフレームの各画素は、図5に画素列40A,42A,…として示すように、個々の要素画素の左端に配置される。また、右端から2番目の位置の視点に対応する動画像のフレームの各画素は、図5に画素列40B,42B,…として示すように、個々の要素画素の左端から2番目の位置に配置される。また、左右方向の真ん中の位置の視点に対応する動画像のフレームの各画素は、図5に画素列40C,42C,…として示すように、個々の要素画素の真ん中の位置に配置される。また、左端から2番目の位置の視点に対応する動画像のフレームの各画素は、図5に画素列40D,42D,…として示すように、個々の要素画素の右端から2番目の位置に配置される。更に、左端の視点に対応する動画像のフレームの各画素は、図5に画素列40E,42E,…として示すように、個々の要素画素の右端に配置される。
前述のように、ディスプレイ12の表示面に表示されたフレーム画像の個々の画素は、レンチキュラーレンズ14の対応する要素レンズの中心位置からのずれ量xに応じた射出角度θの平行な光線としてレンチキュラーレンズ14から射出される。また、接眼レンズ16に入射角度θの平行光として入射された光線は、接眼レンズ16の光軸から入射角度θに応じた変位量yだけずれた位置に収斂される。
ここで、本実施形態に係るHMD10は、レンチキュラーレンズ14と接眼レンズ16との距離d1が前出の(1)式を満足し、接眼レンズ16からの観察距離d2が前出の(2)式を満足するように構成されている。これにより、N個の視点位置に各々形成されるN個の視点画像(動画像)は、N個の視点画像における同一位置の画素が、レンチキュラーレンズ14の同一要素レンズに対応する画素から発光された光によって形成された画像となる。従って、HMD10において、超多眼式立体表示法を適用した立体画像の適正な表示が実現される。
なお、上記では、接眼レンズ16からの観察距離を接眼レンズ16の焦点距離f2におよそ一致させるための部材の一例としてノーズパッド30を挙げたが、これに限定されるものではない。例えば、HMD10の筐体18の外面のうち接眼レンズ16の周囲に環状に設けられ、利用者がHMD10を装着した際に利用者の眼部の周囲の皮膚に接触する構成のパッド等を用いてもよい。
また、上記では視点(視点画像)の数Nの一例として、N=5の場合を図面に示して説明したが、N≧2であればよく、視点(視点画像)の数Nは2〜4であっても6以上であってもよい。
また、上記では第1の光学部の一例としてレンチキュラーレンズ14を説明したが、これに限定されるものではなく、フライアレイレンズを適用することも可能である。
また、上記では動画像(映像)の表示を説明したが、開示の技術は静止画像の表示に適用することも可能である。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
10 HMD
12 ディスプレイ
14 レンチキュラーレンズ
16 接眼レンズ
20 表示制御部
22 動画像データ記憶部
24 動画像データ読出部
26 動画像データ読出制御部
28 画素配置制御部
30 ノーズパッド
32 LPF
34 ダウンサンプリング部
36 選択部
38 画素配列処理部

Claims (6)

  1. 互いに視点が異なるN個の画像から対応する1画素を各々取り出し、取り出したN画素を所定方向に沿って所定の順序で並べて要素画素を形成することを、前記N個の画像の全画素に対して行うことで、前記N個の画像を合成した合成画像を表示する表示部と、
    前記所定方向に沿って配列された幅pの小レンズ群を備え、個々の小レンズが、前記所定方向に沿って前記表示部の互いに異なる単一の前記要素画素の表示領域に対応するように配置され、対応する前記要素画素のN画素から射出される光線を、互いに光線方向の異なるN本の平行光に分離する焦点距離f1の第1の光学部と、
    前記第1の光学部から射出された個々の小レンズ当りN本の平行光を、光軸からオフセットさせて集光する焦点距離f2の第2の光学部と、
    を備え、
    前記第1の光学部と前記第2の光学部の距離d1が
    f2−f1≦d1≦f2
    とされ、前記第2の光学部からの観察距離d2が
    d2≒f2
    とされ、N個の視点が分布する観察視域幅Wvが、瞳孔径以下で、かつ
    Wv=f2/f1×p
    とされた立体画像表示装置。
  2. 前記第1の光学部と前記第2の光学部の距離d1がd1=f2とされた請求項1記載の立体画像表示装置。
  3. 前記第1の光学部がレンチキュラーレンズであり、前記所定の順序は、前記N個の画像から各々取り出したN画素の取り出し元の画像の所定方向に沿った視点の配列に対して逆の順序である請求項1又は請求項2記載の立体画像表示装置。
  4. 互いに視点が異なるN個の画像から対応する1画素を各々取り出し、取り出したN画素を所定方向に沿って所定の順序で並べて要素画素を形成することを、前記N個の画像の全画素に対して行うことで、前記N個の画像を合成した合成画像を表示する表示部、
    前記所定方向に沿って配列された幅pの小レンズ群を備え、個々の小レンズが、前記所定方向に沿って前記表示部の互いに異なる単一の前記要素画素の表示領域に対応するように配置され、対応する前記要素画素のN画素から射出される光線を、互いに光線方向の異なるN本の平行光に分離する焦点距離f1の第1の光学部、
    及び、前記第1の光学部から射出された個々の小レンズ当りN本の平行光を、光軸からオフセットさせて集光する焦点距離f2の第2の光学部を、
    前記第1の光学部と前記第2の光学部の距離d1が
    f2−f1≦d1≦f2
    となり、前記第2の光学部からの観察距離d2が
    d2≒f2
    となり、N個の視点が分布する観察視域幅Wvが、瞳孔径以下で、かつ
    Wv=f2/f1×p
    となるように配置し、
    前記表示部に前記合成画像を表示させる立体画像表示方法。
  5. 前記第1の光学部と前記第2の光学部の距離d1がd1=f2となるように、前記第1の光学部と前記第2の光学部を配置した請求項4記載の立体画像表示方法。
  6. 前記第1の光学部がレンチキュラーレンズであり、前記所定の順序は、前記N個の画像から各々取り出したN画素の取り出し元の画像の所定方向に沿った視点の配列に対して逆の順序である請求項4又は請求項5記載の立体画像表示方法。
JP2012076801A 2012-03-29 2012-03-29 立体画像表示装置及び方法 Expired - Fee Related JP6056171B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012076801A JP6056171B2 (ja) 2012-03-29 2012-03-29 立体画像表示装置及び方法
CN201210587599.4A CN103364959B (zh) 2012-03-29 2012-12-28 三维显示装置及方法
US13/747,097 US9030737B2 (en) 2012-03-29 2013-01-22 3D display device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012076801A JP6056171B2 (ja) 2012-03-29 2012-03-29 立体画像表示装置及び方法

Publications (2)

Publication Number Publication Date
JP2013205749A JP2013205749A (ja) 2013-10-07
JP6056171B2 true JP6056171B2 (ja) 2017-01-11

Family

ID=49234674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012076801A Expired - Fee Related JP6056171B2 (ja) 2012-03-29 2012-03-29 立体画像表示装置及び方法

Country Status (3)

Country Link
US (1) US9030737B2 (ja)
JP (1) JP6056171B2 (ja)
CN (1) CN103364959B (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2712059A1 (en) 2008-01-22 2009-07-30 The Arizona Board Of Regents On Behalf Of The University Of Arizona Head-mounted projection display using reflective microdisplays
WO2010123934A1 (en) 2009-04-20 2010-10-28 The Arizona Board Of Regents On Behalf Of The University Of Arizona Optical see-through free-form head-mounted display
US20110075257A1 (en) 2009-09-14 2011-03-31 The Arizona Board Of Regents On Behalf Of The University Of Arizona 3-Dimensional electro-optical see-through displays
CN102782562B (zh) 2010-04-30 2015-07-22 北京理工大学 宽视场高分辨率拼接式头盔显示装置
CN104204904B (zh) 2012-01-24 2018-05-18 亚利桑那大学评议会 紧凑式眼睛跟踪头戴式显示器
CN110022472B (zh) 2012-10-18 2022-07-26 亚利桑那大学评议会 具有可寻址焦点提示的立体显示器
JP6212877B2 (ja) * 2013-02-20 2017-10-18 富士通株式会社 画像表示装置及び画像表示方法
WO2015097750A1 (ja) * 2013-12-24 2015-07-02 パイオニア株式会社 表示装置および表示方法
BR112016020346A2 (pt) 2014-03-05 2017-10-31 Univ Arizona ?visor de realidade aumentada?
CN103995356B (zh) * 2014-05-30 2016-01-20 北京理工大学 一种真实立体感的光场头盔显示装置
JP6459262B2 (ja) * 2014-07-09 2019-01-30 株式会社ニコン ヘッドマウントディスプレイ
CN106605172B (zh) * 2014-09-08 2019-11-08 索尼公司 显示装置、用于驱动显示装置的方法以及电子设备
CN104297933A (zh) * 2014-10-14 2015-01-21 联想(北京)有限公司 一种电子设备及眼镜
WO2016069398A2 (en) 2014-10-24 2016-05-06 Emagin Corporation Microdisplay based immersive headset
KR102275778B1 (ko) * 2014-12-04 2021-07-09 삼성디스플레이 주식회사 헤드 마운티드 디스플레이 장치
US10176961B2 (en) 2015-02-09 2019-01-08 The Arizona Board Of Regents On Behalf Of The University Of Arizona Small portable night vision system
KR102274753B1 (ko) 2015-09-05 2021-07-08 레이아 인코포레이티드 집광 백라이트 및 이를 이용한 근안 디스플레이
EP3363197A4 (en) * 2015-10-16 2019-05-22 LEIA Inc. MULTILAYER GRID BASED EYE-ONLY DISPLAY
US20170115489A1 (en) * 2015-10-26 2017-04-27 Xinda Hu Head mounted display device with multiple segment display and optics
JP6532393B2 (ja) * 2015-12-02 2019-06-19 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
FR3046468B1 (fr) * 2016-01-04 2023-06-23 Valeo Comfort & Driving Assist Afficheur tete-haute
KR101796501B1 (ko) 2016-04-29 2017-12-04 엘지디스플레이 주식회사 개인 몰입형 장치의 표시장치
US10623722B2 (en) * 2016-05-13 2020-04-14 Microsoft Technology Licensing, Llc Head-up multiplex display with redirection optic
WO2018008577A1 (ja) * 2016-07-06 2018-01-11 パナソニックIpマネジメント株式会社 頭部装着型ディスプレイ装置
US10739578B2 (en) 2016-08-12 2020-08-11 The Arizona Board Of Regents On Behalf Of The University Of Arizona High-resolution freeform eyepiece design with a large exit pupil
JP6859655B2 (ja) * 2016-10-12 2021-04-14 大日本印刷株式会社 表示装置
CN106291945B (zh) * 2016-10-31 2018-01-09 京东方科技集团股份有限公司 一种显示面板和显示装置
JP6648050B2 (ja) * 2017-02-21 2020-02-14 東京瓦斯株式会社 画像表示装置
KR102449093B1 (ko) * 2017-03-24 2022-09-29 삼성디스플레이 주식회사 표시 장치
JP6308323B1 (ja) * 2017-08-08 2018-04-11 大日本印刷株式会社 表示装置
JP6264493B1 (ja) * 2017-05-19 2018-01-24 大日本印刷株式会社 表示装置
JP6354896B2 (ja) * 2017-07-24 2018-07-11 大日本印刷株式会社 表示装置
WO2019026748A1 (ja) * 2017-08-02 2019-02-07 シャープ株式会社 表示装置及びヘッドマウントディスプレイ
JP7055286B2 (ja) * 2017-09-20 2022-04-18 天馬微電子有限公司 表示装置
US11546575B2 (en) 2018-03-22 2023-01-03 Arizona Board Of Regents On Behalf Of The University Of Arizona Methods of rendering light field images for integral-imaging-based light field display
JP2019056937A (ja) * 2018-12-28 2019-04-11 株式会社ニコン ヘッドマウントディスプレイ
KR102536106B1 (ko) * 2020-07-20 2023-05-24 주식회사 픽셀로 디스플레이 장치, 이를 구비한 이동수단 및 그 표시 방법
US11927761B1 (en) * 2020-07-21 2024-03-12 Apple Inc. Head-mounted display systems
JP2022084180A (ja) * 2020-11-26 2022-06-07 ソニーグループ株式会社 画像表示装置及び表示装置
JP2022090779A (ja) * 2020-12-08 2022-06-20 ソニーグループ株式会社 画像表示装置及び表示装置
CN114981711B (zh) * 2020-12-21 2023-11-03 京东方科技集团股份有限公司 显示装置及其驱动方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3396074B2 (ja) * 1994-04-01 2003-04-14 オリンパス光学工業株式会社 映像表示装置
JP2001215441A (ja) * 2000-02-07 2001-08-10 Mixed Reality Systems Laboratory Inc 画像観察装置
JP3454797B2 (ja) * 2001-04-27 2003-10-06 三洋電機株式会社 三次元映像表示装置
JP3705792B2 (ja) * 2003-03-11 2005-10-12 株式会社ソフィア 画像表示装置
JP5182505B2 (ja) * 2008-09-03 2013-04-17 ソニー株式会社 画像表示装置
JP2011085790A (ja) * 2009-10-16 2011-04-28 Seiko Epson Corp 電気光学装置及び電子機器
JP2011145488A (ja) * 2010-01-14 2011-07-28 Sony Corp ヘッドマウントディスプレイ
JP2011215176A (ja) 2010-03-31 2011-10-27 Nikon Corp 画像処理装置および方法

Also Published As

Publication number Publication date
CN103364959A (zh) 2013-10-23
US9030737B2 (en) 2015-05-12
US20130258461A1 (en) 2013-10-03
JP2013205749A (ja) 2013-10-07
CN103364959B (zh) 2015-09-30

Similar Documents

Publication Publication Date Title
JP6056171B2 (ja) 立体画像表示装置及び方法
KR101660411B1 (ko) 초다시점 3차원 영상 디스플레이 장치
JP6212877B2 (ja) 画像表示装置及び画像表示方法
IL247587B1 (en) 3D wearable display for augmented reality
JP2014219621A (ja) 表示装置、表示制御プログラム
CN109725462B (zh) 显示器件、显示设备以及显示器件的驱动方法
KR102070800B1 (ko) 입체 디스플레이 장치 및 그 디스플레이 방법
KR20120095212A (ko) 입체영상표시장치
JP2010113161A (ja) 映像表示装置
JP2020118963A (ja) ヘッドマウントディスプレイ
KR101721103B1 (ko) 입체영상표시장치 및 그 구동방법
KR20120093693A (ko) 입체영상표시장치 및 그 구동방법
WO2023021732A1 (ja) 表示装置及び表示方法
KR20150091838A (ko) 초다시점형 3차원 디스플레이 시스템
Zhang Design of Head mounted displays
KR102189009B1 (ko) 삼차원영상 표시장치 및 그 구동방법
Watanabe et al. 68‐3: A Super‐Multiview Display with Horizontal and Vertical Parallax by Time Division and Color Multiplexing
CN207301514U (zh) 用于获得焦距认知的显示屏及头戴显示设备
JP2013024910A (ja) 観察用光学機器
US20060152580A1 (en) Auto-stereoscopic volumetric imaging system and method
JP3825414B2 (ja) 三次元表示装置
KR20120031401A (ko) 입체영상표시장치 및 그 구동방법
Lu et al. Vergence-accommodation conflict potential solutions in augmented reality head mounted displays
Hua Advances in Head‐Mounted Light‐Field Displays for Virtual and Augmented Reality
Hua Optical methods for enabling focus cues in head-mounted displays for virtual and augmented reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151006

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161121

R150 Certificate of patent or registration of utility model

Ref document number: 6056171

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees