JP2006208999A - 映像表示装置及びシミュレーションシステム - Google Patents
映像表示装置及びシミュレーションシステム Download PDFInfo
- Publication number
- JP2006208999A JP2006208999A JP2005023904A JP2005023904A JP2006208999A JP 2006208999 A JP2006208999 A JP 2006208999A JP 2005023904 A JP2005023904 A JP 2005023904A JP 2005023904 A JP2005023904 A JP 2005023904A JP 2006208999 A JP2006208999 A JP 2006208999A
- Authority
- JP
- Japan
- Prior art keywords
- display
- video
- display device
- wearer
- conditions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004088 simulation Methods 0.000 title claims abstract description 73
- 238000012360 testing method Methods 0.000 claims abstract description 130
- 230000008859 change Effects 0.000 claims abstract description 6
- 238000001514 detection method Methods 0.000 claims description 26
- 230000009471 action Effects 0.000 claims description 8
- 230000000694 effects Effects 0.000 abstract description 4
- 238000012545 processing Methods 0.000 description 27
- 238000000034 method Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 210000003128 head Anatomy 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000001771 impaired effect Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 201000009487 Amblyopia Diseases 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
【課題】、室内で安全に映像表示装置の効果を確認することができるシミュレーションシステムを提供する。
【解決手段】シミュレーションシステムは、使用者の身体に装着して使用され、装着者の眼前で映像を表示する映像表示装置と、前記映像表示装置における表示条件を入力するための操作手段と、前記操作手段を介して入力された表示条件に応じた試験映像を前記映像表示装置に出力し表示させるとともに、その試験映像の観察結果に応じて表示条件の変更情報が入力されると、変更後の表示条件に応じた試験映像を前記映像表示装置により表示させる表示制御手段と、前記試験映像の観察結果に応じて表示条件の設定が前記操作手段を介して指示されると、当該表示条件を前記映像表示装置に記憶させ、表示条件の設定を行う条件設定手段と、を備え、前記映像表示装置は、表示条件の設定後、前記記憶された表示条件に従って表示を行う。
【選択図】図1
【解決手段】シミュレーションシステムは、使用者の身体に装着して使用され、装着者の眼前で映像を表示する映像表示装置と、前記映像表示装置における表示条件を入力するための操作手段と、前記操作手段を介して入力された表示条件に応じた試験映像を前記映像表示装置に出力し表示させるとともに、その試験映像の観察結果に応じて表示条件の変更情報が入力されると、変更後の表示条件に応じた試験映像を前記映像表示装置により表示させる表示制御手段と、前記試験映像の観察結果に応じて表示条件の設定が前記操作手段を介して指示されると、当該表示条件を前記映像表示装置に記憶させ、表示条件の設定を行う条件設定手段と、を備え、前記映像表示装置は、表示条件の設定後、前記記憶された表示条件に従って表示を行う。
【選択図】図1
Description
本発明は、使用者の身体に装着して使用され、使用者の眼前で映像を表示する映像表示装置及び屋外で映像表示装置を使用した場面をシミュレーションすることができるシミュレーションシステムに関する。
使用者の身体に装着し、携帯することができるウェラブルディスプレイ(以下、WDという)と呼ばれる小型の映像表示装置が開発されている。WDは様々なタイプのものが開発されており、例えば頭部に装着するヘッドマウンテン型、眼鏡フレームと一体となった眼鏡型等が挙げられる。何れのタイプでも、WDは携帯性に優れているため使用場所を選ばず、しかもハンズフリーであるため使用者は映像を見ながら作業をすることができる。
上記眼鏡型のWDでは、表示する映像を透過して外界を視認することができるシースルータイプのものが開発されている。このシースルータイプでは、通常の肉眼で見える視界を遮ることなく映像を提供することができるため、弱視等の視覚障害者によって、第2の眼として補助的に利用されることも多い。
視覚障害者にはその症状に個人差があり、例えば画角が30度と狭い人や、色を見分けることが困難な人等、様々である。このような状況に応じて、従来から、視覚条件に応じた仕様のメガネを注文することができるシステムが開発されており(例えば、特許文献1参照)、WDにおいても使用者の視覚条件に応じて表示条件を設定できるように要望されている。また、使用者の視覚条件に合わせて仕様を設定した場合、実際にその仕様が使用者に合っているかどうかを確認するためにWDを試験的に使用してみたいという要望もある。
特開2001−350982号公報
しかし、WDに設定した表示条件による効果を確認するために、実際に使用者がWDを装着し、わざわざ屋外へ出て試すのは煩雑である。また、初めての仕様のWDを装着する場合、使用者がその仕様や使用方法に不慣れであり、屋外で試すには危険が伴う可能性がある。
本発明の課題は、室内で安全に映像表示装置の効果を確認することができるシミュレーションシステムを提供することである。
請求項1に記載の発明は、
使用者の身体に装着して使用され、所定の表示条件に従って装着者の眼前で映像を表示する映像表示装置において、
映像表示装置における表示条件を外部から検出可能とすることを特徴とする。
使用者の身体に装着して使用され、所定の表示条件に従って装着者の眼前で映像を表示する映像表示装置において、
映像表示装置における表示条件を外部から検出可能とすることを特徴とする。
請求項2に記載の発明は、シミュレーションシステムにおいて、
請求項1に記載の映像表示装置と、
前記映像表示装置における表示条件を入力するための操作手段と、
前記映像表示装置により試験映像を表示させるとともに、当該映像表示装置における表示条件を、前記操作手段を介して入力された表示条件に変更し、当該変更された表示条件で試験映像を表示させる表示制御手段と、
を備えることを特徴とする。
請求項1に記載の映像表示装置と、
前記映像表示装置における表示条件を入力するための操作手段と、
前記映像表示装置により試験映像を表示させるとともに、当該映像表示装置における表示条件を、前記操作手段を介して入力された表示条件に変更し、当該変更された表示条件で試験映像を表示させる表示制御手段と、
を備えることを特徴とする。
請求項3に記載の発明は、シミュレーションシステムにおいて、
試験映像を表示する表示手段と、
映像表示装置における表示条件を入力するための操作手段と、
請求項1に記載の映像表示装置であって、撮影手段により前記表示手段によって表示された試験映像を撮影し、前記操作手段を介して入力された表示条件に従ってその撮影映像を装着者の眼前で表示する映像表示装置と、
前記試験映像の観察結果に応じた表示条件の変更情報が前記操作手段を介して入力されると、変更後の表示条件に従って前記映像表示装置における撮影映像を表示させる表示制御手段と、
を備えることを特徴とする。
試験映像を表示する表示手段と、
映像表示装置における表示条件を入力するための操作手段と、
請求項1に記載の映像表示装置であって、撮影手段により前記表示手段によって表示された試験映像を撮影し、前記操作手段を介して入力された表示条件に従ってその撮影映像を装着者の眼前で表示する映像表示装置と、
前記試験映像の観察結果に応じた表示条件の変更情報が前記操作手段を介して入力されると、変更後の表示条件に従って前記映像表示装置における撮影映像を表示させる表示制御手段と、
を備えることを特徴とする。
請求項4に記載の発明は、請求項2又は3に記載のシミュレーションシステムにおいて、
前記試験映像の観察結果に応じて表示条件の設定が指示されると、当該表示条件を前記映像表示装置に記憶させ、表示条件の設定を行う条件設定手段を備え、
前記映像表示装置は、表示条件の設定後、前記記憶された表示条件に従って表示を行うことを特徴とする。
前記試験映像の観察結果に応じて表示条件の設定が指示されると、当該表示条件を前記映像表示装置に記憶させ、表示条件の設定を行う条件設定手段を備え、
前記映像表示装置は、表示条件の設定後、前記記憶された表示条件に従って表示を行うことを特徴とする。
請求項5に記載の発明は、請求項4に記載のシミュレーションシステムにおいて、
前記映像表示装置の装着者の動作を検出する検出手段を備え、
前記操作手段を介して装着者が動作する毎に表示条件を入力可能とし、
前記条件設定手段は、前記操作手段を介して表示条件が入力されると、その入力時に前記検出手段により検出された動作の情報とともに当該入力された表示条件を前記映像表示装置に記憶させ、
前記映像表示装置は、表示条件の設定後、前記検出手段により装着者の動作が検出されると、当該検出された動作に対応する表示条件で表示を行うことを特徴とする。
前記映像表示装置の装着者の動作を検出する検出手段を備え、
前記操作手段を介して装着者が動作する毎に表示条件を入力可能とし、
前記条件設定手段は、前記操作手段を介して表示条件が入力されると、その入力時に前記検出手段により検出された動作の情報とともに当該入力された表示条件を前記映像表示装置に記憶させ、
前記映像表示装置は、表示条件の設定後、前記検出手段により装着者の動作が検出されると、当該検出された動作に対応する表示条件で表示を行うことを特徴とする。
請求項6に記載の発明は、請求項5に記載のシミュレーションシステムにおいて、
前記表示手段は、異なる表示条件に応じた試験映像を並べて表示することを特徴とする。
前記表示手段は、異なる表示条件に応じた試験映像を並べて表示することを特徴とする。
請求項7に記載の発明は、請求項6に記載のシミュレーションシステムにおいて、
前記試験映像の観察結果の情報を、その試験映像の表示条件の情報と関連づけて記憶する結果記憶手段を備えることを特徴とする。
前記試験映像の観察結果の情報を、その試験映像の表示条件の情報と関連づけて記憶する結果記憶手段を備えることを特徴とする。
請求項8に記載の発明は、シミュレーションシステムにおいて、
使用者の身体に装着して使用され、予め設定された表示条件に応じた試験映像を装着者の眼前で表示する映像表示装置と、
前記映像表示装置の装着者の動作を検出する検出手段と、
前記検出手段からの検出情報に基づいて、装着者の動作が予め定められた基準に適合するか否かを判別する判別手段と、
前記判別手段による判別結果を前記映像表示装置に表示させる表示制御手段と、
を備えることを特徴とする。
使用者の身体に装着して使用され、予め設定された表示条件に応じた試験映像を装着者の眼前で表示する映像表示装置と、
前記映像表示装置の装着者の動作を検出する検出手段と、
前記検出手段からの検出情報に基づいて、装着者の動作が予め定められた基準に適合するか否かを判別する判別手段と、
前記判別手段による判別結果を前記映像表示装置に表示させる表示制御手段と、
を備えることを特徴とする。
請求項9に記載の発明は、シミュレーションシステムにおいて、
試験映像を表示する表示手段と、
使用者の身体に装着して使用され、撮影手段により前記表示手段上に表示された試験映像を撮影し、その撮影映像を予め設定された表示条件に従って装着者の眼前で表示する映像表示装置と、
前記映像表示装置の装着者の動作を検出する検出手段と、
前記検出手段からの検出情報に基づいて、装着者の動作が予め定められた基準に適合するか否かを判別する判別手段と、
前記判別手段による判別結果を前記表示手段上に表示させる表示制御手段と、
を備えることを特徴とする。
試験映像を表示する表示手段と、
使用者の身体に装着して使用され、撮影手段により前記表示手段上に表示された試験映像を撮影し、その撮影映像を予め設定された表示条件に従って装着者の眼前で表示する映像表示装置と、
前記映像表示装置の装着者の動作を検出する検出手段と、
前記検出手段からの検出情報に基づいて、装着者の動作が予め定められた基準に適合するか否かを判別する判別手段と、
前記判別手段による判別結果を前記表示手段上に表示させる表示制御手段と、
を備えることを特徴とする。
請求項1に記載の発明によれば、映像表示装置における表示条件を外部から検出することができるので、映像表示装置により映像を観察した際に、その表示条件がどのような条件であるかを把握することができる。
請求項2に記載の発明によれば、指定された表示条件に応じた試験映像を映像表示装置に表示させるので、表示条件を変えながら、試験映像により屋外で映像表示装置を使用した場面を室内で容易にシミュレーションすることができる。
請求項3に記載の発明によれば、試験映像を表示手段上に表示して、当該表示された試験映像を映像表示装置において撮影し、その撮影映像を入力された表示条件に応じて装着者の眼前で表示するので、試験映像により屋外で映像表示装置を使用した場面を容易にシミュレーションすることができる。また、映像表示装置が表示画像と外界像を同時に視認可能な構成である場合、表示手段上に表示された試験映像により擬似的な外界を観察し、同時に映像表示装置により表示された撮影映像を観察することができ、実際の状況に非常に近い形でシミュレーションすることができる。
請求項4に記載の発明によれば、様々な表示条件による試験映像を映像表示装置で観察し、その観察結果に応じて最も適切な表示条件を映像表示装置に設定することができ、映像表示装置の仕様をより装着者に応じたものとすることができる。
請求項5に記載の発明によれば、装着者の動作毎に表示条件を設定することができ、映像表示装置の仕様をより装着者に応じたものとすることができる。
請求項6に記載の発明によれば、並べて表示された各表示条件の試験映像を比較することができ、装着者に適した表示条件を設定しやすい。
請求項7に記載の発明によれば、どのような表示条件のときにどのような観察結果であったのかを記録を残すことができ、後に表示条件を変更する等の場合に参照することができる。
請求項8に記載の発明によれば、映像表示装置に設定された表示条件で試験映像を表示するので、屋外で映像表示装置を使用した場面を室内で容易にシミュレーションすることができる。また、その試験映像に対応して行われた装着者の動作が基準に適合するかどうかを判断した結果を表示するので、シミュレーションにより映像表示装置の使用方法を習得したり、練習したりすることができる。
請求項9に記載の発明によれば、試験映像を表示手段上に表示して、当該表示された試験映像を映像表示装置において撮影し、その撮影映像を入力された表示条件に応じて装着者の眼前で表示するので、屋外で映像表示装置を使用した場面を室内で容易にシミュレーションすることができる。また、その試験映像に対応して行われた装着者の動作が基準に適合するかどうかを判断した結果を表示するので、シミュレーションにより映像表示装置の使用方法を習得したり、練習したりすることができる。また、映像表示装置が表示画像と外界像を同時に視認可能な構成である場合、表示手段上に表示された試験映像により擬似的な外界を観察し、同時に映像表示装置により表示された撮影映像を観察することができ、実際の状況に非常に近い形でシミュレーションすることができる。
〈第1実施形態〉
第1実施形態では、映像表示装置における表示条件を設定する際に、映像表示装置により各表示条件で映像を表示し、実際に屋外で使用した場面をシミュレーションする例について説明する。なお、表示条件としては、画角、色、コントラスト、鮮鋭性、輝度範囲等が含まれるが、以下の説明では画角及びコントラストを設定する例について説明する。
第1実施形態では、映像表示装置における表示条件を設定する際に、映像表示装置により各表示条件で映像を表示し、実際に屋外で使用した場面をシミュレーションする例について説明する。なお、表示条件としては、画角、色、コントラスト、鮮鋭性、輝度範囲等が含まれるが、以下の説明では画角及びコントラストを設定する例について説明する。
図1に、第2実施形態におけるシミュレーションシステム1を示す。
シミュレーションシステム1は、映像表示装置Aを試験的に装着し、プロジェクタPにシミュレーション用の試験映像を表示して、当該表示された試験映像を映像表示装置Aにおいて撮影及び表示することにより、その表示状態をシミュレーションし、最終的に映像表示装置Aに設定する表示条件を決定するシステムである。
シミュレーションシステム1は、映像表示装置Aを試験的に装着し、プロジェクタPにシミュレーション用の試験映像を表示して、当該表示された試験映像を映像表示装置Aにおいて撮影及び表示することにより、その表示状態をシミュレーションし、最終的に映像表示装置Aに設定する表示条件を決定するシステムである。
まず、構成について説明する。
図1に示すように、シミュレーションシステム1は、映像表示装置A及びプロジェクタPを備えて構成されている。
以下、各構成装置である映像表示装置A及びプロジェクタPについて説明する。
図1に示すように、シミュレーションシステム1は、映像表示装置A及びプロジェクタPを備えて構成されている。
以下、各構成装置である映像表示装置A及びプロジェクタPについて説明する。
映像表示装置Aは、眼鏡フレームと一体に形成されたWDであり、撮影手段を備えて撮影された映像や装置内に予め記憶されている映像等を、装着者の眼前で表示するものである。
図2に、映像表示装置Aを示す。
図2に示すように、映像表示装置Aは、表示ユニット20が設けられた眼鏡フレーム本体と、コントロールボックス50とを備えて構成されている。
図2に、映像表示装置Aを示す。
図2に示すように、映像表示装置Aは、表示ユニット20が設けられた眼鏡フレーム本体と、コントロールボックス50とを備えて構成されている。
眼鏡フレームは、左右対称に設けられたレンズ11R、11L、鼻あて12R、12L、ユーザ頭部への保持部材であるテンプル13R、13L、ブリッジ15を備えて構成されている。
表示ユニット20は、映像投射部20a、接眼光学系20bを備えて構成されている。映像投射部20aはレンズ11Rに設けられ、当該レンズ11Rにはプリズム24、ホログラフィック光学素子(以下、HOE;Holographic Optical Elementという)25が一体に形成されて、映像投射部20aから発せられた映像の光学像(以下、映像光という)をユーザの眼前に導く接眼光学系20bを構成している。
表示ユニット20は、映像投射部20a、接眼光学系20bを備えて構成されている。映像投射部20aはレンズ11Rに設けられ、当該レンズ11Rにはプリズム24、ホログラフィック光学素子(以下、HOE;Holographic Optical Elementという)25が一体に形成されて、映像投射部20aから発せられた映像の光学像(以下、映像光という)をユーザの眼前に導く接眼光学系20bを構成している。
図3に、映像投射部20a、接眼光学系20bの内部構成を示し、映像の表示方法について説明する。なお、映像には、静止画像、動画像の何れも含まれるものとする。
図3に示すように、映像投射部20aは、LED(Light Emitting Diode)21、コンデンサレンズ22、LCD(Liquid Crystal Display)23を備えて構成され、接眼光学系20bは、プリズム24、HOE25を備えて構成されている。
図3に示すように、映像投射部20aは、LED(Light Emitting Diode)21、コンデンサレンズ22、LCD(Liquid Crystal Display)23を備えて構成され、接眼光学系20bは、プリズム24、HOE25を備えて構成されている。
LED21は、LCD23を照明するための発光源であり、コンデンサレンズ22はLED21が発した光をLCD23の全面に均一に導くための照明光学系である。LCD23は、映像を表示する透過型の表示装置であり、LED21からの照明光を受けてプリズム24側に映像光を発する。
上記映像投射部20aは筐体により覆われ、この筐体によりプリズム24が挟まれている。プリズム24は、透明なガラス又は樹脂等からなり、平板状に形成されたものである。プリズム24は、右眼用のレンズ11Rの一部に埋め込まれており、その下端部にはHOE25が形成されている。HOE25は、プリズム24とレンズ11Rをホログラム基板として、その間に挟まれるように配置されている。HOE25は、ホログラム基板面に対して平行でない干渉縞からなる2つの干渉縞パターンを有しており、この干渉縞パターンの回折作用によって、HOE25に入射した光は回折反射してユーザの眼Eに導かれる。
すなわち、LCD23から発せられた映像光は、プリズム24により反射を複数回繰り返しながらHOE25に導かれると、HOE25により回折して平行光に近い光束となってユーザの眼Eに入射する。これにより、ユーザに対して映像を表示することができる。
図2に戻り、他の構成部について説明する。
テンプル13Rには、撮影ユニット30が取り付けられており、この撮影ユニット30はケーブルを介して表示ユニット20及びコントロールボックス50に接続されている。
テンプル13Rには、撮影ユニット30が取り付けられており、この撮影ユニット30はケーブルを介して表示ユニット20及びコントロールボックス50に接続されている。
撮影ユニット30は、光学レンズ、CCD(Charge Coupled Device)等の光電変換素子、A/D変換部等から構成される撮影手段であり、光学レンズを介して入力される被写体像をCCDにより光電変換して画像信号を生成する。そして、A/D変換部によりアナログ画像信号からデジタル画像データを得て、当該デジタル画像データをコントロールボックス50内の制御ユニット(制御ユニットについては後述する)に出力する。これを連続的に行うことにより、動画像、つまり撮影映像のデータを出力することができる。
コントロールボックス50には、そのボックス本体に電源をON/OFFする電源ボタン53a、表示ユニット20により表示する映像画面の切り替え操作を行うための画面切替ボタン53bが設けられている。
次に、図4を参照して映像表示装置Aの機能的構成について説明する。
図4に示すように、映像表示装置Aは、表示ユニット20、撮影ユニット30及びコントロールボックス50等から構成されており、コントロールボックス50内には、制御ユニット51、画像処理ユニット52、入力ユニット53、メモリ54、I/F55、センサC1の各部が内蔵されている。
図4に示すように、映像表示装置Aは、表示ユニット20、撮影ユニット30及びコントロールボックス50等から構成されており、コントロールボックス50内には、制御ユニット51、画像処理ユニット52、入力ユニット53、メモリ54、I/F55、センサC1の各部が内蔵されている。
以下、各部について説明するが、表示ユニット20及び撮影ユニット30については、上述したので、ここでは説明を省略する。
制御ユニット51は、CPU(Central Processing Unit)やRAM(Random Access Memory)等を備えて構成され、CPUによりメモリ54から各種制御プログラムを読み出してRAMに展開し、当該制御プログラムに従って処理を実行し、各種演算を行うとともに映像表示装置Aの各部を集中制御する。
制御ユニット51は、CPU(Central Processing Unit)やRAM(Random Access Memory)等を備えて構成され、CPUによりメモリ54から各種制御プログラムを読み出してRAMに展開し、当該制御プログラムに従って処理を実行し、各種演算を行うとともに映像表示装置Aの各部を集中制御する。
例えば、入力ユニット53を介して表示条件が入力されると、当該表示条件に応じた内容となるように画像処理ユニット52により画像処理を行わせた後、表示ユニット20により表示させる。同様に、表示条件の変更が指示されると、変更後の表示条件に従って画像処理ユニット52により画像処理された撮影映像を表示ユニット20により表示させる。また、入力ユニット53を介して表示条件の設定が指示されると、当該表示条件の情報をメモリ55に記憶させて、表示条件の設定を行う。さらに、プロジェクタPに対する表示制御を行う。すなわち、制御プログラムと制御ユニット51との供働により、表示制御手段及び条件設定手段を実現することができる。
画像処理ユニット52は、入力された画像データに対して、濃度変換処理、色変換処理、縮小/拡大処理等の各種画像処理を施す。また、後述する試験映像の画角やコントラストを変えたり、試験映像に含まれるオブジェクトの位置や大きさを変更する。
入力ユニット53は、電源ボタン53a、画面切替ボタン53b等の各種指示ボタンを備えて構成され、操作されたボタンに対応する操作信号を生成して制御ユニット51に出力する。
メモリ54は、各種制御プログラム及びプログラムの実行に必要なパラメータや処理結果等のデータを記憶している。
また、メモリ54は、プロジェクタPにより表示するための試験映像を記憶している。
試験映像は、複数のフレーム画像から構成される動画像であり、例えば駅のホームや道路等、装着者が外界を歩行する場面を想定して作成されるものである。この試験映像は、画角等の表示条件や、試験映像に含まれるオブジェクト(例えば、木や水たまり、駅のホームにおける白線等、装着者の障害物或いは目印になるような物体)の位置や大きさ等を変更可能に作成されている。
また、メモリ54は、プロジェクタPにより表示するための試験映像を記憶している。
試験映像は、複数のフレーム画像から構成される動画像であり、例えば駅のホームや道路等、装着者が外界を歩行する場面を想定して作成されるものである。この試験映像は、画角等の表示条件や、試験映像に含まれるオブジェクト(例えば、木や水たまり、駅のホームにおける白線等、装着者の障害物或いは目印になるような物体)の位置や大きさ等を変更可能に作成されている。
I/F55は、プロジェクタPと接続するためのインターフェイスであり、映像表示装置AとプロジェクタP間の情報のやり取りを仲介する。
センサC1は、映像表示装置Aの装着者の動作を検出するための検出手段であり、ここでは装着者の動作による移動方向を検出するためにジャイロセンサが適用された例を説明する。センサC1は、装着者の回転方向における角加速度を検出し、当該検出情報を制御ユニット51に出力する。ここでは、映像表示装置AにセンサC1が組み込まれた例を説明するが、センサC1は別体構成とし、直接映像表示装置Aの装着者の頭部等に身につけることとしてもよい。
次に、プロジェクタPについて説明する。
プロジェクタPは、映像表示装置Aの制御ユニット51による表示制御に従って、映像表示装置Aから入力された映像をスクリーン上に投影して表示する表示手段である。
プロジェクタPは、映像表示装置Aの制御ユニット51による表示制御に従って、映像表示装置Aから入力された映像をスクリーン上に投影して表示する表示手段である。
次に、図5を参照して、上記シミュレーションシステム1における動作及びシミュレーション方法について説明する。図5は、シミュレーション時のシミュレーションシステム1における処理の流れを説明するフローチャートである。
まず、シミュレーション対象者は、映像表示装置Aを装着し、入力ユニット53により操作メニューからシミュレーションメニューを選択操作する。なお、予め映像表示装置Aの装着者からスクリーンまでの距離や、スクリーンの表示サイズ等、シミュレーション時の設定情報を表示コントローラBに入力しておくこととする。
シミュレーションシステム1では、シミュレーションメニューが選択されると、まず映像表示装置Aの表示ユニット20により、映像表示装置Aにおける表示条件を設定するための設定画面(図6参照)が表示される。図6に示す設定画面d1では、表示条件として試験映像中のオブジェクトに対する距離感及びズーム比(画角)、コントラストを選択することができる。
この設定画面d1において装着者は各表示条件を選択入力すると(ステップT1)、制御ユニット51の表示制御により当該表示条件に応じた試験映像がメモリ55から読み出され、プロジェクタPに出力される。プロジェクタPでは、当該試験映像がスクリーン上に投影されて表示される。このとき、なお、試験映像はシミュレーション時の設定情報に従って表示される。例えば、設定情報として夜の時間帯における道路歩行の場面が指定された場合は、その場面に応じた試験映像が読み出される。また、スクリーン上に表示された試験映像を装着者の位置から観察した際に、試験映像中のオブジェクトが実物と同サイズに見えるように、スクリーン及び装着者間の距離に応じて試験映像の画角が調整される(画像処理される)。このとき、試験映像の時間帯に合わせてプロジェクタPの表示条件(明るさ、色合い等)を調整したり、室内の明かりを調整する、或いは環境音(騒音や、自動車の動作音、話し声等)を調整したりして、より実際の場面に近いものとすることが好ましい。
映像表示装置Aの装着者は、試験映像がスクリーン上に表示されると、入力ユニット53を介して撮影開始を操作指示する。映像表示装置Aでは、この操作指示に応じて撮影ユニット30による撮影が開始され、当該撮影映像が設定画面d1を介して入力された表示条件に従って画像処理された後、表示ユニット20により装着者の眼前に表示される(ステップT2)。
図7に、試験映像の表示例を示す。
映像表示装置Aでは、試験映像(撮影映像)は画角及びコントラストに応じて画像処理されたものが表示され、例えば木のオブジェクトを含む試験映像の場合、画角30度のズーム比が設定されると図7(a)に示すような試験映像、画角60度のズーム比が設定されると図7(b)に示す試験映像、画角90度のズーム比が設定されると図7(c)に示す試験映像が表示される。図7(a)〜(c)により画角によって遠近感が変わっていることが分かる。
映像表示装置Aでは、試験映像(撮影映像)は画角及びコントラストに応じて画像処理されたものが表示され、例えば木のオブジェクトを含む試験映像の場合、画角30度のズーム比が設定されると図7(a)に示すような試験映像、画角60度のズーム比が設定されると図7(b)に示す試験映像、画角90度のズーム比が設定されると図7(c)に示す試験映像が表示される。図7(a)〜(c)により画角によって遠近感が変わっていることが分かる。
また、試験映像には、実際に外界を歩行した際に障害物となる木や壁、駅のホームや横断歩道を歩行する際の目印となる白線、階段の縁やホームの縁等、危険が伴う境界等、目視で判断が必要とされるオブジェクトが含まれている。視覚障害者は、画角が極端に狭かったり広かったりするため、実際のオブジェクトに対する距離感がつかめなかったり、コントラスト差や色差が少ないものが見えにくかったりすることが多い。よって、このように実際に外界に存在するようなオブジェクトを試験映像として表示することにより、屋外に出て問題となるような場面を室内で体験することが可能となる。
例えば、小さな段差がある排水溝を想定した図8(a)、(b)に示すような試験映像により、遠近感を把握して段差の有無を判断する場面をシミュレーションすることができる。また、噴水等の水たまりがある場所では、水が透明であるため、その縁部分のコントラスト差が小さく縁部分を判断できないような場合がある。よって、図9(a)、(b)に示すような試験映像により、水の有無を判断する場面をシミュレーションすることができる。
以上のような試験映像が表示されると、装着者は首を上下左右に動かす等して視点を変えてみる。
映像表示装置Aでは、センサC1により映像表示装置Aの装着者の動作が監視され、動作が検出されたか否かが判別される(ステップT3)。センサC1により装着者の動作が検出されない場合(ステップT3;N)、ステップT2に戻って試験映像の表示が続けられる。
映像表示装置Aでは、センサC1により映像表示装置Aの装着者の動作が監視され、動作が検出されたか否かが判別される(ステップT3)。センサC1により装着者の動作が検出されない場合(ステップT3;N)、ステップT2に戻って試験映像の表示が続けられる。
また、センサC1により装着者の動作が検出され、その検出情報が制御ユニット51に入力されると(ステップS3;Y)、制御ユニット51では、その検出情報に基づいて装着者の動作に応じた試験映像が新たに生成される。生成された試験映像はプロジェクタPにより表示される(ステップS4)。具体的には、図10に示すように、センサC1により検出された回転角度情報に基づいて装着者の移動方向がa〜dの何れの範囲に属するかが判別され、属する範囲に応じた位置にオブジェクトの大きさや位置が変更されたフレーム画像が生成されてスクリーン上に表示される。
このような表示制御により、装着者の動作に伴って試験映像が変化するため、装着者はあたかも外界の視点が変わったかのような疑似体験を行うことができる。装着者は、視点を変えてみて、映像表示装置Aにより表示される各視点における試験映像を観察し、現在の表示条件が自己の視覚条件に適しているかどうかを判断する。
映像表示装置Aでは、試験映像の表示が終了すると、再度図6に示すような設定画面d1が表示されるので、装着者は試験映像の観察の結果、その表示条件でよければ、Yesキーd13を押下操作し、表示条件を変更したい場合にはNoキーd14を押下操作する。なお、このとき、表示条件を変更する際には、変更前の表示条件とその観察の結果(不適切であった旨を示すフラグ情報等)とをメモリ55に記憶する。これにより、表示条件による観察結果の履歴を残すことができ、後に参照することができる。
設定画面d1においてYesキーd13が押下操作されると、制御ユニット51の制御によりステップT1で入力した表示条件がメモリ54に記憶され(ステップT5)、表示条件の設定が行われる。設定が終了すると、本処理を終了する。
表示条件の設定後、映像表示装置Aにより撮影映像等を表示する際には、設定された表示条件に従って、画像処理ユニット52により画像処理がなされた後、表示ユニット30により表示されることとなる。
表示条件の設定後、映像表示装置Aにより撮影映像等を表示する際には、設定された表示条件に従って、画像処理ユニット52により画像処理がなされた後、表示ユニット30により表示されることとなる。
以上のように、第1実施形態によれば、表示条件を変更可能とし、各表示条件に応じた試験映像を室内で映像表示装置Aに試験的に表示させるので、試験映像により外部から映像表示装置Aにおける表示条件を検出することができるとともに、屋外で映像表示装置Aを使用した場面を室内で容易にシミュレーションすることができる。シミュレーションにより、実際の使用態様に近い形で表示条件を決定することができ、映像表示装置Aの仕様をより装着者に応じたものとすることができる。
また、映像表示装置Aはシースルー機能により、表示ユニット20による表示画像と外界像とを同時に観察可能に構成されているので、スクリーン上に表示された試験映像を目視しながら、映像表示装置Aにより表示されたその撮影映像を参考情報として観察することができ、より現実の使用態様に合ったシミュレーションすることができる。これにより、映像表示装置Aに不慣れな使用者であっても室内で使用方法を習得したり、練習することができ、安全な環境でシミュレーションすることができる。
また、映像表示装置Aとして、片眼だけ表示ユニット20を設けた片眼タイプを説明したが、これに限らず、両眼に表示ユニット20を設けた両眼タイプを適用することとしてもよい。この場合、両眼で視覚条件が異なることもあるので、左右の各表示ユニット20については、異なる画角等の表示条件を設定することができる。
なお、第1実施形態におけるシミュレーションシステム1は、本発明を適用した好適な一例であり、これに限定されない。
例えば、上述した説明では、実際の映像表示装置Aのシースルー機能を鑑みて、スクリーン上に試験映像を表示し、映像表示装置Aにおいて当該スクリーン上における表示映像を撮影した撮影映像を表示することとしたが、これに限らず、映像表示装置Aにおいて直接試験映像を表示することとしてもよい。この場合、シミュレーションシステム1は、映像表示装置Aのみの構成となる。
例えば、上述した説明では、実際の映像表示装置Aのシースルー機能を鑑みて、スクリーン上に試験映像を表示し、映像表示装置Aにおいて当該スクリーン上における表示映像を撮影した撮影映像を表示することとしたが、これに限らず、映像表示装置Aにおいて直接試験映像を表示することとしてもよい。この場合、シミュレーションシステム1は、映像表示装置Aのみの構成となる。
また、表示条件として画角及びコントラストを設定する例を説明したが、これに限らず、色、鮮鋭性等の他の表示条件を設定することも可能である。
また、視点毎に見やすい画角があるため、視点毎に画角を設定可能な構成としてもよい。図10に示す例で説明すると、aの範囲では、信号を見る場合等、上方に視点がある場合が考えられ、この場合画角は広角の方が見やすい。また、bの範囲では遠方からの接近物を見ることが多く、広角から中間の画角が好ましい。cの範囲では、下方の障害物等を見ることが考えられるため、広角から中間の画角が好ましい。さらに、dの範囲では、階段の昇降時等、足下に注意する場合が多く、中間の画角が好ましい。また、これらの例によらない場合でも装着者の視覚条件によっては、視点によって見やすい画角があることが予想されるため、視点毎に画角が変えられることにより、より見やすい映像を提供することができる。
この場合、映像表示装置Aの装着者が頭の位置を変えて視点を変える毎に所望する表示条件を入力する。映像表示装置Aでは、視点が変えられる毎に、センサC1により得られたその回転角度情報(動作の情報)とともにその際に設定された表示条件を記憶する。そして、実際に映像表示装置Aを使用する際には、センサC1により検出された回転角度情報に応じた表示条件で表示画像を画像処理して表示する。
また、上記の例では、表示条件を変更する毎にその表示条件に応じた試験映像を切替表示することとしたが、これに限らず、図11に示すように異なる表示条件による試験映像を複数並べて表示することとしてもよい。これにより、異なる表示条件による試験映像を比較検討することができる。
また、図12に示すように、映像表示装置Aに通信機能を有するコントローラFを接続可能な構成とし、当該コントローラFにより、試験映像の提供及び表示条件の設定を行うこととしてもよい。これにより、装着者以外の者(例えば、映像表示装置Aの販売員等)がコントローラFを用いて映像表示装置Aをリモート操作することができるとともに、映像表示装置Aにおける表示条件を検出することができる。
図12を参照して具体的に説明すると、コントローラFにおいてオペレータにより表示条件が入力されると、コントローラFは入力された表示条件に応じた試験映像を映像表示装置Aに出力し、映像表示装置Aはこれを表示ユニット20により表示する。映像表示装置Aの装着者は試験映像によりその表示条件が適切かどうかを判断し、オペレータにその結果を伝える。オペレータは、表示条件を変える場合は、新たな表示条件をコントローラFに入力し、その表示条件でよければ設定を指示入力する。コントローラFではオペレータにより表示条件の設定が指示されると、当該表示条件の情報を映像表示装置Aのメモリ54に記憶させるとともに、コントローラFのメモリカードに記憶する。設定結果を映像表示装置Aの販売元等に通知する場合には、コントローラFに記憶された表示条件の設定情報を販売元のサーバに送信する、或いはメモリカードを販売元に持ち込み、販売元のコンピュータで読み込む等することができる。販売元は、そのデータを元に映像表示装置の製品を製造、調整し、販売することができる。
さらに、図13に示すように、Webページを介してシミュレーションすることとしてもよい。
具体的には、販売元のサーバにおいて図13に示すようなWebページd2を公開し、顧客端末からアクセス可能とする。顧客端末では、Webページd2にアクセスすると、所望する距離及びズーム比(画角)、コントラストの表示条件を入力することができる。販売元のサーバでは、顧客端末からWebページを介して表示条件の入力情報が受信されると、当該入力情報に基づいて表示条件に応じた試験映像を生成し、顧客端末に送信する。顧客端末では、送信された試験映像が表示されるので、顧客は当該試験映像によりその表示条件が適切か否かを判断する。そして、その表示条件でよければWebページd2を介して設定を指示すると、その設定による注文情報が顧客端末から販売元のサーバへ送信され、販売元に対し、顧客が所望する表示条件が設定された映像表示装置の注文が受け付けられる。このようにWebページを介してシミュレーションする場合、顧客は実際に映像表示装置Aを装着することなく、表示条件の設定を行うことができる。
具体的には、販売元のサーバにおいて図13に示すようなWebページd2を公開し、顧客端末からアクセス可能とする。顧客端末では、Webページd2にアクセスすると、所望する距離及びズーム比(画角)、コントラストの表示条件を入力することができる。販売元のサーバでは、顧客端末からWebページを介して表示条件の入力情報が受信されると、当該入力情報に基づいて表示条件に応じた試験映像を生成し、顧客端末に送信する。顧客端末では、送信された試験映像が表示されるので、顧客は当該試験映像によりその表示条件が適切か否かを判断する。そして、その表示条件でよければWebページd2を介して設定を指示すると、その設定による注文情報が顧客端末から販売元のサーバへ送信され、販売元に対し、顧客が所望する表示条件が設定された映像表示装置の注文が受け付けられる。このようにWebページを介してシミュレーションする場合、顧客は実際に映像表示装置Aを装着することなく、表示条件の設定を行うことができる。
〈第2実施形態〉
第2実施形態では、映像表示装置において画角等の表示条件を設定した後、当該表示条件が映像表示装置の装着者にとって適切かどうかをシミュレーションして確認する例を説明する。
第2実施形態では、映像表示装置において画角等の表示条件を設定した後、当該表示条件が映像表示装置の装着者にとって適切かどうかをシミュレーションして確認する例を説明する。
図1に、第2実施形態におけるシミュレーションシステム2を示す。
シミュレーションシステム2は、映像表示装置Aを試験的に装着し、ディスプレイDに試験映像を表示して、当該表示された試験映像を映像表示装置Aにおいて撮影及び表示することにより、その仕様や効果を確認するためのシステムである。
シミュレーションシステム2は、映像表示装置Aを試験的に装着し、ディスプレイDに試験映像を表示して、当該表示された試験映像を映像表示装置Aにおいて撮影及び表示することにより、その仕様や効果を確認するためのシステムである。
まず、構成を説明する。
図14に示すように、シミュレーションシステム2は、映像表示装置A、表示コントローラB、センサC2、ディスプレイDを備えて構成されている。
以下、各構成装置について説明する。
図14に示すように、シミュレーションシステム2は、映像表示装置A、表示コントローラB、センサC2、ディスプレイDを備えて構成されている。
以下、各構成装置について説明する。
映像表示装置Aは、第1実施形態における映像表示装置Aとその基本構成(図2、図3参照)は同一であるため、各部には同一の符号を付し、異なる機能部分についてのみ説明する。
図15に、第2実施形態における映像表示装置Aの機能的構成を示す。
図15に示すように、第2実施形態では、第1実施形態の構成からセンサC1及びI/F55を削除し、通信ユニット56を追加している。すなわち、映像表示装置Aは、表示ユニット20、撮影ユニット30、コントロールボックス50から構成されており、コントロールボックス50内には制御ユニット51、画像処理ユニット52、入力ユニット53、メモリ54、通信ユニット56が含まれている。
図15に、第2実施形態における映像表示装置Aの機能的構成を示す。
図15に示すように、第2実施形態では、第1実施形態の構成からセンサC1及びI/F55を削除し、通信ユニット56を追加している。すなわち、映像表示装置Aは、表示ユニット20、撮影ユニット30、コントロールボックス50から構成されており、コントロールボックス50内には制御ユニット51、画像処理ユニット52、入力ユニット53、メモリ54、通信ユニット56が含まれている。
通信ユニット56は、表示コントローラB等の外部機器と通信を行うための通信手段である。通信方式としてはBluetooth、赤外線方式、無線LAN(例えば、IEEE802.11a/b/g等)等、様々な方式を適用可能である。
次に、表示コントローラB、センサC2及びディスプレイDについて説明する。
表示コントローラBは、オペレータの操作用コントローラであり、ディスプレイDにシミュレーション用の試験映像を表示させるとともに、映像表示装置Aの装着者の動作をセンサC2により検出し、当該検出された動作に基づいてディスプレイDにおける映像の表示制御を行う。
表示コントローラBは、オペレータの操作用コントローラであり、ディスプレイDにシミュレーション用の試験映像を表示させるとともに、映像表示装置Aの装着者の動作をセンサC2により検出し、当該検出された動作に基づいてディスプレイDにおける映像の表示制御を行う。
図16に、表示コントローラBの内部構成を示す。
図16に示すように、表示コントローラBは、制御部61、操作部62、表示部63、通信部64、記憶部65、画像メモリ66、検出部67、I/F68を備えて構成されている。
図16に示すように、表示コントローラBは、制御部61、操作部62、表示部63、通信部64、記憶部65、画像メモリ66、検出部67、I/F68を備えて構成されている。
制御部61は、CPUやRAM等を備えて構成され、CPUにより記憶部65から各種制御プログラムを読み出してRAMに展開し、当該制御プログラムに従って各種演算を行うととも各部を集中制御する。
例えば、制御部61は、映像メモリ66から試験映像を読み出してディスプレイDに出力し、表示させる。このとき、必要であれば試験映像に対する画像処理を行う。また、シミュレーション中にセンサC2から検出情報が入力されると、当該検出情報に基づいて、映像表示装置Aの装着者の動作は予め定められた基準に適合するか否かを判別する。そして、その判別結果を通知するメッセージを生成してディスプレイD上に表示させる。すなわち、制御プログラムと制御部61により、判別手段及び表示制御手段を実現することができる。
操作部62は、カーソルキーや数字キー、各種機能キーからなるキーボード、マウスやタッチパネル等のポインティングディバイスを備えて構成され、押下されたキーやマウスの操作に対応する操作信号を生成して制御部61に出力する。
表示部63は、LCD(Liquid Crystal Display)等から構成され、各種操作画面や制御部61の処理結果等を表示する。
通信部64は、通信を行うためのインターフェイスを備え、映像表示装置A等の外部機器と各種情報の送受信を行う。
記憶部65は、各種制御プログラムやそれらプログラムの実行に必要な各種パラメータ、或いはプログラムによる処理結果等を記憶している。
映像メモリ66は、ディスプレイDに表示するための試験映像を記憶している。試験映像については、第1実施形態で説明した試験映像と同じものであるので、ここではその詳細な説明を省略する。
I/F67は、表示コントローラAとセンサC2又はディスプレイDとを接続するインターフェイスである。I/F67は、センサC2から入力される検出情報を制御部61に出力するとともに、制御部61の表示制御により入力された映像データをディスプレイDに出力する。
センサC2は、図14に示すように、映像表示装置Aの装着者の身体に装着され、当該装着者の動作を検出する検出手段である。センサC2は、例えばジャイロセンサ及び加速度センサを備えて構成され、ジャイロセンサにより装着者の回転方向における角加速度を検出し、加速度センサにより装着者の加速度を検出する。そして、これらの検出情報をケーブル及びI/F67を介して表示コントローラBに出力する。
表示コントローラBでは、制御部61において、ジャイロセンサの検出情報に基づいて装着者が移動した方向が算出されるとともに、加速度センサの検出情報に基づいてその移動量が算出される。
表示コントローラBでは、制御部61において、ジャイロセンサの検出情報に基づいて装着者が移動した方向が算出されるとともに、加速度センサの検出情報に基づいてその移動量が算出される。
ディスプレイDは、LCD等による大型表示装置であり、表示コントローラDの表示制御に従って入力される映像を表示する表示手段である。
次に、シミュレーションシステム2の動作及びシミュレーション方法について説明する。
第2実施形態では、映像表示装置Aの装着者が自己の視覚条件に応じた画角等の表示条件を既に設定済みであり、その設定で映像表示装置Aを使用する場面を上記シミュレーションシステム2でシミュレーションする例を説明する。
第2実施形態では、映像表示装置Aの装着者が自己の視覚条件に応じた画角等の表示条件を既に設定済みであり、その設定で映像表示装置Aを使用する場面を上記シミュレーションシステム2でシミュレーションする例を説明する。
図17は、シミュレーション時のシミュレーションシステム2における処理の流れを説明するフローチャートである。
シミュレーションを行う際、まずオペレータはシミュレーションの環境設定情報(例えば、ディスプレイDから映像表示装置Aの装着者までの距離、シミュレーションしたい時間帯(夜や昼間等)や場面等の設定情報)を表示コントローラBに入力する。また、シミュレーション対象者(映像表示装置Aの装着者)は、映像表示装置Aを装着し、電源をONに設定するとともに、センサC2を足の甲、膝等、複数箇所に装着する。
シミュレーションを行う際、まずオペレータはシミュレーションの環境設定情報(例えば、ディスプレイDから映像表示装置Aの装着者までの距離、シミュレーションしたい時間帯(夜や昼間等)や場面等の設定情報)を表示コントローラBに入力する。また、シミュレーション対象者(映像表示装置Aの装着者)は、映像表示装置Aを装着し、電源をONに設定するとともに、センサC2を足の甲、膝等、複数箇所に装着する。
シミュレーションシステム2では、図17に示すように、表示コントローラBにおいてオペレータによりシミュレーションの設定情報が操作部62を介して入力されると(ステップS1)、制御部61により入力された設定情報に応じた試験映像が映像メモリ66から読み出されて画像処理された後、ディスプレイDに表示される(ステップS2)。例えば、設定情報として夜の時間帯における道路歩行の場面が指定された場合は、その場面に応じた試験映像が読み出される。また、ディスプレイD上に表示された試験映像を装着者の位置から観察した際に、試験映像中のオブジェクトが実物と同サイズに見えるように、ディスプレイD及び装着者間の距離に応じて試験映像の画角が調整される(画像処理される)。なおこのとき、試験映像の時間帯に合わせて室内の明かりを調整する、或いは環境音(騒音や、自動車の動作音、話し声等)を調整したりして、より実際の場面に近いものとすることが好ましい。
そして、映像表示装置Aにおいて装着者が入力ユニット53を介して撮影開始の指示操作を行うことにより、映像表示装置Aでは、撮影ユニット30による撮影が開始される。撮影ユニット30により得られた撮影映像は、予め映像表示装置Aにおいて設定されている表示条件に従って画像処理ユニット51により画像処理された後、表示ユニット20により装着者の眼前に表示される。表示される試験(撮影)映像については、第1実施形態において図7〜図9を示した試験映像例と同様であるので、ここでは詳細な説明を省略する。
映像表示装置Aの装着者は、ディスプレイD上に表示された試験映像及び映像表示装置Aにより表示された撮影映像を観察した結果、その現在表示されている表示条件が適切かどうかを判断する。また、一歩踏み出す、足踏みする等、動作してみる。
装着者の動作は、センサC2により監視されており、センサC2においてその動作が検出されると、表示コントローラBにその検出情報が出力される。表示コントローラBでは、センサC2からの検出情報の有無により、装着者の動作が検出されたか否かが判別される(ステップS3)。センサC2により装着者の動作が検出されない場合(ステップS3;N)、ステップS2に戻って試験映像の表示が続行される。一方、センサC2により動作が検出され、その検出情報が表示コントローラBに入力されると(ステップS3;Y)、表示コントローラBでは、制御部61によりその検出された動作に応じて試験映像の表示内容が変更され、ディスプレイD上にその動作に応じた試験映像が表示される(ステップS4)。
具体的には、センサC2の検出情報に基づいて、制御部61により装着者の移動量及び移動方向が判別され、当該移動量及び移動方向に応じて試験映像中のオブジェクトや背景の位置や大きさが変更されたフレーム画像が新たに生成されてディスプレイD上に表示される。これにより、装着者の動作に伴って試験映像が変化するため、装着者はあたかも自身の動きに伴って外界の景観が変わったかのような疑似体験を行うことができる。
次いで、表示コントローラBでは、制御部61により試験映像中のオブジェクトに対して装着者が適切な動作を行ったか否かが判別される(ステップS5)。適切な動作を行ったか否かの判別基準は、試験映像の種類によって異なるが、例えば図18(a)に示すような階段のオブジェクトの場合、装着者が適切に階段を下りる動作ができたかどうかが判別される。具体的には、装着者の動作により検出された移動量及び移動方向が、階段を下りることができる動作として予め設定されている移動方向及び移動量の基準(例えば、階段の降下に成功する移動方向、移動量の範囲が定められているもの)に適合するか否かにより判別される。
装着者の移動方向及び移動量が予め設定されている基準に適合する場合(ステップS5;Y)、装着者はオブジェクトに対して適切な動作を行ったと判断され、図18(b)に示すように、その判断結果としてオブジェクトに対する動作が成功した旨を示すメッセージがディスプレイD上に表示される(ステップS6)。一方、装着者の移動方向及び移動量が予め設定されている基準に相当しない場合(ステップS7;N)、装着者はオブジェクトに対して適切な動作をできなかったと判断され、図18(c)に示すように、その判断結果としてオブジェクトに対する動作が失敗した旨を示すメッセージがディスプレイD上に表示される(ステップS7)。判断結果が表示されると、本処理を終了する。
ディスプレイD上に表示された判断結果は、映像表示装置Aの表示ユニット20により装着者の眼前においても表示される。装着者は、その判断結果を、映像表示装置Aに既に設定されている表示条件の良否を判断する際の判断材料とすることができる。
以上のように、第2実施形態によれば、ディスプレイD上に試験映像を表示し、映像表示装置Aの撮影ユニット30によりディスプレイD上に表示された映像を撮影し、その撮影映像を装着者の眼前に表示する。そして、試験映像に対する装着者の動作を検出し、その移動量等に応じて装着者の動作が適切であるか否かを判断し、その判断結果をディスプレイD上に表示するので、装着者は映像表示装置Aにおける表示条件の設定が適切か否かを室内で容易に確認することができる。
また、映像表示装置Aはシースルー機能により、表示ユニット20による表示画像と外界像とを同時に観察可能に構成されているので、ディスプレイD上に表示された試験映像を目視しながら、映像表示装置Aにより表示されたその撮影映像を参考情報として観察することができ、より現実の使用態様に合ったシミュレーションを行うことができる。これにより、映像表示装置Aに不慣れな使用者であっても室内で使用方法を習得したり、練習することができ、安全な環境でシミュレーションすることができる。
また、ディスプレイD上に表示された試験映像により、外部から映像表示装置Aにおける表示条件を検出することができる。
なお、第2実施形態におけるシミュレーションシステム2は、本発明を適用した好適な一例であり、これに限定されるものではない。
例えば、上述した説明では、実際の映像表示装置Aの使用態様を鑑みて、スクリーンDを用いてこれに試験映像を表示し、映像表示装置Aにおいて当該スクリーンDにおける表示映像を撮影した撮影映像を表示することとしたが、これに限らず、映像表示装置Aにおいて直接試験映像を表示することとしてもよい。この場合、シミュレーションシステム2は、映像表示装置Aのみの簡易な構成となり、当該映像表示装置Aに表示コントローラBの機能が集約されることとなる。
例えば、上述した説明では、実際の映像表示装置Aの使用態様を鑑みて、スクリーンDを用いてこれに試験映像を表示し、映像表示装置Aにおいて当該スクリーンDにおける表示映像を撮影した撮影映像を表示することとしたが、これに限らず、映像表示装置Aにおいて直接試験映像を表示することとしてもよい。この場合、シミュレーションシステム2は、映像表示装置Aのみの簡易な構成となり、当該映像表示装置Aに表示コントローラBの機能が集約されることとなる。
また、表示コントローラBの機能を映像表示装置Aのコントロールボックス50に集約し、第1実施形態のようにコントロールボックス50とプロジェクタを接続可能とし、このプロジェクタを制御部51により表示制御することによって試験映像をスクリーン上に投影させることとしてもよい。
また、センサC2としては、第2実施形態で示したような装着者に装着して使用するタイプの他、装着者の足下に敷いて装着者の足の位置を検出するマットタイプ、磁気センサや超音波センサを用いたタイプ、電波を検出するタイプ等、他のセンサを適用することとしてもよい。また、装着者の足にICタグと交信を行う受信チップを設けるとともに、ICタグを埋め込んだマットを装着者の足下に設置し、当該ICタグの検出状況により装着者の動作を検出することとしてもよい。
また、階段を模した踏み台や電柱の模型等、実際の屋外の場面を想定した模型を装着者の周辺に設置することとしてもよい。これにより、装着者に臨場感を持たせることができる。さらに、模型を設置した場合にはセンサC2として測距センサを設け、実際に模型と装着者の距離を測定し、模型に対する装着者の動作が適切かどうかを判断することとしてもよい。
また、映像表示装置Aは、片眼だけ表示ユニット20を設けた片眼タイプに適用した例を説明したが、これに限らず、両眼に表示ユニット20を設けた両眼タイプであっても適用可能である。このとき、左右の各表示ユニット20のそれぞれについて、異なる表示条件が設定されている場合であっても、個々にその表示条件を確認することができる。
また、上述した説明では、シミュレーションにより映像表示装置Aの表示条件を確認できる例を説明したが、シミュレーションにより映像表示装置Aを使用した歩行訓練等を行うことができるものとしてもよい。この場合も同様に、試験映像に対する装着者の動作を検出し、その適否を判断した判断結果を表示する。訓練の場合は判断を複数回行い、その結果に応じて採点することとしてもよい。また、判断結果を統計し、装着者が苦手な場面の情報を提供することとしてもよい。例えば、階段のオブジェクトに対する動作を失敗することが多い装着者には、「距離感がつかみづらいようです。階段に気を付けましょう」等のメッセージを表示する。
1 シミュレーションシステム(第1実施形態)
2 シミュレーションシステム(第2実施形態)
A 映像表示装置
B 表示コントローラ
C1、C2 センサ
D ディスプレイ
P プロジェクタ
2 シミュレーションシステム(第2実施形態)
A 映像表示装置
B 表示コントローラ
C1、C2 センサ
D ディスプレイ
P プロジェクタ
Claims (9)
- 使用者の身体に装着して使用され、所定の表示条件に従って装着者の眼前で映像を表示する映像表示装置において、
映像表示装置における表示条件を外部から検出可能とすることを特徴とする映像表示装置。 - 請求項1に記載の映像表示装置と、
前記映像表示装置における表示条件を入力するための操作手段と、
前記映像表示装置により試験映像を表示させるとともに、当該映像表示装置における表示条件を、前記操作手段を介して入力された表示条件に変更し、当該変更された表示条件で試験映像を表示させる表示制御手段と、
を備えることを特徴とするシミュレーションシステム。 - 試験映像を表示する表示手段と、
映像表示装置における表示条件を入力するための操作手段と、
請求項1に記載の映像表示装置であって、撮影手段により前記表示手段によって表示された試験映像を撮影し、前記操作手段を介して入力された表示条件に従ってその撮影映像を装着者の眼前で表示する映像表示装置と、
前記試験映像の観察結果に応じた表示条件の変更情報が前記操作手段を介して入力されると、変更後の表示条件に従って前記映像表示装置における撮影映像を表示させる表示制御手段と、
を備えることを特徴とするシミュレーションシステム。 - 前記操作手段を介して試験映像の観察結果に応じて表示条件の設定が指示されると、当該表示条件を前記映像表示装置に記憶させ、表示条件の設定を行う条件設定手段を備え、
前記映像表示装置は、表示条件の設定後、前記記憶された表示条件に従って表示を行うことを特徴とする請求項2又は3に記載のシミュレーションシステム。 - 前記映像表示装置の装着者の動作を検出する検出手段を備え、
前記操作手段を介して装着者が動作する毎に表示条件を入力可能とし、
前記条件設定手段は、前記操作手段を介して表示条件が入力されると、その入力時に前記検出手段により検出された動作の情報とともに当該入力された表示条件を前記映像表示装置に記憶させ、
前記映像表示装置は、表示条件の設定後、前記検出手段により装着者の動作が検出されると、当該検出された動作に対応する表示条件で表示を行うことを特徴とする請求項4に記載のシミュレーションシステム。 - 前記表示手段は、異なる表示条件に応じた試験映像を並べて表示することを特徴とする請求項5に記載のシミュレーションシステム。
- 前記試験映像の観察結果の情報を、その試験映像の表示条件の情報と関連づけて記憶する結果記憶手段を備えることを特徴とする請求項6に記載のシミュレーションシステム。
- 使用者の身体に装着して使用され、予め設定された表示条件に応じた試験映像を装着者の眼前で表示する映像表示装置と、
前記映像表示装置の装着者の動作を検出する検出手段と、
前記検出手段からの検出情報に基づいて、装着者の動作が予め定められた基準に適合するか否かを判別する判別手段と、
前記判別手段による判別結果を前記映像表示装置に表示させる表示制御手段と、
を備えることを特徴とするシミュレーションシステム。 - 試験映像を表示する表示手段と、
使用者の身体に装着して使用され、撮影手段により前記表示手段上に表示された試験映像を撮影し、その撮影映像を予め設定された表示条件に従って装着者の眼前で表示する映像表示装置と、
前記映像表示装置の装着者の動作を検出する検出手段と、
前記検出手段からの検出情報に基づいて、装着者の動作が予め定められた基準に適合するか否かを判別する判別手段と、
前記判別手段による判別結果を前記表示手段上に表示させる表示制御手段と、
を備えることを特徴とするシミュレーションシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005023904A JP2006208999A (ja) | 2005-01-31 | 2005-01-31 | 映像表示装置及びシミュレーションシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005023904A JP2006208999A (ja) | 2005-01-31 | 2005-01-31 | 映像表示装置及びシミュレーションシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006208999A true JP2006208999A (ja) | 2006-08-10 |
Family
ID=36965894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005023904A Pending JP2006208999A (ja) | 2005-01-31 | 2005-01-31 | 映像表示装置及びシミュレーションシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006208999A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009251154A (ja) * | 2008-04-03 | 2009-10-29 | Konica Minolta Holdings Inc | 頭部装着式映像表示装置 |
JP2013516882A (ja) * | 2010-01-07 | 2013-05-13 | 3ディー スイッチ エス.アール.エル. | 立体視眼鏡を認識する装置および方法、ならびに、立体視ビデオストリームの表示を制御する方法 |
US9986195B2 (en) | 2014-11-17 | 2018-05-29 | Nec Display Solutions, Ltd. | Method and device that simulate video delivered by video instrument |
-
2005
- 2005-01-31 JP JP2005023904A patent/JP2006208999A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009251154A (ja) * | 2008-04-03 | 2009-10-29 | Konica Minolta Holdings Inc | 頭部装着式映像表示装置 |
JP2013516882A (ja) * | 2010-01-07 | 2013-05-13 | 3ディー スイッチ エス.アール.エル. | 立体視眼鏡を認識する装置および方法、ならびに、立体視ビデオストリームの表示を制御する方法 |
US9986195B2 (en) | 2014-11-17 | 2018-05-29 | Nec Display Solutions, Ltd. | Method and device that simulate video delivered by video instrument |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6095763B2 (ja) | ジェスチャ登録装置、ジェスチャ登録プログラムおよびジェスチャ登録方法 | |
US11765331B2 (en) | Immersive display and method of operating immersive display for real-world object alert | |
CN104076512B (zh) | 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法 | |
CN113168007A (zh) | 用于增强现实的系统和方法 | |
CN110045816A (zh) | 近眼显示器和系统 | |
JP6177872B2 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
EP4092515A1 (en) | System and method of enhancing user's immersion in mixed reality mode of display apparatus | |
CN105589199A (zh) | 显示装置、显示装置的控制方法以及程序 | |
JP6333801B2 (ja) | 表示制御装置、表示制御プログラム、および表示制御方法 | |
JP6376807B2 (ja) | 表示装置、表示制御方法及びプログラム | |
JP2008502992A (ja) | イメージの情報を与える交信方法 | |
JP6250024B2 (ja) | キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法 | |
CN105393192A (zh) | 用于近眼显示器的网状分层菜单显示配置 | |
CN108535868A (zh) | 头部佩戴型显示装置及其控制方法 | |
CN104956252A (zh) | 用于近眼显示设备的外围显示器 | |
CN103076875A (zh) | 具有全息对象的个人音频/视频系统 | |
CN105393284A (zh) | 基于人类身体数据的空间雕刻 | |
JP6738641B2 (ja) | シミュレーション制御装置及びシミュレーション制御プログラム | |
CN108428375A (zh) | 一种基于增强现实的教学辅助方法及设备 | |
WO2014128751A1 (ja) | ヘッドマウントディスプレイ装置、ヘッドマウントディスプレイ用プログラム、およびヘッドマウントディスプレイ方法 | |
JP6711885B2 (ja) | 送信端末、受信端末、送受信システム、およびそのプログラム | |
CN108139876B (zh) | 用于沉浸式和交互式多媒体生成的系统和方法 | |
KR20230029923A (ko) | 롤링 셔터 카메라들을 사용하는 시각적 관성 추적 | |
KR20230022239A (ko) | 증강 현실 환경 향상 | |
WO2014128750A1 (ja) | 入出力装置、入出力プログラム、および入出力方法 |