JP2010067083A - ヘッドマウントディスプレイ - Google Patents

ヘッドマウントディスプレイ Download PDF

Info

Publication number
JP2010067083A
JP2010067083A JP2008233852A JP2008233852A JP2010067083A JP 2010067083 A JP2010067083 A JP 2010067083A JP 2008233852 A JP2008233852 A JP 2008233852A JP 2008233852 A JP2008233852 A JP 2008233852A JP 2010067083 A JP2010067083 A JP 2010067083A
Authority
JP
Japan
Prior art keywords
display
identifier
observer
unit
discriminator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008233852A
Other languages
English (en)
Other versions
JP5104679B2 (ja
Inventor
Yoshiharu Yamada
祥治 山田
Mitsuyoshi Watanabe
光由 渡邉
Kazuya Taki
和也 滝
Hideo Ueno
英生 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2008233852A priority Critical patent/JP5104679B2/ja
Priority to PCT/JP2009/056240 priority patent/WO2010029788A1/ja
Publication of JP2010067083A publication Critical patent/JP2010067083A/ja
Priority to US13/045,229 priority patent/US8494212B2/en
Application granted granted Critical
Publication of JP5104679B2 publication Critical patent/JP5104679B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • G02B26/101Scanning systems with both horizontal and vertical deflecting means, e.g. raster or XY scanners
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/1006Beam splitting or combining systems for splitting or combining different wavelengths
    • G02B27/102Beam splitting or combining systems for splitting or combining different wavelengths for generating a colour image from monochromatic image signal sources
    • G02B27/104Beam splitting or combining systems for splitting or combining different wavelengths for generating a colour image from monochromatic image signal sources for use with scanning systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • G02B27/145Beam splitting or combining systems operating by reflection only having sequential partially reflecting surfaces
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0005Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being of the fibre type
    • G02B6/0006Coupling light into the fibre
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/24Coupling light guides
    • G02B6/26Optical coupling means
    • G02B6/35Optical coupling means having switching means
    • G02B6/3598Switching means directly located between an optoelectronic element and waveguides, including direct displacement of either the element or the waveguide, e.g. optical pulse generation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/24Coupling light guides
    • G02B6/42Coupling light guides with opto-electronic elements
    • G02B6/4201Packages, e.g. shape, construction, internal or external details
    • G02B6/4204Packages, e.g. shape, construction, internal or external details the coupling comprising intermediate optical elements, e.g. lenses, holograms
    • G02B6/4214Packages, e.g. shape, construction, internal or external details the coupling comprising intermediate optical elements, e.g. lenses, holograms the intermediate optical element having redirecting reflective means, e.g. mirrors, prisms for deflecting the radiation from horizontal to down- or upward direction toward a device

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】多数の識別体が検出された場合であっても視認し易く必要十分な表示情報を表示することができるヘッドマウントディスプレイを提供する。
【解決手段】ヘッドマウントディスプレイは、外光を透過しつつ、表示情報に応じた画像光を観察者の眼に投射して当該観察者に前記画像光に応じた画像を視認させる表示手段を備えた。ヘッドマウントディスプレイは、撮像領域内において検出された結果に基づいて、対応する対応情報を表示手段により表示させる識別体を選択する。ヘッドマウントディスプレイは、選択された識別体に対応する対応情報を、表示手段を透過して観察者に視認される識別体と関連させて表示させる。
【選択図】図4

Description

本発明は、ヘッドマウントディスプレイに関するものであり、特に、外光を透過しつつ、表示情報に応じた画像光を観察者の眼に投射するシースルー型のヘッドマウントディスプレイに関するものである。
従来より、動画ファイル、静止画ファイル、文章ファイル等の各種表示情報を記憶する記憶手段と、この記憶手段に記憶した表示情報を再生する再生手段とを備えた情報処理装置が知られている。
この情報処理装置の代表例としては、パーソナルコンピュータがある。一般にパーソナルコンピュータは、前記記憶手段や前記再生手段等を備えたコンピュータ本体と、このコンピュータ本体に所定の動作を行わせるために観察者が操作するキーボードやマウス等の機械的な操作手段と、再生手段により再生された表示情報を画像として表示するディスプレイ等とから構成されている。
この表示情報を表示するディスプレイとしては、CRT(Cathode Ray Tube)ディスプレイや液晶ディスプレイ等の卓上に載置して使用する表示装置が一般的であったが、液晶表示素子を画像表示デバイスとして用い、観察者が頭部に装着した状態で画像を視認することができるHMD(ヘッドマウントディスプレイ)等も開発されてきていた。
しかし、近年、画像信号に基づいて生成した画像光(以下、「画像光」という。)を2次元方向に走査し、観察者の眼に導く光走査部を備え、観察者が頭部に装着した状態で前記光走査部を動作させることによって、その2次元方向に走査された画像光を観察者の網膜上に投影表示し、観察者に画像を視認させることができるものも開発されている。
これらのようなHMDには、外界視野が透過して視認可能であるシースルー型のHMDがある。このようなシースルー型のHMDにおいては、例えば、特許文献1に示すように、掲示物等の識別体に対して赤外線を照射させ、反射させることによって得ることができる識別体ID等に基づき識別体に対応付けられたコンテンツ情報が、その識別体に重ねて関連付けて表示される装置が開示されている。
特開2003−242168号公報
ところが、上記従来の装置では、識別体が検出された場合には、その識別体に対応するコンテンツ情報(以下、対応情報と称することがある)を表示させたが、多数の識別体が検出された場合には、対応情報を表示するための表示領域が十分とれないおそれがあった。
これに伴い、例えば、識別体に対応する全ての表示情報について詳細に表示させると、十分に表示領域がないため、それら表示情報が重なってしまうおそれがある。一方、識別体に対応する表示情報について詳細に表示せず、簡略化された表示情報を表示すると、観察者が所望とする識別体に対応する表示情報の詳細が表示できないおそれがあった。このため、表示情報が視認し難くなり、利便性の向上が望まれている。
本発明は、上述したような課題に鑑みてなされたものであり、多数の識別体が検出された場合であっても視認し易く必要十分な表示情報を表示することができるヘッドマウントディスプレイを提供することを目的とする。
以上のような目的を達成するために、本発明は、以下のようなものを提供する。
すなわち、請求項1記載の本発明では、外光を透過しつつ、表示情報に応じた画像光を観察者の眼に投射して当該観察者に前記画像光に応じた画像を視認させる表示手段を備えたシースルー型のヘッドマウントディスプレイにおいて、前記観察者の視野範囲のうち少なくとも一部を撮像する撮像手段と、前記撮像手段による撮像領域内における識別体を検出する識別体検出手段と、前記識別体の各々に対応する対応情報を記憶する対応情報記憶手段と、前記識別体検出手段によって検出された結果に基づいて、対応する対応情報を前記表示手段により表示させる識別体を選択する識別体選択手段と、前記対応情報記憶手段に記憶され、前記識別体選択手段によって選択された識別体に対応する対応情報を、前記表示手段を透過して前記観察者に視認される当該識別体と関連させて前記表示手段により表示させる制御を行う表示制御手段と、を備えたことを特徴とするものである。
すなわち、請求項2記載の本発明では、請求項1に記載の発明において、前記識別体選択手段は、前記識別体検出手段によって検出された識別体と前記観察者との位置関係に基づいて、対応する対応情報を前記表示手段により表示させる識別体の選択範囲を前記撮像領域内に設定し、前記選択範囲における識別体の少なくともいずれかを、前記対応情報を表示させる識別体として選択することを特徴とするものである。
すなわち、請求項3記載の本発明では、請求項2に記載の発明において、前記識別体選択手段は、前記識別体検出手段によって検出された識別体と前記観察者との距離を前記位置関係として、前記対応情報を表示させる識別体として選択することを特徴とするものである。
すなわち、請求項4記載の本発明では、請求項2に記載の発明において、前記識別体選択手段は、前記識別体検出手段によって検出された識別体と前記観察者とを結ぶ直線と観察者正面方向とがなす角度を前記位置関係として、前記対応情報を表示させる識別体として選択することを特徴とするものである。
すなわち、請求項5記載の本発明では、請求項4に記載の発明において、前記識別体選択手段は、前記識別体検出手段によって検出された識別体のうち、前記観察者の視野範囲の中心を基準として近い位置関係である識別体を優先して、前記対応情報を表示させる識別体として選択することを特徴とするものである。
すなわち、請求項6記載の本発明では、請求項2から5のいずれかに記載の発明において、前記撮像手段によって前記識別体として撮像された撮像画素の範囲によって、前記位置関係を算出する位置関係算出手段を備えたことを特徴とするものである。
すなわち、請求項7記載の本発明では、請求項2から6のいずれかに記載の発明において、前記識別体選択手段は、初期状態において、前記撮像手段による撮像領域の全域を前記選択範囲として設定することを特徴とするものである。
すなわち、請求項8記載の本発明では、請求項2から7のいずれかに記載の発明において、観察者によって操作可能な操作手段を備え、前記表示制御手段は、前記選択範囲を前記表示手段に表示させる制御を行い、前記識別体選択手段は、前記操作手段の操作に応じて、前記選択範囲を変更させることを特徴とするものである。
すなわち、請求項9記載の本発明では、請求項1から8のいずれかに記載の発明において、前記識別体選択手段は、前記識別体検出手段によって検出された前記撮像領域内における識別体の数に基づいて、対応情報を表示させる識別体を選択することを特徴とするものである。
すなわち、請求項10記載の本発明では、請求項1から9のいずれかに記載の発明において、前記識別体選択手段は、前記識別体検出手段によって検出された識別体の種別に基づいて、対応情報を表示させる識別体を選択することを特徴とするものである。
すなわち、請求項11記載の本発明では、請求項1から10のいずれかに記載の発明において、観察者によって識別体に向けてレーザ光を照射可能なレーザマーカ手段を備え、前記識別体選択手段は、前記レーザマーカ手段によって照射されるレーザ光に応じて、対応情報を表示させる識別体を選択することを特徴とするものである。
すなわち、請求項12記載の本発明では、請求項1から11のいずれかに記載の発明において、前記ヘッドマウントディスプレイの変位を検知する変位検知手段を備え、前記識別体選択手段は、前記変位検知手段によって前記ヘッドマウントディスプレイが変位した場合に、対応する対応情報を前記表示手段により表示させる識別体を選択することを特徴とするものである。
すなわち、請求項13記載の本発明では、請求項1から11のいずれかに記載の発明において、前記ヘッドマウントディスプレイの変位を検知する変位検知手段を備え、前記識別体選択手段は、前記変位検知手段によって所定時間だけ前記ヘッドマウントディスプレイが変位しなかった場合に、暫定的に選択した識別体を、対応情報を表示させる識別体として確定することを特徴とするものである。
本発明によれば、多数の識別体が検出された場合であっても視認し易く必要十分な表示情報を表示することができる。
以下、本発明の一実施形態について、図面を参照して具体的に説明する。図1は、本実施形態に係るヘッドマウントディスプレイシステムを示す説明図である。
[HMD概観]
ここで、図1は、ヘッドマウントディスプレイシステムの概観を示す斜視図である。
図1に示すように、本実施形態に係るヘッドマウントディスプレイ(以下、「HMD」という。)システムSは、観察者Pが頭部に装着した状態で、動画ファイル、静止画ファイル、文章ファイル等の各種コンテンツ情報を画像としてその観察者Pに視認可能に表示するHMD1を備えている。
このHMD1は、内部又は外部に記憶されている各種コンテンツ情報を画像信号に変換し、この画像信号に基づいて生成した画像光(以下、「画像光」という。)を観察者Pの眼に導いて走査する光走査部10(図2参照)を備え、観察者Pが頭部に装着した状態で光走査部10を動作させることによって、画像光を観察者の網膜上で2次元方向に走査させることにより、観察者Pにコンテンツ情報に対応する画像(以下、単に「コンテンツ」という。)を視認させることができるように構成している。なお、このHMD1の具体的構成については、後に詳述する。
また、このHMD1は、コンテンツを表示している最中であっても、観察者Pの視野の中で、そのコンテンツを表示している領域以外の領域では、観察者Pが外界を視認できるように構成している。
すなわち、このHMD1は、外光を透過しつつ、コンテンツ情報に応じた画像光を観察者Pの眼に投射するシースルー型のヘッドマウントディスプレイである。
そして、このHMDシステムSでは、2次元コード(例えば、QRコード)などの識別体を検出し、その識別体に対応付けられたコンテンツ情報を表示させる表示制御をHMD1に実行させることができるように構成している。このため、識別体に対応するコンテンツ情報を対応情報として以下に称することがある。
すなわち、本実施形態のHMD1は、観察者Pの視野範囲のうち少なくとも一部の領域を撮像する撮像手段としてのCCD(Charge Coupled Devices)センサ2を備え、このCCDセンサ2の撮像領域に識別体があることを条件に、複数種類のコンテンツ情報の中から、その識別体に対応付けられたコンテンツ情報を選択し、表示させることとなる。
特に、本実施形態においては、検出された識別体に対応付けられたコンテンツ情報の中から所定数のコンテンツ情報を選択的に表示させることとなり、多数の識別体が検出された場合であっても、表示領域の関係上、視認し易くコンテンツ情報を表示させることができる。
なお、図1に示すように、HMD1は、外界の明るさを検出する輝度センサ8と、CCDセンサ2の撮像領域を照らす照明手段としてのLED(Light Emitting Diode)3と、を備えており、輝度センサ8により外界の明るさが所定の明るさを下回ったことが検知されたときに、LED3がCCDセンサ2の撮像領域を照らすこととなる。
[HMD電気的構成]
ここで、本実施形態に係るHMD1の電気的構成等について、図2を参照して説明する。図2は、本実施形態に係るHMD1の電気的及び光学的構成を示す説明図である。
図2に示すように、このHMD1は、当該HMD1全体の動作を統括制御する制御部110と、この制御部110から供給される画像信号に基づいて生成した画像光を2次元的に走査することにより画像を表示することによって、画像信号に応じた画像を視認させる光走査部10と、を備えている。
光走査部10は、この制御部110から供給される画像信号をドットクロック毎に読み出し、読み出した映像信号に応じて強度変調された画像光を生成して出射する画像光生成部20を備え、さらに、その画像光生成部20と観察者Pの眼Eとの間には、画像光生成部20で生成され、光ファイバ100を介して出射されるレーザビーム(画像光)を平行光化するコリメート光学系61と、このコリメート光学系61で平行光化された画像光を画像表示のために水平方向(第1方向)に往復走査する第1光走査部として機能する水平走査部70と、水平走査部70で水平方向に走査された画像光を垂直方向(第1方向と略直交する第2方向)に往復走査する第2光走査部として機能する垂直走査部80と、水平走査部70と垂直走査部80との間に設けられたリレー光学系75と、このように水平方向と垂直方向に走査(2次元的に走査)された画像光を瞳孔Eaへ出射するためのリレー光学系90と、を備えている。
また、画像光生成部20には、パーソナルコンピュータ(図示略。)等の外部装置から供給される画像データが、インターフェース104と制御部110とを介して入力され、それに基づいて画像を合成するための要素となる各信号等を発生する信号処理回路21が設けられ、この信号処理回路21において、青(B)、緑(G)、赤(R)の各画像信号22a〜22cが生成され、出力される。また、信号処理回路21は、水平走査部70で使用される水平駆動信号23と、垂直走査部80で使用される垂直駆動信号24とをそれぞれ出力する。
さらに、画像光生成部20は、信号処理回路21からドットクロック毎に出力される3つの画像信号(B,R,G)22a〜22cをそれぞれ画像光にする画像光出力部として機能する光源部30と、これらの3つの画像光を1つの画像光に結合して任意の画像光を生成するための光合成部40を備えている。
光源部30は、青色の画像光を発生させるBレーザ34及びBレーザ34を駆動するBレーザドライバ31と、緑色の画像光を発生させるGレーザ35及びGレーザ35を駆動するGレーザドライバ32と、赤色の画像光を発生させるRレーザ36及びRレーザ36を駆動するRレーザドライバ33とを備えている。なお、各レーザ34、35、36は、例えば、半導体レーザや高調波発生機構付き固体レーザとして構成することが可能である。なお、半導体レーザを用いる場合は駆動電流を直接変調して、画像光の強度変調を行うことができるが、固体レーザを用いる場合は、各レーザそれぞれに外部変調器を備えて画像光の強度変調を行う必要がある。
光合成部40は、光源部30から入射する画像光を平行光にコリメートするように設けられたコリメート光学系41、42、43と、このコリメートされた画像光を合成するためのダイクロイックミラー44、45、46と、合成された画像光を光ファイバ100に導く結合光学系47とを備えている。
各レーザ34、35、36から出射したレーザ光は、コリメート光学系41、42、43によってそれぞれ平行化された後に、ダイクロイックミラー44、45、46に入射される。その後、これらのダイクロイックミラー44、45、46により、各画像光が波長に関して選択的に反射・透過される。
具体的には、Bレーザ34から出射した青色画像光は、コリメート光学系41によって平行光化された後に、ダイクロイックミラー44に入射される。Gレーザ35から出射した緑色画像光は、コリメート光学系42を経てダイクロイックミラー45に入射される。Rレーザ36から出射した赤色画像光は、コリメート光学系43を経てダイクロイックミラー46に入射される。
それら3つのダイクロイックミラー44、45、46にそれぞれ入射した3原色の画像光は、波長選択的に反射または透過して結合光学系47に達し、集光され光ファイバ100へ出力される。
水平走査部70及び垂直走査部80は、光ファイバ100から入射された画像光を画像として投影可能な状態にするために、水平方向と垂直方向に走査して走査画像光とするものである。
水平走査部70は、画像光を水平方向に走査するための反射面を有する共振型偏向素子71と、この共振型偏向素子71を共振させ、共振型偏向素子71の反射面を揺動させる駆動信号を発生する駆動信号発生器としての水平走査駆動回路72と、共振型偏向素子71から出力される変位信号に基づいて、共振型偏向素子71の反射面の揺動範囲及び揺動周波数等の揺動状態を検出する水平走査角検出回路73とを有している。
本実施形態において、水平走査角検出回路73は、検出した共振型偏向素子71の揺動状態を示す信号を制御部110へ入力するようにしている。
垂直走査部80は、画像光を垂直方向に走査するための偏向素子81と、この偏向素子81を駆動させる垂直走査制御回路82と、この垂直走査制御回路82による反射面の揺動範囲及び揺動周波数等の揺動状態を検出する垂直走査角検出回路83とを備えている。
また、水平走査駆動回路72と垂直走査制御回路82は、信号処理回路21から出力される水平駆動信号23と垂直駆動信号24に基づいてそれぞれ駆動し、垂直走査角検出回路83は、検出した偏向素子81の揺動状態を示す信号を制御部110へ入力するようにしている。
そして、後に詳述する制御部110は、信号処理回路21の動作を制御することによって、これら水平駆動信号23と垂直駆動信号24とを調整することによって、水平走査部70と垂直走査部80に画像光の走査角を変更させて、表示する画像の輝度を調整するようにしている。
こうして変更された走査角度は水平走査角検出回路73および垂直走査角検出回路83からの検出信号に基づいて制御部110により検出され、信号処理回路21と水平走査駆動回路72とを介して水平駆動信号23にフィードバックされると共に、信号処理回路21と垂直走査制御回路82とを介して垂直駆動信号24にフィードバックされる。
また、水平走査部70と垂直走査部80との間での画像光を中継するリレー光学系75を備えており、共振型偏向素子71によって水平方向に走査された光は、リレー光学系75によって偏向素子81の反射面に収束され、偏向素子81によって垂直方向に走査されて、2次元的に走査された走査画像光として、リレー光学系90へ出射される。
リレー光学系90は、正の屈折力を持つレンズ系91、94を有している。垂直走査部80から出射された表示用の走査画像光は、レンズ系91によって、それぞれの画像光がその画像光の中心線を相互に略平行にされ、かつそれぞれ収束画像光に変換される。そして、レンズ系94によってそれぞれほぼ平行な画像光となると共に、これらの画像光の中心線が観察者の瞳孔Eaに収束するように変換される。
なお、本実施形態においては、光ファイバ100から入射された画像光を、水平走査部70で水平方向に走査した後、垂直走査部80によって垂直方向に走査することとしたが、水平走査部70と垂直走査部80との配置を入れ替え、垂直走査部80によって垂直方向に走査した後、水平走査部70で水平方向に走査するようにしてもよい。
また、制御部110は、CPU(Central Processing Unit)101と、ROM(Reed Only Memory)としての不揮発性メモリであるフラッシュメモリ(図中においてはFlash Memoryと示す)102と、RAM(Random Access Memory)103と、表示させる画像データを記憶しておくVRAM(Video Random Access Memory)105とを備えている。
そして、これらCPU101、フラッシュメモリ102、RAM103、VRAM105は、データ通信用のバスにそれぞれ接続されており、このデータ通信用のバスを介して各種情報の送受信を行う。
また、この制御部110は、当該HMD1の電源スイッチSW、識別体を含む画像を撮像するCCDセンサ2、外界の明るさ(輝度)を検知する輝度センサ8、輝度センサ8により外界の明るさが所定の明るさを下回ったことが検知されたときに、CCDセンサ2の撮像領域A(図4参照)を照らすLED3、パーソナルコンピュータ等の外部装置と接続可能なインターフェース104とも接続されている。
CPU101は、フラッシュメモリ102に記憶されている各種情報処理プログラムを実行することにより、HMD1を構成する図示しない各種回路を動作させて、HMD1が備える各種機能を実行させる演算処理装置である。
フラッシュメモリ102は、HMD1により表示するコンテンツの再生、停止、早送り、巻き戻し等の表示制御を行う際に画像光生成部20、水平走査部70、垂直走査部80等を動作させるための情報処理プログラム等、制御部110がHMD1全体の動作を統括制御するためにCPU101により実行される各種情報処理プログラムを記憶している。
さらに、このフラッシュメモリ102には、制御部110がCCDセンサ2により撮像した識別体の形態を判別するために用いるテーブル等、制御部110が各種表示制御を行う際に参照する複数種類のテーブルが記憶されている。
[HMD機能構成]
ここで、本実施形態に係るHMD1の機能構成等について、図3を参照して説明する。図3は、本実施形態に係るHMD1の機能構成を示す説明図である。
図3に示すように、このHMD1におけるCCDセンサ2は、撮像手段201を有している。この撮像手段201は、観察者の視野範囲のうち少なくとも一部を撮像する。そして、撮像手段201は、制御部110にその撮像データを供給することとなる。
そして、HMD1における制御部110は、対応情報記憶手段202と、識別体検出手段203と、位置関係算出手段204と、識別体選択手段205と、表示制御手段206と、を有している。HMD1の制御部110において、後述のCPU101が所定の情報処理プログラムを実行することによって、識別体検出手段203、位置関係算出手段204、識別体選択手段205及び表示制御手段206として制御部110が機能することとなる。
対応情報記憶手段202は、上述したフラッシュメモリ102が相当し、識別体の各々に対応するコンテンツ情報(対応情報)を記憶する。
識別体検出手段203は、撮像手段201による撮像領域内における画像データから識別体を検出する。
位置関係算出手段204は、撮像手段201によって識別体として撮像された撮像画素の範囲によって、HDM1(HDM1を装着している観察者)と識別体との位置関係を算出する。なお、本実施形態において、このような位置関係は、識別体とHDM1との距離等であるが、これに限らず、例えば、別の実施形態として詳しく後述するが、識別体とHMD1とを結ぶ直線と観察者正面方向とがなす角度などであってもよい。
識別体選択手段205は、識別体検出手段203によって検出された結果に基づいて、その識別体に対応するコンテンツ情報を後述する表示手段207により表示させる識別体を選択する。特に、識別体選択手段205は、位置関係算出手段204によって算出されたHDM1と識別体との距離関係等の位置関係により、コンテンツ情報を表示させる識別体を選択することとなる。
表示制御手段206は、表示手段207に対して画像データに応じた画像を表示させる制御を行う。本実施形態において、表示制御手段206は、識別体選択手段205によって選択された識別体に対応するコンテンツ情報を、対応情報記憶手段202から読み出し、そのコンテンツ情報を表示手段207により表示させる制御を行う。特に、表示制御手段206は、表示手段207を透過して観察者に視認される識別体と関連させて、その識別体に対応付けられたコンテンツ情報を表示させる制御を行う。
このHMD1における光走査部10は、表示手段207を有している。この表示手段207は、外光を透過しつつ、画像情報(表示情報)に応じた画像光を観察者の眼に投射してその観察者に前記画像光に応じた画像を視認させる。
[HMD表示内容]
ここで、本実施形態に係るHMD1における表示内容等について、図4を参照して説明する。図4は、本実施形態に係るHMD1の表示内容等を示す説明図である。
HMD1を装着した観察者Pが、倉庫のような場所で商品を探すような状況を一例とする。図4(a)に示すように、倉庫には、各種商品が入ったダンボールが並べられている。この観察者Pの視野範囲のうちの一部の領域が撮像領域Aとして設定されている。
このような状況においては、図4(b)に示すように、撮像領域A内において6つの識別体が検出された場合には、その識別体の位置を示す黒丸印のマークが表示される。そして、6つの識別体のうちの4つの識別体に対応付けられたコンテンツ情報が表示される。
従来においては、図4(c)に示すように、6つの識別体が検出された場合には、全ての識別体に対応する6つのコンテンツ情報が表示されたが、本実施形態においては、図4(b)に示すように、それらのうち、識別体に対応する4つのコンテンツ情報が表示される。これは、6つの識別体から4つの識別体が選択されることとなる。特に、本実施形態においては、識別体と観察者Pとの距離が近い順に選択される(例えば、商品A、商品B、商品E、商品F)。
[識別体との位置関係算出]
ここで、識別体と観察者Pとの位置関係の算出について、図5を参照して説明する。
識別体を撮像するCCDセンサ2においては、それぞれの素子がマトリクス状に配置されている。このため、図4(a)に示すような画像が撮像された場合には、その撮像された画像の中から、図5(a)に示すような識別体として認識できる撮像画素の範囲が検出される。そして、図5(b)から図5(d)に示すように、識別体のそれぞれ毎に撮像画素の範囲が検出される。このように検出された識別体に対応する撮像画素の範囲によって、識別体と観察者Pとの距離や、観察者とを結ぶ直線と観察者正面方向とがなす角度などが算出可能となる。このように、識別体として撮像された撮像画素の範囲によって、識別体と観察者Pとの位置関係が算出される。
このように、識別体として撮像された撮像画素の範囲によって、位置関係を算出する。従って、撮像された画像から位置関係を算出することができ、簡素な構成で位置関係を認識することができる。
[制御動作]
次に、図6及び図7のフローチャートを参照して、HMD1の動作について説明する。
図6及び図7は、HMD1において実行される処理の動作を示すフローチャートである。特に、図6に示すメイン処理は、HMD1の電源がオンされた際に制御部110によって実行される。ここでは、HMD1の制御部110(以下、単に「制御部110」という。)がメイン処理について説明することとし、その他の処理については説明を省略する。
本実施形態のHMD1において、制御部110は、フラッシュメモリ102内に記憶している情報処理プログラムを実行することによって、上記した識別体検出手段、位置関係算出手段、識別体選択手段、表示制御手段等として機能することとなる。
[メイン処理]
最初に、図6に示すように、HMD1に電源が投入されると、制御部110は、初期設定を行う(ステップS11)。この処理において、制御部110は、RAMアクセス許可、作業領域の初期化等を実行する。また、制御部110は、対応する対応情報を表示手段207により表示させる識別体の選択範囲を撮像領域A内に設定することとなる。この処理が終了した場合には、ステップS12に処理を移す。
ステップS12において、制御部110は、撮像処理を実行する。この処理において、制御部110は、撮像手段201としてのCCDセンサ2に撮像領域Aの画像を撮像させる制御を行う。この処理が終了した場合には、ステップS13に処理を移す。
ステップS13において、制御部110は、識別体選択処理を実行する。詳しくは図7を用いて後述するが、この処理において、制御部110は、CCDセンサ2によって撮像された撮像領域の画像から、識別体を検出し、その識別体とHMD1との距離を算出し、その距離に基づいて、複数の識別体の中から、表示手段207によってコンテンツ情報を表示させる識別体を選択することとなる。この処理が終了した場合には、ステップS14に処理を移す。
ステップS14において、制御部110は、選択された識別体に対応する対応情報の画像データをフラッシュメモリ102から読み込み、画像として、識別体位置指示ドットと共にVRAM105におけるフレームバッファ上に描画する。これによって、制御部110は、このフレームバッファ上に描画した画像を識別体位置指示ドットと共に光走査部10に供給することとなり、観察者Pによって視認可能に表示させることとなる。特に、表示手段207は、図4(b)に示すように、透過して視認可能な視野範囲の識別体と関連付けることができるように、識別体と対応する対応情報を表示させることとなる。つまり、制御部110は、選択された識別体に対応する対応情報を、表示手段207を透過して観察者に視認される当該識別体と関連させて表示させる制御を行うこととなる。このような処理を実行することによって、制御部110は、表示制御手段206として機能する。尚、制御部110は、選択された識別体に対応する対応情報が動画コンテンツである場合にも、識別体に対応する対応情報を所定周期毎に画像としてフレームバッファ上に描画する。この処理が終了した場合には、ステップS15に処理を移す。
ステップS15において、制御部110は、その他制御処理を実行する。そして、制御部110は、電源オフであるか否かを判定する(ステップS16)。この処理において、制御部110は、電源スイッチSWの操作等に応じて、電源オフであるか否かを判定することとなる。制御部110は、電源オフであると判定すると(ステップS16:YES)、メイン処理を終了する。一方、制御部110は、電源オフではないと判定すると(ステップS16:NO)、再度、ステップS12に処理を移す。これによって、制御部110は、電源オフとなるまで、ステップS12からステップS15を繰り返し実行することとなる。
[識別体選択処理]
図6のステップS13において実行されるサブルーチンについて図7を用いて説明する。
最初に、図7に示すように、制御部110は、撮像素子から画像を取り込む(ステップS21)。この処理において、制御部110は、撮像手段201としてのCCDセンサ2によって撮像された撮像領域Aの画像を取り込み、RAM103に記憶する。この処理が終了した場合には、ステップS22に処理を移す。
ステップS22において、制御部110は、画像内の全識別体をIDとともに抽出する。この処理において、制御部110は、ステップS21において取り込んだ撮像領域Aの画像から、識別体を検出する。そして、制御部110は、識別体を検出した場合には、その検出した識別体に含まれているIDを読み出す。これによって、制御部110は、どのような識別体であるかを認識可能である。このような処理を実行することによって、制御部110は、識別体検出手段203として機能する。この処理が終了した場合には、ステップS23に処理を移す。
ステップS23において、制御部110は、抽出した各識別体までの距離を算出する。この処理において、制御部110は、ステップS22において検出した識別体毎に、その識別体として撮像された撮像画素の範囲によって、その識別体とHMD1(HMD1を装着した観察者P)との距離を、その識別体とHMD1との位置関係として算出する。このような処理を実行することによって、制御部110は、位置関係算出手段204として機能する。この処理が終了した場合には、ステップS24に処理を移す。
ステップS24において、制御部110は、探索範囲決定距離よりも近くにある識別体を選択する。この処理において、制御部110は、予め設定されている探索範囲決定距離をフラッシュメモリ102から読み出す。そして、制御部110は、その探索範囲決定距離と、ステップS23において算出された識別体とHMD1との距離とを参照する。そして、制御部110は、探索範囲決定距離よりも近くにある識別体を選択し、RAM103の所定領域にセットする。つまり、制御部110は、対応する対応情報を表示させる識別体の選択範囲(上述した探索範囲決定距離)を撮像領域A内に設定し、検出された識別体と観察者Pとの距離に基づいて、選択範囲における識別体の少なくともいずれかを、表示手段207により対応情報を表示させる識別体として選択することとなる。このような処理を実行することによって、制御部110は、識別体選択手段205として機能する。なお、本実施形態においては、制御部110は、探索範囲決定距離よりも近くにあり、近い順番で上限を4個として識別体を選択することとなる。この処理が終了した場合には、本サブルーチンを終了する。
このように、観察者の視野範囲のうち少なくとも一部を撮像し、撮像領域内における識別体を検出する。そして、検出された結果に基づいて、対応する対応情報を表示手段により表示させる識別体を選択する。そして、選択された識別体に対応する対応情報を、表示手段を透過して観察者に視認される識別体と関連させて表示手段により表示させる制御を行う。従って、多数の識別体が検出されたときでも、その識別体の検出結果に基づいて、対応情報を表示手段により表示させる識別体を選択することとなり、多数の識別体が検出された場合であっても視認し易く必要十分な表示情報を表示することができる。
また、検出された識別体と観察者との位置関係に基づいて、対応する対応情報を表示手段により表示させる識別体の選択範囲を撮像領域内に設定し、選択範囲における識別体の少なくともいずれかを、対応情報を表示させる識別体として選択する。従って、検出された識別体と観察者との位置関係に基づいて、設定された選択範囲における識別体を、対応情報を表示させる識別体として選択するため、その位置関係に応じた識別体を選択することができる。また、観察者が識別体との位置関係を意識して、対応情報を表示させる識別体を選択することができ、多数の識別体が検出された場合であっても、煩雑な操作を行うことなく、視認し易く表示情報を表示することができる。
また、検出された識別体と観察者との距離を位置関係として、対応情報を表示させる識別体として選択する。従って、観察者との距離に応じた識別体を選択することができる。例えば、観察者との距離が近い識別体を優先して選択することができ、簡便である。また、観察者が識別体との距離を意識して、対応情報を表示させる識別体を選択することができ、多数の識別体が検出された場合であっても、煩雑な操作を行うことなく、視認し易く表示情報を表示することができる。
[第二の実施形態]
なお、上述した実施形態においては、HMD1との距離に基づいて、対応情報を表示させる識別体を選択したが、これに限らず、例えば、識別体、HMD1を結ぶ直線と、HMD1正面方向とがなす角度に基づいて、対応情報を表示させる識別体を選択してもよい。つまり、検出された識別体とHMD1との位置関係に基づいて、対応情報を表示させる識別体を選択してもよい。
具体的な一実施形態について図4(d)及び図8を用いて以下に説明する。なお、本実施形態においては、発明の理解を容易とするために、異なる構成、処理について主に説明をし、同じような構成、処理については説明を省略する。
[HMD表示内容]
本実施形態においては、図4(d)に示すように、撮像領域A内において6つの識別体のうちの4つの識別体に対応付けられたコンテンツ情報が表示されるが、図4(b)に示す識別体とは異なる。上述した実施形態とは異なり、識別体と観察者Pとを結ぶ直線と、観察者P正面方向とがなす角度に基づいて、識別体を選択するため、視野範囲の中心近くの識別体が優先してコンテンツ情報が表示される(例えば、商品B、商品C、商品D、商品E)。また、コンテンツ情報を表示させるか否かを決定するために予め設定されている探索範囲決定角度を示す探索範囲決定角度画像Bが表示されている。
[識別体選択処理]
図6のステップS13において実行されるサブルーチンについて図8を用いて説明する。
最初に、図7に示すように、制御部110は、撮像素子から画像を取り込み(ステップS21)、画像内の全識別体をIDとともに抽出する(ステップS22)。この処理が終了した場合には、ステップS33に処理を移す。
ステップS33において、制御部110は、抽出した各識別体とのなす角度を算出する。この処理において、制御部110は、ステップS22において検出した識別体毎に、その識別体として撮像された撮像画素の範囲によって、その識別体とHMD1(HMD1を装着した観察者P)との角度を、その識別体とHMD1との位置関係として算出する。ここでいう識別体とHMD1(HMD1を装着した観察者P)との角度とは、その識別体と観察者Pとを結ぶ直線と、観察者P正面方向と、がなす角度である。このような処理を実行することによって、制御部110は、位置関係算出手段204として機能する。この処理が終了した場合には、ステップS34に処理を移す。
ステップS34において、制御部110は、視野範囲の中心を基準とした探索範囲決定角度よりも内側にある識別体を選択する。この処理において、制御部110は、予め設定されている探索範囲決定角度をフラッシュメモリ102から読み出す。そして、制御部110は、その探索範囲決定角度と、ステップS33において算出された識別体とHMD1とのなす角度とを参照する。そして、制御部110は、視野範囲の中心を基準とした探索範囲決定角度よりも内側にある識別体を選択し、RAM103の所定領域にセットする。つまり、制御部110は、対応する対応情報を表示させる識別体の選択範囲(上述した探索範囲決定角度)を撮像領域A内に設定し、検出された識別体、観察者Pを結ぶ直線と、観察者P正面方向とがなす角度距離に基づいて、選択範囲における識別体の少なくともいずれかを、表示手段207により対応情報を表示させる識別体として選択することとなる。特に、制御部110は、検出された識別体のうち、観察者Pの視野範囲の中心を基準として近い位置関係である識別体を優先して、対応情報を表示させる識別体として選択することとなる。このような処理を実行することによって、制御部110は、識別体選択手段205として機能する。なお、本実施形態においては、制御部110は、探索範囲決定角度よりも内側にあり、視野範囲の中心に近い順番で上限を4個として識別体を選択することとなる。この処理が終了した場合には、本サブルーチンを終了する。
このように、検出された識別体と観察者とを結ぶ直線と観察者正面方向とがなす角度を位置関係として、対応情報を表示させる識別体として選択する。従って、識別体と観察者とを結ぶ直線と、観察者正面方向とがなす角度に応じた識別体を選択することができる。また、観察者が識別体とのなす角度を意識して、対応情報を表示させる識別体を選択することができ、多数の識別体が検出された場合であっても、煩雑な操作を行うことなく、視認し易く表示情報を表示することができる。
また、検出された識別体のうち、観察者の視野範囲の中心を基準として近い位置関係である識別体を優先して、対応情報を表示させる識別体として選択する。従って、観察者の視野範囲の中心を基準として近い識別体を優先して選択することができ、簡便である。
[第三の実施形態]
なお、上述した実施形態においては、HMD1と観察者Pとの位置関係が所定の選択範囲にあるか否かと、表示させる上限数とに基づいて、コンテンツ情報を表示させる識別体を選択したが、これに限らず、例えば、上限数を、検出した識別体の数によって変動させてもよい。
具体的な一実施形態について図9及び図10を用いて以下に説明する。なお、本実施形態においては、発明の理解を容易とするために、異なる構成、処理について主に説明をし、同じような構成、処理については説明を省略する。
[表示個数決定テーブル]
上述したフラッシュメモリ102には、図9に示すような表示個数決定テーブルが記憶されている。表示個数決定テーブルは、コンテンツ情報を表示させる上限個数を決定するためのテーブルである。表示個数決定テーブルには、識別体数と表示個数とが対応付けられている。具体的には、識別体数が1〜10である場合には、表示個数が4個として決定され、識別体数が11〜20である場合には、表示個数が5個として決定され、識別体数が21以上である場合には、表示個数が6個として決定される。
なお、本実施形態においては、撮像領域Aにおいて検出された識別体の数に基づいて表示個数を決定したが、これに限らず、例えば、撮像領域Aにおける選択範囲(探索範囲決定距離、探索範囲決定角度)において検出された識別体の数に基づいて表示個数を決定してもよい。
[識別体選択処理]
図6のステップS13において実行されるサブルーチンについて図10を用いて説明する。
最初に、図10に示すように、制御部110は、撮像素子から画像を取り込み(ステップS21)、画像内の全識別体をIDとともに抽出する(ステップS22)。そして、制御部110は、抽出した各識別体までの距離を算出する(ステップS23)。この処理が終了した場合には、ステップS25に処理を移す。
ステップS25において、制御部110は、抽出した識別体数に基づいて、対応情報の表示個数を算出する。この処理において、制御部110は、撮像領域Aにおいて抽出した識別体数を計数する。そして、制御部110は、図9に示す表示個数決定テーブルを参照し、撮像領域Aにおける識別体数に基づいて対応情報の表示個数を算出し、RAM103の所定領域にセットする。この処理が終了した場合には、ステップS26に処理を移す。
ステップS26において、制御部110は、距離が近い識別体から順に、表示個数の識別体を選択する。この処理において、制御部110は、ステップS25において算出された表示個数を参照する。そして、制御部110は、探索範囲決定距離よりも近くにあり、近い順番で、参照した表示個数を上限として識別体を選択し、RAM103の所定領域にセットする。つまり、制御部110は、検出された撮像領域A内における識別体の数に基づいて、対応情報を表示させる識別体を選択することとなる。このような処理を実行することによって、制御部110は、識別体選択手段205として機能する。この処理が終了した場合には、本サブルーチンを終了する。
このように、検出された撮像領域内における識別体の数に基づいて、対応情報を表示させる識別体を選択するので、識別体の数に応じて識別体を選択することができ、簡便である。特に、識別体の数が多くなると、対応情報を表示させる識別情報を多くするように設定することによって、観察者によって撮像領域内における識別体の数が認識可能となり、更には、全ての対応情報を視認するための時間を短縮することができる。
[第四の実施形態]
なお、上述した実施形態においては、検出した識別体と観察者Pとの位置関係に基づいて、コンテンツ情報を表示させる識別体を選択したが、これに限らず、例えば、識別体のID、即ち、識別体の種別に基づいて、コンテンツ情報を表示させる識別体を選択してもよい。また、例えば、検出した識別体と観察者との距離、角度、識別体の種別などから選択された要素に基づいて、コンテンツ情報を表示させる識別体を選択してもよい。更には、上述した実施形態においては、選択範囲は予め設定されていたが、これに限らず、例えば、操作手段の操作に応じて、選択範囲を変更可能に設定してもよい。更には、上述した実施形態においては、コンテンツ情報を表示させる上限となる表示個数は予め設定されていたが、これに限らず、例えば、操作手段の操作に応じて、表示個数を変更可能に設定してもよい。
具体的な一実施形態について図4(e)、図11及び図14を用いて以下に説明する。なお、本実施形態においては、発明の理解を容易とするために、異なる構成、処理について主に説明をし、同じような構成、処理については説明を省略する。
[HMD電気的構成]
ここで、本実施形態に係るHMD1の電気的構成等について、図11を参照して説明する。図11は、本実施形態に係るHMD1の電気的及び光学的構成を示す説明図である。
図11に示すように、制御部110は、HMD1の変位を検知する加速度センサ6、観察者によって操作可能な操作スイッチ7とも接続されている。
[HMD機能構成]
ここで、本実施形態に係るHMD1の機能構成等について、図12を参照して説明する。図12は、本実施形態に係るHMD1の機能構成を示す説明図である。
図12に示すように、HMD1における加速度センサ6は、変位検知手段208を有している。この変位検知手段209は、HMD1の変位を検知することとなる。
また、HMD1における操作スイッチ7は、操作手段209を有している。この操作手段209は、観察者によって操作可能である。
[HMD表示内容]
なお、本実施形態においては、操作スイッチ7の操作に応じて探索範囲決定距離や、探索範囲決定角度、選択範囲を変更可能に設定可能である。例えば、探索範囲決定角度が変更された場合には、図4(e)に示すように、探索範囲決定角度を示す探索範囲決定角度画像Bが変更されて表示される。また、その探索範囲決定角度によって、コンテンツ情報が表示される識別体が変化することとなる(例えば、商品D、商品E、商品Fなど)。
[メイン処理]
最初に、図6に示すように、HMD1に電源が投入されると、制御部110は、初期設定を行う(ステップS11)。この処理において、制御部110は、RAMアクセス許可、作業領域の初期化等を実行する。特に、制御部110は、初期状態においては、撮像手段201による撮像領域Aの全域を、対応情報を表示させる識別体の選択範囲として設定することとなる。この処理が終了した場合には、ステップS12に処理を移す。
[各種設定処理]
図6のステップS15においては、所定のタイミングで各種設定処理を実行する。このようなサブルーチンについて図13を用いて説明する。
最初に、図13に示すように、制御部110は、探索条件設定操作ありか否かを判定する(ステップS101)。この処理において、制御部110は、操作スイッチ7などの操作に応じて、探索条件設定操作ありか否かを判定することとなる。
制御部110は、探索条件設定操作ありと判定した場合には(ステップS101:YES)、探索条件設定処理を実行し(ステップS102)、ステップS103に処理を移す。この探索条件設定処理においては、制御部110は、探索条件の設定を行う。ここでいう探索条件とは、識別体に対応するコンテンツ情報の表示の探索基準であり、具体的には、識別体との距離、識別体との角度、識別体の種別の少なくともいずれかを基準とするかである。
一方、制御部110は、探索条件設定操作なしと判定した場合には(ステップS101:NO)、ステップS102を実行することなく、ステップS103に処理を移す。
ステップS103において、制御部110は、選択範囲設定操作ありか否かを判定する。この処理において、制御部110は、操作スイッチ7などの操作に応じて、選択範囲設定操作ありか否かを判定することとなる。
制御部110は、選択範囲設定操作ありと判定した場合には(ステップS103:YES)、選択範囲設定処理を実行し(ステップS104)、ステップS105に処理を移す。この選択範囲設定処理においては、制御部110は、選択範囲の設定を行う。ここでいう選択範囲とは、探索範囲決定距離や探索範囲決定角度であり、例えば、操作スイッチ7の操作に応じて、図4(e)に示すように、探索範囲決定角度を示す探索範囲決定角度画像Bを変更することができる。
一方、制御部110は、選択範囲設定操作なしと判定した場合には(ステップS103:NO)、ステップS104を実行することなく、ステップS105に処理を移す。
ステップS105において、制御部110は、探索範囲決定距離設定操作ありか否かを判定する。この処理において、制御部110は、操作スイッチ7などの操作に応じて、探索範囲決定距離設定操作ありか否かを判定することとなる。
制御部110は、探索範囲決定距離設定操作ありと判定した場合には(ステップS105:YES)、探索範囲決定距離設定処理を実行し(ステップS106)、ステップS107に処理を移す。この探索範囲決定距離設定処理においては、制御部110は、上述した実施形態のような探索範囲決定距離の設定を行う。
一方、制御部110は、探索範囲決定距離設定操作なしと判定した場合には(ステップS105:NO)、ステップS106を実行することなく、ステップS107に処理を移す。
ステップS107において、制御部110は、探索範囲決定角度設定操作ありか否かを判定する。この処理において、制御部110は、操作スイッチ7などの操作に応じて、探索範囲決定角度設定操作ありか否かを判定することとなる。
制御部110は、探索範囲決定角度設定操作ありと判定した場合には(ステップS107:YES)、探索範囲決定角度設定処理を実行し(ステップS108)、ステップS109に処理を移す。この探索範囲決定角度設定処理においては、制御部110は、上述した実施形態のような探索範囲決定角度の設定を行う。
一方、制御部110は、探索範囲決定角度設定操作なしと判定した場合には(ステップS107:NO)、ステップS108を実行することなく、ステップS109に処理を移す。
ステップS109において、制御部110は、選択種別設定操作ありか否かを判定する。この処理において、制御部110は、操作スイッチ7などの操作に応じて、選択種別設定操作ありか否かを判定することとなる。
制御部110は、選択種別設定操作ありと判定した場合には(ステップS109:YES)、選択種別設定処理を実行し(ステップS110)、ステップS111に処理を移す。この選択種別設定処理においては、制御部110は、選択種別の設定を行う。ここでいう選択種別とは、探索する識別体の種別であり、DVD、CD、本などメディアの種別や、アクション、ロマンス、ヒューマンドラマ、サスペンスなどジャンルが一例に挙げられる。
一方、制御部110は、選択種別設定操作なしと判定した場合には(ステップS109:NO)、ステップS110を実行することなく、ステップS111に処理を移す。
ステップS111において、制御部110は、表示個数設定操作ありか否かを判定する。この処理において、制御部110は、操作スイッチ7などの操作に応じて、表示個数設定操作ありか否かを判定することとなる。
制御部110は、表示個数設定操作ありと判定した場合には(ステップS111:YES)、表示個数設定処理を実行し(ステップS112)、本サブルーチンを終了する。この表示個数設定処理においては、制御部110は、上述した実施形態のような表示個数の設定を行う。
一方、制御部110は、表示個数設定操作なしと判定した場合には(ステップS111:NO)、ステップS112を実行することなく、本サブルーチンを終了する。
[識別体選択処理]
図6のステップS13において実行されるサブルーチンについて図14を用いて説明する。
最初に、図14に示すように、制御部110は、撮像素子から画像を取り込み(ステップS21)、画像内の全識別体をIDとともに抽出する(ステップS22)。この処理が終了した場合には、ステップS41に処理を移す。
ステップS41において、制御部110は、抽出した識別体数に基づいて、対応情報の表示個数を算出する。この処理において、制御部110は、撮像領域Aにおいて抽出した識別体数を計数する。そして、制御部110は、ステップS111において設定された表示個数を参照し、撮像領域Aにおける識別体数に基づいて対応情報の表示個数を算出し、RAM103の所定領域にセットする。この処理が終了した場合には、ステップS42に処理を移す。
ステップS42において、制御部110は、ステップS104において設定された選択範囲設定を参照し、選択範囲を決定する。なお、ステップS104において設定されていない場合には、初期状態の設定により、撮像領域Aが選択範囲となる。この処理が終了した場合には、ステップS43に処理を移す。
ステップS43において、制御部110は、ステップS102において種別による探索条件が設定された場合には、ステップS110において設定された選択種別設定を参照し、設定された種別の識別体を抽出することとなる。この処理が終了した場合には、ステップS44に処理を移す。
ステップS44において、制御部110は、探索条件が距離設定であるか否かを判定する。この処理において、制御部110は、ステップS102において種別による探索条件を参照し、探索条件が距離設定であるか否かを判定することとなる。
制御部110は、探索条件が距離設定であると判定した場合には(ステップS44:YES)、上述したように、ステップS41からステップS43の実行により抽出された各識別体までの距離を算出し(ステップS23)、距離が近い識別体から順に、表示個数の識別体を選択する(ステップS26)。この処理が終了した場合には、本サブルーチンを終了する。
一方、制御部110は、探索条件が距離設定ではないと判定した場合には(ステップS44:NO)、ステップS45に処理を移す。
ステップS45において、制御部110は、探索条件が角度設定であるか否かを判定する。この処理において、制御部110は、ステップS102において種別による探索条件を参照し、探索条件が角度設定であるか否かを判定することとなる。
制御部110は、探索条件が角度設定であると判定した場合には(ステップS45:YES)、上述したように、ステップS41からステップS43の実行により抽出された各識別体とのなす角度を算出し(ステップS33)、視野範囲の中心からなす角度が小さい識別体から順に、表示個数の識別体を選択する(ステップS36)。この処理が終了した場合には、本サブルーチンを終了する。この処理が終了した場合には、本サブルーチンを終了する。
一方、制御部110は、探索条件が角度設定ではないと判定した場合には(ステップS45:NO)、ステップS41からステップS43の実行により抽出された識別体から、表示個数の識別体をランダムに選択する(ステップS46)。この処理が終了した場合には、本サブルーチンを終了する。
このように、検出された識別体の種別に基づいて、対応情報を表示させる識別体を選択する。従って、識別体の種別に応じた識別体を選択することができる。
また、初期状態において、撮像領域の全域を選択範囲として設定する。従って、初期状態であっても、撮像領域の全域における識別体を検出可能であり、識別体の未検出を防止し、簡便である。
更には、選択範囲を表示手段に表示させる制御を行い、観察者の操作に応じて、選択範囲を変更させる。従って、観察者の意図する選択範囲における識別体を選択することができ、簡便である。
[その他の実施形態]
なお、上述した実施形態においては、操作スイッチ7の操作に応じて、各種の設定や決定を行うようにしたが、これに限らず、例えば、上述したようにHMD1に設置された加速度センサ6を用いて各種の設定や決定を行うようにしてもよい。また、HMD1自体に設置された操作スイッチ7ではなく、操作手段としてレーザマーカを用いて、レーザが照射されたか否かによって各種の設定や決定を行うようにしてもよい。
具体的には、例えば、レーザマーカを用いて、図4(f)に示すように、識別体を指定することで、撮像領域Aにおいて撮像された画像からレーザ光スポットを認識し、指定された識別体に対応するコンテンツ情報を表示させることもできる。
このように、観察者によって識別体に向けてレーザ光を照射可能であり、その照射されるレーザ光に応じて、対応情報を表示させる識別体を選択する。従って、HMDに直接的に接続せずに、識別体を選択することができ、簡便である。また、レーザ光の照射によって直接的に識別体を指定することができ、簡便である。
また、例えば、上述したようなレーザを識別体に照射し、観察者Pが頷くことによって、HMD1が縦方向に変位したことを認識し、レーザが照射された識別体に対応するコンテンツ情報を表示させることもできる。
このように、HMDの変位を検知し、HMDが変位した場合に、対応する対応情報を表示手段により表示させる識別体を選択する。従って、特別な操作手段をHMDに設けなくても、対応情報を表示させる識別体を選択することができる。また、手等を用いなくも、対応情報を表示させる識別体を選択することができる。
また、例えば、上述したようなレーザを識別体に照射し、観察者Pが首を固定して所定時間経過することによって、HMD1が所定時間だけ変位していないことを認識し、レーザが照射された識別体を、コンテンツ情報を表示させる識別体として確定させることもできる。
このように、HMDの変位を検知し、所定時間だけヘッドマウントディスプレイが変位しなかった場合に、暫定的に選択した識別体を、対応情報を表示させる識別体として確定する。従って、特別な操作手段を設けなくても、対応情報を表示させる識別体として確定することができる。また、手等を用いなくも、対応情報を表示させる識別体として確定することができる。
なお、上述した実施形態においては、HMD1自体で各種の処理を行っていたが、これに限らず、例えば、HMD1がネットワークを介して通信を行うことによって、各種の処理を行ってもよい。
具体的な一例としては、図15に示すように、HMD1、サーバ300、パーソナルコンピュータ310及び携帯型端末装置312が、ネットワーク網302に接続され、相互に通信可能に構成する。この場合において、例えば、コンテンツ情報やその種別などがサーバ300に記憶されており、所定のタイミングでHMD1がサーバ300との通信によってそれら情報を取得するように構成してもよい。また、これらの通信をパーソナルコンピュータ310や携帯型端末装置312を介して行ってもよい。
なお、上述した実施形態においては、HMD1において操作スイッチ7などが設けられ、その操作に応じて、自体で各種の処理を行っていたが、これに限らず、例えば、図15に示すように、HMD1と、パーソナルコンピュータ310や携帯型端末装置312とが接続され、相互に通信可能に構成することによって、操作信号がHMD1に供給されるようにしてもよい。
本発明の一実施形態に係るHMDシステムを示す説明図である。 本発明の一実施形態に係るHMD1の電気的及び光学的構成を示す説明図である。 本発明の一実施形態に係るHMD1の機能構成を示す説明図である。 本発明の一実施形態に係るHMD1の表示内容等を示す説明図である。 本発明の一実施形態に係るHMD1において識別体と観察者Pとの位置関係の算出に関する説明図である。 HMDにおいて制御を行う際に実行する処理の一例を示すフローチャートである。 HMDにおいて制御を行う際に実行する処理の一例を示すフローチャートである。 HMDにおいて制御を行う際に実行する処理の一例を示すフローチャートである。 表示個数決定テーブルの一例を示す説明図である。 HMDにおいて制御を行う際に実行する処理の一例を示すフローチャートである。 本発明の一実施形態に係るHMD1の電気的及び光学的構成を示す説明図である。 本発明の一実施形態に係るHMD1の機能構成を示す説明図である。 HMDにおいて制御を行う際に実行する処理の一例を示すフローチャートである。 HMDにおいて制御を行う際に実行する処理の一例を示すフローチャートである。 本発明の一実施形態に係るHMD1の電気的構成を示す説明図である。
符号の説明
1 HMD
2 CCDセンサ
110 制御部

Claims (13)

  1. 外光を透過しつつ、表示情報に応じた画像光を観察者の眼に投射して当該観察者に前記画像光に応じた画像を視認させる表示手段を備えたシースルー型のヘッドマウントディスプレイにおいて、
    前記観察者の視野範囲のうち少なくとも一部を撮像する撮像手段と、
    前記撮像手段による撮像領域内における識別体を検出する識別体検出手段と、
    前記識別体の各々に対応する対応情報を記憶する対応情報記憶手段と、
    前記識別体検出手段によって検出された結果に基づいて、対応する対応情報を前記表示手段により表示させる識別体を選択する識別体選択手段と、
    前記対応情報記憶手段に記憶され、前記識別体選択手段によって選択された識別体に対応する対応情報を、前記表示手段を透過して前記観察者に視認される当該識別体と関連させて前記表示手段により表示させる制御を行う表示制御手段と、を備えたことを特徴とするヘッドマウントディスプレイ。
  2. 前記識別体選択手段は、前記識別体検出手段によって検出された識別体と前記観察者との位置関係に基づいて、対応する対応情報を前記表示手段により表示させる識別体の選択範囲を前記撮像領域内に設定し、前記選択範囲における識別体の少なくともいずれかを、前記対応情報を表示させる識別体として選択することを特徴とする請求項1に記載のヘッドマウントディスプレイ。
  3. 前記識別体選択手段は、前記識別体検出手段によって検出された識別体と前記観察者との距離を前記位置関係として、前記対応情報を表示させる識別体として選択することを特徴とする請求項2に記載のヘッドマウントディスプレイ。
  4. 前記識別体選択手段は、前記識別体検出手段によって検出された識別体と前記観察者とを結ぶ直線と観察者正面方向とがなす角度を前記位置関係として、前記対応情報を表示させる識別体として選択することを特徴とする請求項2に記載のヘッドマウントディスプレイ。
  5. 前記識別体選択手段は、前記識別体検出手段によって検出された識別体のうち、前記観察者の視野範囲の中心を基準として近い位置関係である識別体を優先して、前記対応情報を表示させる識別体として選択することを特徴とする請求項4に記載のヘッドマウントディスプレイ。
  6. 前記撮像手段によって前記識別体として撮像された撮像画素の範囲によって、前記位置関係を算出する位置関係算出手段を備えたことを特徴とする請求項2から5のいずれかに記載のヘッドマウントディスプレイ。
  7. 前記識別体選択手段は、初期状態において、前記撮像手段による撮像領域の全域を前記選択範囲として設定することを特徴とする請求項2から6のいずれかに記載のヘッドマウントディスプレイ。
  8. 観察者によって操作可能な操作手段を備え、
    前記表示制御手段は、前記選択範囲を前記表示手段に表示させる制御を行い、
    前記識別体選択手段は、前記操作手段の操作に応じて、前記選択範囲を変更させることを特徴とする請求項2から7のいずれかに記載のヘッドマウントディスプレイ。
  9. 前記識別体選択手段は、前記識別体検出手段によって検出された前記撮像領域内における識別体の数に基づいて、対応情報を表示させる識別体を選択することを特徴とする請求項1から8のいずれかに記載のヘッドマウントディスプレイ。
  10. 前記識別体選択手段は、前記識別体検出手段によって検出された識別体の種別に基づいて、対応情報を表示させる識別体を選択することを特徴とする請求項1から9のいずれかに記載のヘッドマウントディスプレイ。
  11. 観察者によって識別体に向けてレーザ光を照射可能なレーザマーカ手段を備え、
    前記識別体選択手段は、前記レーザマーカ手段によって照射されるレーザ光に応じて、対応情報を表示させる識別体を選択することを特徴とする請求項1から10のいずれかに記載のヘッドマウントディスプレイ。
  12. 前記ヘッドマウントディスプレイの変位を検知する変位検知手段を備え、
    前記識別体選択手段は、前記変位検知手段によって前記ヘッドマウントディスプレイが変位した場合に、対応する対応情報を前記表示手段により表示させる識別体を選択することを特徴とする請求項1から11のいずれかに記載のヘッドマウントディスプレイ。
  13. 前記ヘッドマウントディスプレイの変位を検知する変位検知手段を備え、
    前記識別体選択手段は、前記変位検知手段によって所定時間だけ前記ヘッドマウントディスプレイが変位しなかった場合に、暫定的に選択した識別体を、対応情報を表示させる識別体として確定することを特徴とする請求項1から11のいずれかに記載のヘッドマウントディスプレイ。
JP2008233852A 2008-09-11 2008-09-11 ヘッドマウントディスプレイ Expired - Fee Related JP5104679B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008233852A JP5104679B2 (ja) 2008-09-11 2008-09-11 ヘッドマウントディスプレイ
PCT/JP2009/056240 WO2010029788A1 (ja) 2008-09-11 2009-03-27 ヘッドマウントディスプレイ
US13/045,229 US8494212B2 (en) 2008-09-11 2011-03-10 Head mounted display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008233852A JP5104679B2 (ja) 2008-09-11 2008-09-11 ヘッドマウントディスプレイ

Publications (2)

Publication Number Publication Date
JP2010067083A true JP2010067083A (ja) 2010-03-25
JP5104679B2 JP5104679B2 (ja) 2012-12-19

Family

ID=42005051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008233852A Expired - Fee Related JP5104679B2 (ja) 2008-09-11 2008-09-11 ヘッドマウントディスプレイ

Country Status (3)

Country Link
US (1) US8494212B2 (ja)
JP (1) JP5104679B2 (ja)
WO (1) WO2010029788A1 (ja)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011242591A (ja) * 2010-05-18 2011-12-01 Fujifilm Corp ヘッドマウントディスプレイ装置
JP2012138011A (ja) * 2010-12-27 2012-07-19 Ns Solutions Corp 情報処理システム、情報処理方法及びプログラム
JP2012155313A (ja) * 2011-10-27 2012-08-16 Pioneer Electronic Corp 表示装置及び制御方法
JP2012189786A (ja) * 2011-03-10 2012-10-04 Nec Casio Mobile Communications Ltd 画像表示システム、画像表示装置、画像表示方法およびプログラム
JP2012205191A (ja) * 2011-03-28 2012-10-22 Nippon Telegr & Teleph Corp <Ntt> 映像付加情報表示制御装置およびその動作方法
CN103033936A (zh) * 2011-08-30 2013-04-10 微软公司 具有虹膜扫描剖析的头戴式显示器
JP2013149034A (ja) * 2012-01-18 2013-08-01 Canon Inc 画像表示装置、画像表示方法及びプログラム
JP5334145B1 (ja) * 2012-06-29 2013-11-06 トーヨーカネツソリューションズ株式会社 物品のピッキング作業の支援システム
JP2014183554A (ja) * 2013-03-21 2014-09-29 Ntt Docomo Inc 表示装置
JP2015011494A (ja) * 2013-06-28 2015-01-19 オリンパス株式会社 情報提示システム及び情報提示システムの制御方法
JP2015048171A (ja) * 2013-08-30 2015-03-16 学校法人立命館 ピッキングシステム
JP2015126352A (ja) * 2013-12-26 2015-07-06 セイコーエプソン株式会社 頭部装着型表示装置、画像表示システム、および、頭部装着型表示装置の制御方法
WO2015107625A1 (ja) * 2014-01-15 2015-07-23 日立マクセル株式会社 情報表示端末、情報表示システム及び情報表示方法
JP2015529873A (ja) * 2012-06-29 2015-10-08 ノキア コーポレイション 環境情報の視覚的複雑性に基づいて情報の提示を修正する方法と装置
KR20150116871A (ko) * 2013-02-14 2015-10-16 퀄컴 인코포레이티드 Hdm에 대한 인간―신체―제스처―기반 영역 및 볼륨 선택
JP2016033611A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 情報提供システム、表示装置、および、表示装置の制御方法
JP2016042261A (ja) * 2014-08-15 2016-03-31 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2016096488A (ja) * 2014-11-17 2016-05-26 セイコーエプソン株式会社 頭部装着型表示装置、表示システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
WO2016157936A1 (ja) * 2015-03-31 2016-10-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2017163709A1 (ja) * 2016-03-23 2017-09-28 パナソニックIpマネジメント株式会社 投影指示装置、荷物仕分けシステムおよび投影指示方法
US10140768B2 (en) 2014-10-17 2018-11-27 Seiko Epson Corporation Head mounted display, method of controlling head mounted display, and computer program

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130021374A1 (en) * 2011-07-20 2013-01-24 Google Inc. Manipulating And Displaying An Image On A Wearable Computing System
JP6064316B2 (ja) * 2011-11-28 2017-01-25 セイコーエプソン株式会社 透過型表示装置、及び操作入力方法
GB2501767A (en) * 2012-05-04 2013-11-06 Sony Comp Entertainment Europe Noise cancelling headset
US20130293530A1 (en) * 2012-05-04 2013-11-07 Kathryn Stone Perez Product augmentation and advertising in see through displays
GB2501768A (en) 2012-05-04 2013-11-06 Sony Comp Entertainment Europe Head mounted display
US9310611B2 (en) * 2012-09-18 2016-04-12 Qualcomm Incorporated Methods and systems for making the use of head-mounted displays less obvious to non-users
KR102019124B1 (ko) * 2013-01-04 2019-09-06 엘지전자 주식회사 헤드 마운트 디스플레이 및 그 제어 방법
US9361501B2 (en) * 2013-04-01 2016-06-07 Ncr Corporation Headheld scanner and POS display with mobile phone
EP2996016B1 (en) * 2013-05-09 2020-02-12 Sony Interactive Entertainment Inc. Information processing device and application execution method
KR102206060B1 (ko) * 2013-11-19 2021-01-21 삼성전자주식회사 전자 장치의 효과 디스플레이 방법 및 그 전자 장치
KR102170749B1 (ko) * 2013-11-29 2020-10-28 삼성전자주식회사 투명 디스플레이를 포함하는 전자 장치 및 제어 방법
KR102114618B1 (ko) 2014-01-16 2020-05-25 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
JP2015141215A (ja) * 2014-01-27 2015-08-03 村田機械株式会社 ヘッドマウントディスプレイ装置
US9613448B1 (en) 2014-03-14 2017-04-04 Google Inc. Augmented display of information in a device view of a display screen
US9632313B1 (en) * 2014-03-27 2017-04-25 Amazon Technologies, Inc. Augmented reality user interface facilitating fulfillment
JP6177998B2 (ja) * 2014-04-08 2017-08-09 日立マクセル株式会社 情報表示方法および情報表示端末
US9361732B2 (en) * 2014-05-01 2016-06-07 Microsoft Technology Licensing, Llc Transitions between body-locked and world-locked augmented reality
US20150339855A1 (en) * 2014-05-20 2015-11-26 International Business Machines Corporation Laser pointer selection for augmented reality devices
JP2015228009A (ja) * 2014-06-03 2015-12-17 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、情報送受信システム、および、コンピュータープログラム
JP2016004340A (ja) * 2014-06-16 2016-01-12 セイコーエプソン株式会社 情報配信システム、頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
WO2016017956A1 (en) * 2014-07-30 2016-02-04 Samsung Electronics Co., Ltd. Wearable device and method of operating the same
US10108832B2 (en) * 2014-12-30 2018-10-23 Hand Held Products, Inc. Augmented reality vision barcode scanning system and method
US10121063B2 (en) 2015-01-12 2018-11-06 BMT Business Meets Technology Holding AG Wink gesture based control system
JP6439935B2 (ja) * 2015-05-07 2018-12-19 パナソニックIpマネジメント株式会社 表示制御方法、ヘッドマウントディスプレイ、およびプログラム
JP6693060B2 (ja) * 2015-07-06 2020-05-13 セイコーエプソン株式会社 表示システム、表示装置、表示装置の制御方法、及び、プログラム
JP2017103619A (ja) * 2015-12-02 2017-06-08 ソニー株式会社 制御装置、制御方法、およびプログラム
US20170168592A1 (en) * 2015-12-14 2017-06-15 Volodymyr Mishyn System and method for optical tracking
EP3392752A4 (en) * 2015-12-14 2018-12-12 Sony Corporation Information processing device, information processing method, and program
EP3451135A4 (en) * 2016-04-26 2019-04-24 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
JP6255524B2 (ja) * 2016-06-09 2017-12-27 株式会社Qdレーザ 画像投影システム、画像投影装置、画像投影方法、画像投影プログラム及びサーバ装置
CN107944781A (zh) 2016-10-12 2018-04-20 菜鸟智能物流控股有限公司 提供存放对象提示信息的方法及装置
CN108108025A (zh) * 2018-01-03 2018-06-01 上海闻泰电子科技有限公司 基于头戴设备的信息指引方法、装置、头戴设备和介质
JP7091073B2 (ja) * 2018-01-05 2022-06-27 キヤノン株式会社 電子機器及びその制御方法
US10897577B2 (en) * 2018-06-26 2021-01-19 Canon Kabushiki Kaisha Image capturing system, image capturing apparatus, illumination apparatus, and control method
US11374808B2 (en) 2020-05-29 2022-06-28 Corning Research & Development Corporation Automated logging of patching operations via mixed reality based labeling
US11295135B2 (en) * 2020-05-29 2022-04-05 Corning Research & Development Corporation Asset tracking of communication equipment via mixed reality based labeling

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08190640A (ja) * 1995-01-12 1996-07-23 Hitachi Ltd 情報表示方法および情報提供システム
JPH11142784A (ja) * 1997-11-04 1999-05-28 Shimadzu Corp 位置検出機能付きヘッドマウントディスプレイ
JP2002509293A (ja) * 1998-01-20 2002-03-26 ユニバーシティ・オブ・ワシントン 視界トラッキングおよびデータ位置決めを備える増強網膜ディスプレイ

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5760309A (en) 1980-09-27 1982-04-12 Canon Inc Laser scanning device
US6061064A (en) * 1993-08-31 2000-05-09 Sun Microsystems, Inc. System and method for providing and using a computer user interface with a view space having discrete portions
EP0791300B1 (de) 1996-02-05 2000-04-05 Uhlsport GmbH Sporthandschuh, insbesondere Torwarthandschuh
TW395121B (en) 1996-02-26 2000-06-21 Seiko Epson Corp Personal wearing information display device and the display method using such device
JP3957468B2 (ja) * 2000-03-31 2007-08-15 日立造船株式会社 複合現実感実現システム
JP2003242168A (ja) 2002-02-20 2003-08-29 Fuji Xerox Co Ltd 情報表示装置およびその方法
JP2006155191A (ja) 2004-11-29 2006-06-15 Olympus Corp 情報呈示装置及び情報呈示端末
JP4453644B2 (ja) 2005-10-21 2010-04-21 セイコーエプソン株式会社 プロジェクタ
JP5286667B2 (ja) * 2006-02-22 2013-09-11 コニカミノルタ株式会社 映像表示装置、及び映像表示方法
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
JP4757115B2 (ja) 2006-06-28 2011-08-24 キヤノン株式会社 画像処理装置、画像処理方法
JP5293025B2 (ja) 2008-09-11 2013-09-18 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP2010067154A (ja) 2008-09-12 2010-03-25 Brother Ind Ltd ヘッドマウントディスプレイ、情報閲覧システム及び管理サーバ

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08190640A (ja) * 1995-01-12 1996-07-23 Hitachi Ltd 情報表示方法および情報提供システム
JPH11142784A (ja) * 1997-11-04 1999-05-28 Shimadzu Corp 位置検出機能付きヘッドマウントディスプレイ
JP2002509293A (ja) * 1998-01-20 2002-03-26 ユニバーシティ・オブ・ワシントン 視界トラッキングおよびデータ位置決めを備える増強網膜ディスプレイ

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011242591A (ja) * 2010-05-18 2011-12-01 Fujifilm Corp ヘッドマウントディスプレイ装置
JP2012138011A (ja) * 2010-12-27 2012-07-19 Ns Solutions Corp 情報処理システム、情報処理方法及びプログラム
JP2012189786A (ja) * 2011-03-10 2012-10-04 Nec Casio Mobile Communications Ltd 画像表示システム、画像表示装置、画像表示方法およびプログラム
JP2012205191A (ja) * 2011-03-28 2012-10-22 Nippon Telegr & Teleph Corp <Ntt> 映像付加情報表示制御装置およびその動作方法
CN103033936A (zh) * 2011-08-30 2013-04-10 微软公司 具有虹膜扫描剖析的头戴式显示器
JP2012155313A (ja) * 2011-10-27 2012-08-16 Pioneer Electronic Corp 表示装置及び制御方法
JP2013149034A (ja) * 2012-01-18 2013-08-01 Canon Inc 画像表示装置、画像表示方法及びプログラム
US9674449B2 (en) 2012-01-18 2017-06-06 Canon Kabushiki Kaisha Image display apparatus that displays a menu corresponding to an object, image display method that displays a menu corresponding to an object, and storage medium thereof
JP2015529873A (ja) * 2012-06-29 2015-10-08 ノキア コーポレイション 環境情報の視覚的複雑性に基づいて情報の提示を修正する方法と装置
JP5334145B1 (ja) * 2012-06-29 2013-11-06 トーヨーカネツソリューションズ株式会社 物品のピッキング作業の支援システム
JP2017182814A (ja) * 2012-06-29 2017-10-05 ノキア テクノロジーズ オサケユイチア 環境情報の視覚的複雑性に基づいて情報の提示を修正する方法と装置
US9339726B2 (en) 2012-06-29 2016-05-17 Nokia Technologies Oy Method and apparatus for modifying the presentation of information based on the visual complexity of environment information
US10133342B2 (en) 2013-02-14 2018-11-20 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD
KR20150116871A (ko) * 2013-02-14 2015-10-16 퀄컴 인코포레이티드 Hdm에 대한 인간―신체―제스처―기반 영역 및 볼륨 선택
JP2016514298A (ja) * 2013-02-14 2016-05-19 クアルコム,インコーポレイテッド Hmdのための人体ジェスチャーベースの領域および体積の選択
KR102358983B1 (ko) * 2013-02-14 2022-02-04 퀄컴 인코포레이티드 Hdm에 대한 인간―신체―제스처―기반 영역 및 볼륨 선택
US11262835B2 (en) 2013-02-14 2022-03-01 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD
JP2014183554A (ja) * 2013-03-21 2014-09-29 Ntt Docomo Inc 表示装置
JP2015011494A (ja) * 2013-06-28 2015-01-19 オリンパス株式会社 情報提示システム及び情報提示システムの制御方法
US9779549B2 (en) 2013-06-28 2017-10-03 Olympus Corporation Information presentation system and method for controlling information presentation system
JP2015048171A (ja) * 2013-08-30 2015-03-16 学校法人立命館 ピッキングシステム
JP2015126352A (ja) * 2013-12-26 2015-07-06 セイコーエプソン株式会社 頭部装着型表示装置、画像表示システム、および、頭部装着型表示装置の制御方法
US10445579B2 (en) 2013-12-26 2019-10-15 Seiko Epson Corporation Head mounted display device, image display system, and method of controlling head mounted display device
JPWO2015107625A1 (ja) * 2014-01-15 2017-03-23 日立マクセル株式会社 情報表示端末、情報表示システム及び情報表示方法
US10656424B2 (en) 2014-01-15 2020-05-19 Maxell, Ltd. Information display terminal, information display system, and information display method
WO2015107625A1 (ja) * 2014-01-15 2015-07-23 日立マクセル株式会社 情報表示端末、情報表示システム及び情報表示方法
US10386637B2 (en) 2014-01-15 2019-08-20 Maxell, Ltd. Information display terminal, information display system, and information display method
JP2016033611A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 情報提供システム、表示装置、および、表示装置の制御方法
JP2016042261A (ja) * 2014-08-15 2016-03-31 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US10140768B2 (en) 2014-10-17 2018-11-27 Seiko Epson Corporation Head mounted display, method of controlling head mounted display, and computer program
JP2016096488A (ja) * 2014-11-17 2016-05-26 セイコーエプソン株式会社 頭部装着型表示装置、表示システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
EP3279782A4 (en) * 2015-03-31 2018-11-21 Sony Corporation Information processing device, information processing method, and program
CN107430479A (zh) * 2015-03-31 2017-12-01 索尼公司 信息处理装置、信息处理方法和程序
US11182940B2 (en) 2015-03-31 2021-11-23 Sony Corporation Information processing device, information processing method, and program
WO2016157936A1 (ja) * 2015-03-31 2016-10-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2017163709A1 (ja) * 2016-03-23 2017-09-28 パナソニックIpマネジメント株式会社 投影指示装置、荷物仕分けシステムおよび投影指示方法

Also Published As

Publication number Publication date
WO2010029788A1 (ja) 2010-03-18
JP5104679B2 (ja) 2012-12-19
US20110158478A1 (en) 2011-06-30
US8494212B2 (en) 2013-07-23

Similar Documents

Publication Publication Date Title
JP5104679B2 (ja) ヘッドマウントディスプレイ
JP5293025B2 (ja) ヘッドマウントディスプレイ
JP5195537B2 (ja) ヘッドマウントディスプレイ
JP2009245392A (ja) ヘッドマウントディスプレイ及びヘッドマウントディスプレイシステム
WO2010071110A1 (ja) ヘッドマウントディスプレイ
US10444519B2 (en) Image projection device
JP5012781B2 (ja) ヘッドマウントディスプレイ
US10634904B2 (en) Image projection device
US10761329B2 (en) Image projection device
JP2010152443A (ja) ヘッドマウントディスプレイ
JP2010067154A (ja) ヘッドマウントディスプレイ、情報閲覧システム及び管理サーバ
JP2010139901A (ja) ヘッドマウントディスプレイ
JP2011075956A (ja) ヘッドマウントディスプレイ
JP2010085786A (ja) 頭部装着型表示装置
JP2011069978A (ja) 網膜走査型画像表示装置
JP5109952B2 (ja) ヘッドマウントディスプレイ
WO2016208266A1 (ja) 画像投影装置
JP5012780B2 (ja) ヘッドマウントディスプレイ
JP5375481B2 (ja) ヘッドマウントディスプレイ
JP2010200209A (ja) ヘッドマウントディスプレイ
JP5348004B2 (ja) ストライクゾーン提示システム
JP2010134152A (ja) ヘッドマウントディスプレイ
US9335158B2 (en) Projector and projector system
JP2011070251A (ja) ヘッドマウントディスプレイ
JP2024008216A (ja) 画像投影装置及び画像投影方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120917

R150 Certificate of patent or registration of utility model

Ref document number: 5104679

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees