JP2016040865A - Head mounted display and control method for the same, and computer program - Google Patents

Head mounted display and control method for the same, and computer program Download PDF

Info

Publication number
JP2016040865A
JP2016040865A JP2014164246A JP2014164246A JP2016040865A JP 2016040865 A JP2016040865 A JP 2016040865A JP 2014164246 A JP2014164246 A JP 2014164246A JP 2014164246 A JP2014164246 A JP 2014164246A JP 2016040865 A JP2016040865 A JP 2016040865A
Authority
JP
Japan
Prior art keywords
head
display device
mounted display
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014164246A
Other languages
Japanese (ja)
Other versions
JP6492451B2 (en
Inventor
慎也 鳥井
Shinya Torii
慎也 鳥井
高野 正秀
Masahide Takano
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014164246A priority Critical patent/JP6492451B2/en
Priority to US14/808,493 priority patent/US9767617B2/en
Publication of JP2016040865A publication Critical patent/JP2016040865A/en
Priority to US15/630,567 priority patent/US20170287228A1/en
Application granted granted Critical
Publication of JP6492451B2 publication Critical patent/JP6492451B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

PROBLEM TO BE SOLVED: To mitigate a burden on a user's eye.SOLUTION: A transmission type head mounted display comprises: an image display unit capable of transmitting outside scenery while displaying an image to make a user mounting the head mounted display visually recognize the image; a movement detection unit for detecting the head mounted display having moved to a specific position (steps S110, S120); and a processing control unit for changing at least part of a predetermined function mounted on the head mounted display (steps S170, S180).SELECTED DRAWING: Figure 7

Description

本発明は、頭部装着型表示装置およびその制御方法、並びにコンピュータープログラムに関する。   The present invention relates to a head-mounted display device, a control method thereof, and a computer program.

近年、頭部に装着する表示装置である頭部装着型表示装置が知られている。この頭部装着型表示装置は、ヘッドマウントディスプレイ(HMD:Head Mounted Display)とも呼ばれ、使用者がHMDを装着した状態で外景を見ることが可能なシースルー型のものがある。シースルー型HMDは、液晶パネル等の光変調素子によって生成された画像光を、使用者の眼前に配置した光学系等で反射させることによって、使用者の視野領域に外景(実像)とともに、虚像としての画像を表示する(例えば、特許文献1)。   In recent years, a head-mounted display device that is a display device mounted on the head is known. This head-mounted display device is also called a head mounted display (HMD), and there is a see-through type device that allows a user to see the outside scene while wearing the HMD. The see-through type HMD reflects image light generated by a light modulation element such as a liquid crystal panel with an optical system or the like disposed in front of the user's eyes, thereby creating a virtual image along with the outside scene (real image) in the user's field of view. Are displayed (for example, Patent Document 1).

特開2010−139901号公報JP 2010-139901 A

従来、シースルー型HMDでは、前記画像を表示する機能を始めとして、様々な機能を搭載するものが提案されている。様々な機能としては、カメラを用いた撮影機能、音声を出力する機能等、種々のものがある。これらの機能を常時動作させて良いか、という点について、十分に検討されていないという課題があった。そのほか、従来の頭部装着型表示装置においては、使用者の利便性の向上や、検出精度の向上、盗撮等の悪意の使用の防止、装置構成のコンパクト化、低コスト化、省資源化、製造の容易化等が望まれていた。   Conventionally, see-through HMDs have been proposed that are equipped with various functions including the function of displaying the image. As various functions, there are various functions such as a photographing function using a camera and a function of outputting sound. There has been a problem that sufficient consideration has not been given to whether these functions can be operated at all times. In addition, in the conventional head-mounted display device, the convenience of the user is improved, the detection accuracy is improved, the malicious use such as voyeurism is prevented, the device configuration is made compact, the cost is reduced, the resource is reduced, It has been desired to facilitate the production.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms.

(1)本発明の一形態は、透過型の頭部装着型表示装置である。この頭部装着型表示装置は;画像を表示して前記頭部装着型表示装置を装着した使用者に画像を視認させるとともに、外景を透過し得る画像表示部と;前記頭部装着型表示装置が特定の場所に移動したことを検出する移動検出部と;前記特定の場所への移動が検出されたときに、前記頭部装着型表示装置に搭載された所定の機能の少なくとも一部を変更する処理制御部と;を備える。この形態の頭部装着型表示装置によれば、使用者に装着された頭部装着型表示装置が特定の場所に移動したことが検出されたときに、頭部装着型表示装置に搭載された所定の機能の少なくとも一部が変更される。このために、特定の場所内において、頭部装着型表示装置に搭載された所定の機能の少なくとも一部が抑制または拡張するといった変更がなされる。したがって、本形態の頭部装着型表示装置によれば、その場にふさわしい機能を、人が機能の設定をいちいち切り替えることなしに、容易に実現できる。 (1) One embodiment of the present invention is a transmissive head-mounted display device. The head-mounted display device includes: an image display unit that displays an image to allow a user wearing the head-mounted display device to visually recognize the image and transmit an outside scene; and the head-mounted display device A movement detecting unit for detecting that the robot has moved to a specific location; and changing at least a part of a predetermined function mounted on the head-mounted display device when movement to the specific location is detected; And a processing control unit. According to the head-mounted display device of this embodiment, when it is detected that the head-mounted display device attached to the user has moved to a specific location, the head-mounted display device is mounted on the head-mounted display device. At least some of the predetermined functions are changed. For this reason, a change is made such that at least a part of a predetermined function mounted on the head-mounted display device is suppressed or expanded in a specific place. Therefore, according to the head-mounted display device of this embodiment, it is possible to easily realize a function suitable for the occasion without a person switching the setting of the function one by one.

(2)前記形態の頭部装着型表示装置において、前記外景を撮影する外景撮影部を備え、前記移動検出部は、前記外景撮影部によって得られた撮影画像に基づいて、前記特定の場所への移動を検出するようにしてもよい。外景撮影部は頭部装着型表示装置に装着されていることから、使用者の頭部の移動に伴って撮影範囲も確実に移動する。このために、本形態の頭部装着型表示装置によれば、特定の場所への移動を高精度で検出することができる。 (2) The head-mounted display device according to the aspect described above includes an outside scene photographing unit that photographs the outside scene, and the movement detection unit moves to the specific place based on a photographed image obtained by the outside scene photographing unit. You may make it detect the movement of. Since the outside scene photographing unit is mounted on the head-mounted display device, the photographing range moves reliably with the movement of the user's head. For this reason, according to the head-mounted display device of the present embodiment, movement to a specific place can be detected with high accuracy.

(3)前記形態の頭部装着型表示装置において、前記移動検出部は、前記特定の場所を認識するためのマーカーが前記撮影画像内に含まれたときに、前記特定の場所への移動が検出されたものとするようにしてもよい。この形態の頭部装着型表示装置によれば、マーカーを撮影することで、特定の場所への移動を高精度で検出することができる。 (3) In the head-mounted display device according to the above aspect, the movement detection unit may move to the specific location when a marker for recognizing the specific location is included in the captured image. It may be assumed that it has been detected. According to this form of the head-mounted display device, movement to a specific location can be detected with high accuracy by photographing the marker.

(4)前記形態の頭部装着型表示装置において、前記移動検出部は、外部の無線通信端末からの信号に基づいて、前記特定の場所への移動を検出するようにしてもよい。この形態の頭部装着型表示装置によれば、特定の場所への移動を高精度で検出することができる。 (4) In the head-mounted display device of the above aspect, the movement detection unit may detect movement to the specific location based on a signal from an external wireless communication terminal. According to this form of the head-mounted display device, movement to a specific location can be detected with high accuracy.

(5)前記形態の頭部装着型表示装置において、前記所定の機能は、前記画像表示部に所定の情報を表示させる情報提示機能であるようにしてもよい。この形態の頭部装着型表示装置によれば、画像表示部に所定の情報を表示させる情報提示機能を抑制または拡張することができる。したがって、その場にふさわしい情報提示を容易に行うことができる。 (5) In the head-mounted display device according to the above aspect, the predetermined function may be an information presentation function for displaying predetermined information on the image display unit. According to this form of the head-mounted display device, an information presentation function for displaying predetermined information on the image display unit can be suppressed or expanded. Therefore, it is possible to easily present information suitable for the situation.

(6)前記形態の頭部装着型表示装置において、前記特定の場所は、展示品または建造物の周辺であり、前記処理制御部は、前記特定の場所への移動が検出されたときに、前記展示品または建造物についての情報を前記画像表示部に表示させるようにしてもよい。この形態の頭部装着型表示装置によれば、展示品または建造物の周辺へ移動したときに、その展示品または建造物についての情報を画像表示により使用者に示すことができる。したがって、展示品または建造物に合った情報提示を容易に行うことができる。 (6) In the head-mounted display device according to the above aspect, the specific location is around an exhibit or a building, and the processing control unit detects when movement to the specific location is detected. Information about the exhibit or building may be displayed on the image display unit. According to the head-mounted display device of this form, when moving to the periphery of an exhibit or building, information about the exhibit or building can be displayed to the user by image display. Therefore, it is possible to easily present information suitable for an exhibit or a building.

(7)前記形態の頭部装着型表示装置において、前記所定の機能は、所定のマーカーを認識するために行うマーカー撮影機能を少なくとも含む撮影機能であって、前記処理制御部は、前記特定の場所への移動が検出されたときに、前記撮影機能のうちの前記マーカー撮影機能を許可し、前記撮影機能のうちの前記マーカー撮影機能を除いた撮影機能を禁止するようにしてもよい。この形態の頭部装着型表示装置によれば、特定の場所へ移動されるだけで、マーカー撮影機能を除いた撮影機能が禁止されることから、盗撮等の不正な使用を確実に防止することができる。 (7) In the head-mounted display device of the above aspect, the predetermined function is an imaging function including at least a marker imaging function performed for recognizing a predetermined marker, and the processing control unit When movement to a place is detected, the marker photographing function among the photographing functions may be permitted, and the photographing function excluding the marker photographing function among the photographing functions may be prohibited. According to this form of the head-mounted display device, since the photographing function excluding the marker photographing function is prohibited only by being moved to a specific place, it is possible to reliably prevent unauthorized use such as voyeurism. Can do.

(8)前記形態の頭部装着型表示装置において、前記処理制御部は、前記特定の場所への移動が検出されたときに、前記所定の機能を停止し、前記特定の場所から他の場所への前記頭部装着型表示装置の移動が検出されたときに、前記所定の機能の停止を解除するようにしてもよい。この形態の頭部装着型表示装置によれば、一旦禁止された所定の処理を自動的に復帰させることができることから、使用者の利便性の向上を図ることができる。 (8) In the head-mounted display device according to the above aspect, when the movement to the specific place is detected, the processing control unit stops the predetermined function and moves from the specific place to another place. When the movement of the head-mounted display device is detected, the stop of the predetermined function may be released. According to the head-mounted display device of this aspect, the predetermined processing once prohibited can be automatically restored, so that the convenience of the user can be improved.

(9)前記形態の頭部装着型表示装置において、前記処理制御部は、前記特定の場所から前記頭部装着型表示装置の脱出が検出されたときに、前記脱出したことを前記使用者に報知するようにしてもよい。この形態の頭部装着型表示装置によれば、特定の場所から脱出したことを使用者は知ることができ、使用者の利便性の向上を図ることができる。 (9) In the head-mounted display device according to the aspect described above, when the escape of the head-mounted display device is detected from the specific location, the processing control unit notifies the user that the user has escaped. You may make it alert | report. According to this form of the head-mounted display device, the user can know that he / she has escaped from a specific place, and the convenience of the user can be improved.

上述した本発明の各形態の有する複数の構成要素はすべてが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな他の構成要素との差し替え、限定内容の一部削除を行なうことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。   A plurality of constituent elements of each embodiment of the present invention described above are not essential, and some or all of the effects described in the present specification are to be solved to solve part or all of the above-described problems. In order to achieve the above, it is possible to appropriately change, delete, replace with another new component, and partially delete the limited contents of some of the plurality of components. In order to solve some or all of the above-described problems or achieve some or all of the effects described in this specification, technical features included in one embodiment of the present invention described above. A part or all of the technical features included in the other aspects of the present invention described above may be combined to form an independent form of the present invention.

例えば、本発明の一形態は、画像表示部と、移動検出部と、処理制御部と、の3つの要素の内の一つ以上または全部の要素を備えた装置として実現可能である。すなわち、この装置は、画像表示部を有していてもよく、有していなくてもよい。また、装置は、移動検出部を有していてもよく、有していなくてもよい。また、装置は、処理制御部を有していてもよく、有していなくてもよい。画像表示部は、例えば、画像を表示して頭部装着型表示装置を装着した使用者に画像を視認させるとともに、外景を透過し得るものとしてもよい。移動検出部は、例えば、頭部装着型表示装置が特定の場所に移動したことを検出してもよい。処理制御部は、例えば、特定の場所への移動が検出されたときに、頭部装着型表示装置に搭載された所定の機能の少なくとも一部を変更してもよい。こうした装置は、例えば、頭部装着型表示装置として実現できるが、頭部装着型表示装置以外の他の装置としても実現可能である。このような形態によれば、使用者の利便性の向上や、検出精度の向上、盗撮等の悪意の使用の防止、装置構成のコンパクト化、低コスト化、省資源化、製造の容易化等の種々の課題の少なくとも1つを解決することができる。前述した頭部装着型表示装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。   For example, one embodiment of the present invention can be realized as an apparatus including one or more or all of the three elements of the image display unit, the movement detection unit, and the processing control unit. That is, this apparatus may or may not have an image display unit. Further, the apparatus may or may not have a movement detection unit. Further, the apparatus may or may not have a processing control unit. For example, the image display unit may display an image so that a user who wears the head-mounted display device visually recognizes the image and can transmit the outside scene. For example, the movement detection unit may detect that the head-mounted display device has moved to a specific location. For example, when the movement to a specific place is detected, the processing control unit may change at least a part of a predetermined function mounted on the head-mounted display device. Such a device can be realized as, for example, a head-mounted display device, but can also be realized as a device other than the head-mounted display device. According to such a form, improvement of user convenience, improvement of detection accuracy, prevention of malicious use such as voyeurism, downsizing of device configuration, cost reduction, resource saving, ease of manufacture, etc. At least one of the various problems can be solved. Any or all of the technical features of each form of the head-mounted display device described above can be applied to this device.

本発明は、頭部装着型表示装置以外の種々の形態で実現することも可能である。例えば、表示装置、頭部装着型表示装置および表示装置の制御方法、頭部装着型表示システム、表示装置、頭部装着型表示システムおよび表示装置の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。   The present invention can also be realized in various forms other than the head-mounted display device. For example, display device, head-mounted display device and display device control method, head-mounted display system, display device, head-mounted display system, and computer program for realizing the functions of the display device, and the computer program Can be realized in the form of a data signal or the like embodied in a carrier wave including the computer program.

本発明の第1実施形態における頭部装着型表示装置(HMD)の概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the head mounted display apparatus (HMD) in 1st Embodiment of this invention. HMDの構成を機能的に示すブロック図である。It is a block diagram which shows the structure of HMD functionally. 画像光生成部によって画像光が射出される様子を示す説明図である。It is explanatory drawing which shows a mode that image light is inject | emitted by the image light production | generation part. HMDのプラットフォームの説明図である。It is explanatory drawing of the platform of HMD. 美術館におけるHMDの使用の形態を示す説明図である。It is explanatory drawing which shows the form of use of HMD in a museum. ゲートと中央監視装置とを示す説明図である。It is explanatory drawing which shows a gate and a central monitoring apparatus. 入館処理ルーチンの詳細を示すフローチャートである。It is a flowchart which shows the detail of an entrance process routine. 順路案内処理ルーチンの詳細を示すフローチャートである。It is a flowchart which shows the detail of a regular route guidance process routine. 使用者に視認される順路案内メッセージの一例を示す説明図である。It is explanatory drawing which shows an example of the route guidance message visually recognized by the user. 展示品解説ルーチンの詳細を示すフローチャートである。It is a flowchart which shows the detail of an exhibit description routine. 使用者に視認される展示品情報の一例を示す説明図である。It is explanatory drawing which shows an example of the exhibit information visually recognized by the user. 変形例におけるHMDの外観の構成を示す説明図である。It is explanatory drawing which shows the structure of the external appearance of HMD in a modification.

A.第1実施形態:
A−1.頭部装着型表示装置の構成:
図1は、本発明の第1実施形態における頭部装着型表示装置の概略構成を示す説明図である。頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。HMD100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型のヘッドマウントディスプレイであり、本実施形態では、美術館案内用として用いられる。
A. First embodiment:
A-1. Configuration of head mounted display device:
FIG. 1 is an explanatory diagram showing a schematic configuration of a head-mounted display device according to the first embodiment of the present invention. The head-mounted display device 100 is a display device mounted on the head, and is also called a head mounted display (HMD). The HMD 100 is an optically transmissive head-mounted display that allows a user to visually recognize a virtual image and at the same time directly view an outside scene. In the present embodiment, the HMD 100 is used for museum guidance.

HMD100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部(コントローラー)10とを備えている。   The HMD 100 includes an image display unit 20 that allows a user to visually recognize a virtual image when attached to the user's head, and a control unit (controller) 10 that controls the image display unit 20.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、を含んでいる。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。   The image display unit 20 is a mounting body that is mounted on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, and a left optical image display unit 28. It is out. The right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20.

右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。   The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses.

右表示駆動部22は、右保持部21の内側、換言すれば、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。また、左表示駆動部24は、左保持部23の内側に配置されている。なお、以降では、右保持部21および左保持部23を区別せず「保持部」として説明する。同様に、右表示駆動部22および左表示駆動部24を区別せず「表示駆動部」として説明し、右光学像表示部26および左光学像表示部28を区別せず「光学像表示部」として説明する。   The right display drive unit 22 is disposed inside the right holding unit 21, in other words, on the side facing the user's head when the user wears the image display unit 20. Further, the left display driving unit 24 is disposed inside the left holding unit 23. Hereinafter, the right holding unit 21 and the left holding unit 23 will be described as “holding units” without being distinguished from each other. Similarly, the right display drive unit 22 and the left display drive unit 24 are described as “display drive units” without being distinguished from each other, and the right optical image display unit 26 and the left optical image display unit 28 are not distinguished from each other as “optical image display units”. Will be described.

表示駆動部は、液晶ディスプレイ(Liquid Crystal Display、以下「LCD」と呼ぶ)241、242や投写光学系251、252等を含む(図2参照)。表示駆動部の構成の詳細は後述する。光学部材としての光学像表示部は、導光板261、262(図2参照)と調光板とを含んでいる。導光板261、262は、光透過性の樹脂材料等によって形成され、表示駆動部から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、画像表示部20の表側(使用者の眼の側とは反対の側)を覆うように配置されている。調光板は、導光板261、262を保護し、導光板261、262の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整することができる。なお、調光板は省略可能である。   The display driving unit includes a liquid crystal display (hereinafter referred to as “LCD”) 241, 242, projection optical systems 251, 252, and the like (see FIG. 2). Details of the configuration of the display driving unit will be described later. The optical image display unit as an optical member includes light guide plates 261 and 262 (see FIG. 2) and a light control plate. The light guide plates 261 and 262 are formed of a light transmissive resin material or the like, and guide the image light output from the display driving unit to the user's eyes. The light control plate is a thin plate-like optical element, and is disposed so as to cover the front side of the image display unit 20 (the side opposite to the user's eye side). The light control plate protects the light guide plates 261 and 262 and suppresses damage to the light guide plates 261 and 262 and adhesion of dirt. Further, by adjusting the light transmittance of the light control plate, it is possible to adjust the amount of external light entering the user's eyes and adjust the ease of visual recognition of the virtual image. The light control plate can be omitted.

画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、本体コード48が2本に分岐した右コード42および左コード44と、分岐点に設けられた連結部材46と、を含んでいる。連結部材46には、イヤホンプラグ30を接続するためのジャックが設けられている。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。   The image display unit 20 further includes a connection unit 40 for connecting the image display unit 20 to the control unit 10. The connection unit 40 includes a main body cord 48 connected to the control unit 10, a right cord 42 and a left cord 44 in which the main body cord 48 branches into two, and a connecting member 46 provided at the branch point. . The connecting member 46 is provided with a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30.

画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行う。本体コード48における連結部材46とは反対側の端部と、制御部10とのそれぞれには、互いに嵌合するコネクター(図示省略)が設けられており、本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48には、例えば、金属ケーブルや光ファイバーを採用することができる。   The image display unit 20 and the control unit 10 transmit various signals via the connection unit 40. Each end of the main body cord 48 opposite to the connecting member 46 and the control unit 10 are provided with connectors (not shown) that are fitted to each other. The connector of the main body cord 48 and the control unit 10 The control unit 10 and the image display unit 20 are connected to or disconnected from each other by the fitting / releasing of the connector. For the right cord 42, the left cord 44, and the main body cord 48, for example, a metal cable or an optical fiber can be adopted.

制御部10は、HMD100を制御するための装置である。制御部10は、点灯部12と、タッチパッド14と、十字キー16と、電源スイッチ18とを含んでいる。点灯部12は、HMD100の動作状態(例えば、電源のON/OFF等)を、その発光態様によって通知する。点灯部12としては、例えば、LED(Light Emitting Diode)を用いることができる。タッチパッド14は、タッチパッド14の操作面上での接触操作を検出して、検出内容に応じた信号を出力する。タッチパッド14としては、静電式や圧力検出式、光学式といった種々のタッチパッドを採用することができる。十字キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源の状態を切り替える。   The control unit 10 is a device for controlling the HMD 100. The control unit 10 includes a lighting unit 12, a touch pad 14, a cross key 16, and a power switch 18. The lighting unit 12 notifies the operation state of the HMD 100 (for example, ON / OFF of the power supply) by its light emission mode. For example, an LED (Light Emitting Diode) can be used as the lighting unit 12. The touch pad 14 detects a contact operation on the operation surface of the touch pad 14 and outputs a signal corresponding to the detected content. As the touch pad 14, various touch pads such as an electrostatic type, a pressure detection type, and an optical type can be adopted. The cross key 16 detects a pressing operation on a key corresponding to the up / down / left / right direction, and outputs a signal corresponding to the detected content. The power switch 18 switches the power state of the HMD 100 by detecting a slide operation of the switch.

図2は、HMD100の構成を機能的に示すブロック図である。制御部10は、入力情報取得部110と、記憶部120と、電源130と、無線通信部132と、GPSモジュール134と、CPU140と、インターフェイス180と、送信部(Tx)51および52とを備え、各部は図示しないバスにより相互に接続されている。   FIG. 2 is a block diagram functionally showing the configuration of the HMD 100. The control unit 10 includes an input information acquisition unit 110, a storage unit 120, a power supply 130, a wireless communication unit 132, a GPS module 134, a CPU 140, an interface 180, and transmission units (Tx) 51 and 52. The parts are connected to each other by a bus (not shown).

入力情報取得部110は、例えば、タッチパッド14や十字キー16、電源スイッチ18などに対する操作入力に応じた信号を取得する。記憶部120は、ROM、RAM、DRAM、ハードディスク等によって構成されている。   The input information acquisition unit 110 acquires a signal corresponding to an operation input to the touch pad 14, the cross key 16, the power switch 18, and the like, for example. The storage unit 120 includes a ROM, a RAM, a DRAM, a hard disk, and the like.

電源130は、HMD100の各部に電力を供給する。電源130としては、例えば、リチウムポリマーバッテリー、リチウムイオンバッテリーなどの二次電池を用いることができる。さらに、二次電池に替えて、一次電池や燃料電池でもよいし、無線給電を受けて動作するようにしてもよい。さらには、太陽電池とキャパシターから給電を受けるようにしてもよい。無線通信部132は、無線LANやBluetooth(登録商標)、iBeacon(登録商標)といった所定の無線通信規格に則って、他の機器との間で無線通信を行う。GPSモジュール134は、GPS衛星からの信号を受信することにより、自身の現在位置を検出する。   The power supply 130 supplies power to each part of the HMD 100. As the power source 130, for example, a secondary battery such as a lithium polymer battery or a lithium ion battery can be used. Further, instead of the secondary battery, a primary battery or a fuel cell may be used, or the wireless battery may be operated by receiving wireless power feeding. Furthermore, you may make it receive electric power supply from a solar cell and a capacitor. The wireless communication unit 132 performs wireless communication with other devices in accordance with a predetermined wireless communication standard such as a wireless LAN, Bluetooth (registered trademark), or iBeacon (registered trademark). The GPS module 134 detects its current position by receiving a signal from a GPS satellite.

CPU140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、オペレーティングシステム(ОS)150、画像処理部160、表示制御部162、移動検出部164、処理制御部166、音声処理部170、iBeacon処理部172、として機能する。   The CPU 140 reads out and executes a computer program stored in the storage unit 120, thereby executing an operating system (OS) 150, an image processing unit 160, a display control unit 162, a movement detection unit 164, a processing control unit 166, and an audio processing. Unit 170 and iBeacon processing unit 172.

画像処理部160は、インターフェイス180や無線通信部132を介して入力されるコンテンツ(映像)に基づいて信号を生成する。そして、画像処理部160は、生成した信号を、接続部40を介して画像表示部20に供給することで、画像表示部20を制御する。画像表示部20に供給するための信号は、アナログ形式とディジタル形式の場合で異なる。アナログ形式の場合、画像処理部160は、クロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、画像データDataとを生成し、送信する。具体的には、画像処理部160は、コンテンツに含まれる画像信号を取得する。取得した画像信号は、例えば動画像の場合、一般的に1秒あたり30枚のフレーム画像から構成されているアナログ信号である。画像処理部160は、取得した画像信号から垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離し、それらの周期に応じて、PLL回路等によりクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、RGBデータの画像データDataとして、1フレームごとに記憶部120内のDRAMに格納する。   The image processing unit 160 generates a signal based on content (video) input via the interface 180 or the wireless communication unit 132. Then, the image processing unit 160 controls the image display unit 20 by supplying the generated signal to the image display unit 20 via the connection unit 40. The signal supplied to the image display unit 20 differs between the analog format and the digital format. In the case of the analog format, the image processing unit 160 generates and transmits a clock signal PCLK, a vertical synchronization signal VSync, a horizontal synchronization signal HSync, and image data Data. Specifically, the image processing unit 160 acquires an image signal included in the content. For example, in the case of a moving image, the acquired image signal is an analog signal generally composed of 30 frame images per second. The image processing unit 160 separates a synchronization signal such as a vertical synchronization signal VSync and a horizontal synchronization signal HSync from the acquired image signal, and generates a clock signal PCLK by a PLL circuit or the like according to the period. The image processing unit 160 converts the analog image signal from which the synchronization signal is separated into a digital image signal using an A / D conversion circuit or the like. The image processing unit 160 stores the converted digital image signal as image data Data of RGB data in the DRAM in the storage unit 120 for each frame.

一方、ディジタル形式の場合、画像処理部160は、クロック信号PCLKと、画像データDataとを生成し、送信する。具体的には、コンテンツがディジタル形式の場合、クロック信号PCLKが画像信号に同期して出力されるため、垂直同期信号VSyncおよび水平同期信号HSyncの生成と、アナログ画像信号のA/D変換とが不要となる。なお、画像処理部160は、記憶部120に格納された画像データDataに対して、解像度変換処理や、輝度、彩度の調整といった種々の色調補正処理や、キーストーン補正処理等の画像処理を実行してもよい。   On the other hand, in the case of the digital format, the image processing unit 160 generates and transmits the clock signal PCLK and the image data Data. Specifically, when the content is in digital format, the clock signal PCLK is output in synchronization with the image signal, so that the generation of the vertical synchronization signal VSync and the horizontal synchronization signal HSync and the A / D conversion of the analog image signal are performed. It becomes unnecessary. The image processing unit 160 performs image processing such as resolution conversion processing, various tone correction processing such as adjustment of luminance and saturation, and keystone correction processing on the image data Data stored in the storage unit 120. May be executed.

画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSyncと、記憶部120内のDRAMに格納された画像データDataとを、送信部51、52を介してそれぞれ送信する。なお、送信部51を介して送信される画像データDataを「右眼用画像データData1」とも呼び、送信部52を介して送信される画像データDataを「左眼用画像データData2」とも呼ぶ。送信部51、52は、制御部10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。   The image processing unit 160 transmits the generated clock signal PCLK, vertical synchronization signal VSync, horizontal synchronization signal HSync, and image data Data stored in the DRAM in the storage unit 120 via the transmission units 51 and 52, respectively. To do. The image data Data transmitted via the transmission unit 51 is also referred to as “right eye image data Data1”, and the image data Data transmitted via the transmission unit 52 is also referred to as “left eye image data Data2”. The transmission units 51 and 52 function as a transceiver for serial transmission between the control unit 10 and the image display unit 20.

表示制御部162は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部162は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFFや、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFFや、左バックライト制御部202による左バックライト222の駆動ON/OFFなどを個別に制御することにより、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。表示制御部162は、右LCD制御部211と左LCD制御部212とに対する制御信号を、送信部51および52を介してそれぞれ送信する。同様に、表示制御部162は、右バックライト制御部201と左バックライト制御部202とに対する制御信号を、それぞれ送信する。   The display control unit 162 generates a control signal for controlling the right display drive unit 22 and the left display drive unit 24. Specifically, the display control unit 162 uses the control signal to turn on / off the right LCD 241 by the right LCD control unit 211, turn on / off the right backlight 221 by the right backlight control unit 201, and control the left LCD. Each of the right display drive unit 22 and the left display drive unit 24 is controlled by individually controlling ON / OFF driving of the left LCD 242 by the unit 212 and ON / OFF driving of the left backlight 222 by the left backlight control unit 202. Controls the generation and emission of image light. The display control unit 162 transmits control signals for the right LCD control unit 211 and the left LCD control unit 212 via the transmission units 51 and 52, respectively. Similarly, the display control unit 162 transmits control signals to the right backlight control unit 201 and the left backlight control unit 202, respectively.

移動検出部164は、使用者の頭部に装着されたHMD100が予め定めた複数の特定の場所に移動したことを検出する。処理制御部166は、HMD100に搭載された種々の機能の内の所定の機能の少なくとも一部を変更する。所定の機能は一つの機能でも複数の機能であってもよいが、本実施形態では複数の機能である。移動検出部164および処理制御部166の詳細は、後述する。   The movement detection unit 164 detects that the HMD 100 mounted on the user's head has moved to a plurality of predetermined specific locations. The process control unit 166 changes at least a part of predetermined functions among various functions mounted on the HMD 100. The predetermined function may be one function or a plurality of functions, but in the present embodiment, it is a plurality of functions. Details of the movement detection unit 164 and the processing control unit 166 will be described later.

音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内の図示しないスピーカーおよび左イヤホン34内の図示しないスピーカーに対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34からは、それぞれ、例えば周波数等が変えられた異なる音が出力される。   The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and transmits the acquired audio signal to a speaker (not shown) in the right earphone 32 and a speaker (not shown) in the left earphone 34 connected to the connecting member 46. To supply. For example, when a Dolby (registered trademark) system is adopted, processing is performed on an audio signal, and different sounds with different frequencies or the like are output from the right earphone 32 and the left earphone 34, respectively.

iBeacon処理部172は、iBeacon(登録商標)の技術を用いて、HMD100外部に設けられたBLE(Bluetooth Low Energy)端末からの信号を受信することによって、BLE端末とHMD100との間の距離を求める。   The iBeacon processing unit 172 obtains a distance between the BLE terminal and the HMD 100 by receiving a signal from a BLE (Bluetooth Low Energy) terminal provided outside the HMD 100 by using the iBeacon (registered trademark) technology. .

インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器ОAとしては、例えば、パーソナルコンピューターPCや携帯電話端末、ゲーム端末等がある。インターフェイス180としては、例えば、USBインターフェイスや、マイクロUSBインターフェイス、メモリーカード用インターフェイス等を用いることができる。   The interface 180 is an interface for connecting various external devices OA that are content supply sources to the control unit 10. Examples of the external device OA include a personal computer PC, a mobile phone terminal, and a game terminal. As the interface 180, for example, a USB interface, a micro USB interface, a memory card interface, or the like can be used.

画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、外景撮影用カメラ61(図1も参照)と、9軸センサー66とを備えている。   The image display unit 20 includes a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, a left light guide plate 262 as a left optical image display unit 28, and outside scene shooting. Camera 61 (see also FIG. 1) and a nine-axis sensor 66.

外景撮影用カメラ61は、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置に配置されている。そのため、外景撮影用カメラ61は、使用者が画像表示部20を頭部に装着した状態において、使用者が向いている方向の外部の景色である外景を撮像する。外景撮影用カメラ61は、単眼カメラであるが、ステレオカメラであってもよい。   The outside scene shooting camera 61 is arranged at a position corresponding to the eyebrow of the user when the user wears the image display unit 20. For this reason, the outside scene shooting camera 61 captures an outside scene, which is an external scenery in the direction in which the user is facing, with the user wearing the image display unit 20 on the head. The outside scene shooting camera 61 is a monocular camera, but may be a stereo camera.

9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が使用者の頭部に装着されているときには、使用者の頭部の動きを検出する。検出された使用者の頭部の動きから画像表示部20の向きが特定される。   The 9-axis sensor 66 is a motion sensor that detects acceleration (3 axes), angular velocity (3 axes), and geomagnetism (3 axes). Since the 9-axis sensor 66 is provided in the image display unit 20, when the image display unit 20 is mounted on the user's head, the movement of the user's head is detected. The orientation of the image display unit 20 is specified from the detected movement of the user's head.

右表示駆動部22は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251とを含んでいる。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して「画像光生成部」とも呼ぶ。   The right display driving unit 22 includes a receiving unit (Rx) 53, a right backlight (BL) control unit 201 and a right backlight (BL) 221 that function as a light source, a right LCD control unit 211 that functions as a display element, and a right An LCD 241 and a right projection optical system 251 are included. The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are also collectively referred to as “image light generation unit”.

受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データData1とに基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。   The receiving unit 53 functions as a receiver for serial transmission between the control unit 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right backlight 221 is a light emitter such as an LED or electroluminescence (EL). The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right eye image data Data1 input via the reception unit 53. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。光学像表示部は、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。なお、HMD100が画像光を出射することを、本明細書では「画像を表示する」とも呼ぶ。   The right projection optical system 251 is configured by a collimator lens that converts the image light emitted from the right LCD 241 to light beams in a parallel state. The right light guide plate 261 as the right optical image display unit 26 guides the image light output from the right projection optical system 251 to the right eye RE of the user while reflecting the image light along a predetermined optical path. The optical image display unit can use any method as long as a virtual image is formed in front of the user's eyes using image light. For example, a diffraction grating or a transflective film may be used. good. Note that the emission of image light by the HMD 100 is also referred to as “displaying an image” in this specification.

左表示駆動部24は、右表示駆動部22と同様の構成を有している。すなわち、左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252とを含んでいる。   The left display drive unit 24 has the same configuration as the right display drive unit 22. That is, the left display driving unit 24 includes a receiving unit (Rx) 54, a left backlight (BL) control unit 202 and a left backlight (BL) 222 that function as a light source, and a left LCD control unit 212 that functions as a display element. And a left LCD 242 and a left projection optical system 252.

図3は、画像光生成部によって画像光が射出される様子を示す説明図である。右LCD241は、マトリクス状に配置された各画素位置の液晶を駆動することによって、右LCD241を透過する光の透過率を変化させることにより、右バックライト221から照射される照明光ILを、画像を表わす有効な画像光PLへと変調する。左側についても同様である。なお、図3に示すように、本実施形態ではバックライト方式を採用したが、フロントライト方式や、反射方式を用いて画像光を射出する構成としてもよい。   FIG. 3 is an explanatory diagram illustrating a state in which image light is emitted by the image light generation unit. The right LCD 241 changes the transmittance of the light transmitted through the right LCD 241 by driving the liquid crystal at each pixel position arranged in a matrix, thereby changing the illumination light IL emitted from the right backlight 221 into an image. Is modulated into an effective image light PL representing The same applies to the left side. As shown in FIG. 3, the backlight system is adopted in the present embodiment, but the image light may be emitted using a front light system or a reflection system.

A−2.頭部装着型表示装置のプラットフォーム:
図4は、HMD100のプラットフォームの説明図である。プラットフォームとは、HMD100にインストールされているアプリケーションを動作させるために必要な、基盤となるハードウェア資源、OS、ミドルウェア等の集合である。本実施形態のプラットフォーム500は、アプリケーション層510と、フレームワーク層520と、ライブラリー層530と、カーネル層540と、ハードウェア層550と、を含んでいる。各層510〜550は、プラットフォーム500に含まれているハードウェア資源、OS、ミドルウェア等を概念的に層分けしている。フレームワーク層520と、ライブラリー層530と、カーネル層540とによって、OS150(図2)の機能が実現される。なお、図4では、説明上必要としない構成要素は図示を省略する。
A-2. Head-mounted display platform:
FIG. 4 is an explanatory diagram of the platform of the HMD 100. The platform is a set of basic hardware resources, OS, middleware, and the like necessary for operating the application installed in the HMD 100. The platform 500 of this embodiment includes an application layer 510, a framework layer 520, a library layer 530, a kernel layer 540, and a hardware layer 550. Each layer 510 to 550 conceptually divides hardware resources, OS, middleware, and the like included in the platform 500. The framework layer 520, the library layer 530, and the kernel layer 540 implement the functions of the OS 150 (FIG. 2). In FIG. 4, illustration of components that are not necessary for the description is omitted.

アプリケーション層510は、OS150上において所定の処理を実行するためのアプリケーションソフトウェアの集合である。アプリケーション層510に含まれている各アプリケーションソフトウェアを、以降「アプリ」または「アプリケーション」とも呼ぶ。アプリケーション層510には、HMD100に予めインストールされているアプリと、HMD100の使用者がインストールしたアプリと、の両方が含まれる。   The application layer 510 is a set of application software for executing predetermined processing on the OS 150. Each application software included in the application layer 510 is hereinafter also referred to as “application” or “application”. The application layer 510 includes both apps installed in advance in the HMD 100 and apps installed by the user of the HMD 100.

図4の例では、アプリケーション層510には、美術館案内アプリ511と、ゲームアプリ512と、カメラアプリ513等、が含まれている。美術館案内アプリ511は、美術館見学に好適な案内機能を提供する。ゲームアプリ512は、ゲーム機能を提供する。カメラアプリ513は、撮影機能を提供する。   In the example of FIG. 4, the application layer 510 includes a museum guide application 511, a game application 512, a camera application 513, and the like. The museum guide application 511 provides a guide function suitable for museum tours. The game application 512 provides a game function. The camera application 513 provides a shooting function.

フレームワーク層520は、アプリケーション層510のアプリケーションソフトウェアに共通する基本的なプログラム構造や、機能セットを実装したプログラムの集合である。本実施形態では、画像処理部フレーム521と、表示制御部フレーム522と、音声処理部フレーム523と、iBeacon処理部フレーム524等、が含まれている。画像処理部フレーム521は、画像処理部160(図2)の機能を実現する。表示制御部フレーム522は、表示制御部162(図2)の機能を実現する。音声処理部フレーム523は、音声処理部170(図2)の機能を実現する。iBeacon処理部フレーム524は、iBeacon処理部172(図2)の機能を実現する。   The framework layer 520 is a set of programs that implement a basic program structure and function set common to the application software of the application layer 510. In the present embodiment, an image processing unit frame 521, a display control unit frame 522, an audio processing unit frame 523, an iBeacon processing unit frame 524, and the like are included. The image processing unit frame 521 implements the function of the image processing unit 160 (FIG. 2). The display control unit frame 522 implements the function of the display control unit 162 (FIG. 2). The voice processing unit frame 523 realizes the function of the voice processing unit 170 (FIG. 2). The iBeacon processing unit frame 524 realizes the function of the iBeacon processing unit 172 (FIG. 2).

ライブラリー層530は、特定の機能を実現するためのプログラムを、他のプログラム(例えばアプリケーション層510のアプリ)から使用できるように部品化したライブラリーソフトウェアの集合である。ライブラリー層530に含まれている各ライブラリーソフトウェアを、以降「ライブラリー」とも呼ぶ。ライブラリーは、単独では実行できず、他のプログラムから呼び出される形で実行される。   The library layer 530 is a set of library software in which a program for realizing a specific function is componentized so that it can be used by another program (for example, an application of the application layer 510). Each library software included in the library layer 530 is hereinafter also referred to as “library”. A library cannot be executed alone, but is executed by being called from another program.

図4の例では、ライブラリー層530には、ディスプレイライブラリー533と、オーディオライブラリー534と、センサーライブラリー535と、カメラライブラリー536と、HTML(Hyper Text Markup Language)ライブラリー537等、が含まれている。ディスプレイライブラリー533は、右LCD241および左LCD242(図2)を駆動する。オーディオライブラリー534は、右イヤホン32および左イヤホン34(図2)に内蔵されている音声IC(Integrated Circuit)を駆動する。センサーライブラリー535は、9軸センサー66(図2)を駆動すると共に、9軸センサー66による検出値を取得し、検出値をアプリに提供するための情報へ加工する。カメラライブラリー536は、外景撮影用カメラ61(図2)を駆動すると共に、外景撮影用カメラ61による検出値を取得し、検出値から外景画像を生成する。HTMLライブラリー537は、ウェブページ記述用言語で記載されたデータを解釈して画面表示用の文字や画像の配置を計算する。   In the example of FIG. 4, the library layer 530 includes a display library 533, an audio library 534, a sensor library 535, a camera library 536, an HTML (Hyper Text Markup Language) library 537, and the like. include. The display library 533 drives the right LCD 241 and the left LCD 242 (FIG. 2). The audio library 534 drives an audio IC (Integrated Circuit) built in the right earphone 32 and the left earphone 34 (FIG. 2). The sensor library 535 drives the 9-axis sensor 66 (FIG. 2), acquires the detection value by the 9-axis sensor 66, and processes the detection value into information for providing the application. The camera library 536 drives the outside scene shooting camera 61 (FIG. 2), acquires a detection value by the outside scene shooting camera 61, and generates an outside scene image from the detection value. The HTML library 537 interprets data written in a web page description language and calculates the arrangement of characters and images for screen display.

カーネル層540は、OS150の基本機能を実装したプログラムの集合である。カーネル層540は、ソフトウェア(ライブラリー層530)とハードウェア(ハードウェア層550)とのやり取りを管理し、両者の架け橋として機能する。   The kernel layer 540 is a set of programs that implement the basic functions of the OS 150. The kernel layer 540 manages exchanges between software (library layer 530) and hardware (hardware layer 550), and functions as a bridge between the two.

図4の例では、カーネル層540には、右LCD241および左LCD242用のLCDドライバー541と、音声IC用の音声ICドライバー542と、9軸センサー66用のセンサードライバー543と、外景撮影用カメラ61に内蔵されている画像センサー用の画像センサードライバー544と、が含まれている。   In the example of FIG. 4, the kernel layer 540 includes an LCD driver 541 for the right LCD 241 and the left LCD 242, an audio IC driver 542 for the audio IC, a sensor driver 543 for the 9-axis sensor 66, and an outside scene shooting camera 61. And an image sensor driver 544 for an image sensor incorporated in the image sensor.

ハードウェア層550は、HMD100に組み込まれている実際のハードウェア資源である。本実施形態において「ハードウェア資源」とは、HMD100に接続されてHMD100に組み込まれているデバイスを意味する。すなわち、ハードウェア資源には、HMD100のマザーボードに内部的に接続されているデバイス(例えば、9軸センサー66のセンサーデバイス、カメラ61の画像センサーデバイス、タッチパッド14のセンサーデバイス等)と、インターフェイス180を介してHMD100に外部的に接続されているデバイス(例えば、外付けのモーションセンサーデバイス、外付けのUSBデバイス等)と、の両方が含まれる。   The hardware layer 550 is an actual hardware resource incorporated in the HMD 100. In the present embodiment, “hardware resource” means a device connected to the HMD 100 and incorporated in the HMD 100. That is, the hardware resources include devices internally connected to the motherboard of the HMD 100 (for example, a sensor device of the 9-axis sensor 66, an image sensor device of the camera 61, a sensor device of the touch pad 14), and an interface 180. And devices externally connected to the HMD 100 via the HMD 100 (for example, an external motion sensor device, an external USB device, etc.).

図4の例では、ハードウェア層550には、右LCD241および左LCD242としてのLCDデバイス551と、音声ICデバイス552と、9軸センサー66のセンサーデバイス553と、カメラ61の画像センサーデバイス554と、が含まれている。   In the example of FIG. 4, the hardware layer 550 includes an LCD device 551 as the right LCD 241 and the left LCD 242, an audio IC device 552, a sensor device 553 of the 9-axis sensor 66, an image sensor device 554 of the camera 61, It is included.

図4において破線で囲んだライブラリーと、ドライバーと、デバイスとは、それぞれ対応関係にあり、協働して動作する。例えば、センサーライブラリー535と、センサードライバー543と、センサーデバイス553と、は9軸センサー66の機能を実現するために協働して動作する。すなわち、ライブラリー層530のセンサーライブラリー535と、カーネル層540のセンサードライバー543とは、アプリが、ハードウェア資源(ハードウェア層550)としてのセンサーデバイス553を使用するためのプログラム(ソフトウェア)であると言える。なお、1つのハードウェア資源としてのセンサーデバイス553を使用可能とするために、センサーデバイス553に複数のライブラリーが割り当てられる構成としてもよい。   The library, the driver, and the device surrounded by a broken line in FIG. 4 are in a corresponding relationship and operate in cooperation. For example, the sensor library 535, the sensor driver 543, and the sensor device 553 operate in cooperation to realize the function of the 9-axis sensor 66. In other words, the sensor library 535 of the library layer 530 and the sensor driver 543 of the kernel layer 540 are programs (software) for the application to use the sensor device 553 as a hardware resource (hardware layer 550). It can be said that there is. In addition, in order to be able to use the sensor device 553 as one hardware resource, a configuration may be adopted in which a plurality of libraries are allocated to the sensor device 553.

一方、図4において、例えば、ライブラリー層530のHTMLライブラリー537は、ハードウェア資源と対応関係になく、ハードウェア資源に依存しない。このように、HMD100に組み込まれ、ハードウェア資源に依存しないプログラム(ソフトウェア)を、本実施形態では「ソフトウェア資源」とも呼ぶ。ソフトウェア資源としては、フレームワーク層520、ライブラリー層530、カーネル層540の各層に含まれる種々のプログラムが想定される。   On the other hand, in FIG. 4, for example, the HTML library 537 of the library layer 530 is not associated with hardware resources and does not depend on hardware resources. Thus, a program (software) that is incorporated in the HMD 100 and does not depend on hardware resources is also referred to as “software resources” in the present embodiment. As software resources, various programs included in the framework layer 520, the library layer 530, and the kernel layer 540 are assumed.

A−3.頭部装着型表示装置の使用形態:
図5は、美術館におけるHMD100の使用の形態を示す説明図である。まず、美術館を訪れた者は、受付に行き、入館料金を支払う(シーン1)。この際、受付者は、来訪者の個人認証を行うようにしてもよい。個人認証としては、例えば、免許証、パスポート、健康保険証等の身分証明書の提示を受けることによって行う。
A-3. Usage of head mounted display:
FIG. 5 is an explanatory diagram showing a form of use of the HMD 100 in a museum. First, a visitor to the museum goes to the reception and pays the entrance fee (scene 1). At this time, the receptionist may perform personal authentication of the visitor. For example, the personal authentication is performed by receiving an identification card such as a license, a passport, or a health insurance card.

シーン1に続くシーン2では、受付者は、受付を済ませた来訪者に前述したHMD100の貸し出しを行う。なお、この貸し出しに際し、受付者は、HMD100に対して、ハードキーとしてICカード、USBメモリー、SIM等を差し込む。なお、ハードキーに換えてソフトキーとして、OS150のプロダクトキー等を入力するようにしてもよい。なお、個人認証を行なっている場合には、上述した身分証明書の番号等をソフトキーとして入力するようにすることもできる。ソフトキーとしての入力は、タッチパッド14や十字キー16等の入力情報取得部110等を用いて行う。こうして入力されたハードキーまたはソフトキーは、HMD認証キーとしてHMD100の記憶部120に記憶される。受付者は、ハードキーまたはソフトキーの入力を終えたHMD100を来訪者に貸し出す。なお、HMD100は、美術館案内アプリ511(図4)が起動された状態で貸し出される。   In the scene 2 following the scene 1, the receptionist lends the HMD 100 described above to the visitors who have received the reception. At the time of lending, the acceptor inserts an IC card, USB memory, SIM or the like as a hard key into the HMD 100. Note that the OS 150 product key or the like may be input as a soft key instead of a hard key. When personal authentication is performed, the above-described identification number or the like may be input as a soft key. Input as a soft key is performed using the input information acquisition unit 110 such as the touch pad 14 or the cross key 16. The hard key or soft key input in this way is stored in the storage unit 120 of the HMD 100 as an HMD authentication key. The receptionist lends the HMD 100 that has finished inputting hard keys or soft keys to a visitor. The HMD 100 is lent out in a state where the museum guide application 511 (FIG. 4) is activated.

シーン2に続くシーン3では、来訪者は、貸し出されたHMD100を頭部に装着して使用する。HMD100を使用中の来訪者を、以下、「使用者」とも呼ぶ。美術館の展示エリア600前にはゲート(入口)610が設けられており、シーン3では、使用者HUはゲート610の前まで進む。ゲート610には、ゲート610を識別するためのマーカーとしてのゲート識別名称GNが記されている。シーン3では、使用者HUは、ゲート識別名称GNの撮影を含めたHMD100の機能を用いてゲート610を開く。この機能の詳細については、後述する。   In the scene 3 following the scene 2, the visitor uses the rented HMD 100 on the head. A visitor who is using the HMD 100 is hereinafter also referred to as a “user”. A gate (entrance) 610 is provided in front of the exhibition area 600 of the museum. In the scene 3, the user HU proceeds to the front of the gate 610. The gate 610 has a gate identification name GN as a marker for identifying the gate 610. In the scene 3, the user HU opens the gate 610 using the function of the HMD 100 including photographing of the gate identification name GN. Details of this function will be described later.

使用者HUは、開いたゲート610を通過して、展示エリア600内に入る。展示エリア600内には、iBeacon(登録商標)用のBLE端末670が複数、設置されている。展示エリア600内を移動するシーン4では、使用者HUは、BLE端末670との通信を含めたHMD100の機能を用いて順路(案内ルート)の提示を受ける。この機能の詳細についても、後述する。   The user HU passes through the opened gate 610 and enters the exhibition area 600. A plurality of BLE terminals 670 for iBeacon (registered trademark) are installed in the exhibition area 600. In the scene 4 moving in the exhibition area 600, the user HU receives a route (guide route) using a function of the HMD 100 including communication with the BLE terminal 670. Details of this function will also be described later.

使用者HUは、展示品680の前に進み、展示品680を鑑賞する(シーン5)。展示品680の周囲には、展示品680を識別するためのマーカーがバーコードBCの形で付設されている。この鑑賞の際に、使用者は、バーコードBCの撮影を含めたHMD100の機能を用いて、目の前の展示品680についての情報の提示を受ける。この機能の詳細についても、後述する。なお、展示品は、展示物であってもよい。   The user HU proceeds in front of the exhibit 680 and appreciates the exhibit 680 (scene 5). Around the exhibit 680, a marker for identifying the exhibit 680 is attached in the form of a barcode BC. At the time of viewing, the user is presented with information about the exhibit 680 in front of the user using the functions of the HMD 100 including shooting of the barcode BC. Details of this function will also be described later. The exhibit may be an exhibit.

展示品の鑑賞を終えた使用者HUは、図示しないゲート(出口)から展示エリア600の外側に移動し(図示しないシーン6)、受付でHMD100を返却する(図示しないシーン7)。   The user HU who has finished viewing the exhibits moves from the gate (exit) (not shown) to the outside of the display area 600 (scene 6 (not shown)) and returns the HMD 100 at the reception (scene 7 (not shown)).

A−4.ゲートと中央監視装置の構成:
図6は、ゲートと中央監視装置とを示す説明図である。ゲート610は、開き戸タイプのもので、一対のスライドシャッタ612、614と、左収納部616と、右収納部618とを備える。スライドシャッタ612、614は、左収納部616に備えられるシャッタ駆動部(図示せず)と、右収納部618に備えられるシャッタ駆動部(図示せず)とによって開閉される。開いた状態では、左側のスライドシャッタ612は左収納部616に、右側のスライドシャッタ614は右収納部618に収納される。ゲート610は、美術館には複数備えられており、各ゲート610の右収納部618に、各ゲート610を識別するための前述したゲート識別名称(例えば、「ゲートA]、「ゲートB」等)GNが記されている。
A-4. Gate and central monitoring system configuration:
FIG. 6 is an explanatory diagram showing the gate and the central monitoring device. The gate 610 is of a hinged door type and includes a pair of slide shutters 612 and 614, a left storage portion 616, and a right storage portion 618. The slide shutters 612 and 614 are opened and closed by a shutter drive unit (not shown) provided in the left storage unit 616 and a shutter drive unit (not shown) provided in the right storage unit 618. In the opened state, the left slide shutter 612 is stored in the left storage unit 616, and the right slide shutter 614 is stored in the right storage unit 618. A plurality of gates 610 are provided in the museum, and the above-described gate identification names (for example, “Gate A”, “Gate B”, etc.) for identifying each gate 610 are displayed in the right storage portion 618 of each gate 610. GN is written.

中央監視装置650は、ケーブル620によって各ゲート610と接続されている。中央監視装置650は、各ゲート610の開閉を制御するとともに、入館者の管理を行う。中央監視装置650は、CPU652と、ROMやRAM等によって構成される記憶部654と、入出力部656と、無線通信部658と、を備える。   The central monitoring device 650 is connected to each gate 610 by a cable 620. The central monitoring device 650 controls opening and closing of each gate 610 and manages visitors. The central monitoring device 650 includes a CPU 652, a storage unit 654 including a ROM and a RAM, an input / output unit 656, and a wireless communication unit 658.

記憶部634は、プログラム記憶部654aと、HMD認証キー記憶部654bと、ゲート情報記憶部654cと、順路情報記憶部654dと、展示品情報記憶部654eと、を備える。プログラム記憶部654aには、各種コンピュータープログラムが予め記憶されている。各種コンピュータープログラムとしては、前述した美術館案内アプリ511が含まれる。HMD認証キー記憶部654bには、HMD100から取り込んだHMD認証キーが記憶される。ゲート情報記憶部654cには、ゲート識別名称GNに対応してゲート610に関する情報が予め記憶されている。順路情報記憶部654dには、展示エリア600の順路を示す情報が予め記憶されている。展示品情報記憶部654eには、展示品680(図5)の識別コードに対応して展示品680についての詳細情報(例えば、技法、時代背景、美術史に関する情報等)が予め記憶されている。   The storage unit 634 includes a program storage unit 654a, an HMD authentication key storage unit 654b, a gate information storage unit 654c, a route information storage unit 654d, and an exhibit information storage unit 654e. Various computer programs are stored in advance in the program storage unit 654a. The various computer programs include the above-described museum guide application 511. The HMD authentication key storage unit 654b stores an HMD authentication key imported from the HMD 100. In the gate information storage unit 654c, information related to the gate 610 is stored in advance corresponding to the gate identification name GN. The route information storage unit 654d stores information indicating the route of the exhibition area 600 in advance. In the exhibit information storage unit 654e, detailed information about the exhibit 680 (for example, information on technique, background of the period, art history, etc.) is stored in advance corresponding to the identification code of the exhibit 680 (FIG. 5). .

入出力部656は、CPU652からの開閉指令を有線にて各ゲート610のシャッタ駆動部に送る。無線通信部658は、使用者HUが装着したHMD100との間で無線通信を行う。   The input / output unit 656 sends an open / close command from the CPU 652 to the shutter drive unit of each gate 610 by wire. The wireless communication unit 658 performs wireless communication with the HMD 100 worn by the user HU.

CPU652は、プログラム記憶部654aに記憶されたコンピュータープログラムを実行することによって、記憶部654に記憶された各種の情報の利用を図りながら、図5のシーン3からシーン5において必要となる機能をHMD100に実現させる。   The CPU 652 executes the computer program stored in the program storage unit 654a, thereby performing various functions stored in the storage unit 654, and performing functions necessary for the scene 3 to the scene 5 in FIG. Make it happen.

A−5.シーン3における処理:
図7は、入館処理ルーチンの詳細を示すフローチャートである。入館処理ルーチンは、美術館案内アプリ511(図4)に含まれる複数の処理ルーチンのうちの一つであり、HMD100のCPU140によって、所定時間毎に繰り返し実行される。なお、入館処理ルーチンは、シーン2によるHMD100の貸し出し後、後述するゲートを通過するまでの期間に限って実行される。処理が開始されると、CPU140は、外景撮影用カメラ61を起動して外景を撮影する(ステップS110)。シーン3では、使用者HUはゲート610の前まで進むが、その際に、外景撮影用カメラ61によって外景が自動撮影される。
A-5. Processing in scene 3:
FIG. 7 is a flowchart showing details of the entrance processing routine. The entrance processing routine is one of a plurality of processing routines included in the museum guide application 511 (FIG. 4), and is repeatedly executed by the CPU 140 of the HMD 100 at predetermined time intervals. Note that the entrance processing routine is executed only during a period from when the HMD 100 is lent out in the scene 2 until it passes through a gate described later. When the process is started, the CPU 140 activates the outside scene photographing camera 61 to photograph the outside scene (step S110). In the scene 3, the user HU proceeds to the front of the gate 610. At this time, the outside scene is automatically photographed by the outside scene photographing camera 61.

続いて、CPU140は、ステップS110によって撮影された撮影画像の中にゲート識別名称GN(図6)が含まれるか否かを判定する(ステップS120)。この判定は、文字パターン認識によって撮影画像の中からゲート識別名称GNの文字列が抽出されたときに、ゲート識別名称GNが含まれているものと判定する。   Subsequently, the CPU 140 determines whether or not the gate identification name GN (FIG. 6) is included in the captured image captured in step S110 (step S120). This determination determines that the gate identification name GN is included when the character string of the gate identification name GN is extracted from the captured image by character pattern recognition.

ステップS120で、ゲート識別名称GNが含まれないと判定された場合には、CPU140は、ステップS110に処理を戻して、外景撮影用カメラ61による撮影を継続して、ゲート識別名称GNが撮影されるのを待つ。一方、ステップS120で、ゲート識別名称GNが含まれると判定された場合には、CPU140は、ゲートを開く開指令とともに、撮影画像から取得されたゲート識別名称GNと、シーン2(図5)にてHMD100の記憶部120に記憶されたHMD認証キーとを、無線通信部132を介して中央監視装置650に送信する(ステップS130)。その後、CPU140は、外景撮影用カメラ61の撮影を停止する(ステップS140)。なお、CPU140によって実行されるステップS110からステップS120でYESと判定されるまでの処理が、移動検出部164(図2)に対応している。すなわち、移動検出部164は、特定の場所としてのゲート前にHMD100が移動したことを検出する。なお、換言すれば、特定の場所は展示エリア600であるとして、移動検出部164は、特定の場所としての展示エリア600にHMD100が移動したと捉えることもできる。   If it is determined in step S120 that the gate identification name GN is not included, the CPU 140 returns the process to step S110 and continues shooting with the outside scene shooting camera 61 so that the gate identification name GN is shot. Wait for it. On the other hand, if it is determined in step S120 that the gate identification name GN is included, the CPU 140 includes an opening command to open the gate and the gate identification name GN acquired from the photographed image and the scene 2 (FIG. 5). Then, the HMD authentication key stored in the storage unit 120 of the HMD 100 is transmitted to the central monitoring apparatus 650 via the wireless communication unit 132 (step S130). Thereafter, the CPU 140 stops the shooting of the outside scene shooting camera 61 (step S140). Note that the process from step S110 executed by the CPU 140 to YES in step S120 corresponds to the movement detection unit 164 (FIG. 2). That is, the movement detection unit 164 detects that the HMD 100 has moved before the gate as a specific place. In other words, assuming that the specific place is the display area 600, the movement detection unit 164 can also be regarded as the HMD 100 has moved to the display area 600 as the specific place.

中央監視装置650のCPU652は、HMD100から開指令を受信したか否かを判定し(ステップS210)、受信したと判定された場合に、HMD100から開指令とともに送られて来たHMD認証キーを、記憶部654のHMD認証キー記憶部654bに格納する(ステップS220)。これにより、中央監視装置650は、入館者をHMD認証キーの形で登録することができる。その後、CPU652は、HMD100から開指令とともに送られて来たゲート識別名称GNに対応したゲート610を開く処理を行う(ステップS230)。中央監視装置650のゲート情報記憶部654cには、ゲート情報として、各ゲート610のゲート識別名称GNに対応して、各ゲート610を開く開信号の送付先が予め記憶されており、ステップS230では、CPU652は、HMD100から送られて来たゲート識別名称GNに対応した送付先をゲート情報記憶部654cから読み出して、その送付先に開信号を送ることで、ゲート610を開くことを行う。   The CPU 652 of the central monitoring device 650 determines whether or not an open command has been received from the HMD 100 (step S210). When it is determined that the CPU 652 has received the HMD authentication key sent from the HMD 100 together with the open command, The data is stored in the HMD authentication key storage unit 654b of the storage unit 654 (step S220). Thereby, the central monitoring apparatus 650 can register a visitor in the form of an HMD authentication key. Thereafter, the CPU 652 performs a process of opening the gate 610 corresponding to the gate identification name GN sent together with the opening command from the HMD 100 (step S230). In the gate information storage unit 654c of the central monitoring device 650, as the gate information, the destination of the open signal that opens each gate 610 is stored in advance corresponding to the gate identification name GN of each gate 610. The CPU 652 opens the gate 610 by reading the destination corresponding to the gate identification name GN sent from the HMD 100 from the gate information storage unit 654c and sending an open signal to the destination.

次いで、CPU652は、無線通信部658を介して入館許可信号をHMD100に送信する(ステップS240)。   Next, the CPU 652 transmits an admission permission signal to the HMD 100 via the wireless communication unit 658 (step S240).

その後、HMD100のCPU140は、中央監視装置650から入館許可信号を受信したか否かを判定し(ステップS160)、受信したと判定された場合に、”入館してください”と記されたメッセージ画像を表示する(ステップS170)。すなわち、CPU140は、上記メッセージ画像を画像表示部20に表示させる。   Thereafter, the CPU 140 of the HMD 100 determines whether or not an admission permission signal has been received from the central monitoring device 650 (step S160), and if it is determined that it has been received, a message image stating “Please enter” is displayed. Is displayed (step S170). That is, the CPU 140 displays the message image on the image display unit 20.

続いて、CPU140は、アプリケーション層510に含まれる音声処理部フレーム523とカメラアプリ513とをロックする(ステップS180)。音声処理部フレーム523は、HMD100の音声の出力の全てを担うために、音声処理部フレーム523がロックされることで、HMD100からの音声の出力は全て消される(ミュートされる)。一方、外景撮影用カメラ61を用いた撮影機能については、カメラアプリ516以外にも、アプリケーション層510に含まれる美術館案内アプリ511によるマーカー認識処理にも含まれる。ステップS190によるカメラアプリ516のロックによれば、カメラアプリ516による撮影は禁止され、美術館案内アプリ511によるマーカー認識処理に従う撮影は禁止されることはない(すなわち、許可される)。   Subsequently, the CPU 140 locks the audio processing unit frame 523 and the camera application 513 included in the application layer 510 (step S180). Since the audio processing unit frame 523 bears all of the audio output of the HMD 100, the audio processing unit frame 523 is locked, so that all of the audio output from the HMD 100 is erased (muted). On the other hand, the shooting function using the outside scene shooting camera 61 is included in the marker recognition process by the museum guide application 511 included in the application layer 510 in addition to the camera application 516. According to the lock of the camera application 516 in step S190, shooting by the camera application 516 is prohibited, and shooting according to the marker recognition process by the museum guide application 511 is not prohibited (that is, permitted).

ステップS190の実行後、「リターン」に抜けて、この入館処理ルーチンは一旦終了する。なお、本実施形態では、カメラアプリ516によって提供される撮影機能は外景撮影用カメラ61を用いたものであるが、これに換えて、外景撮影用カメラ61以外に他のカメラを搭載する場合には、カメラアプリ513は他のカメラによって撮影を行う場合もあり得る。この場合には、ステップS180では、カメラアプリ513を禁止することで前記他のカメラによる撮影をも禁止する構成としてもよい。   After the execution of step S190, the process returns to “RETURN”, and the entrance processing routine is temporarily terminated. In the present embodiment, the shooting function provided by the camera application 516 uses the outside scene shooting camera 61, but instead, when a camera other than the outside scene shooting camera 61 is mounted. The camera application 513 may take a picture with another camera. In this case, in step S180, the camera application 513 may be prohibited so that shooting by the other camera is also prohibited.

なお、CPU140によって実行されるステップS170およびS180の処理が、処理制御部166(図2)に対応している。すなわち、処理制御部166は、
i)情報提示機能を拡張することとして、”入館してください”と記されたメッセージ画像を表示し、
ii)音声機能を抑制することとして、音声処理部フレーム523をロックし、
iii)撮影機能を抑制することとして、マーカー認識処理に従う撮影は許可し、カメラアプリ516による撮影機能は禁止する。
Note that the processing in steps S170 and S180 executed by the CPU 140 corresponds to the processing control unit 166 (FIG. 2). That is, the process control unit 166
i) As an extension of the information presentation function, a message image stating “Please enter” is displayed.
ii) Locking the voice processing unit frame 523 as suppressing the voice function,
iii) As the suppression of the photographing function, photographing according to the marker recognition process is permitted, and the photographing function by the camera application 516 is prohibited.

ステップS170による”入館してください”とのメッセージ画像を認識した使用者HUは、開いたゲート610を通過して、展示エリア600内に入る。なお、ステップS180による音声処理部フレーム523とカメラアプリ513のロックは、使用者HU、すなわち使用者HUが装着したHMD100が、展示エリア600の外側に移動するまで継続され、外側に移動したシーン6となって初めてロックが解除される。なお、使用者HUが装着したHMD100が特定の場所としての展示エリア600の外側に移動したことが検出されたときには、音声処理部170を動作させて音声を出力したり、例えば”ロックを解除しました”と記されたメッセージ画像を画図表示部20に表示させたりして、ロックされた機能を回復した旨を使用者に報知するようにしてもよい。この構成によれば、使用者の利便性の向上を図ることができる。   The user HU who has recognized the message “Please enter” in step S170 passes through the opened gate 610 and enters the exhibition area 600. Note that the locking of the audio processing unit frame 523 and the camera application 513 in step S180 is continued until the user HU, that is, the HMD 100 worn by the user HU moves outside the display area 600, and the scene 6 moves outside. The lock is released for the first time. When it is detected that the HMD 100 worn by the user HU has moved to the outside of the display area 600 as a specific place, the sound processing unit 170 is operated to output sound, for example, “unlock”. The user may be notified that the locked function has been restored by displaying a message image labeled “Done” on the drawing display unit 20. According to this configuration, it is possible to improve user convenience.

以上のように構成された入館処理ルーチンによれば、使用者HUがゲート610の前に移動したとき、すなわち、HMD100がゲート610の前に移動したときに、上記(i)〜(iii)が行われる。このために、本実施形態のHMD100によれば、ゲート610前に移動するだけで、”入館してください”との情報提示機能が実行され、さらには、音声機能が抑制され、カメラアプリ516を使った撮影機能が禁止される。   According to the entrance processing routine configured as described above, when the user HU moves in front of the gate 610, that is, when the HMD 100 moves in front of the gate 610, the above (i) to (iii) are performed. Done. For this reason, according to the HMD 100 of the present embodiment, the information presentation function “Please enter” is executed only by moving in front of the gate 610, and the voice function is suppressed, and the camera application 516 is operated. The shooting function used is prohibited.

したがって、HMD100によれば、情報提示によって使用者HUの利便性を高めることができる。また、展示エリア600内でのHMD100からの音声機能を抑制することで、マナーを守ることができる。また、展示エリア600内でのHMD100による撮影を禁止することで、展示品680等が盗撮されることを防止することができる。すなわち、HMD100によれば、展示エリア600内という場にふさわしい機能を、人が機能の設定をいちいち切り替えることなしに、容易に実現できるという効果を奏する。   Therefore, according to the HMD 100, the convenience of the user HU can be enhanced by presenting information. Further, by suppressing the voice function from the HMD 100 in the exhibition area 600, manners can be protected. Further, by prohibiting shooting by the HMD 100 in the display area 600, it is possible to prevent the exhibit 680 and the like from being voyeurized. That is, according to the HMD 100, there is an effect that a function suitable for the place in the exhibition area 600 can be easily realized without a person switching the setting of functions one by one.

なお、この順路案内処理ルーチンに従う処理によれば、ゲート610に付されたゲート識別名称GNを撮影することによって、使用者が装着しているHMD100がゲート前に移動したことを検出しているが、これに換えて、各ゲートの形状を予め異なったものとして、ゲートそのものを撮影することによって、撮影画像のゲートの形状からHMDが特定のゲート前に移動したことを検出するようにしてもよい。また、ゲート識別名称GNは、記号、図形、印等、ゲート610を識別するためのマーカーとなり得るものであれば、いずれに換えることもできる。   According to the process according to the route guidance process routine, it is detected that the HMD 100 worn by the user has moved to the front of the gate by photographing the gate identification name GN attached to the gate 610. Instead of this, it is also possible to detect that the HMD has moved before a specific gate from the shape of the gate of the photographed image by photographing the gate itself, assuming that the shape of each gate is different in advance. . The gate identification name GN can be replaced with any symbol, figure, mark, or the like that can be a marker for identifying the gate 610.

A−6.シーン4における処理:
図8は、順路案内処理ルーチンの詳細を示すフローチャートである。順路案内処理ルーチンは、美術館案内アプリ511(図4)に含まれる複数の処理ルーチンのうちの一つであり、HMD100のCPU140によって、所定時間毎に繰り返し実行される。この順路案内処理ルーチンでは、iBeacon処理部172を用いる。展示エリア600における順路の各曲がり角や、まっすぐ進む部分が続く場合のその中途部分(以下、「直線中途部分」と呼ぶ)には、BLE端末670(図5)がそれぞれ配置されており、BLE端末670からiBeaconの信号が出力される。iBeaconの信号には、BLE端末670を識別するためのBLE端末識別番号と、BLE端末670までの距離とが少なくとも保持される。
A-6. Processing in scene 4:
FIG. 8 is a flowchart showing details of the route guidance processing routine. The route guidance processing routine is one of a plurality of processing routines included in the museum guidance application 511 (FIG. 4), and is repeatedly executed by the CPU 140 of the HMD 100 at predetermined time intervals. In this route guidance processing routine, an iBeacon processing unit 172 is used. A BLE terminal 670 (FIG. 5) is arranged at each corner of the regular route in the exhibition area 600 or in the middle part when a straight forward part continues (hereinafter, referred to as “straight halfway part”). An iBeacon signal is output from 670. The iBeacon signal holds at least a BLE terminal identification number for identifying the BLE terminal 670 and a distance to the BLE terminal 670.

処理が開始されると、HMD100のCPU140は、まず、BLE端末670からiBeaconの信号を感知したか否かを判定する(ステップS310)。CPU140は、iBeaconの信号を感知するまでステップS310の処理を繰り返し実行し、ステップS310で感知されたと判定されると、感知した信号に保持される距離が所定値(例えば、2m)未満であるか否かを判定する(ステップS320)。ここで、距離が所定値未満でないと判定された場合には、ステップS310に処理を戻す。   When the processing is started, the CPU 140 of the HMD 100 first determines whether an iBeacon signal is detected from the BLE terminal 670 (step S310). The CPU 140 repeatedly executes the process of step S310 until the iBeacon signal is sensed, and if it is determined that the sensed signal is sensed in step S310, is the distance held in the sensed signal less than a predetermined value (for example, 2 m)? It is determined whether or not (step S320). If it is determined that the distance is not less than the predetermined value, the process returns to step S310.

一方、ステップS320で、距離が所定値未満であると判定された場合には、感知した信号に保持されるBLE端末識別番号に対応した順路情報を取得する処理を行う。中央監視装置650の順路情報記憶部654dには、順路情報として、BLE端末識別番号に対応して、例えば「左に曲がって下さい」、「右に曲がって下さい」、あるいは「まっすぐ進んで下さい」といった情報が記憶されており、ステップS320では、CPU140は、感知した信号に保持されるBLE端末識別番号に対応した順路情報を順路情報記憶部654dから読み出すことによって、上記取得を行う。   On the other hand, if it is determined in step S320 that the distance is less than the predetermined value, the route information corresponding to the BLE terminal identification number held in the sensed signal is acquired. In the route information storage unit 654d of the central monitoring device 650, as route information, for example, “turn left”, “turn right”, or “go straight”, corresponding to the BLE terminal identification number. In step S320, the CPU 140 performs the above acquisition by reading out the route information corresponding to the BLE terminal identification number held in the sensed signal from the route information storage unit 654d.

その後、CPU140は、ステップS330によって取得した順路情報に応じた順路案内メッセージを表示する(ステップS340)。すなわち、CPU140は、上記順路案内メッセージを画像表示部20に表示させる。   Thereafter, the CPU 140 displays a route guidance message corresponding to the route information acquired in step S330 (step S340). That is, the CPU 140 causes the image display unit 20 to display the route guidance message.

図9は、ステップS340の結果、使用者に視認される順路案内メッセージの一例を示す説明図である。図9では、使用者の視野VRを例示している。視野VRには、図示するように、展示エリア600内の外景SCが含まれている。また、外景SCに重畳して、例えば「左に曲がって下さい」といった順路案内メッセージMS1が表示される。   FIG. 9 is an explanatory diagram showing an example of a route guidance message visually recognized by the user as a result of step S340. FIG. 9 illustrates the visual field VR of the user. The visual field VR includes an outside scene SC in the exhibition area 600 as shown in the figure. Further, a route guidance message MS1 such as “Please turn left” is displayed superimposed on the outside scene SC.

図8のステップS340の実行後、「リターン」に抜けて、この順路案内処理ルーチンを一旦終了する。CPU140によって実行されるステップS310およびS320の処理が、移動検出部164(図2)に対応している。すなわち、移動検出部164は、特定の場所としての順路の曲がり角の付近や直線中途部分の付近にHMD100が移動したことを検出する。CPU140によって実行されるステップS330およびS340の処理が、処理制御部166(図2)に対応している。すなわち、処理制御部166は、情報提示機能を拡張することとして、順路案内メッセージMS1を表示する。   After execution of step S340 in FIG. 8, the process returns to “RETURN” and this route guidance processing routine is temporarily terminated. The processing of steps S310 and S320 executed by the CPU 140 corresponds to the movement detection unit 164 (FIG. 2). In other words, the movement detection unit 164 detects that the HMD 100 has moved near the corner of a normal route as a specific place or in the middle of a straight line. The processing in steps S330 and S340 executed by the CPU 140 corresponds to the processing control unit 166 (FIG. 2). That is, the process control unit 166 displays the route guidance message MS1 as an extension of the information presentation function.

以上のように構成された順路案内処理ルーチンによれば、HMD100を装着した使用者は、展示エリア600内を移動する際に、順路案内メッセージMSを視野VRの中に認識することができる。このために、本実施形態のHMD100によれば、使用者の利便性に優れている。   According to the route guidance processing routine configured as described above, the user wearing the HMD 100 can recognize the route guidance message MS in the visual field VR when moving in the exhibition area 600. For this reason, according to HMD100 of this embodiment, it is excellent in a user's convenience.

なお、この順路案内処理ルーチンに従う処理によれば、iBeaconの技術によって、使用者が装着しているHMD100の移動を検出しているが、これに換えて、Wi−Fiのアクセスポイントを設置する際に登録される位置情報を使って現在位置を推測することでHMDの移動を検出する構成としてもよい。また、LEDを使った可視光通信によってHMDの移動を検出してもよい。要は、外部の無線通信端末からの信号に基づいてHMDの移動を検出するものであれば、どのような無線通信の技術を用いる構成としてもよい。さらに、地磁気を利用して屋内の現在位置を求める技術や、屋内GPSの技術によってHMDの移動を検出する構成としてもよい。また、展示エリア600が屋外であれば、GPSモジュール134を利用して現在位置を特定することでHMDの移動を検出する構成とすることもできる。また、これら技術の一つからHMDの移動を検出する構成に換えて、これら技術のうちの複数を組み合わせてHMDの移動を検出するようにしてもよい。検出場所等によって、それら技術を使い分けるようにしてもよい。   According to the process according to the route guidance process routine, the movement of the HMD 100 worn by the user is detected by the iBeacon technique, but instead, when installing a Wi-Fi access point. The movement of the HMD may be detected by estimating the current position using the position information registered in. Alternatively, the movement of the HMD may be detected by visible light communication using an LED. In short, any wireless communication technology may be used as long as the movement of the HMD is detected based on a signal from an external wireless communication terminal. Furthermore, it is good also as a structure which detects the movement of HMD by the technique which calculates | requires the indoor present position using a geomagnetism, and the technique of indoor GPS. In addition, if the exhibition area 600 is outdoors, it may be configured to detect the movement of the HMD by specifying the current position using the GPS module 134. Further, instead of the configuration for detecting the movement of the HMD from one of these techniques, a plurality of these techniques may be combined to detect the movement of the HMD. You may make it use these techniques properly according to a detection place etc.

A−7.シーン5における処理:
図10は、展示品解説ルーチンの詳細を示すフローチャートである。展示品解説ルーチンは、美術館案内アプリ511(図4)に含まれる複数の処理ルーチンのうちの一つであり、HMD100のCPU140によって、所定時間毎に繰り返し実行される。処理が開始されると、CPU140は、まず、9軸センサー66にて使用者の頭部の動きを検出することで、使用者が歩行中であるか否かを判定する(ステップS410)。ここで、歩行中であると判定されたときには、使用者は展示品を鑑賞する状態にないとして、「リターン」に抜けて、この展示品解説ルーチンを一旦停止する。一方、ステップ410で、歩行中でないと判定されると、外景撮影用カメラ61を起動して外景を撮影する(ステップS420)。なお、変形例として、ステップS410の歩行中かの判定を行うことなく、直ちに外景の撮影を行う構成としてもよい。
A-7. Processing in scene 5:
FIG. 10 is a flowchart showing details of the exhibit explanation routine. The exhibit description routine is one of a plurality of processing routines included in the museum guide application 511 (FIG. 4), and is repeatedly executed by the CPU 140 of the HMD 100 at predetermined time intervals. When the process is started, the CPU 140 first detects whether the user is walking by detecting the movement of the user's head with the 9-axis sensor 66 (step S410). If it is determined that the user is walking, the user exits “Return” and temporarily stops the exhibit explanation routine, assuming that the user is not in a state of appreciating the exhibit. On the other hand, if it is determined in step 410 that the user is not walking, the outside scene photographing camera 61 is activated to photograph the outside scene (step S420). As a modification, it may be configured to immediately take a picture of the outside scene without determining whether or not it is walking in step S410.

続いて、CPU140は、ステップS420によって撮影された撮影画像の中に展示品識別用のバーコードBCが含まれるか否かを判定する(ステップS430)。ここで、含まれないと判定された場合には、CPU140は、ステップS420に処理を戻して、外景撮影用カメラ61による撮影を継続して、バーコードBCが撮影されるのを待つ。一方、ステップS430で、展示品識別用のバーコードBCが含まれると判定された場合には、バーコードBCを展示品680の識別コードに変換し(ステップS440)、外景撮影用カメラ61の撮影を停止する(ステップS450)。その後、CPU140は、ステップS440によって得られた展示品識別コードに対応した展示品情報を展示品情報記憶部654eから読み出し(ステップS460)、その展示品情報を表示する(ステップS470)。すなわち、CPU140は、展示品情報を画像表示部20に表示させる。なお、展示品情報は、外景に含まれるバーコードBCの位置に基づく位置に表示するようにした。本実施形態では、バーコードBCは、図5に示すように、展示品680の左上に付設されており、展示品情報は、バーコードBCの左方向の位置に表示するようにした。   Subsequently, the CPU 140 determines whether or not the bar code BC for exhibit identification is included in the captured image captured in step S420 (step S430). If it is determined that the image is not included, the CPU 140 returns the process to step S420, continues shooting with the outside scene shooting camera 61, and waits for the barcode BC to be shot. On the other hand, if it is determined in step S430 that the barcode BC for exhibit identification is included, the barcode BC is converted into the identification code of the exhibit 680 (step S440), and the outside scene photographing camera 61 is photographed. Is stopped (step S450). Thereafter, the CPU 140 reads exhibit information corresponding to the exhibit identification code obtained in step S440 from the exhibit information storage unit 654e (step S460), and displays the exhibit information (step S470). That is, the CPU 140 displays the exhibit information on the image display unit 20. The exhibit information is displayed at a position based on the position of the barcode BC included in the outside scene. In the present embodiment, the barcode BC is attached to the upper left of the exhibit 680 as shown in FIG. 5, and the exhibit information is displayed at the left position of the barcode BC.

図11は、ステップS470の結果、使用者に視認される展示品情報の一例を示す説明図である。使用者の視野VRを例示している。視野VRには、展示品680の周囲の外景SCが含まれている。また、外景SCに重畳して展示品情報EXが表示される。展示品情報EXは、技法、時代背景、美術史に関する情報等の展示品についての詳細情報であり、本実施形態では、バーコードBCの左側に表示される。なお、この表示位置は、バーコードBCの左側の位置に限る必要はなく、バーコードBCに対して他の方向の位置であってもよいし、あるいは、展示品の位置をパターン認識によって把握して、展示品に対する所定の相対位置に表示するようにしてもよい。   FIG. 11 is an explanatory diagram illustrating an example of exhibit information visually recognized by the user as a result of step S470. The visual field VR of the user is illustrated. The visual field VR includes an outside scene SC around the exhibit 680. In addition, the exhibit information EX is displayed superimposed on the outside scene SC. Exhibit information EX is detailed information about exhibits such as techniques, historical background, and information on art history, and is displayed on the left side of the barcode BC in this embodiment. The display position need not be limited to the position on the left side of the bar code BC, and may be a position in another direction with respect to the bar code BC. Alternatively, the position of the exhibit can be grasped by pattern recognition. Thus, it may be displayed at a predetermined relative position with respect to the exhibit.

図10のステップS470の実行後、「リターン」に抜けて、この順路案内処理ルーチンを一旦終了する。なお、CPU140によって実行されるステップS420およびS430の処理が、移動検出部164(図2)に対応している。すなわち、移動検出部164は、特定の場所としての展示品680前にHMD100が移動したことを検出する。CPU140によって実行されるステップS460およびS470の処理が、処理制御部166(図2)に対応している。すなわち、処理制御部166は、情報提示機能を拡張することとして、展示品情報EXを表示する。   After execution of step S470 in FIG. 10, the process returns to “RETURN”, and this route guidance processing routine is temporarily terminated. Note that the processing of steps S420 and S430 executed by the CPU 140 corresponds to the movement detection unit 164 (FIG. 2). That is, the movement detection unit 164 detects that the HMD 100 has moved before the exhibit 680 as a specific place. The processes in steps S460 and S470 executed by the CPU 140 correspond to the process control unit 166 (FIG. 2). That is, the process control unit 166 displays the exhibit information EX as an extension of the information presentation function.

以上のように構成された展示品解説ルーチンによれば、HMD100を装着した使用者は、展示品680の前に立つだけで、展示品680の技法や、時代背景、美術史に関する情報等の展示品情報EXを視野VRの中に認識することができる。このために、本実施形態のHMD100によれば、使用者の利便性に優れている。   According to the exhibit explanation routine configured as described above, the user wearing the HMD 100 can stand in front of the exhibit 680 and display the technique of the exhibit 680, information on the background of the period, art history, and the like. The product information EX can be recognized in the visual field VR. For this reason, according to HMD100 of this embodiment, it is excellent in a user's convenience.

なお、この展示品解説ルーチンに従う処理によれば、展示品680の周辺に付されたバーコードBCを撮影することによって、使用者が装着しているHMD100が展示品前に移動したことを検出しているが、バーコードBCは、単純ではっきりした白黒の図形や、QRコード(登録商標)等の他の種類のコードに換えてもよい。また、バーコードBCの配置される位置も、展示品680の左上に付設する構成に換えて、展示品680の周囲あるいは周辺であれば、いずれの位置とすることもできる。さらには、展示品680の内側に、電子透かしの形態でコードを配置する構成としてもよい。さらに、展示品680そのものの撮影画像に基づいて、その展示品前に移動したことを検出する構成としてもよい。   In addition, according to the process according to this exhibit description routine, it is detected that the HMD 100 worn by the user has moved to the front of the exhibit by photographing the barcode BC attached to the periphery of the exhibit 680. However, the bar code BC may be replaced with a simple and clear black-and-white figure or another type of code such as a QR code (registered trademark). Further, the position where the barcode BC is arranged may be any position as long as it is around or around the exhibit 680 instead of the configuration attached to the upper left of the exhibit 680. Furthermore, a code may be arranged inside the exhibit 680 in the form of a digital watermark. Furthermore, it is good also as a structure which detects having moved before the exhibit based on the picked-up image of the exhibit 680 itself.

B.変形例:
なお、この発明は上記第1実施形態およびその変形例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
B. Variations:
The present invention is not limited to the first embodiment and the modifications thereof, and can be implemented in various modes without departing from the gist thereof. For example, the following modifications are possible. is there.

・変形例1:
第1実施形態や変形例では、HMDを使用する場所を美術館としたが、これに換えて、博物館で使用するものとしてもよい。博物館においては、上記実施形態におけるシーン3〜5の形態をそのまま適用することができる。さらに、美術館、博物館以外に、劇場、オペラハウス、映画館、コンサート会場、講習会等で使用する形態としてもよく、それら施設の場合には、例えば、施設に入ったときに、音声処理部アプリ514とカメラアプリ516とがロックされる構成としてもよい。
・ Modification 1:
In the first embodiment and the modified example, the place where the HMD is used is an art museum, but instead, it may be used in a museum. In the museum, the forms of the scenes 3 to 5 in the above embodiment can be applied as they are. In addition to museums, museums, theaters, opera houses, movie theaters, concert venues, workshops, etc. may be used. 514 and the camera application 516 may be locked.

・変形例2:
上記のHMDの使用される場所は、第1実施形態や変形例1以外に、観光地、会社、デパート、工場、学校、病院、高速道路内、競技場、電車の中、車の中、航空機の中など種々の場所とすることができる。例えば、観光地の場合には、建造物(例えば、神社仏閣、遺跡、城、仏像、塔、等)の周辺へのHMDの移動が例えばGPSによって検出されたときに、前記シーン5の形態のような詳細情報、すなわち、建造物の歴史案内、時代絵巻等を表示するようにしてもよい。例えば、電車の中、車の中、飛行機の中などのパブリックスペースへの移動が検出されたときに、カメラアプリ516がロックされる構成として、盗撮防止を図るようにしてもよい。例えば、パブリックスペースへの移動が検出されたときに、カメラの解像度を制限すること、例えば通常1200万画素のカメラを人の顔を認識出来ないレベルの30万画素の機能に落とようにしてもよい。例えば、会社への移動が検出されたときに、業務用のアプリケーションプログラムのファイルの実行を許可するようにしてもよい。例えば、デパートの場合には、前記シーン4の形態と同様にiBeaconの技術を用いて、所定の売り場前へのHMDの移動が検出されたときに、バーゲン品等のお薦め情報を表示するようにしてもよい。例えば、航空機の中では、妨害電波の基となる携帯電話、無線LANの使用を禁止し、航空機の電子機器への影響の少ないBluetooth、iBeaconを利用可能とするようにしてもよい。また、移動検出部が移動したことを検出する特定の場所を、国のような大きな単位とすることもできる。例えば、HMDが特定の国に移動したことがGPS等によって検出されたときに、その国に応じて定められた機能を変更するようにしてもよい。例えば、使用言語を変更すること、長さ、質量などの使用単位を変更すること、無線機器の出力制限を変更すること等を行うことができる。
Modification 2
In addition to the first embodiment and the first modification, the place where the HMD is used is a sightseeing spot, a company, a department store, a factory, a school, a hospital, an expressway, a stadium, a train, a car, an airplane It can be in various places such as inside. For example, in the case of a sightseeing spot, when the movement of the HMD to the periphery of a building (for example, a shrine, a ruins, a castle, a Buddhist image, a tower, etc.) is detected by, for example, GPS, Such detailed information, that is, history information on buildings, period picture scrolls, and the like may be displayed. For example, the camera application 516 may be locked when a movement to a public space such as a train, a car, or an airplane is detected to prevent voyeurism. For example, when movement to a public space is detected, the resolution of the camera is limited. For example, a camera with 12 million pixels is usually reduced to a function of 300,000 pixels that cannot recognize a human face. Good. For example, execution of a business application program file may be permitted when movement to a company is detected. For example, in the case of a department store, iBeacon technology is used in the same manner as in the case of the scene 4, and when the movement of the HMD before a predetermined sales floor is detected, recommended information such as bargain items is displayed. May be. For example, in an aircraft, the use of a mobile phone or wireless LAN that is the basis of jamming radio waves may be prohibited, and Bluetooth and iBeacon that have less influence on electronic devices of the aircraft may be used. In addition, a specific place where the movement detection unit detects that it has moved can be a large unit such as a country. For example, when it is detected by GPS or the like that the HMD has moved to a specific country, the function determined according to the country may be changed. For example, it is possible to change the language used, change the usage unit such as length and mass, change the output limit of the wireless device, and the like.

・変形例3:
上記実施形態では、処理制御部として、音声機能を抑制することとして、音声処理部フレーム523をロックしていたが、これに換えて、音声の出力レベルを抑える(すなわち、音量を下げる)構成としてもよい。また、情報提示機能を抑制する構成として、表示する案内情報の情報量を少なくする構成等、所定の機能を抑制する構成としてもよい。また、例えば、音声の出力の程度を促進する(すなわち、音量を上げる)構成、表示する案内情報の情報量を多くする構成等、所定の処理の機能を促進する構成としてもよい。
・ Modification 3:
In the above embodiment, as the processing control unit, the audio processing unit frame 523 is locked as the audio function is suppressed. Instead, the audio output level is suppressed (that is, the volume is reduced). Also good. Moreover, it is good also as a structure which suppresses predetermined functions, such as a structure which reduces the information content of the guidance information displayed as a structure which suppresses an information presentation function. In addition, for example, a configuration that promotes the function of a predetermined process, such as a configuration that promotes the degree of audio output (that is, a volume increase), or a configuration that increases the amount of guidance information to be displayed may be adopted.

・変形例4:
上記実施形態では、カメラによる撮影機能の変更として、駆動のオン/オフの切り替えであったが、これに換えて、解像度の変更、赤外撮影のオン/オフの切り替え、ビデオ機能のオン/オフの切り替え、カラー/白黒の切り替え、連写のオン/オフの切り替え、分割撮影のオン/オフの切り替え、保存形式(ロウデータ)の切り替え、撮影画像の保存の可否の切り替え、撮影画像に対するパスワードの付与の切り替え、各種フィルタ撮影の切り替え等としてもよい。
-Modification 4:
In the above-described embodiment, switching of driving on / off was performed as a change of the shooting function by the camera. Instead, switching of resolution, switching of infrared shooting on / off, and switching of video function on / off were performed. Switching, color / monochrome switching, continuous shooting ON / OFF switching, split shooting ON / OFF switching, saving format (raw data) switching, shooting image saving enable / disable, password for shooting images It is good also as switching of provision, switching of various filter photography, etc.

・変形例5:
上記実施形態では、情報提示機能の変更として、種々のメッセージを表示する構成としたが、表示の能力を切り替える構成としてもよい。例えば、右表示駆動部22および左表示駆動部24を用いた両眼表示といずれか一方を用いた単眼表示との切り替え、解像度の切り替え、3D表示と2D表示の切り替え、カラー/白黒の切り替え、透過率の切り替え、表示輝度の切り替え、動画フレーム数の切り替え、表示言語の切り替え等としてもよい。また、広告表示のオン/オフの切り替えとしてもよい。
Modification 5:
In the above-described embodiment, various messages are displayed as a change of the information presentation function. However, the display capability may be switched. For example, switching between binocular display using the right display driving unit 22 and left display driving unit 24 and monocular display using one of them, switching of resolution, switching between 3D display and 2D display, switching between color / monochrome, It is also possible to switch the transmittance, switch the display brightness, switch the number of moving image frames, switch the display language, and the like. Also, the advertisement display may be switched on / off.

・変形例6:
上記実施形態では、音声機能の変更として、音域の変更、ビットレート(AM放送並み、高品質など)の変更、ドルビーのオン/オフの変更、使える音源の数や種類(シンセサイザ、音声合成)の変更、ステレオ/モノラルの変更、左右いずれか/両方かの変更等、種々の切り替えに適用することができる。また、録音機能の変更として、マイクのオン/オフの変更、録音機能そのもののオン/オフの変更、録音音声の保存の有無の変更、バスワード付与の有無の変更等としてもよい。
Modification 6:
In the above-described embodiment, as a change in sound function, a change in sound range, a change in bit rate (equivalent to AM broadcast, high quality, etc.), a change in Dolby on / off, and the number and types of sound sources that can be used (synthesizer, speech synthesis) It can be applied to various kinds of switching such as change, stereo / monaural change, left / right change or both change. Further, the recording function may be changed by changing the on / off state of the microphone, changing the on / off state of the recording function itself, changing the presence / absence of saving the recorded sound, changing the presence / absence of giving a password, and the like.

・変形例7:
その他、機能の変更として、各種センサーのオン/オフの切り替えとしてもよい。また、機能の変更として、通信機能の変更であってもよい。通信機能の変更としては、通信機能のオン/オフの切り替え、通信速度の切り替え、通信距離の切り替え、接続先ネットワークの範囲の切り替え、自動接続の可否の切り替え等としてもよい。また、プルートゥースやiBeacomのオン/オフの切り替え、ブルートゥースのマルチリンク可否の切り替え、RFタグの読み取り機能のオン/オフの切り替え、メモリーのアクセス範囲の切り替え、外部メモリーへのアクセスの可否の切り替え、ライブラリーやドライバーのアクセス範囲の切り替え等としてもよい。
Modification 7:
In addition, as a function change, various sensors may be switched on / off. Further, the change in function may be a change in communication function. The change of the communication function may be switching on / off of the communication function, switching of the communication speed, switching of the communication distance, switching of the range of the connection destination network, switching of whether automatic connection is possible, or the like. In addition, on / off switching of bluetooth and iBeacom, switching of Bluetooth multilink availability, switching of RF tag reading function on / off, switching of memory access range, switching of access to external memory, The access range of a library or driver may be switched.

・変形例8:
上記実施形態では、機能を変更する方法として、アプリケーション層510に含まれる要素、(例えば、カメラアプリ516)を変更したり、フレームワーク層520に含まれる要素、例えば、音声処理部フレーム523)を変更していたが、これらに換えて、ライブラリー層530に含まれる要素を変更したり、カーネル層540に含まれる要素を変更したり、ハードウェア層550に含まれる要素を変更したりしてもよい。
-Modification 8:
In the above embodiment, as a method of changing the function, an element included in the application layer 510 (for example, the camera application 516) is changed, or an element included in the framework layer 520, for example, the audio processing unit frame 523) is changed. However, instead of these, the elements included in the library layer 530 are changed, the elements included in the kernel layer 540 are changed, or the elements included in the hardware layer 550 are changed. Also good.

・その他の変形例:
上記実施形態では、ヘッドマウントディスプレイの構成について例示した。しかし、ヘッドマウントディスプレイの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
・ Other variations:
In the said embodiment, it illustrated about the structure of the head mounted display. However, the configuration of the head-mounted display can be arbitrarily determined without departing from the gist of the present invention. For example, each component can be added, deleted, converted, and the like.

上記実施形態における、制御部と、画像表示部とに対する構成要素の割り振りは、あくまで一例であり、種々の態様を採用可能である。例えば、以下のような態様としてもよい。(i)制御部にCPUやメモリー等の処理機能を搭載、画像表示部には表示機能のみを搭載する態様、(ii)制御部と画像表示部との両方にCPUやメモリー等の処理機能を搭載する態様、(iii)制御部と画像表示部とを一体化した態様(例えば、画像表示部に制御部が含まれ眼鏡型のウェアラブルコンピューターとして機能する態様)、(iv)制御部の代わりにスマートフォンや携帯型ゲーム機を使用する態様、(v)制御部と画像表示部とを無線通信かつワイヤレス給電可能な構成とすることにより接続部(コード)を廃した態様。   The allocation of components to the control unit and the image display unit in the above embodiment is merely an example, and various aspects can be employed. For example, the following aspects may be adopted. (I) A mode in which processing functions such as a CPU and a memory are mounted on the control unit, and only a display function is mounted on the image display unit. (Ii) Processing functions such as a CPU and a memory are provided in both the control unit and the image display unit. (Iii) a mode in which the control unit and the image display unit are integrated (for example, a mode in which the control unit is included in the image display unit and functions as a glasses-type wearable computer), (iv) instead of the control unit A mode in which a smartphone or a portable game machine is used, and (v) a mode in which the connection unit (code) is eliminated by adopting a configuration in which the control unit and the image display unit can perform wireless communication and wireless power feeding.

上記実施形態では、説明の便宜上、制御部が送信部を備え、画像表示部が受信部を備えるものとした。しかし、上記実施形態の送信部および受信部は、いずれも、双方向通信が可能な機能を備えており、送受信部として機能することができる。また、例えば、図2に示した制御部は、有線の信号伝送路を介して画像表示部と接続されているものとした。しかし、制御部と、画像表示部とは、無線LANや赤外線通信やBluetooth(登録商標)等の無線の信号伝送路を介した接続により接続されていてもよい。   In the above embodiment, for convenience of explanation, the control unit includes a transmission unit, and the image display unit includes a reception unit. However, each of the transmission unit and the reception unit of the above-described embodiment has a function capable of bidirectional communication, and can function as a transmission / reception unit. For example, the control unit shown in FIG. 2 is connected to the image display unit via a wired signal transmission path. However, the control unit and the image display unit may be connected by a connection via a wireless signal transmission path such as a wireless LAN, infrared communication, or Bluetooth (registered trademark).

例えば、上記実施形態で示した制御部、画像表示部の構成は任意に変更することができる。具体的には、例えば、制御部からタッチパッドを省略し、十字キーのみで操作する構成としてもよい。また、制御部に操作用スティック等の他の操作用インターフェイスを備えても良い。また、制御部にはキーボードやマウス等のデバイスを接続可能な構成として、キーボードやマウスから入力を受け付けるものとしてもよい。また、例えば、タッチパッドや十字キーによる操作入力のほか、フットスイッチ(使用者の足により操作するスイッチ)による操作入力を取得してもよい。例えば、画像表示部に赤外線センサー等の視線検知部を設けた上で、使用者の視線を検知し、視線の動きに対応付けられたコマンドによる操作入力を取得してもよい。例えば、カメラを用いて使用者のジェスチャーを検知し、ジェスチャーに対応付けられたコマンドによる操作入力を取得してもよい。ジェスチャー検知の際は、使用者の指先や、使用者の手に付けられた指輪や、使用者の手にする医療器具等を動き検出のための目印にすることができる。フットスイッチや視線による操作入力を取得可能とすれば、使用者が手を離すことが困難である作業においても、入力情報取得部は、使用者からの操作入力を取得することができる。   For example, the configurations of the control unit and the image display unit described in the above embodiment can be arbitrarily changed. Specifically, for example, the touch pad may be omitted from the control unit and the operation may be performed using only the cross key. Further, the control unit may be provided with another operation interface such as an operation stick. Moreover, it is good also as what receives an input from a keyboard or a mouse | mouth as a structure which can connect devices, such as a keyboard and a mouse | mouth, to a control part. Further, for example, in addition to an operation input using a touch pad or a cross key, an operation input using a foot switch (a switch operated by a user's foot) may be acquired. For example, after providing a line-of-sight detection unit such as an infrared sensor in the image display unit, the user's line of sight may be detected, and an operation input by a command associated with the movement of the line of sight may be acquired. For example, a user's gesture may be detected using a camera, and an operation input by a command associated with the gesture may be acquired. When detecting a gesture, a user's fingertip, a ring attached to the user's hand, a medical device to be used by the user's hand, or the like can be used as a mark for motion detection. If it is possible to acquire an operation input using a foot switch or a line of sight, the input information acquisition unit can acquire an operation input from the user even in a task in which it is difficult for the user to release his / her hand.

図12は、変形例におけるHMDの外観の構成を示す説明図である。図12(A)の例の場合、画像表示部20xは、右光学像表示部26に代えて右光学像表示部26xを備え、左光学像表示部28に代えて左光学像表示部28xを備えている。右光学像表示部26xと左光学像表示部28xとは、上記実施形態の光学部材よりも小さく形成され、HMDの装着時における利用者の右眼および左眼の斜め上にそれぞれ配置されている。図12(B)の例の場合、画像表示部20yは、右光学像表示部26に代えて右光学像表示部26yを備え、左光学像表示部28に代えて左光学像表示部28yを備えている。右光学像表示部26yと左光学像表示部28yとは、上記実施形態の光学部材よりも小さく形成され、HMDの装着時における利用者の右眼および左眼の斜め下にそれぞれ配置されている。このように、光学像表示部は利用者の眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が利用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が利用者の眼を完全に覆わない態様のHMDとして実現することもできる。   FIG. 12 is an explanatory diagram showing an external configuration of the HMD in the modification. In the example of FIG. 12A, the image display unit 20x includes a right optical image display unit 26x instead of the right optical image display unit 26, and a left optical image display unit 28x instead of the left optical image display unit 28. I have. The right optical image display unit 26x and the left optical image display unit 28x are formed smaller than the optical member of the above-described embodiment, and are respectively disposed obliquely above the right eye and the left eye of the user when the HMD is worn. . 12B, the image display unit 20y includes a right optical image display unit 26y instead of the right optical image display unit 26, and a left optical image display unit 28y instead of the left optical image display unit 28. I have. The right optical image display unit 26y and the left optical image display unit 28y are formed smaller than the optical member of the above-described embodiment, and are respectively disposed obliquely below the right eye and the left eye of the user when the HMD is mounted. . Thus, it is sufficient that the optical image display unit is disposed in the vicinity of the user's eyes. The size of the optical member forming the optical image display unit is also arbitrary, and the optical image display unit covers only a part of the user's eyes, in other words, the optical image display unit completely covers the user's eyes. It can also be realized as an HMD in an uncovered form.

例えば、ヘッドマウントディスプレイは、両眼タイプの透過型ヘッドマウントディスプレイであるものとしたが、単眼タイプのヘッドマウントディスプレイとしてもよい。また、使用者がヘッドマウントディスプレイを装着した状態において外景の透過が遮断される非透過型ヘッドマウントディスプレイとして構成してもよい。   For example, the head mounted display is a binocular transmissive head mounted display, but may be a monocular head mounted display. Further, it may be configured as a non-transmissive head mounted display in which the transmission of the outside scene is blocked when the user wears the head mounted display.

例えば、画像処理部、表示制御部、音声処理部等の機能部は、CPUがROMやハードディスクに格納されているコンピュータープログラムをRAMに展開して実行することにより実現されるものとして記載した。しかし、これら機能部は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を用いて構成されてもよい。   For example, the functional units such as the image processing unit, the display control unit, and the audio processing unit are described as being realized by the CPU developing and executing a computer program stored in the ROM or hard disk on the RAM. However, these functional units may be configured using an ASIC (Application Specific Integrated Circuit) designed to realize the function.

例えば、上記実施形態では、画像表示部を眼鏡のように装着するヘッドマウントディスプレイであるとしているが、画像表示部が通常の平面型ディスプレイ装置(液晶ディスプレイ装置、プラズマディスプレイ装置、有機ELディスプレイ装置等)であるとしてもよい。この場合にも、制御部と画像表示部との間の接続は、有線の信号伝送路を介した接続であってもよいし、無線の信号伝送路を介した接続であってもよい。このようにすれば、制御部を、通常の平面型ディスプレイ装置のリモコンとして利用することもできる。   For example, in the above-described embodiment, it is assumed that the image display unit is a head mounted display that is mounted like glasses, but the image display unit is a normal flat display device (liquid crystal display device, plasma display device, organic EL display device, etc. ). Also in this case, the connection between the control unit and the image display unit may be a connection via a wired signal transmission path or a connection via a wireless signal transmission path. If it does in this way, a control part can also be utilized as a remote control of a usual flat type display device.

また、画像表示部として、眼鏡のように装着する画像表示部に代えて、例えば帽子のように装着する画像表示部といった他の形状の画像表示部を採用してもよい。また、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略しても良い。また、例えば、自動車や飛行機等の車両に搭載されるヘッドアップディスプレイ(HUD、Head-Up Display)として構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。   Further, as the image display unit, instead of the image display unit worn like glasses, an image display unit of another shape such as an image display unit worn like a hat may be adopted. Further, the earphone may be an ear-hook type or a headband type, or may be omitted. Further, for example, it may be configured as a head-up display (HUD, Head-Up Display) mounted on a vehicle such as an automobile or an airplane. Further, for example, it may be configured as a head-mounted display built in a body protective device such as a helmet.

例えば、上記実施形態では、表示駆動部は、バックライトと、バックライト制御部と、LCDと、LCD制御部と、投写光学系を用いて構成されるものとした。しかし、上記の態様はあくまで例示である。表示駆動部は、これらの構成部と共に、またはこれらの構成部に代えて、他の方式を実現するための構成部を備えていても良い。例えば、表示駆動部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部と、投写光学系とを備える構成としても良い。例えば、表示駆動部は、LCDに代えてDMD(デジタル・マイクロミラー・デバイス)等を用いることもできる。例えば、表示駆動部は、RGBの各色光を発生させるための色光源とリレーレンズを含む信号光変調部と、MEMSミラーを含む走査光学系と、これらを駆動する駆動制御回路と、を含むように構成されてもよい。このように、有機ELやDMDやMEMSミラーを用いても、「表示駆動部における射出領域」とは、表示駆動部から画像光が実際に射出される領域であることに変わりはなく、各デバイス(表示駆動部)における射出領域を上記実施形態と同様に制御することによって、上記実施形態と同様の効果を得ることができる。また、例えば、表示駆動部は、画素信号に応じた強度のレーザーを、使用者の網膜へ出射する1つ以上のレーザーを含むように構成されてもよい。この場合、「表示駆動部における射出領域」とは、表示駆動部から画像を表すレーザー光が実際に射出される領域を表す。レーザー(表示駆動部)におけるレーザー光の射出領域を上記実施形態と同様に制御することによって、上記実施形態と同様の効果を得ることができる。   For example, in the above embodiment, the display driving unit is configured using a backlight, a backlight control unit, an LCD, an LCD control unit, and a projection optical system. However, the above aspect is merely an example. The display drive unit may include a component for realizing another method together with these components or instead of these components. For example, the display driving unit may include an organic EL (Organic Electro-Luminescence) display, an organic EL control unit, and a projection optical system. For example, the display driving unit can use a DMD (digital micromirror device) or the like instead of the LCD. For example, the display driving unit includes a color light source for generating each color light of RGB and a signal light modulation unit including a relay lens, a scanning optical system including a MEMS mirror, and a drive control circuit for driving them. May be configured. As described above, even if an organic EL, DMD, or MEMS mirror is used, the “emission area in the display driving unit” is still an area where image light is actually emitted from the display driving unit. By controlling the emission area in the (display drive unit) in the same manner as in the above embodiment, the same effect as in the above embodiment can be obtained. Further, for example, the display driving unit may be configured to include one or more lasers that emit a laser having an intensity corresponding to the pixel signal to the retina of the user. In this case, the “emission area in the display drive unit” represents an area in which laser light representing an image is actually emitted from the display drive unit. By controlling the emission region of the laser beam in the laser (display drive unit) in the same manner as in the above embodiment, the same effect as in the above embodiment can be obtained.

本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。   The present invention is not limited to the above-described embodiments, examples, and modifications, and can be realized with various configurations without departing from the spirit thereof. For example, the technical features in the embodiments, examples, and modifications corresponding to the technical features in each embodiment described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the above-described effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.

10…制御部(コントローラー)
12…点灯部
14…タッチパッド
16…十字キー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51…送信部
52…送信部
53…受信部
54…受信部
61…外景撮影用カメラ
110…入力情報取得部
100…頭部装着型表示装置(HMD)
120…記憶部
130…電源
132…無線通信部
140…CPU
160…画像処理部
162…表示制御部
164…移動検出部
166…処理制御部
170…音声処理部
180…インターフェイス
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
500…プラットフォーム
510…アプリケーション層
511…美術館案内アプリ
512…画像処理部アプリ
513…表示制御部アプリ
514…音声処理部アプリ
515…ゲームアプリ
516…カメラアプリ
520…フレームワーク層
530…ライブラリー層
533…ディスプレイライブラリー
534…オーディオライブラリー
535…センサーライブラリー
536…カメラライブラリー
537…ライブラリー
540…カーネル層
542…音声ICドライバー
543…センサードライバー
544…画像センサードライバー
550…ハードウェア層
552…音声ICデバイス
553…センサーデバイス
554…画像センサーデバイス
600…展示エリア
610…ゲート
612…スライドシャッタ
614…スライドシャッタ
616…左収納部
618…右収納部
620…ケーブル
634…記憶部
650…中央監視装置
652…CPU
654…記憶部
654a…プログラム記憶部
654c…ゲート情報記憶部
654d…順路情報記憶部
654e…展示品情報記憶部
656…入出力部
658…無線通信部
670…BLE端末
680…展示品
PCLK…クロック信号
VSync…垂直同期信号
HSync…水平同期信号
OA…外部機器
PC…パーソナルコンピューター
BC…バーコード
SC…外景
GN…ゲート識別名称
MS…順路案内メッセージ
EX…展示品情報
10. Control unit (controller)
DESCRIPTION OF SYMBOLS 12 ... Lighting part 14 ... Touch pad 16 ... Cross key 18 ... Power switch 20 ... Image display part 21 ... Right holding part 22 ... Right display drive part 23 ... Left holding part 24 ... Left display drive part 26 ... Right optical image display part 28 ... Left optical image display unit 30 ... Earphone plug 32 ... Right earphone 34 ... Left earphone 40 ... Connection unit 42 ... Right cord 44 ... Left cord 46 ... Connecting member 48 ... Body code 51 ... Transmission unit 52 ... Transmission unit 53 ... Reception Unit 54: Receiver 61 ... Camera for photographing outside scene 110 ... Input information acquisition unit 100 ... Head-mounted display device (HMD)
DESCRIPTION OF SYMBOLS 120 ... Memory | storage part 130 ... Power supply 132 ... Wireless communication part 140 ... CPU
DESCRIPTION OF SYMBOLS 160 ... Image processing part 162 ... Display control part 164 ... Movement detection part 166 ... Processing control part 170 ... Audio | voice processing part 180 ... Interface 201 ... Right backlight control part 202 ... Left backlight control part 211 ... Right LCD control part 212 ... Left LCD controller 221 ... Right backlight 222 ... Left backlight 241 ... Right LCD
242 ... Left LCD
251 ... Right projection optical system 252 ... Left projection optical system 261 ... Right light guide plate 262 ... Left light guide plate 500 ... Platform 510 ... Application layer 511 ... Museum guide application 512 ... Image processing unit application 513 ... Display control unit application 514 ... Audio processing Department application 515 ... Game application 516 ... Camera application 520 ... Framework layer 530 ... Library layer 533 ... Display library 534 ... Audio library 535 ... Sensor library 536 ... Camera library 537 ... Library 540 ... Kernel layer 542 ... Audio IC driver 543 ... Sensor driver 544 ... Image sensor driver 550 ... Hardware layer 552 ... Audio IC device 553 ... Sensor device 554 ... Image sensor device 600 ... Exhibition Area 610 ... gate 612 ... slide shutter 614 ... slide shutter 616 ... left housing portion 618 ... right housing portion 620 ... cable 634 ... storage unit 650 ... central monitoring unit 652 ... CPU
654... Storage unit 654 a. Program storage unit 654 c. Gate information storage unit 654 d. Route information storage unit 654 e. Exhibit information storage unit 656. VSync ... Vertical synchronization signal HSync ... Horizontal synchronization signal OA ... External device PC ... Personal computer BC ... Bar code SC ... Outside view GN ... Gate identification name MS ... Route guidance message EX ... Exhibition information

Claims (11)

透過型の頭部装着型表示装置であって、
画像を表示して前記頭部装着型表示装置を装着した使用者に画像を視認させるとともに、外景を透過し得る画像表示部と、
前記頭部装着型表示装置が特定の場所に移動したことを検出する移動検出部と、
前記特定の場所への移動が検出されたときに、前記頭部装着型表示装置に搭載された所定の機能の少なくとも一部を変更する処理制御部と、
を備える頭部装着型表示装置。
A transmissive head-mounted display device,
An image display unit that displays an image and allows a user wearing the head-mounted display device to visually recognize the image, and can transmit an outside scene;
A movement detector for detecting that the head-mounted display device has moved to a specific location;
A process control unit that changes at least a part of a predetermined function mounted on the head-mounted display device when movement to the specific place is detected;
A head-mounted display device comprising:
請求項1に記載の頭部装着型表示装置であって、
前記外景を撮影する外景撮影部を備え、
前記移動検出部は、
前記外景撮影部によって得られた撮影画像に基づいて、前記特定の場所への移動を検出する、頭部装着型表示装置。
The head-mounted display device according to claim 1,
An outside scene photographing unit for photographing the outside scene;
The movement detector is
A head-mounted display device that detects movement to the specific location based on a photographed image obtained by the outside scene photographing unit.
請求項2に記載の頭部装着型表示装置であって、
前記移動検出部は、
前記特定の場所を認識するためのマーカーが前記撮影画像内に含まれたときに、前記特定の場所への移動が検出されたものとする、頭部装着型表示装置。
The head-mounted display device according to claim 2,
The movement detector is
A head-mounted display device in which movement to the specific location is detected when a marker for recognizing the specific location is included in the captured image.
請求項1に記載の頭部装着型表示装置であって、
前記移動検出部は、
外部の無線通信端末からの信号に基づいて、前記特定の場所への移動を検出する、頭部装着型表示装置。
The head-mounted display device according to claim 1,
The movement detector is
A head-mounted display device that detects movement to the specific location based on a signal from an external wireless communication terminal.
請求項1から請求項4までのいずれか一項に記載の頭部装着型表示装置であって、
前記所定の機能は、前記画像表示部に所定の情報を表示させる情報提示機能である、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 4,
The head-mounted display device, wherein the predetermined function is an information presentation function for displaying predetermined information on the image display unit.
請求項5に記載の頭部装着型表示装置であって、
前記特定の場所は、展示品または建造物の周辺であり、
前記処理制御部は、
前記特定の場所への移動が検出されたときに、前記展示品または建造物についての情報を前記画像表示部に表示させる、頭部装着型表示装置。
The head-mounted display device according to claim 5,
The specific location is around an exhibit or building;
The processing control unit
A head-mounted display device that displays information about the exhibit or building on the image display unit when movement to the specific location is detected.
請求項1から請求項4までのいずれか一項に記載の頭部装着型表示装置であって、
前記所定の機能は、所定のマーカーを認識するために行うマーカー撮影機能を少なくとも含む撮影機能であって、
前記処理制御部は、
前記特定の場所への移動が検出されたときに、前記撮影機能のうちの前記マーカー撮影機能を許可し、前記撮影機能のうちの前記マーカー撮影機能を除いた撮影機能を禁止する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 4,
The predetermined function is a photographing function including at least a marker photographing function performed for recognizing a predetermined marker,
The processing control unit
A head-mounted device that permits the marker photographing function among the photographing functions and prohibits the photographing function excluding the marker photographing function among the photographing functions when movement to the specific place is detected. Type display device.
請求項1から請求項7までのいずれか一項に記載の頭部装着型表示装置であって、
前記処理制御部は、
前記特定の場所への移動が検出されたときに、前記所定の機能を停止し、
前記特定の場所から他の場所への前記頭部装着型表示装置の移動が検出されたときに、前記所定の機能の停止を解除する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 7,
The processing control unit
When the movement to the specific place is detected, the predetermined function is stopped,
A head-mounted display device that releases the stop of the predetermined function when movement of the head-mounted display device from the specific location to another location is detected.
請求項1から請求項8までのいずれか一項に記載の頭部装着型表示装置であって、
前記処理制御部は、
前記特定の場所から前記頭部装着型表示装置の脱出が検出されたときに、前記脱出したことを前記使用者に報知する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 8,
The processing control unit
A head-mounted display device that notifies the user of the escape when the head-mounted display device is detected to escape from the specific location.
画像を表示して頭部装着型表示装置を装着した使用者に画像を視認させるとともに、外景を透過し得る画像表示部を有する前記頭部装着型表示装置の制御方法であって、
前記頭部装着型表示装置が特定の場所に移動したことを検出する工程と、
前記特定の場所への移動が検出されたときに、前記頭部装着型表示装置に搭載された所定の機能の少なくとも一部を変更する工程と、
を備える、頭部装着型表示装置の制御方法。
A method for controlling the head-mounted display device having an image display unit that displays an image and allows a user wearing the head-mounted display device to visually recognize the image and transmit the outside scene,
Detecting that the head-mounted display device has moved to a specific location;
A step of changing at least a part of a predetermined function mounted on the head-mounted display device when movement to the specific place is detected;
A method for controlling a head-mounted display device.
画像を表示して頭部装着型表示装置を装着した使用者に画像を視認させるとともに、外景を透過し得る画像表示部を有する前記頭部装着型表示装置を制御するためのコンピュータープログラムであって、
コンピューターに、
前記頭部装着型表示装置が特定の場所に移動したことを検出する機能と、
前記特定の場所への移動が検出されたときに、前記頭部装着型表示装置に搭載された所定の機能の少なくとも一部を変更する機能と、
を実現させる、コンピュータープログラム。
A computer program for controlling the head-mounted display device having an image display unit that displays an image and allows a user wearing the head-mounted display device to visually recognize the image and transmit an outside scene. ,
On the computer,
A function of detecting that the head-mounted display device has moved to a specific location;
A function of changing at least a part of a predetermined function mounted on the head-mounted display device when movement to the specific place is detected;
A computer program that realizes
JP2014164246A 2014-08-12 2014-08-12 Head-mounted display device, control method therefor, and computer program Active JP6492451B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014164246A JP6492451B2 (en) 2014-08-12 2014-08-12 Head-mounted display device, control method therefor, and computer program
US14/808,493 US9767617B2 (en) 2014-08-12 2015-07-24 Head mounted display device, control method thereof, and computer program
US15/630,567 US20170287228A1 (en) 2014-08-12 2017-06-22 Head mounted display device, control method thereof, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014164246A JP6492451B2 (en) 2014-08-12 2014-08-12 Head-mounted display device, control method therefor, and computer program

Publications (2)

Publication Number Publication Date
JP2016040865A true JP2016040865A (en) 2016-03-24
JP6492451B2 JP6492451B2 (en) 2019-04-03

Family

ID=55302565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014164246A Active JP6492451B2 (en) 2014-08-12 2014-08-12 Head-mounted display device, control method therefor, and computer program

Country Status (2)

Country Link
US (2) US9767617B2 (en)
JP (1) JP6492451B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017183828A (en) * 2016-03-28 2017-10-05 京セラ株式会社 Head-mounted display
JP2017183829A (en) * 2016-03-28 2017-10-05 京セラ株式会社 Head-mounted display
JP2017198471A (en) * 2016-04-25 2017-11-02 株式会社ゼンリンデータコム Wearable terminal, program and information processing method
US20180356882A1 (en) * 2017-06-13 2018-12-13 Seiko Epson Corporation Head mounted display and control method for head mounted display
WO2019087428A1 (en) * 2017-10-30 2019-05-09 イアフレド株式会社 Sound reproduction device
JP2019121273A (en) * 2018-01-10 2019-07-22 富士ゼロックス株式会社 Information transfer device, information transfer system, and program

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016170528A (en) * 2015-03-11 2016-09-23 株式会社リコー Head mounted display and method for connecting with external device at head mounted display
US10288883B2 (en) * 2016-03-28 2019-05-14 Kyocera Corporation Head-mounted display
JP2017183825A (en) * 2016-03-28 2017-10-05 京セラ株式会社 Head-mounted display
US20180082482A1 (en) 2016-09-22 2018-03-22 Apple Inc. Display system having world and user sensors
US11210854B2 (en) * 2016-12-30 2021-12-28 Facebook, Inc. Systems and methods for providing augmented reality personalized content
JP2018142857A (en) * 2017-02-28 2018-09-13 セイコーエプソン株式会社 Head mounted display device, program, and control method of head mounted display device
JP2019145009A (en) * 2018-02-23 2019-08-29 セイコーエプソン株式会社 Head-mounted display device, authentication system, and method for controlling head-mounted display device
JP2021103282A (en) * 2019-12-26 2021-07-15 セイコーエプソン株式会社 Data processing apparatus, display system, and data processing method
CN114973982B (en) * 2022-05-31 2023-10-13 Tcl华星光电技术有限公司 Display panel and spliced panel

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997031477A1 (en) * 1996-02-26 1997-08-28 Seiko Epson Corporation Wearable information displaying device and information displaying method using the same
JP2008083289A (en) * 2006-09-27 2008-04-10 Sony Corp Imaging display apparatus, and imaging display method
JP2010213214A (en) * 2009-03-12 2010-09-24 Brother Ind Ltd Head-mounted display
US20140098132A1 (en) * 2012-10-05 2014-04-10 Elwha Llc Systems and methods for obtaining and using augmentation data and for sharing usage data
JP2014071663A (en) * 2012-09-28 2014-04-21 Brother Ind Ltd Head-mounted display, method of actuating the same and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1664990A2 (en) * 2003-05-19 2006-06-07 Modular Computing & Communications Corporation Apparatus and method for mobile personal computing and communications
US7414529B2 (en) * 2006-08-04 2008-08-19 International Business Machines Corporation Disablement of camera functionality for a portable device
JP2010139901A (en) 2008-12-15 2010-06-24 Brother Ind Ltd Head mount display
US20100231735A1 (en) * 2009-03-13 2010-09-16 Nokia Corporation Methods, Apparatuses, and Computer Program Products for Facilitating Concurrent Video Recording and Still Image Capture
WO2011106798A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997031477A1 (en) * 1996-02-26 1997-08-28 Seiko Epson Corporation Wearable information displaying device and information displaying method using the same
JP2008083289A (en) * 2006-09-27 2008-04-10 Sony Corp Imaging display apparatus, and imaging display method
JP2010213214A (en) * 2009-03-12 2010-09-24 Brother Ind Ltd Head-mounted display
JP2014071663A (en) * 2012-09-28 2014-04-21 Brother Ind Ltd Head-mounted display, method of actuating the same and program
US20140098132A1 (en) * 2012-10-05 2014-04-10 Elwha Llc Systems and methods for obtaining and using augmentation data and for sharing usage data

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017183829A (en) * 2016-03-28 2017-10-05 京セラ株式会社 Head-mounted display
JP2017183828A (en) * 2016-03-28 2017-10-05 京セラ株式会社 Head-mounted display
JP2017198471A (en) * 2016-04-25 2017-11-02 株式会社ゼンリンデータコム Wearable terminal, program and information processing method
CN109085697B (en) * 2017-06-13 2022-01-07 精工爱普生株式会社 Head-mounted display device and method for controlling head-mounted display device
US20180356882A1 (en) * 2017-06-13 2018-12-13 Seiko Epson Corporation Head mounted display and control method for head mounted display
CN109085697A (en) * 2017-06-13 2018-12-25 精工爱普生株式会社 The control method of head-mount type display unit and head-mount type display unit
JP2019004242A (en) * 2017-06-13 2019-01-10 セイコーエプソン株式会社 Head mounted type display device and control method for head mounted type display device
WO2019087428A1 (en) * 2017-10-30 2019-05-09 イアフレド株式会社 Sound reproduction device
JP6550607B1 (en) * 2017-10-30 2019-07-31 イアフレド株式会社 Sound playback device
JP2019195179A (en) * 2017-10-30 2019-11-07 イアフレド株式会社 Acoustic reproduction system
US11153674B2 (en) 2017-10-30 2021-10-19 Earfredo Co., Ltd. Sound reproduction device
JP2019121273A (en) * 2018-01-10 2019-07-22 富士ゼロックス株式会社 Information transfer device, information transfer system, and program
JP7056155B2 (en) 2018-01-10 2022-04-19 富士フイルムビジネスイノベーション株式会社 Information transmission equipment, information transmission systems and programs

Also Published As

Publication number Publication date
US9767617B2 (en) 2017-09-19
US20160049012A1 (en) 2016-02-18
US20170287228A1 (en) 2017-10-05
JP6492451B2 (en) 2019-04-03

Similar Documents

Publication Publication Date Title
JP6492451B2 (en) Head-mounted display device, control method therefor, and computer program
US20170213377A1 (en) Head mounted display device, control method thereof, and computer program
JP6060512B2 (en) Head-mounted display device
US9898868B2 (en) Display device, method of controlling the same, and program
JP6232763B2 (en) Head-mounted display device and method for controlling head-mounted display device
KR101791494B1 (en) Head mounted display device and control method for head mounted display device
US20140285521A1 (en) Information display system using head mounted display device, information display method using head mounted display device, and head mounted display device
US20160225189A1 (en) Head mounted display, information processing apparatus, image display apparatus, image display system, method for sharing display of head mounted display, and computer program
US10114604B2 (en) Head-mounted display device, control method for head-mounted display device, and computer program
CN110383140A (en) Augmented reality glasses
JP6432197B2 (en) Display device, display device control method, and program
CN109085697B (en) Head-mounted display device and method for controlling head-mounted display device
JP2016142887A (en) Head-mounted display device and control method of the same, and computer program
JP6634697B2 (en) Head mounted display
JP2016057814A (en) Head-mounted type display device, control method of head-mounted type display device, information system, and computer program
US20160035137A1 (en) Display device, method of controlling display device, and program
JP2016024208A (en) Display device, method for controlling display device, and program
JP2016033611A (en) Information provision system, display device, and method of controlling display device
JP6252002B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2016091348A (en) Head-mounted display device and control method for the same as well as computer program
JP6476673B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP6500382B2 (en) Head-mounted display device, control method therefor, and computer program
JP2019020738A (en) Head-mounted type display device and control method of the same, and computer program
JP2016034091A (en) Display device, control method of the same and program
JP2016119544A (en) Head-mounted display device, method for controlling head-mounted display device, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180508

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190218

R150 Certificate of patent or registration of utility model

Ref document number: 6492451

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150