JP2018055416A - Display device, head-mounted display device, method for controlling display device, and program - Google Patents

Display device, head-mounted display device, method for controlling display device, and program Download PDF

Info

Publication number
JP2018055416A
JP2018055416A JP2016190919A JP2016190919A JP2018055416A JP 2018055416 A JP2018055416 A JP 2018055416A JP 2016190919 A JP2016190919 A JP 2016190919A JP 2016190919 A JP2016190919 A JP 2016190919A JP 2018055416 A JP2018055416 A JP 2018055416A
Authority
JP
Japan
Prior art keywords
unit
user
display
function
execution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016190919A
Other languages
Japanese (ja)
Inventor
健郎 矢島
Takeo Yajima
健郎 矢島
勇一 毛利
Yuichi Mori
勇一 毛利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016190919A priority Critical patent/JP2018055416A/en
Publication of JP2018055416A publication Critical patent/JP2018055416A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable a user to more easily operate a display device having a plurality of functions so as to improve convenience.SOLUTION: A display device comprises: a display part that displays an image; a detection part 170 that is directly or indirectly attached to a user's body; a state determination part 195 that determines a state of the user's body on the basis of a detection result of the detection part 170; a processing execution part 158 that executes functions including display in the display part; and an application execution control part 154 that selects, from the executable functions by the processing execution part 158, a function corresponding to a determination result of the state determination part 195, and causes the processing execution part 158 to execute the selected function.SELECTED DRAWING: Figure 6

Description

本発明は、表示装置、頭部装着型表示装置、表示装置の制御方法、及び、プログラムに関する。   The present invention relates to a display device, a head-mounted display device, a display device control method, and a program.

従来、表示装置の一例として、ヘッドマウントディスプレイ(Head Mounted Display:HMD)が知られている(例えば、特許文献1参照)。特許文献1記載のHMDは、ユーザーの眼前に装着され、ユーザーを、仮想世界の画像に没入させる。また、特許文献1記載のHMDはタッチパネルを備えるので、ユーザーは、表示画像に注視しながらHMDを操作できる。   Conventionally, a head mounted display (HMD) is known as an example of a display device (see, for example, Patent Document 1). The HMD described in Patent Document 1 is worn in front of the user's eyes and immerses the user in the image of the virtual world. Moreover, since HMD of patent document 1 is provided with a touch panel, the user can operate HMD, paying attention to a display image.

特開2015−118332号公報JP-A-2015-118332

特許文献1記載のHMDは、ユーザーの操作により、コンテンツの再生、停止、音声の出力、出力の制限等の各種処理を行う。
ところで、複数の機能を実行可能な表示装置では、実行する機能をユーザーが選択し、実行を指示するために、何度かの操作を行う必要がある。特に、表示装置が多機能である場合には操作回数が多い。この種の操作を行うため、ユーザーは手を空けなければならず、利便性を向上させることが望まれていた。
本発明は、複数の機能を有する表示装置をより簡単に操作できるようにして、利便性を向上させることを目的とする。
The HMD described in Patent Document 1 performs various processes such as content playback, stop, audio output, and output restriction in accordance with user operations.
By the way, in a display device capable of executing a plurality of functions, it is necessary for the user to select a function to be executed and to perform several operations in order to instruct execution. In particular, when the display device has multiple functions, the number of operations is large. In order to perform this kind of operation, the user has to release his hand, and it has been desired to improve convenience.
It is an object of the present invention to improve convenience by allowing a display device having a plurality of functions to be operated more easily.

上記課題を解決するため、本発明は、画像を表示する表示部と、使用者の身体に直接或いは間接的に装着される検出部と、前記検出部の検出結果に基づき、前記使用者の身体の状態を判定する判定部と、前記表示部における表示を含む機能を実行する実行部と、前記実行部が実行可能な前記機能のうち、前記判定部の判定結果に対応する前記機能を選択して前記実行部に実行させる実行制御部と、を備える。
本発明によれば、表示装置が、使用者の身体の状態に合わせて機能を選択して実行する。このため、使用者が機能を選択する等の操作を行うことなしに、適切な機能が実行される。例えば、使用者が手を使わずに表示装置に機能を実行させることができるので、表示装置の利便性を向上させることができる。
In order to solve the above problems, the present invention provides a display unit that displays an image, a detection unit that is directly or indirectly attached to the user's body, and the user's body based on the detection result of the detection unit. A determination unit that determines a state of the display unit, an execution unit that executes a function including display on the display unit, and the function corresponding to the determination result of the determination unit is selected from the functions that can be executed by the execution unit And an execution control unit to be executed by the execution unit.
According to the present invention, the display device selects and executes a function according to the state of the user's body. For this reason, an appropriate function is executed without the user performing an operation such as selecting a function. For example, since the user can cause the display device to execute the function without using a hand, the convenience of the display device can be improved.

また、本発明は、前記判定部は、前記検出部の検出結果に基づき前記使用者の身体の状態を、予め設定された複数の状態の中から特定し、前記実行制御部は、前記判定部が特定した前記状態に対応する前記機能を前記実行部に実行させる。
本発明によれば、設定に従って、使用者の身体の状態に適する機能をより適切に、速やかに選択できる。
Further, according to the present invention, the determination unit specifies the state of the user's body from a plurality of preset states based on the detection result of the detection unit, and the execution control unit includes the determination unit. Causes the execution unit to execute the function corresponding to the specified state.
According to the present invention, a function suitable for the state of the user's body can be selected more appropriately and promptly according to the setting.

また、本発明は、前記実行部は、前記機能を実行することにより、前記機能に関する画像及びテキストの少なくともいずれかを含む表示を前記表示部に実行させる。
本発明によれば、使用者の身体の状態に合わせて選択される機能に関する画像やテキストを表示して、利便性の向上を図ることができる。
In the present invention, the execution unit causes the display unit to execute display including at least one of an image and text related to the function by executing the function.
ADVANTAGE OF THE INVENTION According to this invention, the image and text regarding the function selected according to a user's body state can be displayed, and the improvement of convenience can be aimed at.

また、本発明は、前記実行部が実行する機能に対応するプログラムを記憶する記憶部を備え、前記実行制御部は、前記記憶部に記憶されたプログラムに基づき前記実行部が実行可能な前記機能を選択して前記実行部に実行させる。
本発明によれば、表示装置が、記憶部に記憶したプログラムを実行して機能を実現する構成において、使用者の身体の状態に適する機能を適切に選択できる。
The present invention further includes a storage unit that stores a program corresponding to a function executed by the execution unit, and the execution control unit is capable of executing the function based on the program stored in the storage unit. Is selected and executed by the execution unit.
ADVANTAGE OF THE INVENTION According to this invention, in the structure which a display apparatus implement | achieves a function by running the program memorize | stored in the memory | storage part, the function suitable for a user's body state can be selected appropriately.

また、本発明は、前記実行制御部は、前記プログラムを前記表示装置にインストールする場合に、インストールされる前記プログラムを、前記使用者の身体の状態に対応付けて前記記憶部に記憶させる。
本発明によれば、表示装置にインストールされるプログラムを、使用者の身体の状態に対応付けることができる。このため、インストールされたプログラムを、使用者の身体の状態に応じて適切に選択できる。
In the present invention, when the execution control unit installs the program in the display device, the execution control unit stores the program to be installed in the storage unit in association with the state of the user's body.
ADVANTAGE OF THE INVENTION According to this invention, the program installed in a display apparatus can be matched with a user's body state. For this reason, the installed program can be appropriately selected according to the state of the user's body.

また、本発明は、外部の装置と通信する通信部を備え、前記実行制御部は、前記通信部により前記外部の装置から取得可能なプログラムに基づき前記実行部が実行可能な前記機能を選択して、選択した前記機能に対応する前記プログラムを前記通信部により受信し、受信した前記プログラムに対応する前記機能を前記実行部に実行させる。
本発明によれば、外部の装置から取得するプログラムにより機能を実現する構成において、使用者の身体の状態に適する機能を適切に選択できる。
In addition, the present invention includes a communication unit that communicates with an external device, and the execution control unit selects the function that can be executed by the execution unit based on a program that can be acquired from the external device by the communication unit. Then, the communication unit receives the program corresponding to the selected function, and causes the execution unit to execute the function corresponding to the received program.
ADVANTAGE OF THE INVENTION According to this invention, in the structure which implement | achieves a function with the program acquired from an external apparatus, the function suitable for a user's body state can be selected appropriately.

また、本発明は、前記実行制御部は、前記実行部が実行可能な前記機能のそれぞれについて、前記機能の実行回数、前記機能に対する評価、前記機能の実行時に必要な前記表示部における表示領域のサイズ、及び、前記機能の実行に伴うコストの少なくともいずれかの条件、及び、各々の前記条件に対して設定された重み付けを示す優先情報を取得し、取得した前記条件及び前記優先情報に基づき、前記機能を選択する。
本発明によれば、使用者の身体の状態と、各々の機能の実行に関する条件とを組み合わせて、より適切に機能を選択できる。
In the present invention, the execution control unit may determine the number of executions of the function, the evaluation of the function, and the display area in the display unit required when the function is executed, for each of the functions that can be executed by the execution unit. Obtaining priority information indicating the size and at least one of the costs associated with the execution of the function, and the weighting set for each of the conditions, and based on the acquired condition and the priority information, Select the function.
According to the present invention, a function can be selected more appropriately by combining the state of the user's body and the conditions relating to the execution of each function.

また、本発明は、前記条件及び前記優先情報を記憶する条件記憶部を備える。
本発明によれば、各々の機能の実行に関する条件と、条件を重み付けする情報とを表示装置が記憶し、これらの記憶した情報に基づいて速やかに機能を選択できる。
The present invention further includes a condition storage unit that stores the condition and the priority information.
According to the present invention, the display device stores the conditions relating to the execution of each function and the information for weighting the conditions, and the function can be quickly selected based on the stored information.

また、本発明は、前記実行制御部は、前記条件及び前記優先情報を外部の装置から取得する。
本発明によれば、各々の機能の実行に関する条件と、条件を重み付けする情報とを外部の装置から取得し、これらの記憶した情報に基づいて速やかに機能を選択できる。
In the present invention, the execution control unit obtains the condition and the priority information from an external device.
According to the present invention, conditions relating to the execution of each function and information for weighting the conditions can be acquired from an external device, and functions can be quickly selected based on the stored information.

また、本発明は、前記実行制御部は、前記機能を選択する際に、前記表示部で前記機能の表示に使用する表示領域のサイズを設定し、設定した前記表示領域に前記機能に係る表示を実行させ、前記実行部に前記機能を実行させる前に、設定したサイズよりも小さい前記表示領域に前記機能に係る表示をして、実行の可否の入力を待機する。
本発明によれば、機能を実行する際の表示領域のサイズを設定し、機能を実行する前に、機能に係る表示のサイズを小さくして、実行の可否の入力を待機する。このため、機能に係る表示のサイズを適切に設定でき、使用者が実行の可否を入力する際には、表示を小さくすることによって使用者の操作性を高めることができる。
Further, according to the present invention, when the execution control unit selects the function, the display unit sets a size of a display area used for displaying the function on the display unit, and the display related to the function is displayed on the set display area. Before the execution unit executes the function, the display related to the function is displayed in the display area smaller than the set size, and input of whether to execute or not is awaited.
According to the present invention, the size of the display area for executing a function is set, and before executing the function, the display size related to the function is reduced, and input of whether to execute or not is waited. For this reason, the display size related to the function can be appropriately set, and when the user inputs whether or not to execute, the user's operability can be improved by reducing the display.

また、本発明は、前記実行部が実行可能な前記機能の各々にタグまたは識別子が付与され、前記実行制御部は、前記実行部に前記機能を実行させる前に、複数の前記機能を前記タグまたは前記識別子とともに選択可能に表示し、前記機能の選択及び実行の可否に関する前記入力を待機する。
本発明によれば、使用者の入力に応じて機能を選択できる。また、タグや識別子をもとに、使用者の身体の状態に適する機能を選択できる。
In the present invention, a tag or an identifier is assigned to each of the functions that can be executed by the execution unit, and the execution control unit assigns a plurality of the functions to the tag before causing the execution unit to execute the functions. Alternatively, it is displayed so as to be selectable together with the identifier, and waits for the input relating to the selection and execution of the function.
According to the present invention, a function can be selected according to a user input. Further, based on the tag and the identifier, a function suitable for the state of the user's body can be selected.

また、本発明は、前記実行制御部は、前記判定部が判定した前記使用者の状態に基づき、前記表示部で前記機能の表示に使用する表示領域のサイズを設定し、設定した前記表示領域に前記機能に係る表示を実行させる。
本発明によれば、機能に関する表示のサイズを、使用者の状態に対応して適切に設定できる。
Further, according to the present invention, the execution control unit sets a size of a display area used for displaying the function on the display unit based on the state of the user determined by the determination unit, and the set display area To display the function.
According to the present invention, it is possible to appropriately set the display size related to the function in accordance with the state of the user.

また、本発明は、前記実行制御部は、前記実行部が前記機能を実行中に外部要因の発生または前記検出部による異常値の検出があった場合に、予め設定された割り込み処理を前記実行部に実行させる。
本発明によれば、機能の実行中に、外部要因の発生または異常値の検出があった場合に割り込み処理を実行できる。
Further, according to the present invention, the execution control unit executes a preset interrupt process when an external factor is generated or an abnormal value is detected by the detection unit while the execution unit is executing the function. Let the department execute.
According to the present invention, interrupt processing can be executed when an external factor is generated or an abnormal value is detected during execution of a function.

また、本発明は、前記判定部は、予め設定された時間毎に前記使用者の状態を判定し、前記実行制御部は、前記判定部が判定した前記使用者の状態が変化した場合に、前記判定部が判定した前記使用者の状態が所定時間以内に、以前に判定された状態に戻るか否かを判定し、戻らないと判定した場合に、前記実行部が実行する前記機能を変更させる。
本発明によれば、使用者の身体の状態が変化した場合に、この変化に対応して実行する機能を変更でき、変更する必要性が小さい場合には、機能の実行を継続できる。このため、頻繁な機能の変更による不都合を回避し、使用者の身体の状態の変化に対応できる。
Further, according to the present invention, the determination unit determines the state of the user every preset time, and the execution control unit, when the state of the user determined by the determination unit has changed, Change the function executed by the execution unit when it is determined whether or not the state of the user determined by the determination unit returns to the previously determined state within a predetermined time. Let
According to the present invention, when the state of the user's body changes, the function to be executed can be changed in response to the change, and the execution of the function can be continued when the need for changing is small. For this reason, inconvenience due to frequent function changes can be avoided, and changes in the state of the user's body can be accommodated.

また、上記課題を解決するため、本発明は、使用者の頭部に装着され、外景を視認可能に画像を表示する表示部と、前記使用者の身体に直接或いは間接的に装着される検出部と、前記検出部の検出結果に基づき、前記使用者の身体の状態を判定する判定部と、前記表示部における表示を含む機能を実行する実行部と、前記実行部が実行可能な前記機能のうち、前記判定部の判定結果に対応する前記機能を選択して前記実行部に実行させる実行制御部と、を備える。
本発明によれば、使用者の頭部に装着される表示部を有する表示装置が、使用者の身体の状態に合わせて機能を選択して実行し、実行する機能に関する表示を行う。このため、使用者が機能を選択する等の操作を行うことなしに、適切な機能が実行される。例えば、使用者が手を使わずに表示装置に機能を実行させることができるので、表示装置の利便性を向上させることができる。
In order to solve the above problems, the present invention provides a display unit that is mounted on a user's head and displays an image so that an outside scene can be visually recognized, and detection that is mounted directly or indirectly on the user's body. A determination unit that determines a state of the user's body based on a detection result of the detection unit, an execution unit that executes a function including display on the display unit, and the function that can be executed by the execution unit An execution control unit that selects the function corresponding to the determination result of the determination unit and causes the execution unit to execute the function.
According to the present invention, a display device having a display unit mounted on the user's head selects and executes a function in accordance with the state of the user's body, and performs display regarding the function to be executed. For this reason, an appropriate function is executed without the user performing an operation such as selecting a function. For example, since the user can cause the display device to execute the function without using a hand, the convenience of the display device can be improved.

また、上記課題を解決するため、本発明は、画像を表示する表示部と、使用者の身体に直接或いは間接的に装着される検出部と、を備える表示装置を制御して、前記検出部の検出結果に基づき、前記使用者の身体の状態を判定する判定ステップと、実行可能な複数の機能のうち、前記判定ステップの判定結果に対応する前記機能を選択する選択ステップと、前記選択ステップで選択された、前記表示部における表示を含む前記機能を実行する実行ステップとを有する。
本発明によれば、表示装置が、使用者の身体の状態に合わせて機能を選択して実行する。このため、使用者が機能を選択する等の操作を行うことなしに、適切な機能が実行される。例えば、使用者が手を使わずに表示装置に機能を実行させることができるので、表示装置の利便性を向上させることができる。
In order to solve the above-mentioned problem, the present invention controls a display device including a display unit that displays an image and a detection unit that is directly or indirectly attached to a user's body, and the detection unit A determination step of determining the state of the user's body based on the detection result of the user, a selection step of selecting the function corresponding to the determination result of the determination step among a plurality of executable functions, and the selection step The execution step of executing the function including the display on the display unit, selected in step.
According to the present invention, the display device selects and executes a function according to the state of the user's body. For this reason, an appropriate function is executed without the user performing an operation such as selecting a function. For example, since the user can cause the display device to execute the function without using a hand, the convenience of the display device can be improved.

また、上記課題を解決するため、本発明は、画像を表示する表示部と、使用者の身体に直接或いは間接的に装着される検出部と、を備える表示装置を制御するコンピューターに、前記検出部の検出結果に基づき、前記使用者の身体の状態を判定する判定ステップと、実行可能な複数の機能のうち、前記判定ステップの判定結果に対応する前記機能を選択する選択ステップと、前記選択ステップで選択された、前記表示部における表示を含む前記機能を実行する実行ステップと、を実行させるためのプログラムである。
本発明によれば、表示装置が、使用者の身体の状態に合わせて機能を選択して実行する。このため、使用者が機能を選択する等の操作を行うことなしに、適切な機能が実行される。例えば、使用者が手を使わずに表示装置に機能を実行させることができるので、表示装置の利便性を向上させることができる。
In order to solve the above problems, the present invention provides a computer that controls a display device including a display unit that displays an image and a detection unit that is directly or indirectly attached to a user's body. A determination step of determining a state of the user's body based on a detection result of the unit, a selection step of selecting the function corresponding to the determination result of the determination step among a plurality of executable functions, and the selection An execution step of executing the function including the display on the display unit selected in the step.
According to the present invention, the display device selects and executes a function according to the state of the user's body. For this reason, an appropriate function is executed without the user performing an operation such as selecting a function. For example, since the user can cause the display device to execute the function without using a hand, the convenience of the display device can be improved.

本発明は、上述した表示装置、頭部装着型表示装置、及び表示装置の制御方法以外の種々の形態で実現することも可能である。例えば、上記の表示装置を含む表示システムを構成することも可能である。
また、上記の制御方法を実行するためにコンピューター(或いはプロセッサー)が実行するプログラムとして実現する場合、上記プログラムを記録した記録媒体、プログラムを配信するサーバー装置、上記プログラムを伝送する伝送媒体、上記プログラムを搬送波内に具現化したデータ信号等の形態で実現できる。
The present invention can be implemented in various forms other than the above-described display device, head-mounted display device, and display device control method. For example, a display system including the above display device can be configured.
Further, when the program is realized as a program executed by a computer (or a processor) to execute the control method, a recording medium that records the program, a server device that distributes the program, a transmission medium that transmits the program, and the program Can be realized in the form of a data signal or the like embodied in a carrier wave.

実施形態に係る表示システム1の概略構成図。1 is a schematic configuration diagram of a display system 1 according to an embodiment. HMDの外観構成を示す説明図。Explanatory drawing which shows the external appearance structure of HMD. 画像表示部の光学系の構成を示す図。The figure which shows the structure of the optical system of an image display part. 画像表示部と撮像範囲の対応を示す説明図。Explanatory drawing which shows a response | compatibility with an image display part and an imaging range. HMDを構成する各部のブロック図。The block diagram of each part which comprises HMD. HMDの制御系の機能ブロック図。The functional block diagram of the control system of HMD. HMDが記憶するアプリ情報の構成例を示す模式図。The schematic diagram which shows the structural example of the application information which HMD memorize | stores. HMDが記憶するアプリ実行条件の構成例を示す模式図。The schematic diagram which shows the structural example of the application execution conditions which HMD memorize | stores. HMDが記憶するアプリ付加情報の構成例を示す模式図。The schematic diagram which shows the structural example of the application additional information which HMD memorize | stores. HMDの動作を示すフローチャート。The flowchart which shows operation | movement of HMD. HMDの動作を示すフローチャート。The flowchart which shows operation | movement of HMD. HMDの動作を示すフローチャート。The flowchart which shows operation | movement of HMD. HMDの表示例を示す図。The figure which shows the example of a display of HMD.

図1は、本発明を適用した実施形態に係る表示システム1の概略構成図である。
この図1に示すように、表示システム1は複数のHMD100を備える。これら複数のHMD100は共通の構成を有する。表示システム1が備えるHMD100の数に制限はなく、本実施形態では2台のHMD100を備える例を提示する。以下の説明では、表示システム1が備える2台のHMD100を区別する場合、符号100A、100Bを記載する。
FIG. 1 is a schematic configuration diagram of a display system 1 according to an embodiment to which the present invention is applied.
As shown in FIG. 1, the display system 1 includes a plurality of HMDs 100. The plurality of HMDs 100 have a common configuration. There is no restriction | limiting in the number of HMD100 with which the display system 1 is provided, In this embodiment, the example provided with two HMD100 is shown. In the following description, reference numerals 100A and 100B are described when two HMDs 100 included in the display system 1 are distinguished.

HMD100は、図1に示すように使用者が頭部に装着する表示装置であり、頭部装着型表示装置(ヘッドマウントディスプレイ、Head Mounted Display)とも呼ばれる。HMD100の具体的な構成は本発明を限定しない。本実施形態で説明するHMD100は、使用者が、虚像を視認すると同時に外景も直接視認可能な構成を有する。HMD100は、いわゆる光学透過型のHMDと呼ばれる装置である。
以下の説明では、便宜的に、HMD100を装着した使用者が、HMD100の機能によって視認する虚像を、「表示画像」と呼ぶ。HMD100が、画像データに基づいて生成された画像光を射出する処理、或いは動作を「画像を表示する」と定義する。
また、符号UAは、HMD100Aを頭部に装着して使用する使用者(ユーザー)を指す。符号UBは、HMD100Bを頭部に装着して使用する使用者を指す。使用者UA、UBを区別しない場合、使用者Uと記載する。
The HMD 100 is a display device that a user wears on the head as shown in FIG. 1, and is also called a head-mounted display device (head mounted display). The specific configuration of the HMD 100 does not limit the present invention. The HMD 100 described in the present embodiment has a configuration in which a user can visually recognize an outside scene at the same time as visually recognizing a virtual image. The HMD 100 is a so-called optical transmission type HMD.
In the following description, for convenience, a virtual image visually recognized by the user wearing the HMD 100 by the function of the HMD 100 is referred to as a “display image”. The HMD 100 defines a process or operation of emitting image light generated based on image data as “display an image”.
Reference sign UA indicates a user (user) who wears the HMD 100A on the head. Reference UB indicates a user who wears the HMD 100B on the head. When the users UA and UB are not distinguished, they are described as the user U.

表示システム1において、HMD100A、100Bは、後述する各種の無線通信方式によって相互に通信できる。
HMD100A、100Bを、通信ネットワーク4を介してサーバー3に接続することができる。通信ネットワーク4は、各種の通信回線またはその組合せで実現される。通信ネットワーク4は、遠隔地を接続できる広域通信回線網であってもよいし、特定の施設や建物内に敷設されたLAN(Local Area Network)であってもよい。通信ネットワーク4の具体的構成は限定されない。例えば、通信ネットワーク4は、公衆回線網、専用線、携帯電話回線を含む無線通信回線、及び、これらの回線のバックボーン通信回線などを含んでもよい。通信ネットワーク4は、上記の通信回線を接続するサーバー装置、ゲートウェイ装置、ルーター装置等のネットワーク機器を含んでもよい。また、通信ネットワーク4が複数の通信回線を含んでもよい。
In the display system 1, the HMDs 100A and 100B can communicate with each other by various wireless communication methods described later.
The HMDs 100A and 100B can be connected to the server 3 via the communication network 4. The communication network 4 is realized by various communication lines or a combination thereof. The communication network 4 may be a wide area communication line network that can connect remote locations, or may be a LAN (Local Area Network) laid in a specific facility or building. The specific configuration of the communication network 4 is not limited. For example, the communication network 4 may include a public line network, a dedicated line, a wireless communication line including a mobile phone line, a backbone communication line of these lines, and the like. The communication network 4 may include network devices such as a server device, a gateway device, and a router device that connect the communication lines. Further, the communication network 4 may include a plurality of communication lines.

サーバー3(外部の装置)は、有線または無線通信回線を介して通信ネットワーク4に接続される。
HMD100A、及びHMD100Bは、それぞれ、通信部117(図5)によって通信ネットワーク4と無線通信回線により接続する。HMD100A、100Bは、通信ネットワーク4を利用して、サーバー3との間でデータ通信を実行する。例えば、HMD100A、100Bは、サーバー3からアプリケーションプログラムや、アプリケーションプログラムの実行に関係する各種のデータを受信することができる。アプリケーションプログラムの実行に関係する各種のデータは、例えば、アプリ情報127(図7)、アプリ実行条件128(図8)、アプリ付加情報129(図9)等を含む。
HMD100A、100Bは、例えば、Bluetooth(登録商標)、無線LAN(Wi−Fi(登録商標)を含む)等の規格に準拠した無線通信を行う。
また、サーバー3と、HMD100A、100Bのそれぞれとが、通信ネットワーク4を経由せず直接、データ通信を行ってもよい。
The server 3 (external device) is connected to the communication network 4 via a wired or wireless communication line.
The HMD 100A and the HMD 100B are connected to the communication network 4 via a wireless communication line by the communication unit 117 (FIG. 5). The HMDs 100 </ b> A and 100 </ b> B perform data communication with the server 3 using the communication network 4. For example, the HMDs 100 </ b> A and 100 </ b> B can receive an application program and various data related to execution of the application program from the server 3. Various data related to the execution of the application program includes, for example, application information 127 (FIG. 7), application execution conditions 128 (FIG. 8), application additional information 129 (FIG. 9), and the like.
The HMDs 100A and 100B perform wireless communication complying with standards such as Bluetooth (registered trademark) and wireless LAN (including Wi-Fi (registered trademark)), for example.
The server 3 and each of the HMDs 100A and 100B may perform data communication directly without going through the communication network 4.

図2は、HMD100の外観構成を示す説明図である。HMD100は、使用者Uの頭部に装着された状態で使用者Uに虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備える。制御装置10は、図2に示すように、平たい箱形のケース10A(筐体、あるいは本体ともいえる)を備え、ケース10Aに後述する各部を備える。ケース10Aの表面には、使用者Uの操作を受け付ける各種のボタン11、スイッチ、トラックパッド14等が設けられる。これらを使用者Uが操作することによって、制御装置10は、HMD100のコントローラーとして機能する。   FIG. 2 is an explanatory diagram showing an external configuration of the HMD 100. The HMD 100 includes an image display unit 20 (display unit) that causes the user U to visually recognize a virtual image while being mounted on the head of the user U, and a control device 10 that controls the image display unit 20. As shown in FIG. 2, the control device 10 includes a flat box-shaped case 10 </ b> A (which can also be referred to as a housing or a main body), and the case 10 </ b> A includes each unit described below. On the surface of the case 10 </ b> A, various buttons 11, switches, a track pad 14, and the like that receive the operation of the user U are provided. When the user U operates these, the control apparatus 10 functions as a controller of the HMD 100.

画像表示部20は、使用者Uの頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22、左表示ユニット24、右導光板26、及び左導光板28を備える。   The image display unit 20 is a mounting body that is mounted on the head of the user U, and has a glasses shape in the present embodiment. The image display unit 20 includes a right display unit 22, a left display unit 24, a right light guide plate 26, and a left light guide plate 28 in a main body having a right holding unit 21, a left holding unit 23, and a front frame 27. .

右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者Uの頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者Uの右側に位置する端部を端部ERとし、使用者Uの左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20装着状態において使用者Uの右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、画像表示部20の装着状態において使用者Uの左側頭部に対応する位置まで延伸して設けられる。   Each of the right holding unit 21 and the left holding unit 23 extends rearward from both ends of the front frame 27 and holds the image display unit 20 on the head of the user U like a temple of glasses. Here, of the both ends of the front frame 27, the end located on the right side of the user U in the mounted state of the image display unit 20 is defined as the end ER, and the end located on the left side of the user U is defined as the end. Let it be EL. The right holding unit 21 extends from the end ER of the front frame 27 to a position corresponding to the right head of the user U when the image display unit 20 is mounted. The left holding portion 23 is provided to extend from the end portion EL to a position corresponding to the left side of the user U when the image display portion 20 is worn.

右導光板26及び左導光板28は、前部フレーム27に設けられる。右導光板26は、画像表示部20の装着状態において使用者Uの右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態において使用者Uの左眼の眼前に位置し、左眼に画像を視認させる。   The right light guide plate 26 and the left light guide plate 28 are provided on the front frame 27. The right light guide plate 26 is positioned in front of the right eye of the user U when the image display unit 20 is mounted, and causes the right eye to visually recognize the image. The left light guide plate 28 is positioned in front of the left eye of the user U when the image display unit 20 is mounted, and causes the left eye to visually recognize the image.

前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、使用者Uが画像表示部20を装着する装着状態で、使用者Uの眉間に対応する。前部フレーム27は、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態で使用者Uの鼻に当接する鼻当て部を設けてもよい。この場合、鼻当て部と右保持部21及び左保持部23とにより画像表示部20を使用者Uの頭部に保持できる。また、右保持部21及び左保持部23に、画像表示部20の装着状態において使用者Uの後頭部に接するベルト(図示略)を連結してもよく、この場合、ベルトによって画像表示部20を使用者Uの頭部に保持できる。   The front frame 27 has a shape in which one end of the right light guide plate 26 and one end of the left light guide plate 28 are connected to each other. This connection position is used when the user U wears the image display unit 20. It corresponds to the eyebrows of the person U. The front frame 27 may be provided with a nose pad portion that comes into contact with the nose of the user U when the image display unit 20 is mounted at a connection position between the right light guide plate 26 and the left light guide plate 28. In this case, the image display unit 20 can be held on the head of the user U by the nose pad, the right holding unit 21 and the left holding unit 23. In addition, a belt (not shown) that contacts the back of the user U when the image display unit 20 is attached may be connected to the right holding unit 21 and the left holding unit 23. In this case, the image display unit 20 is connected by the belt. It can be held on the head of the user U.

右表示ユニット22は、右導光板26による画像の表示に係るユニットであり、右保持部21に設けられ、装着状態において使用者Uの右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示に係るユニットであり、左保持部23に設けられ、装着状態において使用者Uの左側頭部の近傍に位置する。なお、右表示ユニット22及び左表示ユニット24を総称して単に「表示駆動部」とも呼ぶ。   The right display unit 22 is a unit related to image display by the right light guide plate 26 and is provided in the right holding unit 21 and is located in the vicinity of the right side of the user U in the mounted state. The left display unit 24 is a unit related to image display by the left light guide plate 28 and is provided in the left holding unit 23 and is positioned in the vicinity of the left side of the user U in the mounted state. The right display unit 22 and the left display unit 24 are also collectively referred to simply as a “display driving unit”.

本実施形態の右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部であり、例えばプリズムであり、右表示ユニット22及び左表示ユニット24が出力する画像光を、使用者Uの眼に導く。
また、右導光板26及び左導光板28の表面に、調光板(図示略)を設けてもよい。調光板は、光の波長域により透過率が異なる薄板上の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、使用者Uの眼の側とは反対の側である前部フレーム27の表側を覆うように配置される。この調光板の光学特性を適宜選択することにより、可視光、赤外光及び紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26及び左導光板28に入射し、右導光板26及び左導光板28を透過する外光の光量を調整できる。
The right light guide plate 26 and the left light guide plate 28 of the present embodiment are optical units formed of a light-transmitting resin or the like, and are, for example, prisms, and output image light output from the right display unit 22 and the left display unit 24. To the user U's eyes.
A light control plate (not shown) may be provided on the surfaces of the right light guide plate 26 and the left light guide plate 28. The light control plate is an optical element on a thin plate having different transmittance depending on the wavelength region of light, and functions as a so-called wavelength filter. For example, the light control plate is disposed so as to cover the front side of the front frame 27 that is the side opposite to the eye side of the user U. By appropriately selecting the optical characteristics of the light control plate, the transmittance of light in an arbitrary wavelength region such as visible light, infrared light, and ultraviolet light can be adjusted. The amount of external light incident on the light plate 28 and transmitted through the right light guide plate 26 and the left light guide plate 28 can be adjusted.

画像表示部20は、右表示ユニット22及び左表示ユニット24がそれぞれ生成する画像光を、右導光板26及び左導光板28に導き、この画像光によって虚像を使用者Uに視認させることによって、画像を表示する。使用者Uの前方から、右導光板26及び左導光板28を透過して外光が使用者Uの眼に入射する場合、使用者Uの眼には、虚像を構成する画像光および外光が入射することとなり、虚像の視認性が外光の強さに影響される。このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択あるいは調整することによって、虚像の視認のしやすさを調整できる。典型的な例では、HMD100を装着した使用者Uが少なくとも外の景色を視認できる程度の光透過性を有する調光板を用いることができる。また、調光板を用いると、右導光板26及び左導光板28を保護し、右導光板26及び左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、或いは、右導光板26及び左導光板28のそれぞれに対し着脱可能としてもよく、複数種類の調光板を交換して装着可能としてもよく、調光板を省略してもよい。   The image display unit 20 guides the image light generated by the right display unit 22 and the left display unit 24 to the right light guide plate 26 and the left light guide plate 28, respectively, and makes the user U visually recognize the virtual image by the image light. Display an image. When external light is incident on the user U's eyes through the right light guide plate 26 and the left light guide plate 28 from the front of the user U, image light and external light constituting a virtual image are displayed on the user U's eyes. Is incident, and the visibility of the virtual image is affected by the intensity of external light. For this reason, for example, by attaching a light control plate to the front frame 27 and appropriately selecting or adjusting the optical characteristics of the light control plate, the visibility of the virtual image can be adjusted. In a typical example, it is possible to use a light control plate having a light transmittance that allows the user U wearing the HMD 100 to visually recognize at least the outside scenery. In addition, when the dimming plate is used, it is possible to protect the right light guide plate 26 and the left light guide plate 28 and to suppress the damage to the right light guide plate 26 and the left light guide plate 28, the adhesion of dirt, and the like. The light control plate may be detachable with respect to the front frame 27 or each of the right light guide plate 26 and the left light guide plate 28, or may be mounted by replacing a plurality of types of light control plates. May be omitted.

カメラ61は、画像表示部20の前部フレーム27に配設される。カメラ61は、使用者Uが画像表示部20を装着した状態で視認する外景方向を撮像することが望ましく、前部フレーム27の前面において、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図2の例では、カメラ61が前部フレーム27の端部ER側に配置される。カメラ61は、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。   The camera 61 is disposed on the front frame 27 of the image display unit 20. It is desirable that the camera 61 captures an outside scene direction that is visually recognized by the user U with the image display unit 20 attached, and external light that passes through the right light guide plate 26 and the left light guide plate 28 on the front surface of the front frame 27. It is provided in a position where it does not block. In the example of FIG. 2, the camera 61 is disposed on the end ER side of the front frame 27. The camera 61 may be disposed on the end EL side, or may be disposed at a connection portion between the right light guide plate 26 and the left light guide plate 28.

カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、本実施形態のカメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者Uの視界方向の少なくとも一部の外景(実空間)を撮像する。別の表現では、カメラ61は、使用者Uの視界と重なる範囲または方向を撮像し、使用者Uが注視する方向を撮像するということもできる。カメラ61の画角の広さは適宜設定可能であるが、本実施形態では、後述するように、使用者Uが右導光板26及び左導光板28を通して視認する外界を含む。より好ましくは、右導光板26及び左導光板28を透過して視認可能な使用者Uの視界の全体を撮像できるように、カメラ61の撮像範囲が設定される。
カメラ61は、制御部150及び/またはセンサーハブ192(図6)の制御に従って撮像を実行し、撮像画像データを撮像制御部149に出力する。ここで、カメラ61は、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群をカメラ61が備える構成であってもよい。
The camera 61 is a digital camera that includes an imaging element such as a CCD or CMOS, an imaging lens, and the like. The camera 61 of the present embodiment is a monocular camera, but may be a stereo camera. The camera 61 images at least a part of the outside scene (real space) in the front direction of the HMD 100, in other words, in the viewing direction of the user U when the HMD 100 is worn. In another expression, it can be said that the camera 61 captures a range or direction that overlaps the field of view of the user U and captures a direction in which the user U is gazing. Although the angle of view of the camera 61 can be set as appropriate, in the present embodiment, as will be described later, it includes the outside world that the user U visually recognizes through the right light guide plate 26 and the left light guide plate 28. More preferably, the imaging range of the camera 61 is set so that the entire field of view of the user U visible through the right light guide plate 26 and the left light guide plate 28 can be imaged.
The camera 61 executes imaging according to the control of the control unit 150 and / or the sensor hub 192 (FIG. 6), and outputs captured image data to the imaging control unit 149. Here, the camera 61 may include a so-called wide-angle lens as an imaging lens, and may be configured to capture a wide angle of view. The wide-angle lens may include a lens called a super-wide-angle lens or a quasi-wide-angle lens, may be a single focus lens or a zoom lens, and the camera 61 includes a lens group including a plurality of lenses. There may be.

図3は、画像表示部20が備える光学系の構成を示す要部平面図である。図3には説明のため使用者Uの左眼LE及び右眼REを図示する。
図3に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成される。使用者Uの右眼REに画像を視認させる構成として、右表示ユニット22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221と、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251とを備える。画像光Lは、右光学系251により右導光板26に導かれる。
FIG. 3 is a main part plan view showing the configuration of the optical system provided in the image display unit 20. FIG. 3 shows the left eye LE and right eye RE of the user U for explanation.
As shown in FIG. 3, the right display unit 22 and the left display unit 24 are configured symmetrically. As a configuration for causing the right eye RE of the user U to visually recognize an image, the right display unit 22 includes an OLED (Organic Light Emitting Diode) unit 221 that emits image light, a lens group that guides the image light L emitted from the OLED unit 221, and the like. And a right optical system 251 provided. The image light L is guided to the right light guide plate 26 by the right optical system 251.

OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光してR(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される、自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。OLED駆動回路225は、制御部150(図6)の制御に従って、OLEDパネル223が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル223の発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板(図示略)に実装されてもよい。この基板には温度センサー217が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
The OLED unit 221 includes an OLED panel 223 and an OLED drive circuit 225 that drives the OLED panel 223. The OLED panel 223 is a self-luminous display configured by arranging light emitting elements that emit light of R (red), G (green), and B (blue) light by organic electroluminescence in a matrix. It is a panel. The OLED panel 223 includes a plurality of pixels, each of which includes one R, G, and B element, and forms an image with pixels arranged in a matrix. The OLED drive circuit 225 selects a light emitting element included in the OLED panel 223 and energizes the light emitting element under the control of the control unit 150 (FIG. 6), and causes the light emitting element of the OLED panel 223 to emit light. The OLED drive circuit 225 is fixed to the back surface of the OLED panel 223, that is, the back surface of the light emitting surface by bonding or the like. The OLED drive circuit 225 may be formed of a semiconductor device that drives the OLED panel 223, for example, and may be mounted on a substrate (not shown) fixed to the back surface of the OLED panel 223. A temperature sensor 217 is mounted on this substrate.
Note that the OLED panel 223 may have a configuration in which light emitting elements that emit white light are arranged in a matrix, and color filters corresponding to R, G, and B colors are stacked. Further, an OLED panel 223 having a WRGB configuration provided with a light emitting element that emits W (white) light in addition to the light emitting elements that respectively emit R, G, and B color light may be used.

右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射して右眼REに向けて右導光板26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者Uに画像を視認させる。   The right optical system 251 includes a collimator lens that converts the image light L emitted from the OLED panel 223 into a parallel light flux. The image light L converted into a parallel light beam by the collimator lens enters the right light guide plate 26. A plurality of reflecting surfaces that reflect the image light L are formed in an optical path that guides light inside the right light guide plate 26. The image light L is guided to the right eye RE side through a plurality of reflections inside the right light guide plate 26. A half mirror 261 (reflection surface) located in front of the right eye RE is formed on the right light guide plate 26. The image light L is reflected by the half mirror 261 and emitted from the right light guide plate 26 toward the right eye RE. The image light L forms an image on the retina of the right eye RE, and causes the user U to visually recognize the image.

また、使用者Uの左眼LEに画像を視認させる構成として、左表示ユニット24は、画像光を発するOLEDユニット241と、OLEDユニット241が発する画像光Lを導くレンズ群等を備えた左光学系252とを備える。画像光Lは、左光学系252により左導光板28に導かれる。   Further, as a configuration for allowing the left eye LE of the user U to visually recognize the image, the left display unit 24 includes a left optical unit including an OLED unit 241 that emits image light, a lens group that guides the image light L emitted from the OLED unit 241, and the like. A system 252; The image light L is guided to the left light guide plate 28 by the left optical system 252.

OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245とを有する。OLEDパネル243は、OLEDパネル223と同様に構成される自発光型の表示パネルである。OLED駆動回路245は、制御部150(図6)の制御に従って、OLEDパネル243が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル243の発光素子を発光させる。OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される基板(図示略)に実装されてもよい。この基板には、温度センサー239が実装される。   The OLED unit 241 includes an OLED panel 243 and an OLED drive circuit 245 that drives the OLED panel 243. The OLED panel 243 is a self-luminous display panel configured similarly to the OLED panel 223. The OLED drive circuit 245 selects a light emitting element included in the OLED panel 243 and energizes the light emitting element under the control of the control unit 150 (FIG. 6), and causes the light emitting element of the OLED panel 243 to emit light. The OLED drive circuit 245 is fixed to the back surface of the OLED panel 243, that is, the back surface of the light emitting surface by bonding or the like. The OLED drive circuit 245 may be configured by a semiconductor device that drives the OLED panel 243, for example, and may be mounted on a substrate (not shown) fixed to the back surface of the OLED panel 243. A temperature sensor 239 is mounted on this substrate.

左光学系252は、OLEDパネル243から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板28に入射する。左導光板28は、画像光Lを反射する複数の反射面が形成された光学素子であり、例えばプリズムである。画像光Lは、左導光板28の内部で複数回の反射を経て左眼LE側に導かれる。左導光板28には、左眼LEの眼前に位置するハーフミラー281(反射面)が形成される。画像光Lは、ハーフミラー281で反射して左眼LEに向けて左導光板28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者Uに画像を視認させる。   The left optical system 252 includes a collimating lens that converts the image light L emitted from the OLED panel 243 into a light beam in a parallel state. The image light L converted into a parallel light beam by the collimator lens enters the left light guide plate 28. The left light guide plate 28 is an optical element formed with a plurality of reflecting surfaces that reflect the image light L, and is, for example, a prism. The image light L is guided to the left eye LE side through a plurality of reflections inside the left light guide plate 28. The left light guide plate 28 is formed with a half mirror 281 (reflection surface) located in front of the left eye LE. The image light L is reflected by the half mirror 281 and emitted from the left light guide plate 28 toward the left eye LE. The image light L forms an image on the retina of the left eye LE, and causes the user U to visually recognize the image.

この構成によれば、HMD100は、シースルー型の表示装置として機能する。すなわち、使用者Uの右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。また、左眼LEには、ハーフミラー281で反射した画像光Lと、ハーフミラー281を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者Uの眼に入射させ、使用者Uにとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。
ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
According to this configuration, the HMD 100 functions as a see-through display device. That is, the image light L reflected by the half mirror 261 and the external light OL transmitted through the right light guide plate 26 are incident on the right eye RE of the user U. Further, the image light L reflected by the half mirror 281 and the external light OL transmitted through the half mirror 281 are incident on the left eye LE. In this way, the HMD 100 superimposes the image light L of the internally processed image and the external light OL on the eyes of the user U, and for the user U, the right light guide plate 26 and the left light guide plate 28 are watermarked. The outside scene can be seen, and the image by the image light L is visually recognized over the outside scene.
The half mirrors 261 and 281 are image extraction units that extract image by reflecting image light output from the right display unit 22 and the left display unit 24, respectively, and can be called display units.

なお、左光学系252と左導光板28とを総称して「左導光部」とも呼び、右光学系251と右導光板26とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者Uの眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。   The left optical system 252 and the left light guide plate 28 are collectively referred to as a “left light guide”, and the right optical system 251 and the right light guide plate 26 are collectively referred to as a “right light guide”. The configurations of the right light guide unit and the left light guide unit are not limited to the above example, and any method can be used as long as a virtual image is formed in front of the user U using image light. For example, a diffraction grating Or a transflective film may be used.

本実施形態のカメラ61(図2)は、使用者Uの両眼が向く方向、すなわち使用者Uにとって前方を撮像する。カメラ61の光軸は、例えば、右眼RE及び左眼LE(図3)の視線方向を含む方向とすることができる。使用者UがHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば、使用者Uが、視界に位置する対象物(図示略)を両眼で注視すると、使用者Uの視線は、対象物に向けられる。この場合、使用者Uから対象物までの距離は、30cm〜10m程度であることが多く、1m〜4m程度であることが、より多い。そこで、HMD100について、通常使用時における使用者Uから対象物までの距離の上限、及び下限の目安を定めてもよい。この目安は調査や実験により求めてもよいし使用者Uが設定してもよい。カメラ61の光軸、及び画角は、通常使用時における対象物までの距離が、設定された上限の目安に相当する場合、及び、下限の目安に相当する場合に、この対象物が画角に含まれるように、設定されることが好ましい。   The camera 61 (FIG. 2) of the present embodiment images the direction in which both eyes of the user U face, that is, the front for the user U. For example, the optical axis of the camera 61 may be a direction including the line-of-sight direction of the right eye RE and the left eye LE (FIG. 3). The outside scene that the user U can visually recognize while wearing the HMD 100 is not always at infinity. For example, when the user U gazes at an object (not shown) located in the field of view with both eyes, the line of sight of the user U is directed toward the object. In this case, the distance from the user U to the target object is often about 30 cm to 10 m, and more often about 1 m to 4 m. Therefore, for the HMD 100, an upper limit and a lower limit of the distance from the user U to the object during normal use may be determined. This standard may be obtained by investigation or experiment, or may be set by the user U. The optical axis and the angle of view of the camera 61 are determined when the distance to the object in normal use corresponds to the set upper limit guide and the lower limit guide. It is preferable that it is set so as to be included.

また、一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。このため、右眼REの視線及び左眼LEの視線を中心として水平方向に30度、垂直方向に20度程度が、右眼RE及び左眼LEのそれぞれの有効視野となる。また、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。さらに、使用者Uが画像表示部20を透過して右導光板26及び左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶことができる。図2及び図3に示す本実施形態の構成で、実視野は、右導光板26及び左導光板28を透過して使用者Uが視認する実際の視野に相当する。実視野は、視野角及び安定注視野より狭いが、有効視野より広い。   In general, the viewing angle of a human is about 200 degrees in the horizontal direction and about 125 degrees in the vertical direction, and of these, the effective field of view with excellent information receiving capability is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction. Furthermore, the stable gaze field in which the gaze point that the human gazes at appears to be quickly and stably is about 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction. Therefore, about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction centering on the line of sight of the right eye RE and the left eye LE are effective visual fields of the right eye RE and the left eye LE, respectively. Further, the stable viewing field is about 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction, and the viewing angle is about 200 degrees in the horizontal direction and about 125 degrees in the vertical direction. Furthermore, an actual field of view that the user U permeates through the image display unit 20 and permeates through the right light guide plate 26 and the left light guide plate 28 can be referred to as a real field of view (FOV). In the configuration of the present embodiment shown in FIGS. 2 and 3, the actual visual field corresponds to an actual visual field that is transmitted through the right light guide plate 26 and the left light guide plate 28 and visually recognized by the user U. The real field of view is narrower than the viewing angle and stable field of view, but wider than the effective field of view.

カメラ61の画角は、使用者Uの視野よりも広い範囲を撮像可能であることが好ましく、具体的には、カメラ61の画角が、少なくとも使用者Uの有効視野よりも広いことが好ましい。また、カメラ61の画角が、使用者Uの実視野よりも広いことが、より好ましい。さらに好ましくは、カメラ61の画角が、使用者Uの安定注視野よりも広く、最も好ましくは、カメラ61の画角が使用者Uの両眼の視野角よりも広い。   The field of view of the camera 61 is preferably capable of capturing a wider range than the field of view of the user U. Specifically, the field of view of the camera 61 is preferably at least wider than the effective field of view of the user U. . Further, it is more preferable that the angle of view of the camera 61 is wider than the actual field of view of the user U. More preferably, the angle of view of the camera 61 is wider than the stable viewing field of the user U, and most preferably, the angle of view of the camera 61 is wider than the viewing angle of both eyes of the user U.

図2に戻り、制御装置10と画像表示部20とは、接続ケーブル40により接続される。接続ケーブル40は、ケース10Aの下部に設けられるコネクター(図示略)に着脱可能に接続され、左保持部23の先端から、画像表示部20の内部に設けられる各種回路に接続する。接続ケーブル40は、デジタルデータを伝送するメタルケーブルまたは光ファイバーケーブルを有し、アナログ信号を伝送するメタルケーブルを有していてもよい。接続ケーブル40の途中には、コネクター46が設けられる。コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46と制御装置10とは、例えばアナログ音声信号を伝送するラインで接続される。図2に示す構成例では、ステレオヘッドホンを構成する右イヤホン32と左イヤホン34、及び、マイク63を有するヘッドセット30が、コネクター46に接続される。   Returning to FIG. 2, the control device 10 and the image display unit 20 are connected by a connection cable 40. The connection cable 40 is detachably connected to a connector (not shown) provided at the lower part of the case 10 </ b> A, and is connected to various circuits provided in the image display unit 20 from the tip of the left holding unit 23. The connection cable 40 includes a metal cable or optical fiber cable that transmits digital data, and may include a metal cable that transmits an analog signal. A connector 46 is provided in the middle of the connection cable 40. The connector 46 is a jack for connecting a stereo mini-plug, and the connector 46 and the control device 10 are connected by a line for transmitting an analog audio signal, for example. In the configuration example shown in FIG. 2, a headset 30 having a right earphone 32 and a left earphone 34 and a microphone 63 constituting a stereo headphone is connected to a connector 46.

マイク63は、例えば図2に示すように、マイク63の集音部が使用者Uの視線方向を向くように配置され、音声を集音して、音声信号を音声インターフェイス182(図5)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。   For example, as shown in FIG. 2, the microphone 63 is arranged so that the sound collection unit of the microphone 63 faces the line of sight of the user U, collects sound, and sends the sound signal to the sound interface 182 (FIG. 5). Output. For example, the microphone 63 may be a monaural microphone or a stereo microphone, may be a directional microphone, or may be an omnidirectional microphone.

制御装置10は、使用者Uにより操作される被操作部として、ボタン11、LEDインジケーター12、トラックパッド14、上下キー15、切替スイッチ16、及び電源スイッチ18を備える。これらの被操作部はケース10Aの表面に配置される。
ボタン11は、制御装置10が実行するオペレーティングシステム143(図6)の操作等を行うためのメニューキー、ホームキー、戻るキー等を含み、特に、これらのキーやスイッチのうち押圧操作により変位するものを含む。LEDインジケーター12は、HMD100の動作状態に対応して点灯し、或いは点滅する。上下キー15は、右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。切替スイッチ16は、上下キー15の操作に対応する入力を切り替えるスイッチである。電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチであり、例えばスライドスイッチで構成される。
The control device 10 includes a button 11, an LED indicator 12, a track pad 14, an up / down key 15, a changeover switch 16, and a power switch 18 as operated parts operated by a user U. These operated parts are arranged on the surface of the case 10A.
The button 11 includes a menu key, a home key, a return key, and the like for operating the operating system 143 (FIG. 6) executed by the control device 10, and in particular, is displaced by a pressing operation of these keys and switches. Including things. The LED indicator 12 lights up or flashes in accordance with the operating state of the HMD 100. The up / down key 15 is used to input an instruction to increase / decrease the volume output from the right earphone 32 and the left earphone 34 and to input an instruction to increase / decrease the display brightness of the image display unit 20. The changeover switch 16 is a switch for changing an input corresponding to the operation of the up / down key 15. The power switch 18 is a switch for switching on / off the power of the HMD 100, and is configured by a slide switch, for example.

トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。トラックパッド14への接触(タッチ操作)は、タッチセンサー13(図5)により検出される。
また、図2に破線で示すように、トラックパッド14にはLED表示部17が設置される。LED表示部17は複数のLEDを備え、それぞれのLEDの点灯によりLED表示部17に操作部が視認可能となる。図2の例では、3つの記号△(三角形)、○(丸)、□(四角形)が、LED表示部17のLEDの点灯時に現れる。LED表示部17が消灯している状態では、これらの記号は視認できない状態となる。この構成は、例えば、トラックパッド14を、透光性を有する有色または無色透明の平板で構成し、この平板の直下にLEDを配置することで、実現できる。
The track pad 14 has an operation surface for detecting a contact operation, and outputs an operation signal according to an operation on the operation surface. The detection method on the operation surface is not limited, and an electrostatic method, a pressure detection method, an optical method, or the like can be adopted. Contact (touch operation) to the track pad 14 is detected by the touch sensor 13 (FIG. 5).
Further, as indicated by a broken line in FIG. 2, an LED display unit 17 is installed on the track pad 14. The LED display unit 17 includes a plurality of LEDs, and the operation unit can be visually recognized on the LED display unit 17 by lighting each LED. In the example of FIG. 2, three symbols Δ (triangle), ○ (circle), and □ (square) appear when the LED of the LED display unit 17 is turned on. When the LED display unit 17 is turned off, these symbols are not visible. This configuration can be realized, for example, by configuring the track pad 14 as a colored or colorless and transparent flat plate having translucency, and disposing an LED directly under the flat plate.

LED表示部17はソフトウェアボタンとして機能する。例えば、LED表示部17が点灯中においては、記号の点灯位置(表示位置)が、記号に対応する指示を行うボタンとして機能する。図2の例で、記号○(丸)はホームボタンとして機能し、記号○(丸)の位置に接触する操作が行われると、制御部150は、タッチセンサー13の検出値に基づき、ホームボタンの操作を検出する。また、記号□(四角形)は履歴ボタンとして機能する。記号□(四角形)の位置に接触する操作が行われると、制御部150は、タッチセンサー13の検出値に基づき、履歴ボタンの操作を検出する。また、記号△(三角形形)は戻るボタンとして機能する。記号△(三角形)の位置に接触する操作が行われると、制御部150は、タッチセンサー13の検出値に基づき、戻るボタンの操作を検出する。   The LED display unit 17 functions as a software button. For example, when the LED display unit 17 is lit, the lighting position (display position) of the symbol functions as a button for giving an instruction corresponding to the symbol. In the example of FIG. 2, the symbol ○ (circle) functions as a home button, and when an operation for touching the position of the symbol ○ (circle) is performed, the control unit 150 performs the home button based on the detection value of the touch sensor 13. Detect operation of. The symbol □ (square) functions as a history button. When an operation to contact the position of the symbol □ (square) is performed, the control unit 150 detects the operation of the history button based on the detection value of the touch sensor 13. The symbol Δ (triangle) functions as a return button. When an operation to contact the position of the symbol Δ (triangle) is performed, the control unit 150 detects the operation of the return button based on the detection value of the touch sensor 13.

図4は、画像表示部20の要部構成を示す図であり、は画像表示部20を使用者Uの頭部側から見た要部斜視図である。図4では接続ケーブル40の図示を省略する。   FIG. 4 is a diagram illustrating a configuration of a main part of the image display unit 20, and FIG. In FIG. 4, the connection cable 40 is not shown.

図4は、画像表示部20の使用者Uの頭部に接する側、言い換えれば使用者Uの右眼RE及び左眼LEに見える側である。別の言い方をすれば、右導光板26及び左導光板28の裏側が見えている。図4では、使用者Uの右眼REに画像光を照射するハーフミラー261、及び、左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、使用者Uには、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。この矩形のハーフミラー261、281によって画像が形成される領域を、画像表示部20が画像を表示する表示領域V(図13)と呼ぶ。   FIG. 4 is a side of the image display unit 20 that is in contact with the head of the user U, in other words, a side that is visible to the right eye RE and the left eye LE of the user U. In other words, the back sides of the right light guide plate 26 and the left light guide plate 28 are visible. In FIG. 4, the half mirror 261 that irradiates the right eye RE of the user U with the image light and the half mirror 281 that irradiates the left eye LE with the image light appear as a substantially rectangular area. Further, the entire right light guide plate 26 and left light guide plate 28 including the half mirrors 261 and 281 transmit external light as described above. For this reason, the user U sees the outside scene through the entire right light guide plate 26 and the left light guide plate 28, and sees a rectangular display image at the positions of the half mirrors 261 and 281. An area in which an image is formed by the rectangular half mirrors 261 and 281 is referred to as a display area V (FIG. 13) where the image display unit 20 displays an image.

図5は、HMD100を構成する各部の構成を示すブロック図である。
制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140を備える。メインプロセッサー140には、メモリー118及び不揮発性記憶部121が接続される。また、メインプロセッサー140には、入力装置としてトラックパッド14及び操作部110が接続される。また、メインプロセッサー140には、センサー類として、6軸センサー111、磁気センサー113、及び、GPS115が接続される。また、メインプロセッサー140には、通信部117、音声コーデック180、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、及び、FPGA194が接続される。これらは外部とのインターフェイスとして機能する。
FIG. 5 is a block diagram illustrating a configuration of each unit included in the HMD 100.
The control device 10 includes a main processor 140 that executes a program and controls the HMD 100. A memory 118 and a non-volatile storage unit 121 are connected to the main processor 140. The main processor 140 is connected to the track pad 14 and the operation unit 110 as input devices. In addition, a six-axis sensor 111, a magnetic sensor 113, and a GPS 115 are connected to the main processor 140 as sensors. The main processor 140 is connected to a communication unit 117, an audio codec 180, an external connector 184, an external memory interface 186, a USB connector 188, a sensor hub 192, and an FPGA 194. These function as an interface with the outside.

メインプロセッサー140は、制御装置10が内蔵するコントローラー基板120に実装される。コントローラー基板120には、メインプロセッサー140に加えて、メモリー118、不揮発性記憶部121等が実装されてもよい。本実施形態では、6軸センサー111、磁気センサー113、GPS115、通信部117、メモリー118、不揮発性記憶部121、音声コーデック180等がコントローラー基板120に実装される。また、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、FPGA194、及びインターフェイス196をコントローラー基板120に実装した構成であってもよい。   The main processor 140 is mounted on the controller board 120 built in the control device 10. In addition to the main processor 140, a memory 118, a nonvolatile storage unit 121, and the like may be mounted on the controller board 120. In the present embodiment, a six-axis sensor 111, a magnetic sensor 113, a GPS 115, a communication unit 117, a memory 118, a nonvolatile storage unit 121, an audio codec 180, and the like are mounted on the controller board 120. Further, the external connector 184, the external memory interface 186, the USB connector 188, the sensor hub 192, the FPGA 194, and the interface 196 may be mounted on the controller board 120.

メモリー118は、メインプロセッサー140がプログラムを実行する場合に、実行されるプログラム、及び、処理されるデータを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するプログラムや、メインプロセッサー140がプログラムを実行して処理する各種データを記憶する。   The memory 118 constitutes a work area that temporarily stores a program to be executed and data to be processed when the main processor 140 executes the program. The nonvolatile storage unit 121 is configured by a flash memory or an eMMC (embedded Multi Media Card). The nonvolatile storage unit 121 stores a program executed by the main processor 140 and various data processed by the main processor 140 executing the program.

メインプロセッサー140は、トラックパッド14から入力される操作信号に基づいて、トラックパッド14の操作面に対する接触操作を検出し、操作位置を取得する。
操作部110は、ボタン11、タッチセンサー13、およびLED表示部17を含む。タッチセンサー13は、トラックパッド14へのタッチ操作を検出し、検出したタッチ操作の操作位置を特定する。ボタン11の操作が行われた場合、及び、タッチセンサー13がタッチ操作を検出した場合、操作部110からメインプロセッサー140に対し、操作信号が出力される。
LED表示部17は、トラックパッド14(図2)の直下に配置されLED(図示略)、及び、このLEDを点灯させる駆動回路を含む。LED表示部17は、メインプロセッサー140の制御に従って、LEDを点灯、点滅、消灯させる。
The main processor 140 detects a touch operation on the operation surface of the track pad 14 based on an operation signal input from the track pad 14 and acquires an operation position.
The operation unit 110 includes a button 11, a touch sensor 13, and an LED display unit 17. The touch sensor 13 detects a touch operation on the track pad 14 and specifies an operation position of the detected touch operation. When the operation of the button 11 is performed and when the touch sensor 13 detects the touch operation, an operation signal is output from the operation unit 110 to the main processor 140.
The LED display unit 17 is disposed immediately below the track pad 14 (FIG. 2) and includes an LED (not shown) and a drive circuit that lights the LED. The LED display unit 17 turns on, blinks, and turns off the LED according to the control of the main processor 140.

6軸センサー111は、3軸加速度センサー、及び、3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー111は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー113は、例えば、3軸の地磁気センサーである。
GPS(Global Positioning System)115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信して、制御装置10の現在位置の座標を検出する。
6軸センサー111、磁気センサー113及びGPS115は、検出値を、予め指定されたサンプリング周期に従ってメインプロセッサー140に出力する。或いは、6軸センサー111、磁気センサー113及びGPS115は、メインプロセッサー140の要求に応じて、メインプロセッサー140により指定されたタイミングで、検出値をメインプロセッサー140に出力する。
The 6-axis sensor 111 is a motion sensor (inertial sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 111 may employ an IMU (Inertial Measurement Unit) in which the above sensors are modularized.
The magnetic sensor 113 is, for example, a triaxial geomagnetic sensor.
A GPS (Global Positioning System) 115 includes a GPS antenna (not shown), receives a radio signal transmitted from a GPS satellite, and detects the coordinates of the current position of the control device 10.
The six-axis sensor 111, the magnetic sensor 113, and the GPS 115 output detection values to the main processor 140 according to a sampling period specified in advance. Alternatively, the six-axis sensor 111, the magnetic sensor 113, and the GPS 115 output detection values to the main processor 140 at a timing designated by the main processor 140 in response to a request from the main processor 140.

通信部117は、外部の機器との間で無線通信を実行する。表示システム1では、通信部117は通信ネットワーク4(図1)を利用して、或いは直接、サーバー3とデータ通信を実行する。通信部117は、アンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、或いはこれらが統合されたデバイスで構成される。通信部117は、例えば、Bluetooth、無線LAN(Wi−Fiを含む)等の規格に準拠した無線通信を行う。   The communication unit 117 performs wireless communication with an external device. In the display system 1, the communication unit 117 performs data communication with the server 3 using the communication network 4 (FIG. 1) or directly. The communication unit 117 includes an antenna, an RF circuit, a baseband circuit, a communication control circuit, and the like, or a device in which these are integrated. The communication unit 117 performs wireless communication complying with standards such as Bluetooth and wireless LAN (including Wi-Fi), for example.

音声インターフェイス182は、音声信号を入出力するインターフェイスである。音声インターフェイス182は、接続ケーブル40に設けられたコネクター46(図2)を含む。音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード/デコードを行う。また、音声コーデック180はアナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、及び、その逆の変換を行うD/Aコンバーターを備えてもよい。例えば、本実施形態のHMD100は、音声を右イヤホン32及び左イヤホン34により出力し、マイク63で集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換して、音声インターフェイス182を介して出力する。また、音声コーデック180は、音声インターフェイス182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。   The audio interface 182 is an interface for inputting and outputting audio signals. The audio interface 182 includes a connector 46 (FIG. 2) provided on the connection cable 40. The audio codec 180 is connected to the audio interface 182 and encodes / decodes an audio signal input / output via the audio interface 182. The audio codec 180 may include an A / D converter that converts analog audio signals to digital audio data, and a D / A converter that performs the reverse conversion. For example, the HMD 100 according to the present embodiment outputs sound by the right earphone 32 and the left earphone 34 and collects sound by the microphone 63. The audio codec 180 converts the digital audio data output from the main processor 140 into an analog audio signal and outputs the analog audio signal via the audio interface 182. The audio codec 180 converts an analog audio signal input to the audio interface 182 into digital audio data and outputs the digital audio data to the main processor 140.

外部コネクター184は、メインプロセッサー140と通信する外部の装置を接続するコネクターである。外部コネクター184は、例えば、外部の装置をメインプロセッサー140に接続して、メインプロセッサー140が実行するプログラムのデバッグや、HMD100の動作のログの収集を行う場合に、この外部の装置を接続するインターフェイスである。   The external connector 184 is a connector that connects an external device that communicates with the main processor 140. The external connector 184 is an interface for connecting an external device when, for example, an external device is connected to the main processor 140 to debug a program executed by the main processor 140 or collect a log of the operation of the HMD 100. It is.

外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。この場合のカード型記録媒体のサイズ、形状、規格は制限されず、適宜に変更可能である。   The external memory interface 186 is an interface to which a portable memory device can be connected. For example, the external memory interface 186 includes a memory card slot in which a card type recording medium is mounted and data can be read and an interface circuit. In this case, the size, shape and standard of the card type recording medium are not limited and can be changed as appropriate.

USB(Universal Serial Bus)コネクター188は、USB規格に準拠したコネクターとインターフェイス回路とを備え、USBメモリーデバイス、スマートフォン、コンピューター等を接続できる。USBコネクター188のサイズや形状、適合するUSB規格のバージョンは適宜に選択、変更可能である。   A USB (Universal Serial Bus) connector 188 includes a connector conforming to the USB standard and an interface circuit, and can connect a USB memory device, a smartphone, a computer, and the like. The size and shape of the USB connector 188 and the compatible USB standard version can be appropriately selected and changed.

また、HMD100は、バイブレーター19を備える。バイブレーター19は、モーター(図示略)、偏心した回転子(図示略)等を備え、メインプロセッサー140の制御に従って振動を発生する。HMD100は、例えば、操作部110に対する操作を検出した場合、HMD100の電源がオン/オフされる場合等に、所定の振動パターンでバイブレーター19により振動を発生する。   Further, the HMD 100 includes a vibrator 19. The vibrator 19 includes a motor (not shown), an eccentric rotor (not shown), and the like, and generates vibrations under the control of the main processor 140. The HMD 100 generates vibration by the vibrator 19 with a predetermined vibration pattern, for example, when an operation on the operation unit 110 is detected, or when the power of the HMD 100 is turned on / off.

センサーハブ192及びFPGA194は、インターフェイス(I/F)196を介して、画像表示部20を接続される。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得してメインプロセッサー140に出力する。また、FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信するデータの処理、及び、インターフェイス196を介した伝送を実行する。   The sensor hub 192 and the FPGA 194 are connected to the image display unit 20 via an interface (I / F) 196. The sensor hub 192 acquires detection values of various sensors included in the image display unit 20 and outputs them to the main processor 140. The FPGA 194 executes processing of data transmitted and received between the main processor 140 and each unit of the image display unit 20 and transmission via the interface 196.

画像表示部20の右表示ユニット22及び左表示ユニット24は、それぞれ、制御装置10に接続される。図2に示すように、HMD100では左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24のそれぞれが制御装置10に接続される。   The right display unit 22 and the left display unit 24 of the image display unit 20 are each connected to the control device 10. As shown in FIG. 2, in the HMD 100, the connection cable 40 is connected to the left holding unit 23, and the wiring connected to the connection cable 40 is laid inside the image display unit 20, and each of the right display unit 22 and the left display unit 24 is Connected to the control device 10.

右表示ユニット22は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)211、インターフェイス211を介して制御装置10から入力されるデータを受信する受信部(Rx)213、及び、EEPROM215(記憶部)が実装される。
インターフェイス211は、受信部213、EEPROM215、温度センサー217、カメラ61、照度センサー65、及びLEDインジケーター67を、制御装置10に接続する。
The right display unit 22 includes a display unit substrate 210. The display unit substrate 210 includes an interface (I / F) 211 connected to the interface 196, a receiving unit (Rx) 213 that receives data input from the control device 10 via the interface 211, and an EEPROM 215 (storage unit) ) Is implemented.
The interface 211 connects the receiving unit 213, the EEPROM 215, the temperature sensor 217, the camera 61, the illuminance sensor 65, and the LED indicator 67 to the control device 10.

EEPROM(Electrically Erasable Programmable Read-Only Memory)215は、各種のデータをメインプロセッサー140が読み取り可能に記憶する。EEPROM215は、例えば、画像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22または左表示ユニット24が備えるセンサーの特性に関するデータなどを記憶する。具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれ、出荷後はメインプロセッサー140がEEPROM215のデータを利用して処理を行える。   An EEPROM (Electrically Erasable Programmable Read-Only Memory) 215 stores various data so that the main processor 140 can read the data. The EEPROM 215 stores, for example, data relating to the light emission characteristics and display characteristics of the OLED units 221 and 241 provided in the image display unit 20, data relating to the characteristics of sensors provided in the right display unit 22 or the left display unit 24, and the like. Specifically, parameters relating to gamma correction of the OLED units 221, 241 and data for compensating the detection values of the temperature sensors 217, 239 are stored. These data are generated by the factory inspection of the HMD 100 and written in the EEPROM 215. After the shipment, the main processor 140 can perform processing using the data in the EEPROM 215.

カメラ61は、インターフェイス211を介して入力される信号に従って撮像を実行し、撮像画像データ、或いは、撮像結果を示す信号を制御装置10に出力する。
照度センサー65は、図2に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者Uの前方からの外光を受光するよう配置される。照度センサー65は、受光量(受光強度)に対応する検出値を出力する。
LEDインジケーター67は、図2に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
The camera 61 executes imaging according to a signal input via the interface 211 and outputs captured image data or a signal indicating the imaging result to the control device 10.
As shown in FIG. 2, the illuminance sensor 65 is provided at the end ER of the front frame 27 and is arranged to receive external light from the front of the user U wearing the image display unit 20. The illuminance sensor 65 outputs a detection value corresponding to the amount of received light (received light intensity).
As shown in FIG. 2, the LED indicator 67 is disposed in the vicinity of the camera 61 at the end ER of the front frame 27. The LED indicator 67 is lit during execution of imaging by the camera 61 to notify that imaging is in progress.

温度センサー217は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー217は、OLEDパネル223(図4)の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は、主としてOLEDパネル223の温度を検出する。   The temperature sensor 217 detects the temperature and outputs a voltage value or a resistance value corresponding to the detected temperature as a detected value. The temperature sensor 217 is mounted on the back side of the OLED panel 223 (FIG. 4). For example, the temperature sensor 217 may be mounted on the same substrate as the OLED drive circuit 225. With this configuration, the temperature sensor 217 mainly detects the temperature of the OLED panel 223.

受信部213は、インターフェイス211を介してメインプロセッサー140が送信するデータを受信する。受信部213は、OLEDユニット221で表示する画像の画像データを受信した場合に、受信した画像データを、OLED駆動回路225(図3)に出力する。   The receiving unit 213 receives data transmitted from the main processor 140 via the interface 211. When receiving image data of an image to be displayed on the OLED unit 221, the receiving unit 213 outputs the received image data to the OLED drive circuit 225 (FIG. 3).

左表示ユニット24は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)231、インターフェイス231を介して制御装置10から入力されるデータを受信する受信部(Rx)233が実装される。また、表示ユニット基板210には、6軸センサー235、及び、磁気センサー237が実装される。
インターフェイス231は、受信部233、6軸センサー235、磁気センサー237、及び温度センサー239を、制御装置10に接続する。
The left display unit 24 includes a display unit substrate 210. On the display unit substrate 210, an interface (I / F) 231 connected to the interface 196 and a receiving unit (Rx) 233 that receives data input from the control device 10 via the interface 231 are mounted. In addition, a 6-axis sensor 235 and a magnetic sensor 237 are mounted on the display unit substrate 210.
The interface 231 connects the receiving unit 233, the six-axis sensor 235, the magnetic sensor 237, and the temperature sensor 239 to the control device 10.

6軸センサー235は、3軸加速度センサー、及び、3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー237は、例えば、3軸の地磁気センサーである。
The 6-axis sensor 235 is a motion sensor (inertial sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 235 may employ an IMU (Inertial Measurement Unit) in which the above sensors are modularized.
The magnetic sensor 237 is, for example, a triaxial geomagnetic sensor.

温度センサー239は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー239は、OLEDパネル243(図4)の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は、主としてOLEDパネル243の温度を検出する。
また、温度センサー239が、OLEDパネル243或いはOLED駆動回路245に内蔵されてもよい。また、上記基板は半導体基板であってもよい。具体的には、OLEDパネル243が、Si−OLEDとして、OLED駆動回路245等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。
The temperature sensor 239 detects the temperature and outputs a voltage value or a resistance value corresponding to the detected temperature as a detected value. The temperature sensor 239 is mounted on the back side of the OLED panel 243 (FIG. 4). The temperature sensor 239 may be mounted on the same substrate as the OLED drive circuit 245, for example. With this configuration, the temperature sensor 239 mainly detects the temperature of the OLED panel 243.
Further, the temperature sensor 239 may be incorporated in the OLED panel 243 or the OLED drive circuit 245. The substrate may be a semiconductor substrate. Specifically, when the OLED panel 243 is mounted as an Si-OLED as an integrated circuit on an integrated semiconductor chip together with the OLED drive circuit 245 and the like, the temperature sensor 239 may be mounted on the semiconductor chip.

右表示ユニット22が備えるカメラ61、照度センサー65、温度センサー217、及び、左表示ユニット24が備える6軸センサー235、磁気センサー237、温度センサー239は、センサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定及び初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。また、センサーハブ192は、予め設定されたタイミングで、右表示ユニット22及び左表示ユニット24が備える各センサーの検出値を、メインプロセッサー140に出力する。センサーハブ192は、各センサーの検出値を、メインプロセッサー140に対する出力のタイミングに合わせて一時的に保持する機能を備えてもよい。また、センサーハブ192は、各センサーの出力値の信号形式、或いはデータ形式の相違に対応し、統一されたデータ形式のデータに変換して、メインプロセッサー140に出力する機能を備えてもよい。
また、センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始及び停止させ、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯または点滅させる。
The camera 61, the illuminance sensor 65, the temperature sensor 217, and the 6-axis sensor 235, the magnetic sensor 237, and the temperature sensor 239 included in the left display unit 24 are connected to the sensor hub 192. The sensor hub 192 sets and initializes the sampling period of each sensor according to the control of the main processor 140. The sensor hub 192 executes energization to each sensor, transmission of control data, acquisition of a detection value, and the like in accordance with the sampling period of each sensor. The sensor hub 192 outputs detection values of the sensors included in the right display unit 22 and the left display unit 24 to the main processor 140 at a preset timing. The sensor hub 192 may have a function of temporarily holding the detection value of each sensor in accordance with the output timing to the main processor 140. In addition, the sensor hub 192 may have a function of converting to data in a unified data format and outputting the data to the main processor 140 in response to a difference in signal format or data format of the output value of each sensor.
The sensor hub 192 starts and stops energization of the LED indicator 67 according to the control of the main processor 140, and lights or blinks the LED indicator 67 in accordance with the timing when the camera 61 starts and ends imaging.

制御装置10は、電源部130を備え、電源部130から供給される電力により動作する。電源部130は充電可能なバッテリー132、及び、バッテリー132の残容量の検出およびバッテリー132への充電の制御を行う電源制御回路134を備える。電源制御回路134はメインプロセッサー140に接続され、バッテリー132の残容量の検出値、或いは電圧の検出値をメインプロセッサー140に出力する。また、電源部130が供給する電力に基づき、制御装置10から画像表示部20に電力を供給してもよい。また、電源部130から制御装置10の各部及び画像表示部20への電力の供給状態を、メインプロセッサー140が制御可能な構成としてもよい。   The control device 10 includes a power supply unit 130 and operates with power supplied from the power supply unit 130. The power supply unit 130 includes a rechargeable battery 132 and a power supply control circuit 134 that detects the remaining capacity of the battery 132 and controls the charging of the battery 132. The power control circuit 134 is connected to the main processor 140 and outputs a detected value of the remaining capacity of the battery 132 or a detected value of the voltage to the main processor 140. Further, the power may be supplied from the control device 10 to the image display unit 20 based on the power supplied from the power supply unit 130. The power supply state from the power supply unit 130 to each unit of the control device 10 and the image display unit 20 may be configured to be controllable by the main processor 140.

HMD100は、コンテンツの供給元となる種々の外部機器を接続するインターフェイス(図示略)を備えてもよい。例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスであってもよく、無線通信インターフェイスで構成してもよい。この場合の外部機器は、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。この場合、HMD100は、これらの外部機器から入力されるコンテンツデータに基づく画像や音声を出力できる。   The HMD 100 may include an interface (not shown) for connecting various external devices that are content supply sources. For example, an interface corresponding to a wired connection such as a USB interface, a micro USB interface, or a memory card interface may be used, or a wireless communication interface may be used. The external device in this case is an image supply device that supplies an image to the HMD 100, and a personal computer (PC), a mobile phone terminal, a portable game machine, or the like is used. In this case, the HMD 100 can output images and sounds based on content data input from these external devices.

図6は、HMD100の制御系の機能ブロック図である。HMD100の制御系は、記憶部122、制御部150、及びセンサーハブ192で構成される。また、図6には、制御系の制御対象である検出部170を図示する。   FIG. 6 is a functional block diagram of the control system of the HMD 100. The control system of the HMD 100 includes a storage unit 122, a control unit 150, and a sensor hub 192. FIG. 6 illustrates a detection unit 170 that is a control target of the control system.

記憶部122は、不揮発性記憶部121(図5)により構成される論理的な記憶部であり、EEPROM215を含んでもよい。
制御部150、及び、制御部150が有する各種の機能部は、メインプロセッサー140がプログラムを実行することによって、ソフトウェアとハードウェアとの協働により形成される。制御部150、及び制御部150を構成する各機能部は、例えば、メインプロセッサー140、メモリー118、及び不揮発性記憶部121により構成される。
The storage unit 122 is a logical storage unit configured by the nonvolatile storage unit 121 (FIG. 5), and may include an EEPROM 215.
The control unit 150 and various functional units included in the control unit 150 are formed by cooperation of software and hardware as the main processor 140 executes a program. The control unit 150 and each functional unit constituting the control unit 150 include, for example, a main processor 140, a memory 118, and a nonvolatile storage unit 121.

センサーハブ192は、ソフトウェアを実行するプロセッサー、或いは、ハードウェアプログラムを実行する素子で構成される。図6には、センサーハブ192の機能を、機能ブロックである状態判定部195(判定部)、及び、検出値取得部197として示す。   The sensor hub 192 includes a processor that executes software or an element that executes a hardware program. In FIG. 6, the function of the sensor hub 192 is shown as a state determination unit 195 (determination unit) and a detection value acquisition unit 197, which are functional blocks.

センサーハブ192に接続される各種のセンサーを、検出部170として示す。センサーハブ192の検出値取得部197は、検出部170を構成する各種のセンサーの検出値を取得する。   Various sensors connected to the sensor hub 192 are shown as a detection unit 170. The detection value acquisition unit 197 of the sensor hub 192 acquires detection values of various sensors that constitute the detection unit 170.

検出部170は、HMD100が備えるセンサーであって、使用者Uの身体に直接、或いは間接的に装着されるセンサーを含む。特に、検出部170は、使用者Uの身体の動きを検出するセンサーを含む。例えば、検出部170は、6軸センサー235を含む。6軸センサー235は、画像表示部20の左保持部23を介在させて、使用者Uの身体(頭部)に装着されるセンサーである。   The detection unit 170 is a sensor provided in the HMD 100 and includes a sensor that is directly or indirectly attached to the body of the user U. In particular, the detection unit 170 includes a sensor that detects the movement of the user U's body. For example, the detection unit 170 includes a 6-axis sensor 235. The 6-axis sensor 235 is a sensor that is attached to the body (head) of the user U with the left holding unit 23 of the image display unit 20 interposed therebetween.

検出部170は、動きセンサーに限らず、他の種類のセンサーを含んでよい。例えば、検出部170は、磁気センサー237を含んでもよい。また、検出部170は、カメラ61を含んでもよく、この場合、検出値取得部197が取得する検出値は、カメラ61の撮像画像データ或いはカメラ61の撮像素子が出力する信号である。また、検出部170は照度センサー65を含んでもよい。さらに、検出部170は、温度センサー239を含んでもよい。また、検出部170は、制御装置10が備えるセンサーを含んでもよく、具体的には、6軸センサー111、磁気センサー113、GPS115、タッチセンサー13を含んでもよい。また、検出部170は、音声コーデック180を含んでもよい。この場合、検出値取得部197が取得する検出値は、音声コーデック180が生成したデジタル音声データである。   The detection unit 170 is not limited to a motion sensor, and may include other types of sensors. For example, the detection unit 170 may include a magnetic sensor 237. The detection unit 170 may include the camera 61. In this case, the detection value acquired by the detection value acquisition unit 197 is captured image data of the camera 61 or a signal output from the imaging element of the camera 61. The detection unit 170 may include an illuminance sensor 65. Further, the detection unit 170 may include a temperature sensor 239. The detection unit 170 may include a sensor included in the control device 10, and specifically may include a 6-axis sensor 111, a magnetic sensor 113, a GPS 115, and a touch sensor 13. The detection unit 170 may include an audio codec 180. In this case, the detection value acquired by the detection value acquisition unit 197 is digital audio data generated by the audio codec 180.

検出値取得部197は、予め設定されたサンプリング周期で、検出部170を構成する各種センサーの検出値を取得する。
状態判定部195は、検出値取得部197が取得した検出値に基づき、使用者Uの身体の状態を判定する。状態判定部195は、判定結果を制御部150に出力する。状態判定部195は、予め設定された周期で判定を繰り返し実行するので、状態判定部195から制御部150に、周期的に判定結果が出力される。状態判定部195の判定の周期は、検出値取得部197が検出部170の検出値を取得する周期等に合わせて設定される。状態判定部195は、検出値取得部197が、検出部170に含まれる全てのセンサーの検出値を用いて判定を行ってもよいし、検出部170に含まれる一部のセンサーの検出値を用いて判定を行ってもよい。
The detection value acquisition unit 197 acquires detection values of various sensors constituting the detection unit 170 at a preset sampling cycle.
The state determination unit 195 determines the body state of the user U based on the detection value acquired by the detection value acquisition unit 197. The state determination unit 195 outputs the determination result to the control unit 150. Since the state determination unit 195 repeatedly executes the determination at a preset cycle, the determination result is periodically output from the state determination unit 195 to the control unit 150. The determination cycle of the state determination unit 195 is set according to the cycle in which the detection value acquisition unit 197 acquires the detection value of the detection unit 170 and the like. In the state determination unit 195, the detection value acquisition unit 197 may perform determination using the detection values of all the sensors included in the detection unit 170, or the detection values of some sensors included in the detection unit 170. The determination may be made by using.

状態判定部195が判定する使用者Uの身体の状態は、例えば、使用者Uの運動状態、使用者Uの姿勢、使用者Uが行っている動作である。具体的には、使用者Uの運動状態とは、静止している、歩行している、走っている、泳いでいる、車両等の移動体に搭乗して移動している、等の状態である。また、使用者Uの姿勢とは、立っている、座っている、かがんでいる、しゃがんでいる、等である。また、状態判定部195は、使用者Uの身体の一部が運動している場合に、運動状態と、運動している身体の部位とを判定してもよい。例えば、状態判定部195は、身体の一部が動いていることを判定し、動いている部位を、頭部、腕、脚、上半身、下半身等と特定する。腕や脚について左右を判定してもよい。   The state of the body of the user U determined by the state determination unit 195 is, for example, the exercise state of the user U, the posture of the user U, and the operation performed by the user U. Specifically, the motion state of the user U is a state in which the user U is stationary, walking, running, swimming, riding on a moving body such as a vehicle, and moving. is there. In addition, the posture of the user U is standing, sitting, crouching, squatting, and the like. Moreover, the state determination part 195 may determine an exercise | movement state and the site | part of the body which is exercising, when a part of the user's U body is exercising. For example, the state determination unit 195 determines that a part of the body is moving, and identifies the moving parts as the head, arms, legs, upper body, lower body, and the like. You may determine right and left about an arm and a leg.

また、状態判定部195は、使用者Uの身体の状態が、危険あるいは非常の状態であることを判定してもよい。例えば、使用者Uが転倒した状態、溺れている状態、腹臥位など指定された姿勢で設定された時間以上動かない状態等を判定してもよい。   In addition, the state determination unit 195 may determine that the body state of the user U is dangerous or an emergency state. For example, a state in which the user U has fallen, is in a drowning state, does not move for more than a set time in a specified posture such as prone position, and the like may be determined.

状態判定部195は、検出部170を構成する複数のセンサーの検出値を統合的に処理して、使用者Uの身体の状態を判定してもよい。例えば、6軸センサー111の検出値と、6軸センサー235の検出値とを比較することにより、制御装置10が装着された部位(例えば、腰部、胸部あるいは上腕部)と、頭部との相対位置の変化や相対運動を求めてもよい。また、状態判定部195は、センサーフュージョン処理を実行してもよい。センサーフュージョン処理は、複数のセンサーの検出値を用いた演算処理を行い、1つのセンサーで直接検出できない種類の値を擬似的に求める処理である。状態判定部195は、センサーフュージョン処理により、検出部170のセンサーのうち一つ、或いは少数のセンサーでは直接検出できない種類の値を求めることができる。また、センサーフュージョン処理では、上記のセンサーの一つ、または複数のセンサーで直接検出し、センサーが検出値として出力できる種類の値を、より高精度で求める目的でも利用できる。つまり、センサーの検出値の基づく演算処理により、センサーが直接検出できない制度の値を求めることもできる。例えば、6軸センサー235が出力する角速度の検出値に基づき、センサーフュージョン処理を行い、より高精度の角速度の検出値を求めることができる。加速度や地磁気の検出値、GPS位置情報、及び照度センサー65の検出値等についても同様である。   The state determination unit 195 may determine the state of the user U's body by integrally processing detection values of a plurality of sensors constituting the detection unit 170. For example, by comparing the detection value of the 6-axis sensor 111 with the detection value of the 6-axis sensor 235, the relative position between the region where the control device 10 is mounted (for example, the waist, chest, or upper arm) and the head A change in position or relative movement may be obtained. Moreover, the state determination part 195 may perform a sensor fusion process. The sensor fusion process is a process in which a calculation process using detection values of a plurality of sensors is performed, and a kind of value that cannot be directly detected by one sensor is obtained in a pseudo manner. The state determination unit 195 can obtain a kind of value that cannot be directly detected by one or a small number of sensors of the detection unit 170 by sensor fusion processing. Further, in the sensor fusion process, it can be used also for the purpose of obtaining with higher accuracy a kind of value that can be directly detected by one or a plurality of sensors and output by the sensor as a detected value. In other words, a system value that cannot be directly detected by the sensor can be obtained by calculation processing based on the detection value of the sensor. For example, based on the detected angular velocity value output from the 6-axis sensor 235, sensor fusion processing can be performed to obtain a more accurate detected angular velocity value. The same applies to detection values of acceleration and geomagnetism, GPS position information, detection values of the illuminance sensor 65, and the like.

また、状態判定部195は、検出部170が備える複数のセンサーの検出値を統合的に処理することにより、使用者Uの状態を、より多面的に判定してもよい。例えば、状態判定部195は、6軸センサー235の加速度、角加速度の検出値や、GPS115の検出値である位置情報を総合的に判断してもよい。この例では、状態判定部195は、使用者Uが自宅で睡眠している、ソファーに掛けて休息している、新幹線に乗って座席で睡眠している、等の判定結果を得てもよい。また、状態判定部195は、使用者Uが睡眠中であると判定した場合に、さらに、寝返りの頻度などを判定して、使用者Uの睡眠状態がレム睡眠か、ノンレム睡眠であるかを判定してもよい。   In addition, the state determination unit 195 may determine the state of the user U in a multifaceted manner by processing the detection values of a plurality of sensors included in the detection unit 170 in an integrated manner. For example, the state determination unit 195 may comprehensively determine the position information that is the detected value of the acceleration and angular acceleration of the six-axis sensor 235 and the detected value of the GPS 115. In this example, the state determination unit 195 may obtain a determination result indicating that the user U is sleeping at home, resting on a sofa, sleeping on a bullet train, and sleeping on a seat. . In addition, when the state determination unit 195 determines that the user U is sleeping, the state determination unit 195 further determines the frequency of turning over and the like, and determines whether the sleep state of the user U is REM sleep or non-REM sleep. You may judge.

また、HMD100は、距離センサー(図示略)を備えてもよく、距離センサーを検出部170に含めてもよい。この場合、検出値取得部197が取得する検出値は、例えば、距離センサーが検出した距離である。距離センサーは、例えば、右光学像表示部26と左光学像表示部28との境目部分に配置することができる。例えば、使用者Uが画像表示部20を装着した状態で、距離センサーの位置は、水平方向においては使用者Uの両眼のほぼ中間であり、鉛直方向においては使用者Uの両眼より上とすることができる。距離センサーは、予め設定された測定方向に位置する測定対象物までの距離を検出するものを利用できる。例えば、距離センサーとして、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有するものを利用できる。この場合、距離センサーは、検出値取得部197の制御に従い、三角測距処理や時間差に基づく測距処理を実行する。また、距離センサーとして、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサーは、検出値取得部197の制御に従い、超音波の反射までの時間差に基づき測距処理を実行する。なお、距離センサーは光源や受光部、或いは音源と検出部とを備え、測距処理を状態判定部195が行ってもよい。距離センサーの測定方向は、例えば、HMD100の表側方向であり、カメラ61の撮像方向と重複する方向とすることができる。状態判定部195は、距離センサーの検出値と、他のセンサーの検出値とを用いて、使用者Uの状態を判定してもよい。   The HMD 100 may include a distance sensor (not shown), and the distance sensor may be included in the detection unit 170. In this case, the detection value acquired by the detection value acquisition unit 197 is, for example, the distance detected by the distance sensor. The distance sensor can be disposed at the boundary between the right optical image display unit 26 and the left optical image display unit 28, for example. For example, in a state where the user U wears the image display unit 20, the position of the distance sensor is substantially in the middle of both eyes of the user U in the horizontal direction and above the both eyes of the user U in the vertical direction. It can be. As the distance sensor, a sensor that detects a distance to a measurement object located in a preset measurement direction can be used. For example, a distance sensor having a light source such as an LED or a laser diode and a light receiving unit that receives reflected light reflected by a measurement object from light emitted from the light source can be used. In this case, the distance sensor performs a triangular distance measurement process or a distance measurement process based on a time difference according to the control of the detection value acquisition unit 197. In addition, the distance sensor may include a sound source that emits ultrasonic waves and a detection unit that receives ultrasonic waves reflected by the measurement object. In this case, the distance sensor performs a distance measurement process based on the time difference until the reflection of the ultrasonic wave according to the control of the detection value acquisition unit 197. Note that the distance sensor may include a light source, a light receiving unit, or a sound source and a detection unit, and the state determination unit 195 may perform distance measurement processing. The measurement direction of the distance sensor is, for example, the front side direction of the HMD 100 and can be a direction overlapping with the imaging direction of the camera 61. The state determination unit 195 may determine the state of the user U using the detection value of the distance sensor and the detection value of another sensor.

また、HMD100は、使用者Uの身体に装着される筋電位センサーを備え、検出値取得部197の制御に従って、筋電位の変化を検出することによって、使用者Uの筋肉の動きを検出する構成であってもよい。筋電位センサーは、例えば、使用者Uの眼筋の動きを検出するセンサーであってもよい。この場合、状態判定部195は、筋電位センサーを利用して、使用者Uの眼球運動を検出することができる。また、筋電位センサーは、使用者Uの顎の筋肉の動きを検出するセンサーであってもよい。この場合、状態判定部195は、筋電位センサーを利用して、使用者Uが口を開閉する動きを身体の動きとして検出できる。また、状態判定部195は、筋電位センサーの検出値と、他のセンサーの検出値とを用いて、使用者Uの状態を判定してもよい。   Further, the HMD 100 includes a myoelectric potential sensor attached to the body of the user U, and detects the movement of the user U's muscle by detecting a change in myoelectric potential according to the control of the detection value acquisition unit 197. It may be. The myoelectric potential sensor may be a sensor that detects the movement of the eye muscle of the user U, for example. In this case, the state determination unit 195 can detect the eye movement of the user U using a myoelectric potential sensor. The myoelectric potential sensor may be a sensor that detects the movement of the muscles of the user U's jaw. In this case, the state determination unit 195 can detect a movement of the user U opening and closing the mouth as a movement of the body using a myoelectric potential sensor. In addition, the state determination unit 195 may determine the state of the user U using the detection value of the myoelectric potential sensor and the detection value of another sensor.

また、HMD100は、画像表示部20の使用者U側に内側カメラを備えてもよい。この場合、検出値取得部197が取得する検出値は、内側カメラの撮像画像データまたは内側カメラの撮像素子が出力する信号である。内側カメラは、例えば、使用者Uの右眼RE、及び、左眼LEのそれぞれに対応するように、右光学像表示部26と左光学像表示部28との中央位置に一対、設けることができる。内側カメラは、使用者Uの右眼REと左眼LEとをそれぞれ撮像する一対のカメラとすることができる。また、例えば、1つの内側カメラを、画像表示部20の中央位置に設けてもよい。この場合、1つの内側カメラが、右眼RE及び左眼LEを撮像できる画角を有する構成であってもよい。また、例えば、右眼REまたは左眼LEの一方のみを内側カメラにより撮像してもよい。   The HMD 100 may include an inner camera on the user U side of the image display unit 20. In this case, the detection value acquired by the detection value acquisition unit 197 is captured image data of the inner camera or a signal output from the image sensor of the inner camera. For example, a pair of inner cameras are provided at the center positions of the right optical image display unit 26 and the left optical image display unit 28 so as to correspond to the right eye RE and the left eye LE of the user U, respectively. it can. The inner camera can be a pair of cameras that respectively capture the right eye RE and the left eye LE of the user U. Further, for example, one inner camera may be provided at the center position of the image display unit 20. In this case, the configuration may be such that one inner camera has an angle of view capable of capturing the right eye RE and the left eye LE. For example, only one of the right eye RE or the left eye LE may be imaged by the inner camera.

内側カメラは、検出値取得部197の制御に従って撮像を行う構成であってもよい。状態判定部195は、内側カメラの撮像画像データを解析する。例えば、状態判定部195は、内側カメラの撮像画像データから右眼RE及び左眼LEの眼球表面における反射光や瞳孔の画像を検出し、使用者Uの視線方向を特定してもよい。また、状態判定部195は、使用者Uの視線方向の変化を求めてもよく、右眼RE及び左眼LEのそれぞれの眼球運動を求めてもよい。また、状態判定部195は、内側カメラの撮像画像データから使用者Uの右眼RE及び左眼LEの瞼(眼瞼)の画像を抽出して、眼瞼運動を検出してもよく、眼瞼の状態を検出してもよい。また、状態判定部195は、内側カメラの撮像画像から右眼RE及び左眼LEの視線方向を検出してもよく、検出した視線方向に基づき右眼RE及び左眼LEの輻輳角を求めてもよい。状態判定部195は、右眼RE、左眼LEの視線方向、瞳孔の動き、及び眼瞼運動等と、他のセンサーの検出値とを用いて、使用者Uの状態を判定してもよい。   The inner camera may be configured to perform imaging in accordance with the control of the detection value acquisition unit 197. The state determination unit 195 analyzes captured image data of the inner camera. For example, the state determination unit 195 may detect reflected light and pupil images on the eyeball surfaces of the right eye RE and the left eye LE from the imaged image data of the inner camera, and specify the user's U gaze direction. Further, the state determination unit 195 may obtain a change in the direction of the line of sight of the user U, and may obtain respective eye movements of the right eye RE and the left eye LE. Further, the state determination unit 195 may extract eyelid movements of the right eye RE and left eye LE of the user U from the captured image data of the inner camera to detect eyelid movement, and the state of the eyelid May be detected. Further, the state determination unit 195 may detect the line-of-sight directions of the right eye RE and the left eye LE from the captured image of the inner camera, and obtain the convergence angles of the right eye RE and the left eye LE based on the detected line-of-sight directions. Also good. The state determination unit 195 may determine the state of the user U using the gaze direction of the right eye RE and the left eye LE, the movement of the pupil, the eyelid movement, and the detection values of other sensors.

制御部150は、記憶部122が記憶するデータを利用して各種処理を実行し、HMD100を制御する。
記憶部122は、制御部150が実行するプログラムを記憶する。すなわち、記憶部122は、制御プログラム141、及び、アプリケーションプログラム125を記憶する。
制御プログラム141は、制御部150がHMD100の各部を制御するための基本制御プログラムであり、具体的にはメインプロセッサー140によって実行される。また、制御プログラム141は、HMD100の各種機能を実現するためのオペレーティングシステムを構成する。メインプロセッサー140が、制御プログラム141を読み出して実行することにより、制御部150が構成される。制御部150は、HMD100のオペレーティングシステム143を含む。オペレーティングシステム143は、制御部150の各種機能に相当する機能モジュールを備える。機能モジュールは、画像処理部145、表示制御部147、撮像制御部149、情報取得部152、アプリ実行制御部154、表示設定部156、及び、処理実行部158を含む。
The control unit 150 executes various processes using data stored in the storage unit 122 and controls the HMD 100.
The storage unit 122 stores a program executed by the control unit 150. That is, the storage unit 122 stores the control program 141 and the application program 125.
The control program 141 is a basic control program for the control unit 150 to control each unit of the HMD 100, and is specifically executed by the main processor 140. The control program 141 constitutes an operating system for realizing various functions of the HMD 100. The main processor 140 reads out and executes the control program 141, whereby the control unit 150 is configured. The control unit 150 includes an operating system 143 of the HMD 100. The operating system 143 includes function modules corresponding to various functions of the control unit 150. The functional modules include an image processing unit 145, a display control unit 147, an imaging control unit 149, an information acquisition unit 152, an application execution control unit 154, a display setting unit 156, and a process execution unit 158.

アプリケーションプログラム125は、オペレーティングシステム143上で実行されるプログラムである。すなわち、メインプロセッサー140がアプリケーションプログラム125を読み出して実行すると、オペレーティングシステム143によって提供されるAPI(Application Programming Interface)等が呼び出される。メインプロセッサー140は、アプリケーションプログラム125を実行することにより、オペレーティングシステム143の機能を利用して、様々な動作、或いは処理を行う。このように、アプリケーションプログラム125は、例えば、HMD100がオペレーティングシステム143によって実行する機能を拡張し、或いは、HMD100の機能を追加するプログラムということができる。メインプロセッサー140が1つのアプリケーションプログラム125を実行することで、複数の機能を実行可能であってもよい。或いは、1つのアプリケーションプログラム125が、HMD100の1つの機能を実現するプログラムであってもよい。   The application program 125 is a program executed on the operating system 143. That is, when the main processor 140 reads and executes the application program 125, an API (Application Programming Interface) provided by the operating system 143 is called. The main processor 140 executes various operations or processes using the functions of the operating system 143 by executing the application program 125. Thus, the application program 125 can be referred to as, for example, a program that expands a function that the HMD 100 executes by the operating system 143 or adds a function of the HMD 100. A plurality of functions may be executed by the main processor 140 executing one application program 125. Alternatively, one application program 125 may be a program that realizes one function of the HMD 100.

メインプロセッサー140が実行するアプリケーションプログラム125の実体データは、記憶部122が記憶する。また、アプリケーションプログラム125の実体データを、HMD100がサーバー3からダウンロードして、メインプロセッサー140により実行してもよい。この場合、記憶部122は、アプリケーションプログラム125に代えて、アプリケーションプログラム125をダウンロードするための情報を記憶すればよい。例えば、アプリケーションプログラム125をダウンロードさせるサーバー3や記憶領域を指定するURL(Uniform Resource Locator)、ネットワークアドレス、ファイルパス等を記憶部122が記憶してもよい。   The entity data of the application program 125 executed by the main processor 140 is stored in the storage unit 122. Further, the entity data of the application program 125 may be downloaded from the server 3 by the HMD 100 and executed by the main processor 140. In this case, the storage unit 122 may store information for downloading the application program 125 instead of the application program 125. For example, the storage unit 122 may store a server 3 for downloading the application program 125, a URL (Uniform Resource Locator) designating a storage area, a network address, a file path, and the like.

HMD100は、図10に示すインストール処理によってインストールされたアプリケーションプログラム125を、実行できる。インストール処理では、記憶部122に、アプリケーションプログラム125が記憶され、或いは、アプリケーションプログラム125をダウンロードするための情報が記憶される。そして、インストール処理によってインストールされたアプリケーションプログラム125の名称等が、実行可能なプログラムとして、実行可能リスト126に記録される。   The HMD 100 can execute the application program 125 installed by the installation process shown in FIG. In the installation process, the application program 125 is stored in the storage unit 122 or information for downloading the application program 125 is stored. Then, the name of the application program 125 installed by the installation process is recorded in the executable list 126 as an executable program.

HMD100には、複数のアプリケーションプログラム125をインストールすることが可能である。記憶部122は、インストールされた複数のアプリケーションプログラム125を記憶することができる。   A plurality of application programs 125 can be installed in the HMD 100. The storage unit 122 can store a plurality of installed application programs 125.

記憶部122は、制御部150が処理する各種のデータを記憶する。記憶部122は、設定データ123、コンテンツデータ124、アプリケーションプログラム125、実行可能リストデータ126、アプリ情報127、アプリ実行条件128、及び、アプリ付加情報129を記憶する。   The storage unit 122 stores various data processed by the control unit 150. The storage unit 122 stores setting data 123, content data 124, application program 125, executable list data 126, application information 127, application execution conditions 128, and application additional information 129.

設定データ123は、HMD100の動作に係る各種の設定値を含む。また、制御部150がHMD100を制御する際にパラメーター、行列式、演算式、LUT(LookUp Table)等を用いる場合、これらを設定データ123に含めてもよい。   The setting data 123 includes various setting values related to the operation of the HMD 100. When the control unit 150 controls the HMD 100, parameters, determinants, arithmetic expressions, LUTs (Look Up Tables), and the like may be included in the setting data 123.

コンテンツデータ124は、制御部150の制御によって画像表示部20が表示する画像や映像を含むコンテンツのデータであり、画像データ、或いは映像データを含む。また、コンテンツデータ124は、音声データを含んでもよい。また、コンテンツデータ124は複数の画像の画像データを含んでもよく、この場合、これら複数の画像は同時に画像表示部20に表示される画像に限定されない。
また、コンテンツデータ124は、コンテンツを画像表示部20により表示する際に、制御装置10によって使用者Uの操作を受け付けて、受け付けた操作に応じた処理を制御部150が実行する、双方向型のコンテンツであってもよい。この場合、コンテンツデータ124は、操作を受け付ける場合に表示するメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理等を定めるデータ等を含んでもよい。
The content data 124 is content data including images and videos displayed by the image display unit 20 under the control of the control unit 150, and includes image data or video data. Further, the content data 124 may include audio data. The content data 124 may include image data of a plurality of images. In this case, the plurality of images are not limited to images displayed on the image display unit 20 at the same time.
The content data 124 is a bidirectional type in which when the content is displayed on the image display unit 20, the control device 10 receives an operation of the user U and the control unit 150 executes a process according to the received operation. It may be the content. In this case, the content data 124 may include image data of a menu screen that is displayed when an operation is accepted, data that defines processing corresponding to items included in the menu screen, and the like.

実行可能リスト126は、HMD100にインストールされ、HMD100によって実行可能なアプリケーションプログラム125が登録されるリストである。実行可能リスト126は、実行可能なアプリケーションプログラム125に加え、アプリケーションプログラム125の実体データが記憶部122に記憶されているか否かを示すデータを含んでもよい。また、アプリケーションプログラム125をするための情報を、実行可能リスト126に含めてもよい。制御部150は、実行可能リスト126を参照することにより、実行可能なアプリケーションプログラム125を知ることができる。   The executable list 126 is a list in which application programs 125 installed in the HMD 100 and executable by the HMD 100 are registered. The executable list 126 may include data indicating whether or not the entity data of the application program 125 is stored in the storage unit 122 in addition to the executable application program 125. Information for executing the application program 125 may be included in the executable list 126. The control unit 150 can know the executable application program 125 by referring to the executable list 126.

アプリ情報127は、実行可能リスト126に登録されたアプリケーションプログラム125に対応するタグ、及び、識別子を記憶する。
図7は、アプリ情報127の構成例を示す模式図である。図7の例では、インストールされたアプリケーションプログラム125を区別する符号として、3桁の数値が用いられる。タグは、各々のアプリケーションプログラム125の機能或いは利用目的を示す、付加的な情報である。例えば、番号001のアプリケーションプログラム125のタグは「万歩計」と設定される。従って、番号001のアプリケーションプログラム125は、HMD100が万歩計(登録商標)の機能を実現するためのプログラムである。また、番号001のアプリケーションプログラム125には、識別子として画像011が設定される。例えば、使用者Uに対し、番号001のアプリケーションプログラム125を実行できることを提示する場合、HMD100は、表示領域Vに、画像011を表示する。識別子は、文字(テキスト)や記号、或いは画像を用いることができ、図7の例では、画像である。識別子である画像(例えば、画像011)の画像データの実体は、例えば、アプリ情報127に対応付けて記憶部122に記憶される。
The application information 127 stores a tag and an identifier corresponding to the application program 125 registered in the executable list 126.
FIG. 7 is a schematic diagram illustrating a configuration example of the application information 127. In the example of FIG. 7, a three-digit numerical value is used as a code for distinguishing the installed application program 125. The tag is additional information indicating the function or purpose of use of each application program 125. For example, the tag of the application program 125 with the number 001 is set as “pedometer”. Therefore, the application program 125 of number 001 is a program for the HMD 100 to realize the function of a pedometer (registered trademark). In addition, the image 011 is set as an identifier in the application program 125 of number 001. For example, when presenting to the user U that the application program 125 of number 001 can be executed, the HMD 100 displays the image 011 in the display area V. The identifier may be a character (text), a symbol, or an image, and is an image in the example of FIG. The entity of the image data of the image (for example, image 011) as the identifier is stored in the storage unit 122 in association with the application information 127, for example.

図6に示すアプリ実行条件128は、HMD100にインストールされたアプリケーションプログラム125の各々について、実行する条件を含む。アプリ実行条件128は、実行可能リスト126に登録されたアプリケーションプログラム125についての情報を含む。   The application execution condition 128 illustrated in FIG. 6 includes a condition for executing each application program 125 installed in the HMD 100. The application execution condition 128 includes information about the application program 125 registered in the executable list 126.

図8は、アプリ実行条件128の構成例を示す模式図である。本実施形態では、HMD100が、インストールされたアプリケーションプログラム125を、使用者Uの身体の状態に合わせて選択し、実行する。アプリ実行条件128は、使用者Uの身体の状態と、実行されるアプリケーションプログラム125とを対応付ける情報といえる。   FIG. 8 is a schematic diagram illustrating a configuration example of the application execution condition 128. In the present embodiment, the HMD 100 selects and executes the installed application program 125 according to the state of the user U's body. The application execution condition 128 can be said to be information that associates the physical state of the user U with the application program 125 to be executed.

図8の例で、アプリ実行条件128は、状態判定部195が出力する判定結果と、実行するアプリケーションプログラム125とを対応付けて設定する。すなわち、アプリ実行条件128は、センサーハブ192の出力値と、アプリケーションプログラム125の番号とを対応付ける。図8の例では、アプリ実行条件128は、センサーハブ192の出力値に対応する使用者Uの状態を示す文字を含むが、この文字情報を含む必要はない。状態判定部195が使用者Uの状態を「歩行中」と判定した場合、センサーハブ192の出力値は「001」である。この出力値に対応するプログラムとして、番号011のアプリケーションプログラム125が設定されている。   In the example of FIG. 8, the application execution condition 128 sets the determination result output from the state determination unit 195 and the application program 125 to be executed in association with each other. That is, the application execution condition 128 associates the output value of the sensor hub 192 with the number of the application program 125. In the example of FIG. 8, the application execution condition 128 includes characters indicating the state of the user U corresponding to the output value of the sensor hub 192, but it is not necessary to include this character information. When the state determination unit 195 determines that the state of the user U is “walking”, the output value of the sensor hub 192 is “001”. As a program corresponding to this output value, an application program 125 of number 011 is set.

アプリ実行条件128では、1つのセンサーハブ192の出力値に対応付けて、複数のアプリケーションプログラム125を設定することができる。また、センサーハブ192の複数の出力値に対応付けて、1つの(共通する)アプリケーションプログラム125を設定してもよい。   In the application execution condition 128, a plurality of application programs 125 can be set in association with the output value of one sensor hub 192. Further, one (common) application program 125 may be set in association with a plurality of output values of the sensor hub 192.

例えば、センサーハブ192の出力値「004」は、予め設定された速度範囲(例えば、時速10km未満)で移動する使用者Uが転倒したことを示す出力値である。出力値「005」は、予め設定された速度範囲(例えば、時速10km以上)で移動する使用者Uが転倒したことを示す出力値である。また、出力値「007」は使用者Uが遊泳中に異常な状態となったことを示す出力値である。このうち、出力値「002」、「005」のそれぞれに、番号015のアプリケーションプログラム125が対応付けられる。番号015のアプリケーションプログラム125は、図7に例示したアプリ情報127によれば、重度の異常を通報するためのアプリケーションプログラムであると定義されている。図8のアプリ実行条件128によれば、使用者Uが予め設定された速度範囲で転倒した場合に、公的機関に対する救助要請(救援要請、救急通報)等を行うアプリケーションプログラム125が動作するように設定されている。また、使用者Uが遊泳中に通報を要する状態となったことを状態判定部195が判定した場合、同じアプリケーションプログラム125が起動して、公的機関に対する救助要請等を行うよう設定されている。   For example, the output value “004” of the sensor hub 192 is an output value indicating that the user U moving in a preset speed range (for example, less than 10 km / h) has fallen. The output value “005” is an output value indicating that the user U moving in a preset speed range (for example, 10 km / h or more) has fallen. The output value “007” is an output value indicating that the user U is in an abnormal state during swimming. Among these, the application program 125 of number 015 is associated with each of the output values “002” and “005”. According to the application information 127 illustrated in FIG. 7, the application program 125 having the number 015 is defined as an application program for reporting a severe abnormality. According to the application execution condition 128 of FIG. 8, when the user U falls within a preset speed range, the application program 125 that makes a rescue request (rescue request, emergency report) or the like to the public institution operates. Is set to In addition, when the state determination unit 195 determines that the user U is in a state that requires notification during swimming, the same application program 125 is activated to make a rescue request to a public institution. .

図6に示すアプリ付加情報129は、HMD100にインストールされたアプリケーションプログラム125を選択する場合の条件として、状態判定部195の判定結果以外の付加的な情報を含む。アプリ付加情報129は、実行可能リスト126に登録されたアプリケーションプログラム125についての情報を含む。   The application additional information 129 illustrated in FIG. 6 includes additional information other than the determination result of the state determination unit 195 as a condition for selecting the application program 125 installed in the HMD 100. The application additional information 129 includes information about the application program 125 registered in the executable list 126.

図9は、アプリ付加情報129の構成例を示す模式図である。アプリ付加情報129は、HMD100がアプリケーションプログラム125を選択する場合に利用される情報を、アプリケーションプログラム125のそれぞれに対応付ける。アプリ付加情報129が含む情報は、実行するアプリケーションプログラム125を選択する処理において、センサーハブ192の出力値とともに利用される。   FIG. 9 is a schematic diagram illustrating a configuration example of the application additional information 129. The application additional information 129 associates information used when the HMD 100 selects the application program 125 with each application program 125. Information included in the application additional information 129 is used together with the output value of the sensor hub 192 in the process of selecting the application program 125 to be executed.

図9の例で、アプリ付加情報129は、各々のアプリケーションプログラム125に対応付けて、実行回数、評価、表示領域の位置及びサイズ、及び、実行に要するコストを含む。実行回数はアプリケーションプログラム125を過去に実行した履歴である。評価は、使用者U、及び/又は、他のユーザーがアプリケーションプログラム125を評価した結果の統計である。アプリ付加情報129に含まれる情報は、アプリケーションプログラム125がHMD100にインストールされた後、或いはインストールされる際に、生成され、必要に応じて更新される。例えば、制御部150が、通信部117によりサーバー3と通信して、アプリケーションプログラム125の評価のデータをダウンロードし、ダウンロードしたデータに基づきアプリ付加情報129を更新する。データをダウンロードするタイミングは、アプリケーションプログラム125の実行の都度であってもよい。表示領域の位置とサイズは、アプリケーションプログラム125を実行する場合に、表示領域Vにおいて、アプリケーションプログラム125に関する画像やテキストを表示する領域の位置とサイズである。表示領域の位置は、表示領域V全体に対する相対位置とすることができ、予め設定された上部、中央、下部などのいずれかを選択する情報であってもよい。また、表示領域のサイズは、表示領域Vを構成する画素数であってもよい。   In the example of FIG. 9, the application additional information 129 includes the number of executions, evaluation, the position and size of the display area, and the cost required for execution in association with each application program 125. The number of executions is a history of executing the application program 125 in the past. The evaluation is a statistic obtained as a result of evaluation of the application program 125 by the user U and / or another user. The information included in the application additional information 129 is generated after the application program 125 is installed in the HMD 100 or when it is installed, and is updated as necessary. For example, the control unit 150 communicates with the server 3 via the communication unit 117, downloads the evaluation data of the application program 125, and updates the application additional information 129 based on the downloaded data. Data may be downloaded every time the application program 125 is executed. The position and size of the display area are the position and size of the area in the display area V where images and text related to the application program 125 are displayed when the application program 125 is executed. The position of the display area can be a relative position with respect to the entire display area V, and may be information for selecting any one of a preset upper part, center, lower part, and the like. Further, the size of the display area may be the number of pixels constituting the display area V.

アプリ付加情報129が含む表示領域のサイズに基づき、表示設定部156がアプリケーションプログラム125用の表示領域のサイズを設定する。ここで設定される表示領域のサイズや位置は、使用者Uの動作に応じて表示可能な表示領域としてもよい。すなわち、センサーハブ192の判定結果に基づき表示領域のサイズや位置を決定してもよい。例えば、使用者Uが静止時における表示領域のサイズを表示領域Vの100%としてもよい。また、使用者Uが歩行中は、表示領域Vにおいて使用者Uの有効視野(中心から±15度)を除く他の領域を表示領域としてもよい。また、使用者Uが走っている状態で、表示領域を、表示領域Vにおいて安定注視野(中心から±30度)を除く残りの領域としてもよい。   Based on the size of the display area included in the application additional information 129, the display setting unit 156 sets the size of the display area for the application program 125. The size and position of the display area set here may be a display area that can be displayed according to the operation of the user U. That is, the size and position of the display area may be determined based on the determination result of the sensor hub 192. For example, the size of the display area when the user U is stationary may be 100% of the display area V. Further, when the user U is walking, the display area may be a display area other than the user U's effective visual field (± 15 degrees from the center). In the state where the user U is running, the display area may be the remaining area in the display area V excluding the stable focus (± 30 degrees from the center).

コストは、例えば、アプリケーションプログラム125の実行あるいはダウンロードをするために必要な料金である。アプリケーションプログラム125の実体のプログラムを、アプリケーションプログラム125の実行時にサーバー3からダウンロードする構成では、ダウンロードに伴い課金されることがある。アプリ付加情報129が含むコストは、アプリケーションプログラム125のダウンロードに伴い課金される料金を示している。   The cost is a fee necessary for executing or downloading the application program 125, for example. In the configuration in which the actual program of the application program 125 is downloaded from the server 3 when the application program 125 is executed, there may be a charge associated with the download. The cost included in the application additional information 129 indicates a fee charged when the application program 125 is downloaded.

制御部150は、オペレーティングシステム(OS)143、画像処理部145、表示制御部147、撮像制御部149、情報取得部152、アプリ実行制御部154、表示設定部156、及び、処理実行部158を有する。   The control unit 150 includes an operating system (OS) 143, an image processing unit 145, a display control unit 147, an imaging control unit 149, an information acquisition unit 152, an application execution control unit 154, a display setting unit 156, and a process execution unit 158. Have.

画像処理部145は、画像表示部20により表示する画像または映像の画像データに基づいて、右表示ユニット22及び左表示ユニット24に送信する信号を生成する。画像処理部145が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。
また、画像処理部145は、必要に応じて、画像データの解像度を右表示ユニット22及び左表示ユニット24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部145は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。画像処理部145は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して、接続ケーブル40を介して画像表示部20に送信する。
The image processing unit 145 generates a signal to be transmitted to the right display unit 22 and the left display unit 24 based on image data of an image or video displayed by the image display unit 20. The signal generated by the image processing unit 145 may be a vertical synchronization signal, a horizontal synchronization signal, a clock signal, an analog image signal, or the like.
Further, the image processing unit 145 may perform resolution conversion processing for converting the resolution of the image data to a resolution suitable for the right display unit 22 and the left display unit 24 as necessary. The image processing unit 145 also performs image adjustment processing for adjusting the brightness and saturation of image data, 2D image data from 3D image data, 2D / 3D conversion processing for generating 3D image data from 2D image data, and the like. May be executed. When these image processes are executed, the image processing unit 145 generates a signal for displaying an image based on the processed image data, and transmits the signal to the image display unit 20 via the connection cable 40.

画像処理部145は、メインプロセッサー140がプログラムを実行して実現される構成のほか、メインプロセッサー140とは別のハードウェア(例えば、DSP(Digital Signal Processor))で構成してもよい。   The image processing unit 145 may be configured by hardware (for example, DSP (Digital Signal Processor)) different from the main processor 140 in addition to the configuration realized by the main processor 140 executing a program.

表示制御部147は、右表示ユニット22及び左表示ユニット24を制御する制御信号を生成し、この制御信号により、右表示ユニット22及び左表示ユニット24のそれぞれによる画像光の生成及び射出を制御する。具体的には、表示制御部147は、OLED駆動回路225、245を制御して、OLEDパネル223、243による画像の表示を実行させる。表示制御部147は、画像処理部145が出力する信号に基づきOLED駆動回路225、245がOLEDパネル223、243に描画するタイミングの制御、OLEDパネル223、243の輝度の制御等を行う。   The display control unit 147 generates a control signal for controlling the right display unit 22 and the left display unit 24, and controls the generation and emission of image light by the right display unit 22 and the left display unit 24 based on the control signal. . Specifically, the display control unit 147 controls the OLED drive circuits 225 and 245 to cause the OLED panels 223 and 243 to display an image. The display control unit 147 controls the timing at which the OLED drive circuits 225 and 245 draw on the OLED panels 223 and 243, controls the luminance of the OLED panels 223 and 243, and the like based on the signal output from the image processing unit 145.

表示制御部147は、アプリ実行制御部154の制御に従って、アプリケーションプログラム125が実行される場合に、アプリケーションプログラム125に係る文字や画像を、表示設定部156が設定する位置及びサイズに従って表示する。   When the application program 125 is executed under the control of the application execution control unit 154, the display control unit 147 displays characters and images related to the application program 125 according to the position and size set by the display setting unit 156.

撮像制御部149は、カメラ61を制御して撮像を実行させ、撮像画像データを生成し、記憶部122に一時的に記憶する。また、カメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部149は撮像画像データをカメラ61から取得して、記憶部122に一時的に記憶する。本実施形態では、カメラ61を検出部170に含める場合、カメラ61はセンサーハブ192の制御に従って撮像を実行し、撮像素子の出力信号または撮像画像データをセンサーハブ192が取得する。撮像制御部149は、センサーハブ192を介して撮像を実行させ、センサーハブ192を経由して撮像画像データを取得してもよい。   The imaging control unit 149 controls the camera 61 to execute imaging, generates captured image data, and temporarily stores the captured image data in the storage unit 122. When the camera 61 is configured as a camera unit including a circuit that generates captured image data, the imaging control unit 149 acquires captured image data from the camera 61 and temporarily stores the captured image data in the storage unit 122. In the present embodiment, when the camera 61 is included in the detection unit 170, the camera 61 executes imaging under the control of the sensor hub 192, and the sensor hub 192 acquires an output signal or captured image data of the imaging device. The imaging control unit 149 may execute imaging via the sensor hub 192 and acquire captured image data via the sensor hub 192.

情報取得部152は、アプリ実行制御部154がアプリケーションプログラム125を選択する処理において必要なデータを取得する。情報取得部152は、センサーハブ192の出力値を取得する。また、情報取得部152は、記憶部122が記憶する実行可能リスト126、アプリ情報127、アプリ実行条件128、及びアプリ付加情報129のうち、必要な情報を取得する。   The information acquisition unit 152 acquires data necessary for processing in which the application execution control unit 154 selects the application program 125. The information acquisition unit 152 acquires the output value of the sensor hub 192. The information acquisition unit 152 acquires necessary information from the executable list 126, the application information 127, the application execution condition 128, and the application additional information 129 stored in the storage unit 122.

アプリ実行制御部154(実行制御部)は、情報取得部152が取得する情報に基づいて、実行するアプリケーションプログラム125を選択する。また、アプリ実行制御部154は、選択したアプリケーションプログラム125を、処理実行部158(実行部)により実行させる。   The application execution control unit 154 (execution control unit) selects the application program 125 to be executed based on the information acquired by the information acquisition unit 152. Further, the application execution control unit 154 causes the process execution unit 158 (execution unit) to execute the selected application program 125.

表示設定部156は、処理実行部158が実行するアプリケーションプログラム125に関する表示を行う表示領域の位置、及びサイズを設定する。表示設定部156は、アプリ付加情報129に含まれる情報に基づいて、表示領域の位置およびサイズを設定する。また、表示設定部156は、後述するように、アプリ実行制御部154が使用者Uによる確認の入力を要求する場合、一時的に、アプリケーションプログラム125の表示領域を縮小するように、表示領域を設定する。   The display setting unit 156 sets the position and size of the display area for displaying the application program 125 executed by the process execution unit 158. The display setting unit 156 sets the position and size of the display area based on the information included in the application additional information 129. Further, as will be described later, when the application execution control unit 154 requests confirmation input by the user U, the display setting unit 156 temporarily sets the display area so as to reduce the display area of the application program 125. Set.

処理実行部158は、アプリ実行制御部154が選択し、実行を指示したアプリケーションプログラム125を実行する。アプリ実行条件128は、実行するアプリケーションプログラム125の実体のプログラムが、記憶部122に記憶されていない場合、通信部117によりサーバー3からプログラムをダウンロードして実行する。   The process execution unit 158 executes the application program 125 selected by the application execution control unit 154 and instructed to be executed. If the actual program of the application program 125 to be executed is not stored in the storage unit 122, the application execution condition 128 is downloaded from the server 3 by the communication unit 117 and executed.

図10は、HMD100の動作を示すフローチャートである。図10には、特に、HMD100にアプリケーションプログラム125をインストールする、インストール処理を示す。図10のインストール処理は、アプリケーションプログラム125の実体プログラムを記憶部122に記憶する例である。   FIG. 10 is a flowchart showing the operation of the HMD 100. FIG. 10 particularly shows an installation process for installing the application program 125 in the HMD 100. The installation process of FIG. 10 is an example of storing the actual program of the application program 125 in the storage unit 122.

制御部150は、通信部117を制御してサーバー3に接続する(ステップS11)。制御部150は、操作部110が検出する操作等により、インストールするアプリケーションプログラム125が指定され、インストールが指示されると(ステップS12)、指定されたアプリケーションプログラム125を過去にインストールした履歴の有無を判定する(ステップS13)。制御部150は、例えば、記憶部122が記憶する実行可能リスト126を参照して、ステップS13の判定を行う。この場合、実行可能リスト126に、HMD100からアンインストールされて使用不能になったアプリケーションプログラム125について、過去にインストールされた履歴を示すデータを含めることが好ましい。   The control unit 150 controls the communication unit 117 to connect to the server 3 (step S11). When the application program 125 to be installed is specified by an operation detected by the operation unit 110 and installation is instructed (step S12), the control unit 150 determines whether there is a history of installing the specified application program 125 in the past. Determination is made (step S13). For example, the control unit 150 refers to the executable list 126 stored in the storage unit 122 and performs the determination in step S13. In this case, it is preferable that the executable list 126 includes data indicating a history of past installation of the application program 125 that has been uninstalled from the HMD 100 and becomes unusable.

制御部150は、ステップS12で指定されたアプリケーションプログラム125を過去にインストールした履歴がない場合(ステップS13;No)、当該アプリケーションプログラム125に関する情報を生成する(ステップS14)。ステップS14で、制御部150は、ステップS12で指定されたアプリケーションプログラム125に関する情報を生成して、実行可能リスト126、アプリ情報127、アプリ実行条件128、及びアプリ付加情報129に追記する。   If there is no history of installing the application program 125 specified in step S12 in the past (step S13; No), the control unit 150 generates information related to the application program 125 (step S14). In step S14, the control unit 150 generates information related to the application program 125 specified in step S12, and adds the information to the executable list 126, application information 127, application execution condition 128, and application additional information 129.

制御部150は、アプリケーションプログラム125をインストールする処理を実行し、この処理によって、アプリケーションプログラム125の実体プログラムを記憶部122に記憶させる(ステップS15)。
制御部150は、ステップS14で作成した情報を、例えば、操作部110が検出する操作によって入力される情報に基づき更新する(ステップS16)。
The control unit 150 executes a process of installing the application program 125, and stores the actual program of the application program 125 in the storage unit 122 by this process (step S15).
The control unit 150 updates the information created in step S14 based on, for example, information input by an operation detected by the operation unit 110 (step S16).

HMD100がインストールするアプリケーションプログラム125と、状態判定部195の出力値との対応付けを、使用者Uが決めることがある。例えば、ジョギング中に使用者Uに速度や位置情報を提示する機能に対応するアプリケーションプログラム125を、使用者Uが走行中に使用するか、使用者Uが歩行中に使用するかを、使用者Uが選択したいというニーズがある。また、例えば、心拍数を測定する機能に対応するアプリケーションプログラム125を、使用者Uが走行中に使用するか、使用者Uの安静時に使用するかを、使用者Uが選択したいというニーズもある。このようなアプリケーションプログラム125について、制御部150は、ステップS14では、アプリ実行条件128に具体的な情報を設定しない。そして、ステップS16で、使用者Uが、アプリケーションプログラム125とセンサーハブ192の出力値或いは使用者Uの状態とを対応付ける操作を行い、この操作で入力される情報に基づき、制御部150がアプリ実行条件128を更新する。   The user U may determine the association between the application program 125 installed by the HMD 100 and the output value of the state determination unit 195. For example, the user determines whether the user U uses the application program 125 corresponding to the function of presenting speed and position information to the user U during jogging while the user U is running or the user U is walking. There is a need for U to choose. Further, for example, there is a need for the user U to select whether the user U uses the application program 125 corresponding to the function of measuring the heart rate while the user U is traveling or when the user U is at rest. . For such an application program 125, the control unit 150 does not set specific information in the application execution condition 128 in step S14. In step S16, the user U performs an operation of associating the application program 125 with the output value of the sensor hub 192 or the state of the user U, and the control unit 150 executes the application based on the information input by this operation. Update condition 128.

また、インストールされるアプリケーションプログラム125と、使用者Uの状態とが明らかな場合、制御部150は、ステップS14において、アプリ実行条件128に情報を登録してもよい。   If the application program 125 to be installed and the state of the user U are clear, the control unit 150 may register information in the application execution condition 128 in step S14.

また、制御部150は、ステップS12で指定されたアプリケーションプログラム125を過去にインストールした履歴がある場合(ステップS13;Yes)、過去に作成された情報への対応付けを行う(ステップS17)。ステップS17で、制御部150は、アプリ情報127、アプリ実行条件128、アプリ付加情報129に含まれる情報のうち、インストールするアプリケーションプログラム125に対応する情報を探索する。そして、ステップS12で指定されたアプリケーションプログラム125と、探索により特定したアプリケーションプログラム125の番号とを対応付ける処理を行う。これにより、過去に作成された情報を活用できる。その後、制御部150は、ステップS15に移行する。   If there is a history of installing the application program 125 specified in step S12 in the past (step S13; Yes), the control unit 150 associates information created in the past (step S17). In step S <b> 17, the control unit 150 searches for information corresponding to the application program 125 to be installed among the information included in the application information 127, the application execution condition 128, and the application additional information 129. And the process which matches the application program 125 designated by step S12 and the number of the application program 125 specified by the search is performed. Thereby, the information created in the past can be utilized. Thereafter, the control unit 150 proceeds to step S15.

図11及び図12は、HMD100の動作を示すフローチャートである。図11は、特に、アプリケーションプログラム125を選択して実行する動作を示す。また、図12は、図11のステップS24の動作を詳細に示す。   11 and 12 are flowcharts showing the operation of the HMD 100. FIG. 11 particularly shows the operation of selecting and executing the application program 125. FIG. 12 shows in detail the operation of step S24 of FIG.

HMD100において、例えばHMD100が起動した後に各部が初期化され、センサーハブ192が動作を開始する(ステップS21)。
センサーハブ192は検出部170の検出値を取得して、使用者Uの状態を判定し、判定結果を制御部150に出力する。制御部150は、センサーハブ192の出力値を取得する(ステップS22)。
In the HMD 100, for example, after the HMD 100 is activated, each unit is initialized, and the sensor hub 192 starts operating (step S21).
The sensor hub 192 acquires the detection value of the detection unit 170, determines the state of the user U, and outputs the determination result to the control unit 150. The control unit 150 acquires the output value of the sensor hub 192 (step S22).

制御部150は、既にアプリケーションプログラム125を実行している間か否かを判定する(ステップS23)。HMD100は、オペレーティングシステム143の仕様により、いわゆるマルチタスクを実現できる。この場合、HMD100は複数のアプリケーションプログラム125を、オペレーティングシステム143上で並列的に実行することができる。また、アプリケーションプログラム125のうち、使用者Uの状態とは関係なく、実行されるアプリケーションプログラム125もある。ステップS23で、制御部150は、センサーハブ192が判定した使用者Uの状態に基づき選択されたアプリケーションプログラム125が、既に実行されている状態であるか否かを判定する(ステップS23)。   The control unit 150 determines whether or not the application program 125 is already being executed (step S23). The HMD 100 can realize so-called multitasking according to the specifications of the operating system 143. In this case, the HMD 100 can execute a plurality of application programs 125 in parallel on the operating system 143. Further, among the application programs 125, there is also an application program 125 that is executed regardless of the state of the user U. In step S23, the control unit 150 determines whether or not the application program 125 selected based on the state of the user U determined by the sensor hub 192 is already being executed (step S23).

アプリケーションプログラム125の実行中でないと判定した場合(ステップS23;No)、制御部150は、アプリケーションプログラム選択処理を行う(ステップS24)。ステップS24では、使用者Uの判定結果に適合するアプリケーションプログラム125を選択する。   When it is determined that the application program 125 is not being executed (step S23; No), the control unit 150 performs an application program selection process (step S24). In step S24, the application program 125 that matches the determination result of the user U is selected.

制御部150は、ステップS24で選択したアプリケーションプログラム125の実行を開始する(ステップS25)。制御部150は、アプリケーションプログラム125を実行して、アプリケーションプログラム125の機能に関する画像やテキストを、画像表示部20により表示させる。例えば、図7に例示した番号011のアプリケーションプログラム125は、万歩計の機能に対応する。このアプリケーションプログラム125を実行する場合、制御部150は、万歩計のカウント値を示す画像を画像表示部20に表示させる。また、例えば、制御部150は、サイクリング記録を行うアプリケーションプログラム125を実行する場合、使用者Uの現在位置のGPS座標、走行速度、走行方向、過去に記録された内容等を配置した画面を、画像表示部20により表示させる。また、例えば、制御部150は、翻訳のアプリケーションプログラム125を実行する場合、翻訳機能に係る画像を画像表示部20により表示させる。具体的には、制御部150は、マイク63で集音した音声を音声認識したテキスト、音声認識したテキストから判定した言語、音声認識したテキストを、設定された言語に翻訳した翻訳処理の結果等のテキストや画像を配置した画面を、画像表示部20により表示させる。   The control unit 150 starts executing the application program 125 selected in step S24 (step S25). The control unit 150 executes the application program 125 and causes the image display unit 20 to display an image and text related to the function of the application program 125. For example, the application program 125 of number 011 illustrated in FIG. 7 corresponds to the pedometer function. When this application program 125 is executed, the control unit 150 causes the image display unit 20 to display an image indicating the count value of the pedometer. Further, for example, when executing the application program 125 for performing cycling recording, the control unit 150 displays a screen on which the GPS coordinates of the current position of the user U, the traveling speed, the traveling direction, contents recorded in the past, and the like are arranged. The image is displayed by the image display unit 20. For example, when executing the translation application program 125, the control unit 150 causes the image display unit 20 to display an image related to the translation function. Specifically, the control unit 150 performs speech recognition on the speech collected by the microphone 63, a language determined from the speech recognized text, a translation processing result obtained by translating the speech recognized text into a set language, and the like. A screen on which the text and image are arranged is displayed by the image display unit 20.

その後、制御部150は、動作を終了するか否かを判定する(ステップS26)。操作部110が検出する操作等によりアプリケーションプログラム125の実行停止やHMD100の動作停止が指示された場合、制御部150は動作終了と判定し(ステップS26;Yes)、本処理を終了する。また、動作を継続すると判定した場合(ステップS26;No)、制御部150はステップS22に戻る。   Thereafter, the control unit 150 determines whether or not to end the operation (step S26). When the execution stop of the application program 125 or the operation stop of the HMD 100 is instructed by an operation detected by the operation unit 110 or the like, the control unit 150 determines that the operation is ended (step S26; Yes), and ends this process. Moreover, when it determines with continuing operation | movement (step S26; No), the control part 150 returns to step S22.

また、制御部150は、既に使用者Uの状態に基づき選択したアプリケーションプログラム125を実行中であると判定した場合(ステップS26;Yes)、センサーハブ192の出力値に変化があったか否かを判定する(ステップS27)。ステップS27で、制御部150は、使用者Uの状態に基づきアプリケーションプログラム125を選択したときのセンサーハブ192の出力値と、ステップS22で取得した出力値とが相違するか否かを判定する。ステップS27で、制御部150は、アプリケーションプログラム125を選択したときのセンサーハブ192の出力値とステップS22で取得した出力値とが完全に一致しなくても、互いに類似する使用者Uの状態を示していれば、変化なしと判定する。   In addition, when it is determined that the application program 125 selected based on the state of the user U is already being executed (step S26; Yes), the control unit 150 determines whether or not the output value of the sensor hub 192 has changed. (Step S27). In step S27, the control unit 150 determines whether or not the output value of the sensor hub 192 when the application program 125 is selected based on the state of the user U is different from the output value acquired in step S22. In step S27, the control unit 150 determines the state of the user U that is similar to each other even if the output value of the sensor hub 192 when the application program 125 is selected does not completely match the output value acquired in step S22. If so, it is determined that there is no change.

出力値の変化がないと判定した場合(ステップS27;No)、制御部150はステップS22に戻る。
また、出力値の変化があったと判定した場合(ステップS27;Yes)、制御部150は、センサーハブ192の出力値の監視を開始する(ステップS28)。
制御部150は、センサーハブ192の出力値が、ステップS27で変化したと判定した後の出力値を、所定時間以上継続しているか否かを判定する(ステップS29)。ステップS29では、同一の出力値が継続していなくても、類似する使用者Uの状態を示す出力値であれば、継続していると判定する。変化後の出力値が、設定された時間以上継続した場合(ステップS29;Yes)、制御部150は、アプリケーションプログラム選択処理(ステップS24)に移行する。これにより、使用者Uの状態が変化した場合に、変化後の使用者Uの状態に適したアプリケーションプログラム125を選択しなおすことができる。
When it determines with there being no change of an output value (step S27; No), the control part 150 returns to step S22.
If it is determined that the output value has changed (step S27; Yes), the control unit 150 starts monitoring the output value of the sensor hub 192 (step S28).
The controller 150 determines whether or not the output value after determining that the output value of the sensor hub 192 has changed in Step S27 has continued for a predetermined time or more (Step S29). In step S29, even if the same output value does not continue, if it is an output value indicating the state of a similar user U, it is determined that it is continued. When the output value after the change continues for the set time or longer (step S29; Yes), the control unit 150 proceeds to an application program selection process (step S24). Thereby, when the state of the user U changes, the application program 125 suitable for the state of the user U after the change can be selected again.

また、制御部150は、ステップS27で変化したと判定した後のセンサーハブ192の出力値が、所定時間以上継続しなかったと判定した場合(ステップS29;No)、ステップS22に戻る。これにより、使用者Uの状態が一時的に変化した場合に、実行するアプリケーションプログラム125を変更しないので、HMD100の動作を安定させることができる。   Further, when the control unit 150 determines that the output value of the sensor hub 192 after determining that it has changed in step S27 has not continued for a predetermined time or longer (step S29; No), the control unit 150 returns to step S22. Thereby, when the state of the user U changes temporarily, since the application program 125 to be executed is not changed, the operation of the HMD 100 can be stabilized.

ステップS24に示したアプリケーションプログラム選択処理を詳細に説明する。
図12のステップS31で、制御部150は、一覧表示設定がオンになっているか否かを判定する(ステップS31)。一覧表示設定は、使用者Uの状態に適するアプリケーションプログラム125を、使用者Uに見えるように表示領域に一覧表示する動作を行うことの設定である。一覧表示設定がオンの場合、表示領域に一覧表示されたアプリケーションプログラム125のタグ、或いは識別子を見て、使用者Uがアプリケーションプログラム125を選択できる。そして、使用者Uが選択したアプリケーションプログラム125が、実行される。一覧表示設定の設定状態(オンまたはオフ)は、例えば、記憶部122が記憶する設定データ123に含まれる。
The application program selection process shown in step S24 will be described in detail.
In step S31 of FIG. 12, the control unit 150 determines whether the list display setting is turned on (step S31). The list display setting is a setting for performing an operation of displaying a list of application programs 125 suitable for the state of the user U in the display area so that the user U can see them. When the list display setting is on, the user U can select the application program 125 by looking at the tag or identifier of the application program 125 displayed as a list in the display area. Then, the application program 125 selected by the user U is executed. The setting state (ON or OFF) of the list display setting is included in the setting data 123 stored in the storage unit 122, for example.

一覧表示設定がオフの場合(ステップS31;No)、制御部150は、ステップS22で取得したセンサーハブ192の出力値に対応して、アプリ実行条件128に設定されたアプリケーションプログラム125を選択する(ステップS32)。
ステップS32で、制御部150は、いずれか1つのアプリケーションプログラム125を選択する。センサーハブ192の出力値に対応してアプリ実行条件128に設定されるアプリケーションプログラム125が複数ある場合、制御部150は、アプリ付加情報129に登録された付加情報を用いて、いずれか1のアプリケーションプログラム125を選択する。アプリ付加情報129に登録された複数の付加情報には、予め重み付けがされていてもよい。この場合、例えば、制御部150は、アプリ付加情報129に登録された複数の付加情報を数値化し、数値化した付加情報と重み付けの値をもとに、各アプリケーションプログラム125のスコアを算出する。制御部150は、算出したスコアに従って、1のアプリケーションプログラム125を選択する。
When the list display setting is off (step S31; No), the control unit 150 selects the application program 125 set in the application execution condition 128 according to the output value of the sensor hub 192 acquired in step S22 ( Step S32).
In step S32, the control unit 150 selects any one application program 125. When there are a plurality of application programs 125 set in the application execution condition 128 corresponding to the output value of the sensor hub 192, the control unit 150 uses any one of the applications using the additional information registered in the application additional information 129. The program 125 is selected. A plurality of additional information registered in the application additional information 129 may be weighted in advance. In this case, for example, the control unit 150 quantifies a plurality of additional information registered in the application additional information 129, and calculates a score of each application program 125 based on the quantified additional information and a weighting value. The control unit 150 selects one application program 125 according to the calculated score.

制御部150は、実行可否入力画面を画像表示部20により表示させる(ステップS33)。実行可否入力画面は、使用者Uに対して、選択されたアプリケーションプログラム125を実行してよいか否かの確認の入力を求める文字や画像を含む画面である。ステップS33では、表示設定部156の機能により、アプリケーションプログラム125に係る表示を行う表示領域のサイズが縮小され、表示位置が、視界の邪魔にならない位置に移動される。   The control unit 150 causes the image display unit 20 to display an execution availability screen (step S33). The execution availability input screen is a screen including characters and images that request the user U to confirm whether or not the selected application program 125 can be executed. In step S33, the function of the display setting unit 156 reduces the size of the display area for display related to the application program 125, and moves the display position to a position that does not interfere with the field of view.

実行可否入力の表示を行った後、制御部150は、実行可の入力の検出を開始し(ステップS34)、実行可の入力がされない間は待機する(ステップS34;No)。実行可の入力がされた場合(ステップS34;Yes)、制御部150は、図11のステップS25に移行してアプリケーションプログラム125を実行する。   After displaying the execution enable / disable input, the control unit 150 starts detecting the executable input (step S34), and waits until no executable input is made (step S34; No). When the executable input is input (step S34; Yes), the control unit 150 proceeds to step S25 in FIG. 11 and executes the application program 125.

ステップS33〜S34の実行可否入力の表示および入力の待機は、省略してもよい。また、選択されたアプリケーションプログラム125の種類によって、ステップS33〜S34を実行するか否かを設定してもよい。例えば、異常時や緊急時に救助要請を行うアプリケーションプログラム125(図7の番号015)が選択された場合に、ステップS33〜S34を省略してもよい。また、ステップS33〜S34を省略するか、実行するかを、アプリ実行条件128に設定してもよい。   The display of the availability input and the standby for input in steps S33 to S34 may be omitted. Further, whether to execute steps S33 to S34 may be set depending on the type of the selected application program 125. For example, steps S33 to S34 may be omitted when the application program 125 (number 015 in FIG. 7) for requesting rescue in case of an abnormality or emergency is selected. Moreover, you may set to the application execution conditions 128 whether steps S33-S34 are abbreviate | omitted or performed.

一覧表示設定がオンの場合(ステップS31;Yes)、制御部150は、ステップS22で取得したセンサーハブ192の出力値に対応して、アプリ実行条件128に設定された複数のアプリケーションプログラム125を選択する(ステップS35)。制御部150は、選択されたアプリケーションプログラム125のタグ及び/または識別子を画像表示部20によって一覧表示させる(ステップS36)。制御部150は、操作部110により使用者Uの操作を検出する(ステップS37)。ステップS37で検出する操作は、アプリケーションプログラム125を指定する操作であるから、この操作によって1のアプリケーションプログラム125が特定される。その後、制御部150は、ステップS33に移行する。   When the list display setting is ON (step S31; Yes), the control unit 150 selects a plurality of application programs 125 set in the application execution condition 128 corresponding to the output value of the sensor hub 192 acquired in step S22. (Step S35). The control unit 150 causes the image display unit 20 to display a list of tags and / or identifiers of the selected application program 125 (step S36). The control unit 150 detects the operation of the user U by the operation unit 110 (step S37). Since the operation detected in step S37 is an operation for designating the application program 125, one operation program 125 is specified by this operation. Thereafter, the control unit 150 proceeds to step S33.

図13は、画像表示部20の表示例を示す図である。図13は、ステップS36(図12)で実行するアプリケーションプログラム125を一覧表示する状態の例を示す。図中、符号VRは、画像表示部20を装着する使用者Uの視野を示す。符号Vはハーフミラー261、281により画像を使用者Uに視認させることが可能な領域であり、言い換えれば画像表示部20が画像を表示できる表示可能領域である。   FIG. 13 is a diagram illustrating a display example of the image display unit 20. FIG. 13 shows an example of a state in which a list of application programs 125 executed in step S36 (FIG. 12) is displayed. In the figure, the symbol VR indicates the field of view of the user U wearing the image display unit 20. Reference numeral V is an area where the image can be visually recognized by the user U by the half mirrors 261 and 281, in other words, a displayable area where the image display unit 20 can display an image.

図13の例では、視野VRに位置する表示領域Vに、識別子301、302、303が並べて表示される。識別子301は、心拍数モニターの機能を提供するアプリケーションプログラム125の識別子(画像)である。識別子302は、移動速度をメーター表示する機能を提供するアプリケーションプログラム125の識別子である。また、識別子303は、方位を表示する機能を提供するアプリケーションプログラム125の識別子である。このように、選択可能なアプリケーションプログラム125について、画像等の識別子を表示して、使用者Uに選択を促すことにより、使用者Uが、アプリケーションプログラム125を直感的に、速やかに選択できる。   In the example of FIG. 13, identifiers 301, 302, and 303 are displayed side by side in the display area V located in the visual field VR. An identifier 301 is an identifier (image) of the application program 125 that provides the function of the heart rate monitor. The identifier 302 is an identifier of the application program 125 that provides a function for displaying the moving speed in a meter. An identifier 303 is an identifier of the application program 125 that provides a function for displaying a bearing. In this manner, by displaying identifiers such as images for selectable application programs 125 and prompting the user U to select, the user U can select the application program 125 intuitively and promptly.

従来の頭部装着型表示装置、或いは、スマートフォン等のアプリケーションプログラムを実行して機能を実現する装置では、アプリケーションプログラムを選択するために、使用者Uが操作を行う必要がある。この操作は、装置にインストールされた複数のアプリケーションの中から任意のアプリケーションを目視等により選択し、実行するアプリケーションプログラムを決定するために、操作手順が多い。このような従来の装置での操作を、使用者Uが歩きながら、或いは他の動作をしながら行う場合、操作手順が多いことから、使用者Uが操作の困難を感じることがある。また、使用者Uが装置の操作に集中してしまい、他の動作へ意識を向けることが難しくなり、安全性に問題が生じる可能性も否定できない。この点、本実施形態のHMD100は、アプリケーションプログラム125を選択する操作が少なくて済む。また、アプリ情報127、アプリ実行条件128及びアプリ付加情報129に登録される情報に基づき、操作なしにアプリケーションプログラム125を選択し、起動させることができる。これにより、使用者Uが、歩行や、他の動作を行いながらHMD100によりアプリケーションプログラム125を実行させることが容易になり、HMD100の操作性の向上を図ることができる。   In a conventional head-mounted display device or a device that realizes a function by executing an application program such as a smartphone, the user U needs to perform an operation in order to select the application program. This operation has many operation procedures in order to select an arbitrary application from among a plurality of applications installed in the apparatus by visual inspection or the like and determine an application program to be executed. When an operation with such a conventional apparatus is performed while the user U is walking or performing other operations, the user U may feel difficulty in operation because there are many operation procedures. In addition, it is difficult for the user U to concentrate on the operation of the apparatus, making it difficult to focus on other actions, and the possibility of a problem in safety cannot be denied. In this regard, the HMD 100 according to the present embodiment requires fewer operations for selecting the application program 125. Further, based on the information registered in the application information 127, the application execution condition 128, and the application additional information 129, the application program 125 can be selected and started without any operation. Thereby, it becomes easy for the user U to execute the application program 125 by the HMD 100 while walking or performing other operations, and the operability of the HMD 100 can be improved.

また、制御部150は、センサーハブ192によって、処理実行部158がアプリケーションプログラム125を実行中に、外部要因の発生を検出してもよい。また、制御部150は、検出部170の検出値に基づき、センサーハブ192によって異常の発生を検出してもよい。この場合、外部要因の発生または異常の検出があった場合に、予め設定された割り込み処理を処理実行部158に実行させる構成であってもよい。この場合、機能の実行中に、外部要因の発生または異常値の検出があった場合に割り込み処理を実行できる。割り込み処理の内容は、実行中のアプリケーションプログラム125の種類に応じて、或いは個々のアプリケーションプログラム125毎に、設定してもよい。例えば、地図を表示して経路案内(ナビゲーション)を行うアプリケーションプログラム125など、大きな表示領域を使用するアプリケーションプログラム125に対し、表示領域を縮小して、異常報知の画面を新たに表示する割り込み処理を実行してもよい。また、救助要請のアプリケーションプログラム125の実行中には割り込み処理を禁止してもよい。また、外部要因が解消した場合に、HMD100は、元のアプリケーションプログラム125の実行状態に復帰してもよい。   The control unit 150 may detect the occurrence of an external factor by the sensor hub 192 while the processing execution unit 158 is executing the application program 125. Further, the control unit 150 may detect the occurrence of abnormality by the sensor hub 192 based on the detection value of the detection unit 170. In this case, the configuration may be such that when the occurrence of an external factor or abnormality is detected, the process execution unit 158 executes a preset interrupt process. In this case, interrupt processing can be executed when an external factor is generated or an abnormal value is detected during execution of the function. The content of the interrupt processing may be set according to the type of the application program 125 being executed or for each individual application program 125. For example, for an application program 125 that uses a large display area, such as an application program 125 that displays a map and performs route guidance (navigation), an interrupt process for reducing the display area and newly displaying an abnormality notification screen is performed. May be executed. Further, interrupt processing may be prohibited during execution of the rescue request application program 125. Further, when the external factor is resolved, the HMD 100 may return to the execution state of the original application program 125.

さらに、アプリケーションプログラム125の選択には、他のHMD100の使用者Uの動き及び/又は状態を加味してもよい。
すなわち、使用者UAがHMD100Aを使用中に、使用者UBが使用するHMD100Bが状態判定部195により判定した判定結果を利用して、アプリケーションプログラム125を選択してもよい。HMD100Aが、HMD100Bの判定結果を取得する方法は、通信部117によりHMD100A、100B間の通信を行う方法があるが、カメラ61の撮像画像を利用してもよい。HMD100Bが、判定結果に対応するパターンでLEDインジケーター67を点滅させ、HMD100Aの制御部150が、HMD100BのLEDインジケーター67の点滅をカメラ61の撮像画像データから検出し、解析して、判定結果を算出してもよい。
Further, the selection and selection of the application program 125 may take into account the movement and / or state of the user U of another HMD 100.
That is, while the user UA is using the HMD 100A, the application program 125 may be selected using the determination result determined by the state determination unit 195 by the HMD 100B used by the user UB. The method for the HMD 100A to acquire the determination result of the HMD 100B includes a method in which the communication unit 117 performs communication between the HMDs 100A and 100B, but a captured image of the camera 61 may be used. The HMD 100B blinks the LED indicator 67 in a pattern corresponding to the determination result, and the control unit 150 of the HMD 100A detects blinking of the LED indicator 67 of the HMD 100B from the captured image data of the camera 61, analyzes it, and calculates the determination result May be.

具体的な例を挙げる。HMD100A、100Bは、音声インターフェイス182により使用者UA、UBの音声をそれぞれ集音し、集音した音声から、使用者UA、UBが発話する音声を検出してもよい。この場合、HMD100A、100Bは、それぞれ、状態判定部195により、使用者UA、UBが話す言語を特定してもよい。この場合の判定結果は、使用者UA、UBが発話していること、及び、言語を示すデータである。HMD100Aは、HMD100Bの判定結果から使用者UBの言語を特定し、この言語を、HMD100Aが特定した使用者UAの言語に翻訳するアプリケーションプログラム125を選択して、実行する。これにより、異なる言語使用者UAと使用者UBとの間で、翻訳用のアプリケーションプログラム125を使用して、コミュニケーションを行うことができる。この場合、HMD100Bが、HMD100Aと同様に翻訳用のアプリケーションプログラム125を選択して起動してもよい。   A specific example is given. The HMDs 100A and 100B may collect the voices of the users UA and UB through the voice interface 182 and detect voices uttered by the users UA and UB from the collected voices. In this case, the HMDs 100A and 100B may specify the languages spoken by the users UA and UB by the state determination unit 195, respectively. The determination result in this case is data indicating that the users UA and UB are speaking and the language. The HMD 100A specifies the language of the user UB from the determination result of the HMD 100B, selects and executes the application program 125 that translates this language into the language of the user UA specified by the HMD 100A. Thereby, it is possible to communicate between different language users UA and users UB using the application program 125 for translation. In this case, the HMD 100B may select and start the translation application program 125 in the same manner as the HMD 100A.

また、HMD100Aが、HMD100Bが使用者UBの経験情報としてお勧めの観光スポットの画像情報や位置情報を有する場合に、これらの情報を共有してもらう態様も実現できる。この場合、HMD100Aは、HMD100Bから、画像情報や位置情報を取得し、経路案内のアプリケーションプログラム125を選択して実行し、使用者UAに対し、観光スポットへの経路案内を行うことができる。
また、HMD100AとHMD100Bとが、対戦型ゲームを実行する場合に、HMD100Aが、HMD100Bが有する使用者UBのレベル、ハンディー等の情報を取得して共有化する態様も想定できる。この場合、HMD100Bにより、使用者UBがゲームを行っていると判定した場合に、この判定結果をHMD100Aが取得し、HMD100Aにおいて同じゲームのアプリケーションプログラム125を実行する。そして、HMD100Aが、ゲームのアプリケーションプログラム125の実行条件として、HMD100Bにおける使用者UBのレベル、ハンディー等の情報を設定する。これにより、使用者UA、UBは、互いに、対戦型ゲームを行う相手を容易に見つけることができ、相手のレベル等を反映したゲームを実行でき、興趣性を高めることができる。
Further, when the HMD 100A has image information and position information of recommended tourist spots as experience information of the user UB, it is possible to realize an aspect in which these pieces of information are shared. In this case, the HMD 100A can acquire image information and position information from the HMD 100B, select and execute the route guidance application program 125, and perform route guidance to the tourist spot for the user UA.
In addition, when the HMD 100A and the HMD 100B execute a battle-type game, it is possible to assume an aspect in which the HMD 100A acquires and shares information such as the level and handy of the user UB that the HMD 100B has. In this case, when the HMD 100B determines that the user UB is playing a game, the HMD 100A acquires the determination result and executes the application program 125 of the same game in the HMD 100A. Then, the HMD 100A sets information such as the level and handy of the user UB in the HMD 100B as the execution condition of the game application program 125. As a result, the users UA and UB can easily find each other an opponent who plays a battle game, can execute a game reflecting the opponent's level and the like, and can enhance the interest.

また、上述したように、状態判定部195の判定結果が、使用者Uが自宅で睡眠中であるという結果である場合に、省電力機能を実行するアプリケーションプログラム125を起動してもよい。この場合、使用者Uの睡眠中に動作させる必要性が乏しい機能部、例えばGPS115の動作を停止させて省電力化を図ることができる。   Further, as described above, when the determination result of the state determination unit 195 is a result that the user U is sleeping at home, the application program 125 that executes the power saving function may be activated. In this case, it is possible to save power by stopping the operation of the function unit, for example, GPS 115, which is not required to be operated during the sleep of the user U.

また、状態判定部195の判定結果が、使用者Uが公共施設内にいることを示す結果である場合に、公共性の観点から、カメラ61の撮像画像データに基づく状態判定部195の判定機能をオンにし、かつ、操作部110の操作による撮像機能をオフにすることも可能である。この場合、プライバシー保護等の観点でHMD100の機能の実行状態を制御できる。また、使用者Uの状態の変化に応じて、実行中のアプリケーションプログラム125の実行状態を、省エネルギーの観点から制御してもよい。例えば、HMD100は、使用者Uが自宅にいると判定した場合に、自宅では使用頻度の少ないアプリケーションプログラム125の実行を停止、及び/又は実行開始を制限する機能を、アプリケーションプログラム125により行ってもよい。また、使用者Uの状態が、救助要請を行うアプリケーションプログラム125など、緊急時に使用されるアプリケーションプログラム125を実行するような状態と判定された場合に、特定の機能をオンにしてもよい。具体的には、通信部117によるWiFiの通信、図示しないセルラー通信部による3G、3.9G、4G(LTE:Long Term Evolution)ネットワークを介した通信機能をオンに切り替えて、通報を行い、通報先に使用者Uの生体情報を送信するアプリケーションプログラム125を実行する態様も考えられる。   In addition, when the determination result of the state determination unit 195 is a result indicating that the user U is in a public facility, the determination function of the state determination unit 195 based on the captured image data of the camera 61 from the viewpoint of public nature It is also possible to turn on the imaging function by operating the operation unit 110. In this case, the execution state of the functions of the HMD 100 can be controlled from the viewpoint of privacy protection and the like. Further, the execution state of the application program 125 being executed may be controlled from the viewpoint of energy saving in accordance with the change in the state of the user U. For example, when the HMD 100 determines that the user U is at home, the application program 125 may perform a function of stopping execution and / or restricting start of execution of the application program 125 that is not frequently used at home. Good. In addition, when the state of the user U is determined to be a state in which an application program 125 used in an emergency, such as an application program 125 that makes a rescue request, is determined, a specific function may be turned on. Specifically, WiFi communication by the communication unit 117, and the communication function via the 3G, 3.9G, 4G (LTE: Long Term Evolution) network by the cellular communication unit (not shown) are turned on, and the notification is performed. A mode in which the application program 125 that transmits the biometric information of the user U is executed first is also conceivable.

また、制御部150は、使用者Uの状態に対応する適切な表示サイズを基準として、アプリケーションプログラム125を選択してもよい。例えば、状態判定部195が、HMD100を装着する使用者Uの状態を、自宅等での静止状態と判定した場合に、アプリ実行制御部154が、画像表示部20の表示領域全体に画面を表示するアプリケーションプログラム125を選択してもよい。具体的には、アプリ実行制御部154は、表示領域の全体に、アプリケーションプログラム125に係るテキストや画像を含む画面を表示する、いわゆるフルスクリーン表示を行うアプリケーションプログラム125を、選択する。あるいは、表示サイズが最大に設定されているアプリケーションプログラム125を選択する。これに対し、状態判定部195が、使用者Uの状態を、外出先(電車、車での移動状態)と判断した場合、アプリ実行制御部154は、画角を狭くして表示するアプリケーションプログラム125を選択する。画角を狭くするとは、例えば、使用者Uが画像表示部20越しに外景を少し見ることができる程度の表示サイズで、表示領域に画面を表示することをいう。また、状態判定部195が、使用者Uの状態を、歩いている、走っている状態と判断した場合、アプリ実行制御部154は、使用者Uの視界の邪魔にならないように中心に画像、アイコン等を配置しない中心領域無表示の周辺表示モードにするアプリケーションプログラム125を選択する。例えば、画像表示部20の表示領域の中央を含む所定範囲に画像やテキストを配置せず、この所定範囲に背景色も表示しない状態を中心領域無表示ということができる。   Further, the control unit 150 may select the application program 125 based on an appropriate display size corresponding to the state of the user U. For example, when the state determination unit 195 determines that the state of the user U wearing the HMD 100 is a stationary state at home or the like, the application execution control unit 154 displays a screen over the entire display area of the image display unit 20. The application program 125 to be selected may be selected. Specifically, the application execution control unit 154 selects an application program 125 that performs a so-called full-screen display that displays a screen including text and images related to the application program 125 over the entire display area. Alternatively, the application program 125 whose display size is set to the maximum is selected. On the other hand, when the state determination unit 195 determines that the state of the user U is an outing place (moving state by train or car), the application execution control unit 154 displays an application program with a narrowed angle of view. 125 is selected. Narrowing the angle of view means, for example, displaying the screen in the display area with a display size that allows the user U to see a little outside scene through the image display unit 20. In addition, when the state determination unit 195 determines that the state of the user U is a walking state or a running state, the application execution control unit 154 displays an image centered so as not to obstruct the user U's field of view. An application program 125 is selected which is set to a peripheral display mode in which no icons are arranged and no central area is displayed. For example, a state in which no image or text is arranged in a predetermined range including the center of the display area of the image display unit 20 and no background color is displayed in the predetermined range can be referred to as center area non-display.

特に、地図を表示する地図表示用のアプリケーションプログラム125、或いは地図とともに、HMD100の現在位置や目的地あるいは移動経路を表示するナビゲーション用のアプリケーションプログラム125が例としてあげられる。このようなアプリケーションプログラム125をアプリ実行制御部154が選択する場合、使用者Uが動いているときは、上述した中心領域無表示の態様で表示をするアプリケーションプログラム125を選択すればよい。この場合、複数の地図表示用のアプリケーションプログラム125、或いは、複数のナビゲーション用のアプリケーションプログラム125から、該当するアプリケーションプログラム125を選択してもよい。これに対し、使用者Uが停止して下を向いている場合は、上述したフルスクリーン表示を行う、地図表示用あるいはナビゲーション用のアプリケーションプログラム125を選択すればよい。   In particular, a map display application program 125 for displaying a map, or a navigation application program 125 for displaying a current position, a destination, or a movement route of the HMD 100 together with a map are given as examples. When the application execution control unit 154 selects such an application program 125, when the user U is moving, the application program 125 that displays in the above-described manner of not displaying the central region may be selected. In this case, the corresponding application program 125 may be selected from a plurality of map display application programs 125 or a plurality of navigation application programs 125. On the other hand, when the user U stops and faces down, the application program 125 for map display or navigation that performs the above-described full screen display may be selected.

さらに、画像表示部20で表示する画像の輝度、すなわち、右表示ユニット22、及び/又は左表示ユニット24から使用者Uの眼に入射する画像光の光量を、表示サイズと合わせて、或いは独立して、アプリ実行制御部154がアプリケーションプログラム125を選択する基準としてもよい。アプリ実行制御部154は、状態判定部195が判定した使用者Uの状態から、適切な輝度或いは光量を算出あるいは取得し、この輝度あるいは光量に該当するアプリケーションプログラム125を選択する。例えば、使用者Uが動いている場合には外景を視認しやすいように輝度あるいは光量が小さいアプリケーションプログラム125を選択する。さらに、アプリケーションプログラム125の選択だけでなく、例えば、状態判定部195が判定した状態に、動きがある場合は、使用者Uが外景を視認できる程度に、右表示ユニット22、左表示ユニット24が出射する画像光の輝度(光量)を低下させる等の、微妙な調整も、シースルー型の画像表示部20を有するHMD100では可能である。   Further, the brightness of the image displayed on the image display unit 20, that is, the amount of image light incident on the user's U eye from the right display unit 22 and / or the left display unit 24 is combined with the display size or independently. Then, the application execution control unit 154 may be a criterion for selecting the application program 125. The application execution control unit 154 calculates or acquires an appropriate luminance or light amount from the state of the user U determined by the state determination unit 195, and selects an application program 125 corresponding to the luminance or light amount. For example, when the user U is moving, the application program 125 having a small luminance or light quantity is selected so that the outside scene can be easily seen. Furthermore, in addition to the selection of the application program 125, for example, when there is a movement in the state determined by the state determination unit 195, the right display unit 22 and the left display unit 24 are so far that the user U can visually recognize the outside scene. Subtle adjustments such as lowering the luminance (light quantity) of the emitted image light are also possible in the HMD 100 having the see-through image display unit 20.

音声についても同様に、アプリ実行制御部154は、状態判定部195が判定する使用者Uの状態が静止状態であるか、外出先(電車、車での移動状態)であるか、歩いている状態か、走っている状態か等により、調整を行ってもよい。この場合、アプリ実行制御部154は、アプリケーションプログラム125の実行時の音量を下げる、または、両耳から片耳出力に変更する等の処理を行ってアプリケーションプログラム125を実行させるまた、該当する態様で音声出力を行うアプリケーションプログラム125を選択してもよい。   Similarly, for the voice, the application execution control unit 154 is walking whether the state of the user U determined by the state determination unit 195 is a stationary state, a place where the user U is away (moving state by train or car), or the like. Adjustments may be made depending on whether the vehicle is in a state or running. In this case, the application execution control unit 154 executes the application program 125 by performing processing such as lowering the volume when the application program 125 is executed or changing from both ears to one ear output. An application program 125 that performs output may be selected.

また、制御部150は、表示制御部147の機能により、アプリケーションプログラム125を起動させ或いは実行するアプリケーションプログラム125を切り替える場合の表示変化を制御してもよい。また、アプリケーションプログラム125の実行中に画像を変化させる、いわゆるアニメーション表示を行う場合に、アニメーション表示の態様を制御してもよい。この場合、表示制御部147は、状態判定部195が判定する使用者Uの状態、使用者Uの移動速度等に合わせて、表示の切り替え速度やアニメーションの変化速度を、変化させてもよい。変化速度を決定するパラメーターとして、例えば、慣性力、時定数等を用いてもよい。慣性力は表示の変化中に表示変化速度を変更するパラメーターであり、制御部150が検出する使用者Uの移動速度に対応して決定すればよい。また、時定数は表示の変化速度を決定するパラメーターであり、制御部150が検出する使用者Uの移動速度に対応して決定すればよい。例えば、使用者Uの移動速度を状態判定部195が検出して時定数を決定し、この時定数に応じた速度で表示を変化させる。そして、表示の変化の間に、使用者Uの移動速度を制御部150が検出して、慣性力を決定する。制御部150は、決定した慣性力に基づき、表示の変化速度を変更する。時定数、及び、慣性力は、表示の変化を開始する前に、予め設定されてもよい。これにより、画像表示部20に画面や画像が出てくる速さ、退避する速さを調整し、例えば、画像が急に出てきて目がくらむ現象の防止を実現できる。また、制御部150は、状態判定部195の判定結果から、使用者Uが危険回避を要すると思われる状態の場合に、画像表示部20の表示を即時消去(停止)する、または、画像表示部20の表示領域の周辺部に画像等を退避するなどしてもよい。そして、このように表示を変化させる場合に、使用者Uの状態によりスピード変化させることができる。   Further, the control unit 150 may control the display change when the application program 125 for starting or executing the application program 125 is switched by the function of the display control unit 147. In addition, when performing so-called animation display in which an image is changed during execution of the application program 125, the mode of animation display may be controlled. In this case, the display control unit 147 may change the display switching speed and the animation change speed in accordance with the state of the user U determined by the state determination unit 195, the moving speed of the user U, and the like. As a parameter for determining the rate of change, for example, an inertia force, a time constant, or the like may be used. The inertia force is a parameter for changing the display change speed during the display change, and may be determined in accordance with the moving speed of the user U detected by the control unit 150. The time constant is a parameter for determining the display change speed, and may be determined according to the moving speed of the user U detected by the control unit 150. For example, the state determination unit 195 detects the moving speed of the user U, determines a time constant, and changes the display at a speed corresponding to the time constant. Then, during the display change, the control unit 150 detects the moving speed of the user U and determines the inertial force. The controller 150 changes the display change speed based on the determined inertial force. The time constant and the inertial force may be set in advance before the display change is started. Thereby, the speed at which the screen and the image appear on the image display unit 20 and the speed at which the image is retracted are adjusted, and for example, it is possible to prevent a phenomenon in which the image suddenly appears and blinds. In addition, the control unit 150 immediately erases (stops) the display of the image display unit 20 or the image display when the user U is in a state where danger avoidance is considered necessary based on the determination result of the state determination unit 195. An image or the like may be saved in the periphery of the display area of the unit 20. When the display is changed in this way, the speed can be changed depending on the state of the user U.

以上説明したように、本発明を適用した実施形態の表示システム1を構成するHMD100は、画像を表示する画像表示部20と、使用者Uの身体に直接或いは間接的に装着される検出部170とを備える。HMD100は、検出部170の検出結果に基づき、使用者Uの身体の状態を判定する状態判定部195と、画像表示部20における表示を含む機能を実行する処理実行部158とを備える。HMD100は、処理実行部158が実行可能な機能のうち、状態判定部195の判定結果に対応する機能を選択して処理実行部158に実行させるアプリ実行制御部154を備える。この構成では、HMD100が、使用者Uの身体の状態に合わせて機能を選択して実行する。このため、使用者Uが機能を選択する等の操作を行うことなしに、適切な機能が実行される。例えば、使用者Uが手を使わずにHMD100に機能を実行させることができるので、HMD100の利便性を向上させることができる。   As described above, the HMD 100 configuring the display system 1 according to the embodiment to which the present invention is applied includes the image display unit 20 that displays an image and the detection unit 170 that is directly or indirectly attached to the body of the user U. With. The HMD 100 includes a state determination unit 195 that determines the state of the body of the user U based on the detection result of the detection unit 170, and a process execution unit 158 that executes functions including display on the image display unit 20. The HMD 100 includes an application execution control unit 154 that selects a function corresponding to the determination result of the state determination unit 195 from functions that can be executed by the process execution unit 158 and causes the process execution unit 158 to execute the function. In this configuration, the HMD 100 selects and executes a function in accordance with the state of the user U's body. Therefore, an appropriate function is executed without the user U performing an operation such as selecting a function. For example, since the user U can cause the HMD 100 to execute a function without using a hand, the convenience of the HMD 100 can be improved.

また、状態判定部195は、検出部170の検出結果に基づき使用者Uの身体の状態を、予め設定された複数の状態の中から特定し、アプリ実行制御部154は、状態判定部195が特定した状態に対応する機能を処理実行部158に実行させる。このため、設定に従って、使用者Uの身体の状態に適する機能をより適切に、速やかに選択できる。   In addition, the state determination unit 195 identifies the body state of the user U from a plurality of preset states based on the detection result of the detection unit 170, and the application execution control unit 154 includes the state determination unit 195. The process execution unit 158 is caused to execute a function corresponding to the identified state. For this reason, according to the setting, the function suitable for the state of the user U's body can be selected more appropriately and promptly.

また、処理実行部158は、アプリケーションプログラム125を実行することにより、アプリケーションプログラム125に関する画像及びテキストの少なくともいずれかを含む表示を画像表示部20に実行させる。これにより、使用者Uの身体の状態に合わせて選択されるアプリケーションプログラム125に関する画像やテキストを表示して、利便性の向上を図ることができる。   Further, the process execution unit 158 causes the image display unit 20 to execute display including at least one of an image and text related to the application program 125 by executing the application program 125. Thereby, the image and text regarding the application program 125 selected according to the state of the user's U body can be displayed, and the convenience can be improved.

また、HMD100は、処理実行部158が実行する機能に対応するアプリケーションプログラム125を記憶する記憶部122を備える。アプリ実行制御部154は、記憶部122に記憶されたアプリケーションプログラム125に基づき処理実行部158が実行可能な機能を選択して処理実行部158に実行させる。これにより、HMD100が、記憶部122に記憶したアプリケーションプログラム125を実行して機能を実現する構成において、使用者Uの身体の状態に適する機能を適切に選択できる。   The HMD 100 also includes a storage unit 122 that stores an application program 125 corresponding to the function executed by the process execution unit 158. The application execution control unit 154 selects a function that can be executed by the process execution unit 158 based on the application program 125 stored in the storage unit 122 and causes the process execution unit 158 to execute the function. Thereby, in the configuration in which the HMD 100 executes the application program 125 stored in the storage unit 122 to realize the function, the function suitable for the state of the user U's body can be appropriately selected.

また、アプリ実行制御部154は、アプリケーションプログラム125をHMD100にインストールする場合に、インストールされるアプリケーションプログラム125を、使用者Uの身体の状態に対応付けて記憶部122に記憶させる。これにより、HMD100にインストールされるアプリケーションプログラム125を、使用者Uの身体の状態に対応付けることができる。このため、インストールされたアプリケーションプログラム125を、使用者Uの身体の状態に応じて適切に選択できる。   Further, when installing the application program 125 in the HMD 100, the application execution control unit 154 stores the installed application program 125 in the storage unit 122 in association with the body state of the user U. Thereby, the application program 125 installed in the HMD 100 can be associated with the body state of the user U. For this reason, the installed application program 125 can be appropriately selected according to the state of the user U's body.

また、HMD100は、サーバー3と通信する通信部117を備える。アプリ実行制御部154は、通信部117によりサーバー3から取得可能なアプリケーションプログラム125に基づき処理実行部158が実行可能な機能を選択してもよい。この場合、アプリ実行制御部154は、選択した機能に対応するアプリケーションプログラム125を通信部117によりダウンロード(受信)する。HMD100は、通信部117により受信したプログラムに対応する機能を処理実行部158に実行させる構成であってもよい。この場合、サーバー3から取得するプログラムにより機能を実現する構成において、使用者Uの身体の状態に適する機能を適切に選択できる。   The HMD 100 also includes a communication unit 117 that communicates with the server 3. The application execution control unit 154 may select a function that can be executed by the process execution unit 158 based on the application program 125 that can be acquired from the server 3 by the communication unit 117. In this case, the application execution control unit 154 downloads (receives) the application program 125 corresponding to the selected function through the communication unit 117. The HMD 100 may be configured to cause the process execution unit 158 to execute a function corresponding to the program received by the communication unit 117. In this case, in a configuration in which the function is realized by a program acquired from the server 3, a function suitable for the state of the user U's body can be appropriately selected.

また、アプリ実行制御部154は、処理実行部158が実行可能な機能のそれぞれについて、図9に例示したアプリ付加情報129のように、各種の情報を記憶する。例えば、これらの情報は、機能の実行回数、機能に対する評価、機能の実行時に必要な画像表示部20における表示領域のサイズ、及び、機能の実行に伴うコストの少なくともいずれかの条件を含む。HMD100は、上記の条件と、各々の上記条件に対して設定された重み付けを示す優先情報を取得し、取得した条件及び優先情報に基づき、機能を選択する構成であってもよい。これにより、使用者Uの身体の状態と、各々の機能の実行に関する条件とを組み合わせて、より適切に機能を選択できる。   Further, the application execution control unit 154 stores various types of information, such as the application additional information 129 illustrated in FIG. 9, for each function that can be executed by the process execution unit 158. For example, these pieces of information include at least any of the following conditions: the number of executions of the function, the evaluation of the function, the size of the display area in the image display unit 20 required when the function is executed, and the cost associated with the execution of the function. The HMD 100 may be configured to acquire priority information indicating the above-described conditions and the weighting set for each of the above-described conditions, and select a function based on the acquired conditions and priority information. Thereby, the function can be selected more appropriately by combining the state of the user U's body and the conditions related to the execution of each function.

また、HMD100は、記憶部122に、アプリ実行条件128及びアプリ付加情報129を記憶する構成であってもよい。この構成では、各々の機能の実行に関する条件と、条件を重み付けする情報とをHMD100が記憶し、これらの記憶した情報に基づいて速やかに機能を選択できる。   Further, the HMD 100 may be configured to store the application execution condition 128 and the application additional information 129 in the storage unit 122. In this configuration, the HMD 100 stores conditions relating to the execution of each function and information for weighting the conditions, and functions can be selected quickly based on the stored information.

また、アプリ実行制御部154は、アプリ実行条件128及びアプリ付加情報129をサーバー3から取得する構成であってもよい。この場合、各々の機能の実行に関する条件と、条件を重み付けする情報とをサーバー3から取得し、これらの記憶した情報に基づいて速やかに機能を選択できる。   Further, the application execution control unit 154 may be configured to acquire the application execution condition 128 and the application additional information 129 from the server 3. In this case, the condition regarding the execution of each function and the information for weighting the condition are acquired from the server 3, and the function can be selected promptly based on the stored information.

また、アプリ実行制御部154は、機能を選択する際に、画像表示部20で機能の表示に使用する表示領域のサイズを、表示設定部156の機能により設定する。アプリ実行制御部154は、設定した表示領域に機能に係る表示を実行させ、処理実行部158に機能を実行させる前に、設定したサイズよりも小さい表示領域に機能に係る表示をして、実行の可否の入力を待機する。これにより、機能を実行する際の表示領域のサイズを設定し、機能を実行する前に、機能に係る表示のサイズを小さくして、実行の可否の入力を待機する。このため、機能に係る表示のサイズを適切に設定でき、使用者Uが実行の可否を入力する際には、表示を小さくすることによって使用者Uの操作性を高めることができる。   Further, when selecting a function, the application execution control unit 154 sets the size of the display area used for displaying the function in the image display unit 20 by the function of the display setting unit 156. The application execution control unit 154 executes display related to the function in the set display area, and executes display related to the function in the display area smaller than the set size before executing the function in the process execution unit 158. It waits for the input of availability. Thus, the size of the display area when executing the function is set, and before executing the function, the display size related to the function is reduced, and input of whether to execute the function is waited. For this reason, the display size related to the function can be set appropriately, and when the user U inputs whether or not to execute, the operability of the user U can be improved by reducing the display.

また、図7にアプリ情報127の例を示して説明したように、処理実行部158が実行可能な機能の各々にタグまたは識別子が付与される。アプリ実行制御部154は、処理実行部158に機能を実行させる前に、複数の機能をタグまたは識別子とともに選択可能に表示し、機能の選択及び実行の可否に関する入力を待機する。これにより、使用者Uの入力に応じて機能を選択できる。また、タグや識別子をもとに、使用者Uの身体の状態に適する機能を選択できる。   Further, as described with reference to the example of the application information 127 in FIG. 7, a tag or an identifier is assigned to each function that can be executed by the process execution unit 158. Prior to causing the process execution unit 158 to execute the function, the application execution control unit 154 displays a plurality of functions together with tags or identifiers, and waits for input regarding whether the function is selected and executed. Thereby, a function can be selected according to the input of the user U. Moreover, the function suitable for the state of the user's U body can be selected based on a tag and an identifier.

また、アプリ実行制御部154は、状態判定部195が判定した使用者Uの状態に基づき、画像表示部20で機能の表示に使用する表示領域V(表示領域)のサイズを設定し、設定した表示領域Vに機能に係る表示を実行させる。これにより、機能に関する表示のサイズを、使用者Uの状態に対応して適切に設定できる。   Further, the application execution control unit 154 sets and sets the size of the display area V (display area) used for displaying the function in the image display unit 20 based on the state of the user U determined by the state determination unit 195. The display related to the function is executed in the display area V. Thereby, the size of the display regarding a function can be set appropriately according to the state of the user U.

また、アプリ実行制御部154は、処理実行部158が機能を実行中に外部要因の発生または検出部170による異常値の検出があった場合に、予め設定された割り込み処理を処理実行部158に実行させる構成であってもよい。この場合、機能の実行中に、外部要因の発生または異常値の検出があった場合に割り込み処理を実行できる。   Further, the application execution control unit 154 sends a preset interrupt process to the process execution unit 158 when an external factor is generated or an abnormal value is detected by the detection unit 170 while the process execution unit 158 is executing the function. It may be configured to be executed. In this case, interrupt processing can be executed when an external factor is generated or an abnormal value is detected during execution of the function.

また、状態判定部195は、予め設定された時間毎に使用者Uの状態を判定する。アプリ実行制御部154は、状態判定部195が判定した使用者Uの状態が変化した場合に、状態判定部195が判定した使用者Uの状態が設定された時間(所定時間)以内に、以前に判定された状態に戻るか否かを判定する。アプリ実行制御部154は、状態判定部195が判定した状態が所定時間以内に戻らないと判定した場合に、処理実行部158が実行する機能を変更させる。これにより、使用者Uの身体の状態が変化した場合に、この変化に対応して実行する機能を変更でき、変更する必要性が小さい場合には、機能の実行を継続できる。このため、頻繁な機能の変更による不都合を回避し、使用者Uの身体の状態の変化に対応できる。   Moreover, the state determination part 195 determines the state of the user U for every preset time. When the state of the user U determined by the state determination unit 195 has changed, the application execution control unit 154 has previously changed within the time (predetermined time) when the state of the user U determined by the state determination unit 195 is set. It is determined whether or not to return to the determined state. The application execution control unit 154 changes the function executed by the process execution unit 158 when it is determined that the state determined by the state determination unit 195 does not return within a predetermined time. Thereby, when the state of the user's U body changes, the function performed according to this change can be changed, and when the necessity to change is small, execution of a function can be continued. For this reason, inconvenience due to frequent function changes can be avoided, and changes in the state of the user U's body can be accommodated.

なお、この発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、上記実施形態では、制御装置10が画像表示部20と有線接続される構成を例示したが、本発明はこれに限定されず、制御装置10に対して画像表示部20が無線接続される構成であってもよい。この場合の無線通信方式は通信部117が対応する通信方式として例示した方式を採用してもよいし、その他の通信方式であってもよい。
In addition, this invention is not restricted to the structure of the said embodiment, In the range which does not deviate from the summary, it can be implemented in a various aspect.
For example, in the above embodiment, the configuration in which the control device 10 is connected to the image display unit 20 by wire is illustrated, but the present invention is not limited to this, and the image display unit 20 is wirelessly connected to the control device 10. It may be a configuration. In this case, the wireless communication method may be the method exemplified as the communication method supported by the communication unit 117, or may be another communication method.

また、制御装置10が備える一部の機能を画像表示部20に設けてもよく、制御装置10を複数の装置により実現してもよい。例えば、制御装置10に代えて、使用者Uの身体、着衣、或いは、使用者Uが身につける装身具に取り付け可能なウェアラブルデバイスを用いてもよい。この場合のウェアラブルデバイスは、例えば、時計型の装置、指輪型の装置、レーザーポインター、マウス、エアーマウス、ゲームコントローラー、ペン型のデバイス等であってもよい。   In addition, some functions of the control device 10 may be provided in the image display unit 20, and the control device 10 may be realized by a plurality of devices. For example, instead of the control device 10, a wearable device that can be attached to the body of the user U, clothes, or an accessory worn by the user U may be used. The wearable device in this case may be, for example, a watch-type device, a ring-type device, a laser pointer, a mouse, an air mouse, a game controller, a pen-type device, or the like.

さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明した。本発明はこれに限定されず、制御装置10と画像表示部20とが一体に構成され、使用者Uの頭部に装着される構成とすることも可能である。   Furthermore, in the above embodiment, the configuration in which the image display unit 20 and the control device 10 are separated and connected via the connection cable 40 has been described as an example. The present invention is not limited to this, and the control device 10 and the image display unit 20 may be configured integrally and mounted on the head of the user U.

また、上記実施形態において、使用者Uが表示部を透過して外景を視認する構成は、右導光板26及び左導光板28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、カメラ61の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、本発明を適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。また、上記実施形態で説明したように実空間に重ねて画像を表示するAR表示や、撮像した実空間の画像と仮想画像とを組み合わせるMR(Mixed Reality)表示、或いは仮想画像を表示するVR(Virtual Reality)表示といった処理を行わない表示装置にも適用できる。例えば、外部から入力される映像データまたはアナログ映像信号を表示する表示装置も、本発明の適用対象として勿論含まれる。   In the above embodiment, the configuration in which the user U visually recognizes the outside scene through the display unit is not limited to the configuration in which the right light guide plate 26 and the left light guide plate 28 transmit the external light. For example, the present invention can be applied to a display device that displays an image in a state where an outside scene cannot be visually recognized. Specifically, the present invention is applied to a display device that displays a captured image of the camera 61, an image or CG generated based on the captured image, video based on video data stored in advance or video data input from the outside, and the like. Can be applied. This type of display device can include a so-called closed display device in which an outside scene cannot be visually recognized. In addition, as described in the above embodiment, AR display that displays an image superimposed on real space, MR (Mixed Reality) display that combines a captured real space image and a virtual image, or VR (VR that displays a virtual image) It can also be applied to a display device that does not perform processing such as virtual reality display. For example, a display device that displays video data or an analog video signal input from the outside is naturally included as an application target of the present invention.

また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者Uの左眼LEに対応して画像を表示する表示部と、使用者Uの右眼REに対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者Uの身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。   Further, for example, instead of the image display unit 20, an image display unit of another method such as an image display unit worn like a hat may be adopted, and an image corresponding to the left eye LE of the user U is used. And a display unit that displays an image corresponding to the right eye RE of the user U. The display device of the present invention may be configured as a head mounted display mounted on a vehicle such as an automobile or an airplane. Further, for example, it may be configured as a head-mounted display built in a body protective device such as a helmet. In this case, the portion for positioning the position of the user U with respect to the body and the portion positioned with respect to the portion can be used as the mounting portion.

また、画像光を使用者Uの眼に導く光学系として、右導光板26及び左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。本発明はこれに限定されず、右導光板26及び左導光板28の全面または大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
さらに、本発明の光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者Uの眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
Further, as an optical system that guides image light to the eyes of the user U, a configuration in which virtual images are formed by the half mirrors 261 and 281 on a part of the right light guide plate 26 and the left light guide plate 28 is illustrated. The present invention is not limited to this, and an image may be displayed on a display region having an area that occupies the entire or most of the right light guide plate 26 and the left light guide plate 28. In this case, a process of reducing the image may be included in the operation of changing the display position of the image.
Furthermore, the optical element of the present invention is not limited to the right light guide plate 26 and the left light guide plate 28 having the half mirrors 261 and 281, and may be any optical component that allows image light to enter the user's U eye. In this case, a diffraction grating, a prism, or a holographic display unit may be used.

また、ブロック図に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部150が実行するプログラムは、不揮発性記憶部121または制御装置10内の他の記憶装置(図示略)に記憶されてもよい。また、外部の装置に記憶されたプログラムを通信部117や外部コネクター184を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部110がユーザーインターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、メインプロセッサー140と同様のプロセッサーが画像表示部20に配置されてもよいし、制御装置10が備えるメインプロセッサー140と画像表示部20のプロセッサーとが別々に分けられた機能を実行する構成としてもよい。   In addition, at least a part of each functional block shown in the block diagram may be realized by hardware, or may be realized by cooperation of hardware and software, and independent as shown in the figure. The configuration is not limited to the arrangement of the hardware resources. The program executed by the control unit 150 may be stored in the nonvolatile storage unit 121 or another storage device (not shown) in the control device 10. A program stored in an external device may be acquired and executed via the communication unit 117 or the external connector 184. Of the components formed in the control device 10, the operation unit 110 may be formed as a user interface (UI). Further, the configuration formed in the control device 10 may be formed in the image display unit 20 in an overlapping manner. For example, a processor similar to the main processor 140 may be disposed in the image display unit 20, or the main processor 140 and the processor of the image display unit 20 included in the control device 10 perform functions separately divided. Also good.

1…表示システム、3…サーバー(外部の装置)、10…制御装置、20…画像表示部(表示部)、22…右表示ユニット、24…左表示ユニット、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、61…カメラ、63…マイク、65…照度センサー、100…HMD(表示装置、頭部装着型表示装置)、110…操作部、111…6軸センサー、113…磁気センサー、115…GPS、117…通信部、118…メモリー、120…コントローラー基板、121…不揮発性記憶部、122…記憶部(記憶部、条件記憶部)、123…設定データ、124…コンテンツデータ、125…アプリケーションプログラム(プログラム)、126…実行可能リスト、127…アプリ情報、128…アプリ実行条件(条件)、129…アプリ付加情報(優先情報)、130…電源部、132…バッテリー、134…電源制御回路、140…メインプロセッサー、141…制御プログラム、143…オペレーティングシステム、145…画像処理部、147…表示制御部、149…撮像制御部、150…制御部、152…情報取得部、154…アプリ実行制御部(実行制御部)、156…表示設定部、158…処理実行部(実行部)、170…検出部、180…音声コーデック、182…音声インターフェイス、184…外部コネクター、186…外部メモリーインターフェイス、188…USBコネクター、192…センサーハブ、194…FPGA、195…状態判定部、196…インターフェイス、197…検出値取得部、211…インターフェイス、213…受信部、215…EEPROM、217…温度センサー、221…OLEDユニット、231…インターフェイス、233…受信部、235…6軸センサー、237…磁気センサー、239…温度センサー、241…OLEDユニット、U、UA、UB…使用者、V…表示領域。   DESCRIPTION OF SYMBOLS 1 ... Display system, 3 ... Server (external apparatus), 10 ... Control apparatus, 20 ... Image display part (display part), 22 ... Right display unit, 24 ... Left display unit, 30 ... Headset, 32 ... Right earphone 34 ... Left earphone, 40 ... Connection cable, 61 ... Camera, 63 ... Microphone, 65 ... Illuminance sensor, 100 ... HMD (display device, head-mounted display device), 110 ... Operation unit, 111 ... 6-axis sensor, DESCRIPTION OF SYMBOLS 113 ... Magnetic sensor, 115 ... GPS, 117 ... Communication part, 118 ... Memory, 120 ... Controller board | substrate, 121 ... Nonvolatile memory | storage part, 122 ... Memory | storage part (memory | storage part, condition memory | storage part), 123 ... Setting data, 124 ... Content data 125 ... Application program (program), 126 ... Executable list, 127 ... Application information, 128 ... Application execution condition (Conditions) 129 ... Application additional information (priority information), 130 ... Power supply unit, 132 ... Battery, 134 ... Power supply control circuit, 140 ... Main processor, 141 ... Control program, 143 ... Operating system, 145 ... Image processing unit, 147 ... Display control section, 149 ... Imaging control section, 150 ... Control section, 152 ... Information acquisition section, 154 ... Application execution control section (execution control section), 156 ... Display setting section, 158 ... Process execution section (execution section) , 170 ... detection unit, 180 ... audio codec, 182 ... audio interface, 184 ... external connector, 186 ... external memory interface, 188 ... USB connector, 192 ... sensor hub, 194 ... FPGA, 195 ... status determination unit, 196 ... interface 197 ... Detection value acquisition unit 211 ... Interface 213: Receiver, 215 ... EEPROM, 217 ... Temperature sensor, 221 ... OLED unit, 231 ... Interface, 233 ... Receiver, 235 ... 6-axis sensor, 237 ... Magnetic sensor, 239 ... Temperature sensor, 241 ... OLED unit, U, UA, UB ... user, V ... display area.

Claims (17)

画像を表示する表示部と、
使用者の身体に直接或いは間接的に装着される検出部と、
前記検出部の検出結果に基づき、前記使用者の身体の状態を判定する判定部と、
前記表示部における表示を含む機能を実行する実行部と、
前記実行部が実行可能な前記機能のうち、前記判定部の判定結果に対応する前記機能を選択して前記実行部に実行させる実行制御部と、
を備える表示装置。
A display for displaying an image;
A detection unit attached directly or indirectly to the user's body;
A determination unit that determines a state of the user's body based on a detection result of the detection unit;
An execution unit for executing functions including display in the display unit;
Among the functions that can be executed by the execution unit, an execution control unit that selects and executes the function corresponding to the determination result of the determination unit;
A display device comprising:
前記判定部は、前記検出部の検出結果に基づき前記使用者の身体の状態を、予め設定された複数の状態の中から特定し、
前記実行制御部は、前記判定部が特定した前記状態に対応する前記機能を前記実行部に実行させる請求項1記載の表示装置。
The determination unit specifies the state of the user's body from a plurality of preset states based on the detection result of the detection unit,
The display device according to claim 1, wherein the execution control unit causes the execution unit to execute the function corresponding to the state specified by the determination unit.
前記実行部は、前記機能を実行することにより、前記機能に関する画像及びテキストの少なくともいずれかを含む表示を前記表示部に実行させる請求光または2記載の表示装置。   The display device according to claim 2, wherein the execution unit causes the display unit to execute display including at least one of an image and text related to the function by executing the function. 前記実行部が実行する機能に対応するプログラムを記憶する記憶部を備え、
前記実行制御部は、前記記憶部に記憶されたプログラムに基づき前記実行部が実行可能な前記機能を選択して前記実行部に実行させる請求項1から3のいずれか1項に記載の表示装置。
A storage unit for storing a program corresponding to the function executed by the execution unit;
The display device according to claim 1, wherein the execution control unit selects the function executable by the execution unit based on a program stored in the storage unit and causes the execution unit to execute the function. .
前記実行制御部は、前記プログラムを前記表示装置にインストールする場合に、インストールされる前記プログラムを、前記使用者の身体の状態に対応付けて前記記憶部に記憶させる請求項4記載の表示装置。   The display device according to claim 4, wherein, when the program is installed in the display device, the execution control unit stores the installed program in the storage unit in association with a state of the user's body. 外部の装置と通信する通信部を備え、
前記実行制御部は、前記通信部により前記外部の装置から取得可能なプログラムに基づき前記実行部が実行可能な前記機能を選択して、選択した前記機能に対応する前記プログラムを前記通信部により受信し、受信した前記プログラムに対応する前記機能を前記実行部に実行させる請求項1から5のいずれか1項に記載の表示装置。
It has a communication unit that communicates with external devices,
The execution control unit selects the function executable by the execution unit based on a program that can be acquired from the external device by the communication unit, and receives the program corresponding to the selected function by the communication unit. The display device according to claim 1, wherein the execution unit executes the function corresponding to the received program.
前記実行制御部は、前記実行部が実行可能な前記機能のそれぞれについて、前記機能の実行回数、前記機能に対する評価、前記機能の実行時に必要な前記表示部における表示領域のサイズ、及び、前記機能の実行に伴うコストの少なくともいずれかの条件、及び、各々の前記条件に対して設定された重み付けを示す優先情報を取得し、取得した前記条件及び前記優先情報に基づき、前記機能を選択する請求項1から6のいずれか1項に記載の表示装置。   The execution control unit, for each of the functions that can be executed by the execution unit, the number of executions of the function, the evaluation of the function, the size of the display area in the display unit required when the function is executed, and the function Claims that acquire priority information indicating at least one of the conditions associated with the execution of the cost and the weight set for each of the conditions, and select the function based on the acquired condition and the priority information. Item 7. The display device according to any one of Items 1 to 6. 前記条件及び前記優先情報を記憶する条件記憶部を備える請求項7記載の表示装置。   The display device according to claim 7, further comprising a condition storage unit that stores the condition and the priority information. 前記実行制御部は、前記条件及び前記優先情報を外部の装置から取得する請求項7記載の表示装置。   The display device according to claim 7, wherein the execution control unit acquires the condition and the priority information from an external device. 前記実行制御部は、前記機能を選択する際に、前記表示部で前記機能の表示に使用する表示領域のサイズを設定し、設定した前記表示領域に前記機能に係る表示を実行させ、
前記実行部に前記機能を実行させる前に、設定したサイズよりも小さい前記表示領域に前記機能に係る表示をして、実行の可否の入力を待機する請求項1から9のいずれか1項に記載の表示装置。
The execution control unit sets the size of a display area used for displaying the function on the display unit when selecting the function, and causes the set display area to display the function.
The display according to the function is displayed in the display area smaller than a set size before the execution unit executes the function, and an input as to whether execution is possible is waited for. The display device described.
前記実行部が実行可能な前記機能の各々にタグまたは識別子が付与され、
前記実行制御部は、前記実行部に前記機能を実行させる前に、複数の前記機能を前記タグまたは前記識別子とともに選択可能に表示し、前記機能の選択及び実行の可否に関する前記入力を待機する請求項10記載の表示装置。
A tag or identifier is given to each of the functions that can be executed by the execution unit,
The execution control unit displays a plurality of the functions together with the tag or the identifier so that the execution unit can execute the functions, and waits for the input regarding the selection and execution of the functions. Item 11. A display device according to Item 10.
前記実行制御部は、前記判定部が判定した前記使用者の状態に基づき、前記表示部で前記機能の表示に使用する表示領域のサイズを設定し、設定した前記表示領域に前記機能に係る表示を実行させる請求項1から9のいずれか1項に記載の表示装置。   The execution control unit sets a size of a display area used for displaying the function on the display unit based on the state of the user determined by the determination unit, and displays the function according to the set display region. The display device according to claim 1, wherein: 前記実行制御部は、前記実行部が前記機能を実行中に外部要因の発生または前記検出部による異常値の検出があった場合に、予め設定された割り込み処理を前記実行部に実行させる請求項1から12のいずれか1項に記載の表示装置。   The execution control unit causes the execution unit to execute a preset interrupt process when an external factor is generated or an abnormal value is detected by the detection unit while the execution unit is executing the function. 13. The display device according to any one of 1 to 12. 前記判定部は、予め設定された時間毎に前記使用者の状態を判定し、
前記実行制御部は、前記判定部が判定した前記使用者の状態が変化した場合に、前記判定部が判定した前記使用者の状態が所定時間以内に、以前に判定された状態に戻るか否かを判定し、戻らないと判定した場合に、前記実行部が実行する前記機能を変更させる請求項1から13のいずれか1項に記載の表示装置。
The determination unit determines the state of the user every preset time,
The execution control unit determines whether or not the state of the user determined by the determination unit returns to a previously determined state within a predetermined time when the state of the user determined by the determination unit changes. The display device according to claim 1, wherein the function executed by the execution unit is changed when it is determined that the function is not returned.
使用者の頭部に装着され、外景を視認可能に画像を表示する表示部と、
前記使用者の身体に直接或いは間接的に装着される検出部と、
前記検出部の検出結果に基づき、前記使用者の身体の状態を判定する判定部と、
前記表示部における表示を含む機能を実行する実行部と、
前記実行部が実行可能な前記機能のうち、前記判定部の判定結果に対応する前記機能を選択して前記実行部に実行させる実行制御部と、
を備える頭部装着型表示装置。
A display unit that is mounted on the user's head and displays an image so that the outside scene can be visually recognized;
A detection unit mounted directly or indirectly on the user's body;
A determination unit that determines a state of the user's body based on a detection result of the detection unit;
An execution unit for executing functions including display in the display unit;
Among the functions that can be executed by the execution unit, an execution control unit that selects and executes the function corresponding to the determination result of the determination unit;
A head-mounted display device comprising:
画像を表示する表示部と、使用者の身体に直接或いは間接的に装着される検出部と、を備える表示装置を制御して、
前記検出部の検出結果に基づき、前記使用者の身体の状態を判定する判定ステップと、
実行可能な複数の機能のうち、前記判定ステップの判定結果に対応する前記機能を選択する選択ステップと、
前記選択ステップで選択された、前記表示部における表示を含む前記機能を実行する実行ステップと、を有する表示装置の制御方法。
Controlling a display device comprising a display unit that displays an image and a detection unit that is mounted directly or indirectly on the user's body,
A determination step of determining a state of the user's body based on a detection result of the detection unit;
A selection step of selecting the function corresponding to the determination result of the determination step among a plurality of executable functions;
An execution step of executing the function including the display on the display unit selected in the selection step.
画像を表示する表示部と、使用者の身体に直接或いは間接的に装着される検出部と、を備える表示装置を制御するコンピューターに、
前記検出部の検出結果に基づき、前記使用者の身体の状態を判定する判定ステップと、
実行可能な複数の機能のうち、前記判定ステップの判定結果に対応する前記機能を選択する選択ステップと、
前記選択ステップで選択された、前記表示部における表示を含む前記機能を実行する実行ステップと、
を実行させるためのプログラム。
A computer that controls a display device that includes a display unit that displays an image and a detection unit that is directly or indirectly attached to the user's body,
A determination step of determining a state of the user's body based on a detection result of the detection unit;
A selection step of selecting the function corresponding to the determination result of the determination step among a plurality of executable functions;
An execution step of executing the function including the display on the display unit selected in the selection step;
A program for running
JP2016190919A 2016-09-29 2016-09-29 Display device, head-mounted display device, method for controlling display device, and program Pending JP2018055416A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016190919A JP2018055416A (en) 2016-09-29 2016-09-29 Display device, head-mounted display device, method for controlling display device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016190919A JP2018055416A (en) 2016-09-29 2016-09-29 Display device, head-mounted display device, method for controlling display device, and program

Publications (1)

Publication Number Publication Date
JP2018055416A true JP2018055416A (en) 2018-04-05

Family

ID=61836712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016190919A Pending JP2018055416A (en) 2016-09-29 2016-09-29 Display device, head-mounted display device, method for controlling display device, and program

Country Status (1)

Country Link
JP (1) JP2018055416A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6453499B1 (en) * 2018-01-31 2019-01-16 株式会社コロプラ Program, information processing apparatus, and method
WO2020152828A1 (en) * 2019-01-24 2020-07-30 マクセル株式会社 Display terminal, application control system and application control method
JP2020194517A (en) * 2019-05-21 2020-12-03 雄史 高田 Translation system and translation system set
WO2022065383A1 (en) * 2020-09-24 2022-03-31 株式会社Jvcケンウッド Display system, display method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6453499B1 (en) * 2018-01-31 2019-01-16 株式会社コロプラ Program, information processing apparatus, and method
JP2019130111A (en) * 2018-01-31 2019-08-08 株式会社コロプラ Program, information processing apparatus, and method
WO2020152828A1 (en) * 2019-01-24 2020-07-30 マクセル株式会社 Display terminal, application control system and application control method
JPWO2020152828A1 (en) * 2019-01-24 2021-11-18 マクセル株式会社 Display terminal, application control system and application control method
JP7223776B2 (en) 2019-01-24 2023-02-16 マクセル株式会社 Display terminal, application control system and application control method
JP2020194517A (en) * 2019-05-21 2020-12-03 雄史 高田 Translation system and translation system set
WO2022065383A1 (en) * 2020-09-24 2022-03-31 株式会社Jvcケンウッド Display system, display method, and program

Similar Documents

Publication Publication Date Title
US20200374508A1 (en) Display apparatus and method for controlling display apparatus
US10635182B2 (en) Head mounted display device and control method for head mounted display device
US10838205B2 (en) Head mounted display, control method thereof, and computer program
US10782528B2 (en) Head mounted display and control method thereof
JP2017016056A (en) Display system, display device, display device control method, and program
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
JP2018142857A (en) Head mounted display device, program, and control method of head mounted display device
JP2018142168A (en) Head mounted type display device, program, and control method for head mounted type display device
JP2019128693A (en) Head-mounted display, and method for controlling head-mounted display
JP2018097160A (en) Display system, display device, and control method for display device
JP2018142764A (en) Display system, display device, and control method of display device
JP2018124651A (en) Display system
JP2018055416A (en) Display device, head-mounted display device, method for controlling display device, and program
JP2018124721A (en) Head-mounted type display device and control method of head-mounted type display device
US11216066B2 (en) Display device, learning device, and control method of display device
JP2017182228A (en) Input device, input method, and computer program
JP2018207151A (en) Display device, reception device, program, and control method of reception device
JP6439448B2 (en) Display system, program, and control method for display device
JP2020071587A (en) Display device and method for controlling display device
JP2017146726A (en) Movement support device and movement support method
US20190086677A1 (en) Head mounted display device and control method for head mounted display device
JP6932917B2 (en) Head-mounted display, program, and head-mounted display control method
JP6766403B2 (en) Head-mounted display device, head-mounted display device control method, computer program
JP6638325B2 (en) Display device and display device control method
JP2018042004A (en) Display device, head-mounted type display device, and method for controlling display device