JP7498330B2 - Virtual object operation method and head-mounted display - Google Patents

Virtual object operation method and head-mounted display Download PDF

Info

Publication number
JP7498330B2
JP7498330B2 JP2023046344A JP2023046344A JP7498330B2 JP 7498330 B2 JP7498330 B2 JP 7498330B2 JP 2023046344 A JP2023046344 A JP 2023046344A JP 2023046344 A JP2023046344 A JP 2023046344A JP 7498330 B2 JP7498330 B2 JP 7498330B2
Authority
JP
Japan
Prior art keywords
virtual object
unit
external display
home position
mounted display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023046344A
Other languages
Japanese (ja)
Other versions
JP2023075353A (en
Inventor
和彦 吉澤
康宣 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020528598A external-priority patent/JP7077405B2/en
Application filed by Maxell Ltd filed Critical Maxell Ltd
Priority to JP2023046344A priority Critical patent/JP7498330B2/en
Publication of JP2023075353A publication Critical patent/JP2023075353A/en
Application granted granted Critical
Publication of JP7498330B2 publication Critical patent/JP7498330B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Digital Computer Display Output (AREA)

Description

本発明は、仮想オブジェクト操作方法およびヘッドマウントディスプレイに関する。 The present invention relates to a virtual object manipulation method and a head-mounted display.

情報処理装置の表示部に複数のウィンドウを表示し、操作入力に応じて、ウィンドウの入れ替えをする技術がある(例えば、特許文献1)。 There is a technology that displays multiple windows on the display unit of an information processing device and switches between the windows in response to operational input (for example, Patent Document 1).

特開2015―43135号公報JP 2015-43135 A

上記特許文献1に開示されている技術においては、位置が固定された情報処理装置の表示部に表示されているウィンドウの制御をするものである。 The technology disclosed in the above-mentioned Patent Document 1 controls a window displayed on a display unit of an information processing device whose position is fixed.

ここで、アプリケーション(アプリケーションを表示するウィンドウ)を表示する絶対座標を定めているヘッドマウントディスプレイを想定する。この場合、アプリケーションをユーザが操作する時に、使用するアプリケーションが紐づく位置に合せてユーザが動く必要が生じ得る。この結果、操作が煩雑になる可能性がある。 Here, we consider a head-mounted display that defines absolute coordinates for displaying an application (a window displaying the application). In this case, when a user operates an application, it may be necessary for the user to move in accordance with the position associated with the application being used. As a result, operation may become cumbersome.

本発明の目的は、アプリケーションを簡易に操作できるヘッドマウントディスプレイを提供することを目的とする。 The object of the present invention is to provide a head-mounted display that allows users to easily operate applications.

本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。 The above and other objects and novel features of the present invention will become apparent from the description of this specification and the accompanying drawings.

前記課題を解決するための手段として、特許請求の範囲に記載の技術を用いる。 The technology described in the claims is used as a means to solve the above problems.

一例を挙げるならば、仮想空間または仮想オブジェクトを操作するための操作入力を受け付ける操作受付部と、外部とのデータ送受信を行う通信部と、制御部と、を備え、制御部は、操作受付部が外部ディスプレイ連携操作を受け付けた場合に、実空間にある外部ディスプレイ装置を、仮想オブジェクトを操作するための装置として連携させ、操作受付部が仮想オブジェクト選択操作を受け付けた場合に、仮想空間の任意の位置に配置された仮想オブジェクトから所定の仮想オブジェクトを選択し、操作受付部が仮想オブジェクト編集要求操作を受け付けた場合に、選択された所定の仮想オブジェクトに関する情報を、連携させた外部ディスプレイ装置に通信部を介して出力する。 As an example, the device includes an operation reception unit that receives operation inputs for operating a virtual space or virtual objects, a communication unit that transmits and receives data to and from the outside, and a control unit, and when the operation reception unit receives an external display linking operation, the control unit links an external display device in the real space as a device for operating virtual objects, when the operation reception unit receives a virtual object selection operation, the control unit selects a specific virtual object from virtual objects arranged at any position in the virtual space, and when the operation reception unit receives a virtual object editing request operation, outputs information related to the selected specific virtual object to the linked external display device via the communication unit.

本発明の技術を用いることにより、アプリケーションを簡易に操作できる。 By using the technology of this invention, applications can be easily operated.

本実施形態に係るヘッドマウントディスプレイの概観を示す図である。FIG. 1 is a diagram showing an overview of a head mounted display according to an embodiment of the present invention. 視認領域を説明する図である。FIG. 2 is a diagram illustrating a visual recognition area. ヘッドマウントディスプレイのハードウェア構成を説明する図である。FIG. 2 is a diagram illustrating a hardware configuration of a head mounted display. ヘッドマウントディスプレイの機能ブロック図である。FIG. 2 is a functional block diagram of a head mounted display. ホームポジションの設定方法を説明する図である。FIG. 13 is a diagram illustrating a method for setting a home position. ホームポジションの他の指定方法を説明する図である。13A and 13B are diagrams illustrating another method for specifying the home position. ヘッドマウントディスプレイからホームポジションまでの距離を算出する方法を説明する図である。11A and 11B are diagrams illustrating a method for calculating the distance from the head mounted display to a home position. ホームポジションを設定する処理手順を示すフローチャートである。10 is a flowchart showing a processing procedure for setting a home position. ユーザが装着したヘッドマウントディスプレイにおいて、ホームポジションを設定するまでの状態を説明するための図である。1A and 1B are diagrams for explaining a state until a home position is set in a head mounted display worn by a user. ホームポジションの表示制御について説明するための図である。11A and 11B are diagrams for explaining display control of the home position. ホームポジションの表示制御をする処理を示すフローチャートである。13 is a flowchart showing a process for controlling the display of a home position. ホームポジションを設定した時のホームポジションの表示例を説明するための図である。11A and 11B are diagrams for explaining a display example of a home position when the home position is set; ヘッドマウントディスプレイが、ホームポジションとは異なる方向を向いている場合の例を示す図である。11 is a diagram showing an example in which the head mounted display is facing in a direction different from the home position. FIG. ヘッドマウントディスプレイが、アプリをホームポジションへ移動させる例を示す図である。FIG. 13 is a diagram showing an example in which the head mounted display moves an application to a home position. メニューにおいて、「呼ぶ」が選択された後の状態を説明する図である。FIG. 13 is a diagram illustrating the state after "Call" is selected in the menu. ユーザがホームポジションの位置する方向を向いた場合を説明する図である。13 is a diagram illustrating a case where the user faces the direction in which the home position is located. FIG. 再度ユーザが左方向を向いた場合を説明する図である。FIG. 13 is a diagram illustrating a case where the user turns to the left again. アプリケーションの表示制御の処理手順を示すフローチャートである。13 is a flowchart showing a processing procedure for application display control. ホームポジションを設定する例を説明する図である。FIG. 11 is a diagram illustrating an example of setting a home position. ホームポジションの位置にモニタが配置された場合に、当該モニタをホームポジションとして設定し直す例を説明する図である。13A and 13B are diagrams illustrating an example in which, when a monitor is placed at a home position, the monitor is reset as the home position. ホームポジションをモニタへリンクさせる処理手順を示すフローチャートである。13 is a flowchart showing a processing procedure for linking a home position to a monitor. モニタをホームポジションとしている場合における、アプリケーションの表示制御の処理手順を示すフローチャートである。10 is a flowchart showing a procedure for controlling the display of an application when the monitor is in the home position.

以下、本発明の実施形態の例を、図面を用いて説明する。 Below, an example embodiment of the present invention will be described with reference to the drawings.

図1(図1(a)~図1(c))を参照して本実施形態によるヘッドマウントディスプレイの概観を説明する。図1は、ヘッドマウントディスプレイ100の概観を示す図である。具体的に、図1(a)は、ユーザ1がヘッドマウントディスプレイ100を装着した状態におけるヘッドマウントディスプレイ100の上面図である。図1(b)は、ヘッドマウントディスプレイ100の正面図である。図1(c)は、ヘッドマウントディスプレイ100の側面図である。 The overview of the head mounted display according to this embodiment will be described with reference to FIG. 1 (FIGS. 1(a) to 1(c)). FIG. 1 is a diagram showing an overview of a head mounted display 100. Specifically, FIG. 1(a) is a top view of the head mounted display 100 when a user 1 is wearing the head mounted display 100. FIG. 1(b) is a front view of the head mounted display 100. FIG. 1(c) is a side view of the head mounted display 100.

ヘッドマウントディスプレイ100は、ユーザ1が頭部に装着した状態で、アプリケーションをユーザ1に視認可能に表示し、実行する装置である。ヘッドマウントディスプレイ100は、外界を撮像可能な第1撮像部133aおよび第1撮像部133bを有する。また、ヘッドマウントディスプレイ100は、透過型の表示手段である透過表示部131を有する。また、図1(c)に示すように、ヘッドマウントディスプレイ100は、音声出力部141(例えば、音声出力部141a)を有する。なお、透過表示部131の代わりに透過型ではない表示手段を用いるようにしてもよい。この場合、ヘッドマウントディスプレイ100は、当該表示手段に撮像結果を表示する。 The head mounted display 100 is a device that displays and executes an application so that it is visible to the user 1 when the user 1 wears the display on his/her head. The head mounted display 100 has a first imaging unit 133a and a second imaging unit 133b that can capture an image of the outside world. The head mounted display 100 also has a transparent display unit 131 that is a transparent display means. As shown in FIG. 1(c), the head mounted display 100 also has an audio output unit 141 (e.g., audio output unit 141a). Note that a non-transparent display means may be used instead of the transparent display unit 131. In this case, the head mounted display 100 displays the image capture result on the display means.

ヘッドマウントディスプレイ100は、1または複数のアプリケーションを記憶しており、ユーザ1からの操作指示により、当該アプリケーションを透過表示部131に表示する。なお、ヘッドマウントディスプレイ100は、アプリケーションを表示する位置を示す情報(例えば、絶対位置座標)を記憶しており、この情報に基づいてアプリケーションを表示する。 The head mounted display 100 stores one or more applications, and displays the applications on the transparent display section 131 in response to an operational instruction from the user 1. The head mounted display 100 stores information indicating the position at which the application is to be displayed (for example, absolute position coordinates), and displays the application based on this information.

続いて、図2を用いて、ユーザ1から視認可能な領域を示す視認領域を説明する。図2は、視認領域を説明する図である。ここで視認領域とは、透過表示部131を通してユーザ1が視認できる角度範囲をいう。この視認領域が外界のどの領域に対応するかは、ヘッドマウントディスプレイ100が外界に対してどの方向に向いているかで決まり、ユーザ1は、頭部の方向を変えることにより、任意の方向を視認領域内で視認することができる。さらに、ヘッドマウントディスプレイ100は、ユーザ1の周囲の外界空間に重畳して広がる仮想的な空間に仮想オブジェクト(例えば、上述の透過表示部131に表示されるアプリケーションの表示画面・操作画面等)を配置する。これにより、ユーザ1は、当該仮想オブジェクトを視認することができる。また、ユーザ1は、ヘッドマウントディスプレイ100に対して、所定の操作入力をすることにより、当該仮想オブジェクトを操作することができる。仮想オブジェクトは、外界の特定の位置に配置されているように視認される。なお、透過型でない表示手段を用いる場合、第1撮像部133により撮像された範囲が視認領域となる。 Next, the visual recognition area showing the area visible from the user 1 will be described with reference to FIG. 2. FIG. 2 is a diagram for explaining the visual recognition area. Here, the visual recognition area refers to the angle range that the user 1 can see through the transparent display unit 131. Which area of the outside world this visual recognition area corresponds to is determined by which direction the head mounted display 100 faces with respect to the outside world, and the user 1 can see any direction within the visual recognition area by changing the direction of the head. Furthermore, the head mounted display 100 arranges virtual objects (for example, the display screen/operation screen of an application displayed on the above-mentioned transparent display unit 131) in a virtual space that spreads and is superimposed on the outside world space around the user 1. This allows the user 1 to visually recognize the virtual object. Furthermore, the user 1 can operate the virtual object by inputting a predetermined operation to the head mounted display 100. The virtual object is visually recognized as if it is arranged at a specific position in the outside world. Note that when a display means that is not transparent is used, the range imaged by the first imaging unit 133 becomes the visual recognition area.

ヘッドマウントディスプレイ100は、上述のように、ヘッドマウントディスプレイ100が記憶しているアプリケーションを実行する。本実施形態のヘッドマウントディスプレイ100は、ユーザ1がアプリケーションを操作(例えば、編集処理の操作)させる領域である操作領域(ホームポジション)を設定する。ここで、アプリケーションやホームポジションの位置は外界に対して固定される。 As described above, the head mounted display 100 executes an application stored in the head mounted display 100. In this embodiment, the head mounted display 100 sets an operation area (home position) in which the user 1 operates the application (e.g., operates an editing process). Here, the positions of the application and the home position are fixed relative to the outside world.

続いて、図3を用いてヘッドマウントディスプレイ100のハードウェア構成を説明する。図3は、ヘッドマウントディスプレイ100のハードウェア構成を説明する図である。ヘッドマウントディスプレイ100は、主制御部101を有し、バス102を介して各種装置を制御する。この主制御部101は、CPU(Central Processing Unit)等である。また、ヘッドマウントディスプレイ100は、RAM103、ストレージ110、センサ部150、通信部160、および拡張I/F部170を有する。センサ部150は、GPS受信部151、ジャイロセンサ152、地磁気センサ153、および加速度センサ154を有する。 Next, the hardware configuration of the head mounted display 100 will be described with reference to FIG. 3. FIG. 3 is a diagram illustrating the hardware configuration of the head mounted display 100. The head mounted display 100 has a main control unit 101, which controls various devices via a bus 102. The main control unit 101 is a CPU (Central Processing Unit) or the like. The head mounted display 100 also has a RAM 103, a storage 110, a sensor unit 150, a communication unit 160, and an expansion I/F unit 170. The sensor unit 150 has a GPS receiver 151, a gyro sensor 152, a geomagnetic sensor 153, and an acceleration sensor 154.

また、ヘッドマウントディスプレイ100は、操作入力部120、透過表示部131、画像信号処理部132、第1撮像部133、第2撮像部134、音声出力部141、音声信号処理部142、および音声入力部143を有する。操作入力部120は、操作キー121、およびタッチセンサ122を有する。上述の構成要素が、動作することにより、ヘッドマウントディスプレイ100の後述する機能が発揮される。 The head mounted display 100 also has an operation input unit 120, a transmissive display unit 131, an image signal processing unit 132, a first imaging unit 133, a second imaging unit 134, an audio output unit 141, an audio signal processing unit 142, and an audio input unit 143. The operation input unit 120 has an operation key 121 and a touch sensor 122. The above-mentioned components operate to provide the functions of the head mounted display 100 described below.

主制御部101は、ストレージ110に記憶されている各種情報処理プログラムを実行することにより、各種機能を実行させる演算処理装置である。RAM103は、各種プログラム実行時のワークエリアとなる。ストレージ110は、主制御部101が第1撮像部133や第2撮像部134により撮像した画像や、各種情報を記憶する部分である。 The main control unit 101 is a processing unit that executes various functions by executing various information processing programs stored in the storage 110. The RAM 103 serves as a work area when the various programs are executed. The storage 110 is a section in which the main control unit 101 stores images captured by the first imaging unit 133 and the second imaging unit 134, as well as various information.

センサ部150は、ヘッドマウントディスプレイ100の位置および方向を特定するための情報を取得する部分である。センサ部150は、GPS受信部151、ジャイロセンサ152、地磁気センサ153、および加速度センサ154を有する。 The sensor unit 150 is a part that acquires information for identifying the position and orientation of the head mounted display 100. The sensor unit 150 has a GPS receiver unit 151, a gyro sensor 152, a geomagnetic sensor 153, and an acceleration sensor 154.

GPS受信部151は、GPS信号を受信して得られるGPS情報を取得する。ジャイロセンサ152は、ヘッドマウントディスプレイ100の移動方位の検出を行う機能を有し、ヘッドマウントディスプレイ100の方向変化に伴う角速度データを示すジャイロ情報を取得する。地磁気センサ153は、地磁気に基づいてヘッドマウントディスプレイ100の絶対方位を表す角度を検出する方位検出装置の一種である。このような角度としては、例えば方位角を挙げることができる。加速度センサ154は、ヘッドマウントディスプレイ100の加速度および傾斜角の少なくとも一方を検出する機能を有する。 The GPS receiver 151 receives GPS signals and acquires GPS information. The gyro sensor 152 has a function of detecting the direction of movement of the head mounted display 100, and acquires gyro information indicating angular velocity data associated with changes in direction of the head mounted display 100. The geomagnetic sensor 153 is a type of orientation detection device that detects an angle representing the absolute orientation of the head mounted display 100 based on geomagnetism. An example of such an angle is the azimuth angle. The acceleration sensor 154 has a function of detecting at least one of the acceleration and tilt angle of the head mounted display 100.

このように、センサ部150は、ヘッドマウントディスプレイ100の位置・方向を検出することができる。 In this way, the sensor unit 150 can detect the position and orientation of the head mounted display 100.

通信部160は、無線通信する部分である。例えば、近距離無線通信する。拡張I/F部170は、周辺機器と接続するためのインターフェースである。 The communication unit 160 is a part that performs wireless communication. For example, it performs short-range wireless communication. The expansion I/F unit 170 is an interface for connecting to peripheral devices.

操作入力部120は、操作入力を受け付ける部分である。操作キー121は、ヘッドマウントディスプレイ100の所定位置(例えば、ユーザ1の耳にかける部分)に設置される物理キーである。タッチセンサ122は、透過表示部131等に設置される入力用センサである。 The operation input unit 120 is a part that accepts operation input. The operation keys 121 are physical keys that are installed at predetermined positions on the head mounted display 100 (e.g., the part that is placed on the ear of the user 1). The touch sensor 122 is an input sensor that is installed on the transmissive display unit 131, etc.

透過表示部131は、シースルー型(透過型)の表示装置である。画像信号処理部132は、第1撮像部133または第2撮像部134による画像を解析して、当該解析結果を主制御部101等に出力する部分である。 The transmissive display unit 131 is a see-through (transmissive) display device. The image signal processing unit 132 is a part that analyzes the image captured by the first imaging unit 133 or the second imaging unit 134 and outputs the analysis results to the main control unit 101, etc.

第1撮像部133は、外界を撮像する部分である。第2撮像部134は、ユーザ1の眼を撮像する部分である。音声出力部141は、音声を出力するスピーカ等である。音声信号処理部142は、音声入力部143により入力された音声を解析する部分である。音声入力部143は、ユーザ1の音声を入力する部分であり、マイク等である。 The first imaging unit 133 is a part that images the outside world. The second imaging unit 134 is a part that images the eyes of the user 1. The audio output unit 141 is a speaker or the like that outputs audio. The audio signal processing unit 142 is a part that analyzes the audio input by the audio input unit 143. The audio input unit 143 is a part that inputs the audio of the user 1, and is a microphone or the like.

続いて、図4を用いて、ヘッドマウントディスプレイ100の機能説明をする。図4は、ヘッドマウントディスプレイ100の機能ブロック図である。ヘッドマウントディスプレイ100は、記憶部71、設定受付部72、位置特定部73、撮像部74、検出部75、設定部76、およびアプリ制御部77(アプリケーション制御部)を有する。 Next, the functions of the head mounted display 100 will be described with reference to FIG. 4. FIG. 4 is a functional block diagram of the head mounted display 100. The head mounted display 100 has a storage unit 71, a setting reception unit 72, a position identification unit 73, an imaging unit 74, a detection unit 75, a setting unit 76, and an application control unit 77 (application control unit).

記憶部71は、各種情報を記憶する部分である。例えば、記憶部71は、複数のアプリケーションを記憶している。また、記憶部71は、撮像部74により撮像された画像データを記憶してもよい。 The storage unit 71 is a part that stores various types of information. For example, the storage unit 71 stores a plurality of applications. The storage unit 71 may also store image data captured by the imaging unit 74.

設定受付部72は、ユーザ1による設定要求を示す操作に応じて、操作領域設定要求を受け付ける部分である。設定受付部72は、当該操作領域設定要求を受け付けると、位置特定部73、撮像部74および検出部75へ当該操作領域設定要求を受け付けた旨を通知する。設定受付部72は、当該操作領域設定要求を受け付けると、ホームポジション設定モードに移行する。ホームポジション設定モードとは、ホームポジションの設定を行うモードである。 The setting reception unit 72 is a part that receives an operation area setting request in response to an operation indicating a setting request by the user 1. When the setting reception unit 72 receives the operation area setting request, it notifies the position identification unit 73, the imaging unit 74, and the detection unit 75 that the operation area setting request has been received. When the setting reception unit 72 receives the operation area setting request, it transitions to a home position setting mode. The home position setting mode is a mode in which the home position is set.

なお、設定受付部72は、ユーザ1による設定要求を示す操作を受け付ける代わりに、ヘッドマウントディスプレイ100の電源が投入された際に、操作領域が設定されていない場合に、設定要求を自装置の制御部(例えば、主制御部101)から操作領域設定要求を受け付けるようにしてもよい。 In addition, instead of accepting an operation indicating a setting request by the user 1, the setting reception unit 72 may receive a setting request for an operation area setting from a control unit of the device itself (e.g., the main control unit 101) if an operation area has not been set when the head mounted display 100 is powered on.

また、設定受付部72は、ユーザ1による使用指示を示す操作に応じて、操作領域使用要求を受け付ける部分である。設定受付部72は、当該操作領域使用要求を受け付けると、位置特定部73、撮像部74および検出部75へ当該操作領域使用要求を受け付けた旨を通知する。設定受付部72は、当該操作領域使用要求を受け付けると、ホームポジション使用モードに移行する。ホームポジション使用モードとは、ホームポジションの使用(表示)を行うモードである。 The setting reception unit 72 is a part that receives a request to use the operation area in response to an operation indicating a use instruction by the user 1. When the setting reception unit 72 receives the request to use the operation area, it notifies the position identification unit 73, the imaging unit 74, and the detection unit 75 that the request to use the operation area has been received. When the setting reception unit 72 receives the request to use the operation area, it transitions to a home position use mode. The home position use mode is a mode in which the home position is used (displayed).

位置特定部73は、ヘッドマウントディスプレイ100の位置および方向(指向方向)を特定する部分である。位置特定部73は、例えば、センサ部150により実現される。位置特定部73は、上記操作領域設定要求を受け付けた旨または、操作領域使用要求を受け付けた旨を設定受付部72から受信すると、ヘッドマウントディスプレイ100の位置および方向を特定する。位置特定部73は、ヘッドマウントディスプレイ100の位置および方向を特定し、特定した位置および方向を設定部76へ送出する。また、位置特定部73は、ホームポジション使用モードの場合、特定した位置および方向をアプリ制御部77へ送出する。 The position identification unit 73 is a part that identifies the position and direction (pointing direction) of the head mounted display 100. The position identification unit 73 is realized by, for example, the sensor unit 150. When the position identification unit 73 receives from the setting reception unit 72 a notice that the operation area setting request has been accepted or that the operation area use request has been accepted, the position identification unit 73 identifies the position and direction of the head mounted display 100. The position identification unit 73 identifies the position and direction of the head mounted display 100, and sends the identified position and direction to the setting unit 76. Furthermore, in the case of the home position use mode, the position identification unit 73 sends the identified position and direction to the application control unit 77.

撮像部74は、ヘッドマウントディスプレイ100を装着したユーザ1の部位を撮像する部分である。撮像部74は、第1撮像部133や第2撮像部134等により実現される。撮像部74は、設定受付部72から操作領域設定要求を受け付けた旨の通知または操作領域使用要求を受け付けた旨を受信すると、撮像した結果を検出部75へ送出する。撮像部74は、例えば、上述の視認領域を含む箇所を撮像したり、ユーザ1の目周辺を撮像したりする。撮像部74は、撮像した結果を検出部75へ送出する。 The imaging unit 74 is a part that images the body parts of the user 1 wearing the head mounted display 100. The imaging unit 74 is realized by the first imaging unit 133, the second imaging unit 134, etc. When the imaging unit 74 receives a notification from the setting reception unit 72 that a request to set an operation area has been received or a request to use an operation area has been received, the imaging unit 74 sends the imaged result to the detection unit 75. The imaging unit 74, for example, images an area including the above-mentioned visual recognition area or images the area around the eyes of the user 1. The imaging unit 74 sends the imaged result to the detection unit 75.

検出部75は、撮像部74により撮像された画像に基づいて、ユーザ1が示す位置を検出する部分である。検出部75は、設定受付部72から操作領域設定要求を受け付けた旨の通知または操作領域使用要求を受け付けた旨を受信し、撮像部74から撮像した結果を受信すると、ユーザ1が示す位置を検出する。 The detection unit 75 is a part that detects the position indicated by the user 1 based on the image captured by the imaging unit 74. When the detection unit 75 receives a notification from the setting reception unit 72 that a request to set an operation area has been accepted or a request to use an operation area has been accepted, and receives the imaged result from the imaging unit 74, it detects the position indicated by the user 1.

検出部75は、撮像部74から撮像した結果として、視認領域を含む箇所の画像を取得した場合、当該画像を公知の画像解析処理をして、当該視認領域中に含まれている指の動きを特定する。すなわち、検出部75は、ユーザ1のジェスチャを検出し、当該ジェスチャに基づく位置を特定する。 When the detection unit 75 acquires an image of a location including the visual recognition area as a result of imaging by the imaging unit 74, the detection unit 75 performs a known image analysis process on the image to identify the movement of the finger included in the visual recognition area. In other words, the detection unit 75 detects a gesture of the user 1 and identifies a position based on the gesture.

例えば、検出部75は、撮像部74から撮像した結果から、ユーザ1により領域を示すジェスチャを検出して、当該検出した結果により示される領域を特定する。検出部75は、ユーザ1の指の動作を検出し、当該指の動作に基づく領域(操作領域)の位置を特定する。検出部75は、当該領域の位置を示す情報を設定部76へ送出する。当該領域の位置を示す情報は、例えば、指により指定された位置に基づいた情報である。 For example, the detection unit 75 detects a gesture by the user 1 indicating an area from the image captured by the imaging unit 74, and identifies the area indicated by the detected result. The detection unit 75 detects the movement of the user 1's finger, and identifies the position of the area (operation area) based on the movement of the finger. The detection unit 75 sends information indicating the position of the area to the setting unit 76. The information indicating the position of the area is, for example, information based on the position specified by the finger.

また、検出部75は、撮像部74から撮像した結果として、ユーザ1の目周辺を撮像した画像を取得した場合、当該画像を公知の画像解析処理をして、ユーザ1の視線の先の位置を検出する。例えば、検出部75は、当該ユーザ1の視線の先の位置として、透過表示部131上の視線の先の位置を検出する。この場合、検出部75は、操作領域に関する情報として、当該位置を示す情報を設定部76へ送出する。 When the detection unit 75 obtains an image of the area around the eyes of the user 1 as a result of imaging from the imaging unit 74, the detection unit 75 performs a known image analysis process on the image to detect the position of the gaze of the user 1. For example, the detection unit 75 detects the position of the gaze of the user 1 on the transparent display unit 131 as the position of the gaze of the user 1. In this case, the detection unit 75 sends information indicating the position to the setting unit 76 as information related to the operation area.

設定部76は、検出部75により検出された結果と、位置特定部73により特定された位置とに基づいて、記憶部71に記憶されているアプリケーションを操作させるための領域である操作領域(ホームポジション)に関する情報(例えば、当該操作領域に関する位置)を設定する部分である。 The setting unit 76 is a part that sets information (e.g., a position related to the operation area) that is an area for operating an application stored in the storage unit 71 (home position) based on the result detected by the detection unit 75 and the position identified by the position identification unit 73.

設定部76は、位置特定部73により特定された位置および方向と、検出部75により検出された結果により示される領域を示す情報とを取得した場合、当該領域を示す情報と、当該位置特定部73により特定された位置および方向とを記憶部71へ設定する。 When the setting unit 76 acquires the position and direction identified by the position identification unit 73 and information indicating the area indicated by the results of detection by the detection unit 75, the setting unit 76 sets the information indicating the area and the position and direction identified by the position identification unit 73 in the memory unit 71.

設定部76は、位置特定部73により特定された位置および方向と、検出部75により検出された結果により視線の先の位置または指の動作に基づく領域の位置に基づいて定められる領域の情報とを記憶部71に設定する。 The setting unit 76 sets in the storage unit 71 the position and direction identified by the position identification unit 73 and information about the area that is determined based on the position of the line of sight or the position of the area based on the finger movement as a result of detection by the detection unit 75.

また、設定部76は、検出部75により検出された結果に基づく位置に対応するモニタを特定した場合、当該モニタの位置を操作領域の位置に設定するようにしてもよい。例えば、設定部76は、検出部75により検出された位置に対応する画像を撮像部74から取得し、予め記憶しているモニタのテンプレートと当該画像とを比較して、モニタを検出した場合、当該モニタの識別情報を操作領域に関する情報として設定する。 In addition, when the setting unit 76 identifies a monitor corresponding to a position based on the results detected by the detection unit 75, the setting unit 76 may set the position of the monitor as the position of the operation area. For example, the setting unit 76 acquires an image corresponding to the position detected by the detection unit 75 from the imaging unit 74, compares the image with a pre-stored monitor template, and, when a monitor is detected, sets the identification information of the monitor as information related to the operation area.

アプリ制御部77は、ユーザ1による操作要求に応じて、記憶部71に記憶されているアプリケーションを透過表示部131の操作領域に表示させる部分である。アプリ制御部77は、ユーザ1による操作要求により、所定のアプリケーションの編集操作要求がなされた場合、当該アプリケーションを操作領域に表示すると共に、当該アプリケーションを編集可能な状態とする。 The application control unit 77 is a part that displays an application stored in the memory unit 71 in the operation area of the transparent display unit 131 in response to an operation request from the user 1. When an editing operation request for a specific application is made in response to an operation request from the user 1, the application control unit 77 displays the application in the operation area and makes the application editable.

また、アプリ制御部77は、既にホームポジションに関する情報が記憶部71に記憶されている場合、位置特定部73から、ヘッドマウントディスプレイ100の位置、方向を適宜取得し、当該位置および方向に基づいて、ホームポジションが視認領域に含まれるか否かを判断する。アプリ制御部77は、ホームポジションが視認領域に含まれると判断すると、当該ホームポジションの領域を透過表示部131へ出力する。 In addition, when information about the home position is already stored in the memory unit 71, the application control unit 77 appropriately acquires the position and direction of the head mounted display 100 from the position identification unit 73, and determines whether or not the home position is included in the visual recognition area based on the position and direction. When the application control unit 77 determines that the home position is included in the visual recognition area, it outputs the area of the home position to the transparent display unit 131.

また、アプリ制御部77は、既に操作領域に関する情報が設定されている場合(操作領域に関する情報が設定済みである場合)に、当該位置に対応するモニタを特定した場合、当該モニタを新たな操作領域の位置に設定し直す。 In addition, when information about the operation area has already been set (information about the operation area has already been set), if the application control unit 77 identifies a monitor that corresponds to that position, it resets the monitor to the position of the new operation area.

また、アプリ制御部77は、アプリケーションの表示位置を記憶しており、当該表示位置に基づいて、アプリケーションを表示する。当該表示位置は、ユーザの位置・向き等により定められる位置である。なお、記憶部71が、アプリケーションの表示位置を記憶してもよい。 The application control unit 77 also stores the display position of the application, and displays the application based on the display position. The display position is determined by the user's position, orientation, etc. The storage unit 71 may also store the display position of the application.

<ホームポジションの設定>
続いて、図5を用いてホームポジションの設定方法を説明する。図5は、ホームポジションの設定方法を説明する図である。前提として、操作入力部120が受け付けた操作に基づいて、ホームポジションの設定モードとなっているものとする。
<Setting the home position>
Next, a method for setting the home position will be described with reference to Fig. 5. Fig. 5 is a diagram for explaining the method for setting the home position. It is assumed that the home position setting mode is set based on the operation received by the operation input unit 120.

上記のようにホームポジションの設定モードとなると、撮像部74は、図5(a)に示す視認領域を所定期間撮像して、図5(a)に示すようなユーザ1の指を撮像する。例えば、検出部75は、矩形領域の上部中央部分から、矩形領域の下部中央部分までの指の軌跡を検出する。 When the home position setting mode is entered as described above, the imaging unit 74 captures an image of the visual recognition area shown in FIG. 5(a) for a predetermined period of time, and captures an image of the finger of the user 1 as shown in FIG. 5(a). For example, the detection unit 75 detects the trajectory of the finger from the upper center of the rectangular area to the lower center of the rectangular area.

すなわち、検出部75は、撮像部74により撮像された結果を用いて図5(a)に示すような指の動き(ジェスチャ)を検出し、当該指の動きに基づいてユーザ1による指定領域(矩形領域)を特定し、ホームポジションとして設定する。さらに、検出部75は、視認領域と、透過表示部131の領域との差異に基づいて、ホームポジションの基準位置を決定する。 That is, the detection unit 75 detects finger movements (gestures) as shown in FIG. 5(a) using the results of imaging by the imaging unit 74, identifies a region (rectangular region) designated by the user 1 based on the finger movements, and sets it as the home position. Furthermore, the detection unit 75 determines a reference position for the home position based on the difference between the visible region and the region of the transmissive display unit 131.

例えば、検出部75は、視認領域中における位置関係と、視認領域と透過表示部131の領域との大きさの違いに基づいて、透過表示部131におけるホームポジションの基準位置を決定する。ここで、上記基準位置の決定方法について、図5(b)を用いて説明する。図5(b)は、透過表示部131における表示領域を示す。 For example, the detection unit 75 determines the reference position of the home position in the transparent display unit 131 based on the positional relationship in the visual recognition area and the difference in size between the visual recognition area and the area of the transparent display unit 131. Here, the method of determining the reference position will be explained using FIG. 5(b). FIG. 5(b) shows the display area in the transparent display unit 131.

また、検出部75は、高さVと、距離VUと、距離VPと、距離VLとの比率を算出する。高さVは、透過表示部131の高さである。距離VUは、透過表示部131の上部からホームポジションの上部までの距離である。距離VPは、ホームポジションの上部からホームポジション下部までの距離である。距離VLは、ホームポジション下部から透過表示部131の下部までの距離である。 The detection unit 75 also calculates the ratios of the height V, the distance VU, the distance VP, and the distance VL. The height V is the height of the transparent display unit 131. The distance VU is the distance from the top of the transparent display unit 131 to the top of the home position. The distance VP is the distance from the top of the home position to the bottom of the home position. The distance VL is the distance from the bottom of the home position to the bottom of the transparent display unit 131.

また、検出部75は、透過表示部131の幅H、透過表示部131の左部からホームポジションの左部までの距離HL、ホームポジションの左部からホームポジション右部までの距離HP、ホームポジション右部から透過表示部131の右部までの距離HRの比率を算出する。 The detection unit 75 also calculates the ratios of the width H of the transparent display unit 131, the distance HL from the left part of the transparent display unit 131 to the left part of the home position, the distance HP from the left part of the home position to the right part of the home position, and the distance HR from the right part of the home position to the right part of the transparent display unit 131.

検出部75は、ヘッドマウントディスプレイ100から指の位置までの距離を算出し、当該距離、および上述の算出した比率に基づいて基準位置Pを定める。この基準位置Pは、透過表示部131中で表示する位置を示し、位置特定部73により特定された現在位置および指向方向を組み合わせることにより、ホームポジションの外界での絶対位置を定めることができる。基本は、ここで求めた外界での絶対位置がホームポジションであるが、変形例として、図5(b)で示した視認領域内の特定位置をホームポジションとして設定してもよい。この変形例の場合は、常にホームポジションを視認することができる。 The detection unit 75 calculates the distance from the head mounted display 100 to the position of the finger, and determines a reference position P based on this distance and the ratio calculated above. This reference position P indicates the position to be displayed in the transparent display unit 131, and the absolute position of the home position in the outside world can be determined by combining the current position and the pointing direction identified by the position identification unit 73. Basically, the absolute position in the outside world determined here is the home position, but as a modified example, a specific position within the visible area shown in Figure 5 (b) may be set as the home position. In this modified example, the home position can always be viewed.

なお、検出部75は、上記のように比率を考慮せずに、指定された領域のまま位置を特定するようにしてもよい。 The detection unit 75 may also determine the position of the specified area without taking the ratio into account as described above.

図5(a)では、ホームポジションの上部中央部分から、ホームポジションの下部中央部分までを指でなぞる場合の例を上げたが、他の方法によって、ホームポジションを指定してもよい。ここで、図6を用いて、ホームポジションの他の指定方法を説明する。図6は、ホームポジションの他の指定方法を説明する図である。例えば、図6(a)に示すように、ホームポジションの右上部から左下部へホームポジションの領域に沿って指定するようにしてもよい。また、図6(b)に示すように、ホームポジションの右上部から左下部をホームポジションの領域の対角線に沿って指定するようにしてもよい。 In FIG. 5(a), an example is given in which a finger is traced from the upper center of the home position to the lower center of the home position, but the home position may be specified by other methods. Here, other methods of specifying the home position are described with reference to FIG. 6. FIG. 6 is a diagram for describing other methods of specifying the home position. For example, as shown in FIG. 6(a), the home position may be specified along the home position area from the upper right to the lower left. Also, as shown in FIG. 6(b), the home position may be specified along the diagonal of the home position area from the upper right to the lower left.

また、検出部75は、撮像結果に基づいて、ヘッドマウントディスプレイ100からホームポジションの基準位置までの距離を算出する。図7(a)および図7(b)を用いて、ヘッドマウントディスプレイ100からホームポジションまでの距離を算出する方法を説明する。図7は、ヘッドマウントディスプレイ100からホームポジションまでの距離を算出する方法を説明する図である。図7(a)は、ユーザ1がヘッドマウントディスプレイ100を装着した状態におけるヘッドマウントディスプレイ100の上面図であり、水平角を示す図である。図7(b)は、ヘッドマウントディスプレイ100の側面図であり、仰俯角を示す図である。 The detection unit 75 also calculates the distance from the head mounted display 100 to the reference position of the home position based on the imaging result. A method for calculating the distance from the head mounted display 100 to the home position will be described with reference to Figs. 7(a) and 7(b). Fig. 7 is a diagram for explaining a method for calculating the distance from the head mounted display 100 to the home position. Fig. 7(a) is a top view of the head mounted display 100 in a state where the user 1 is wearing the head mounted display 100, and is a diagram showing the horizontal angle. Fig. 7(b) is a side view of the head mounted display 100, and is a diagram showing the elevation and depression angles.

具体的に、検出部75は、撮像した画像の指の位置に基づいて図7(a)に示すヘッドマウントディスプレイ100の指向方向に対するホームポジションARの基準位置の水平角αを算出する。また、検出部75は、撮像した画像の指の位置に基づいて図7(b)に示すヘッドマウントディスプレイ100の指向方向に対するホームポジション基準位置の仰俯角βを算出する。 Specifically, the detection unit 75 calculates the horizontal angle α of the reference position of the home position AR relative to the pointing direction of the head mounted display 100 shown in FIG. 7(a) based on the position of the finger in the captured image. The detection unit 75 also calculates the elevation/depression angle β of the home position reference position relative to the pointing direction of the head mounted display 100 shown in FIG. 7(b) based on the position of the finger in the captured image.

検出部75は、撮像範囲の中央部分までの距離と、上記水平角αと、仰俯角βとに基づいてホームポジションARの基準位置までの距離Lを算出する。 The detection unit 75 calculates the distance L to the reference position of the home position AR based on the distance to the center of the imaging range, the horizontal angle α, and the elevation/depression angle β.

なお、検出部75は、ヘッドマウントディスプレイ100からホームポジションARの基準位置までの距離と、ホームポジションARの幅と高さと、ホームポジションARの基準位置とを設定部76へ送出する。これに応じて、設定部76は、ヘッドマウントディスプレイ100からホームポジションARの基準位置までの距離Lと、ホームポジションの幅と、ホームポジションの高さと、ホームポジションの基準位置Pとをホームポジションに関する情報として、記憶部71へ記憶する。なお、ホームポジションの基準位置Pの絶対座標は位置特定部73が取得したヘッドマウントディスプレイ100の位置、指向方向、上記水平角α、仰俯角β、および距離Lから算出可能であることは言うまでもない。 The detection unit 75 sends the distance from the head mounted display 100 to the reference position of the home position AR, the width and height of the home position AR, and the reference position of the home position AR to the setting unit 76. In response to this, the setting unit 76 stores the distance L from the head mounted display 100 to the reference position of the home position AR, the width of the home position, the height of the home position, and the reference position P of the home position in the storage unit 71 as information related to the home position. It goes without saying that the absolute coordinates of the reference position P of the home position can be calculated from the position of the head mounted display 100, the pointing direction, the horizontal angle α, the elevation and depression angle β, and the distance L acquired by the position identification unit 73.

ここで、図8を用いて、ホームポジションARを設定する手順を説明する。図8は、ホームポジションARを設定する処理手順を示すフローチャートである。まず、設定受付部72が、ユーザ1による設定要求を示す操作に応じて、操作領域設定要求を受け付けると、ホームポジション設定モードとする(ステップS1:Yes)。なお、設定受付部72が、操作領域設定要求を受け付けていない場合(ステップS1:No)、処理を終了する。 Now, the procedure for setting the home position AR will be described with reference to FIG. 8. FIG. 8 is a flowchart showing the processing procedure for setting the home position AR. First, when the setting reception unit 72 receives an operation area setting request in response to an operation indicating a setting request by the user 1, the setting reception unit 72 switches to the home position setting mode (step S1: Yes). Note that if the setting reception unit 72 does not receive an operation area setting request (step S1: No), the processing ends.

設定受付部72が、操作領域設定要求を受け付けると、位置特定部73、撮像部74および検出部75へ当該操作領域設定要求を受け付けた旨を通知する。撮像部74は、これに応じて、撮像動作を開始し(有効化)、撮像結果を検出部75へ送出する(ステップS2)。 When the setting reception unit 72 receives the operation area setting request, it notifies the position identification unit 73, the imaging unit 74, and the detection unit 75 that the operation area setting request has been received. In response to this, the imaging unit 74 starts (enables) the imaging operation and sends the imaging result to the detection unit 75 (step S2).

位置特定部73は、GPS受信部151等により、ヘッドマウントディスプレイ100の現在位置を取得する(ステップS3)。また、位置特定部73は、地磁気センサ153等により指向方向(ヘッドマウントディスプレイ100の向いている方向)を取得する(ステップS4)。また、検出部75は、撮像部74から撮像結果を取得し、当該撮像結果に基づいて、ユーザ1の動きを特定し、当該撮像結果に基づいてユーザ1の指までの距離を算出する(ステップS5)。また、検出部75は、上記撮像結果に基づいてホームポジションの高さ・幅を特定する(ステップS6)。また、検出部75は、ユーザ1の指までの距離に基づいて基準位置Pを算出する。検出部75は、ヘッドマウントディスプレイ100からホームポジションARの基準位置までの距離Lと、ホームポジションの幅と、ホームポジションの高さと、ホームポジションの基準位置Pとを設定部76へ送出する(ステップS7)。 The position identification unit 73 acquires the current position of the head mounted display 100 by the GPS receiving unit 151 or the like (step S3). The position identification unit 73 also acquires the orientation direction (the direction in which the head mounted display 100 is facing) by the geomagnetic sensor 153 or the like (step S4). The detection unit 75 also acquires the imaging result from the imaging unit 74, identifies the movement of the user 1 based on the imaging result, and calculates the distance to the finger of the user 1 based on the imaging result (step S5). The detection unit 75 also identifies the height and width of the home position based on the imaging result (step S6). The detection unit 75 also calculates the reference position P based on the distance to the finger of the user 1. The detection unit 75 sends the distance L from the head mounted display 100 to the reference position of the home position AR, the width of the home position, the height of the home position, and the reference position P of the home position to the setting unit 76 (step S7).

設定部76は、上記基準位置PおよびホームポジションARの高さ・幅を取得すると、ホームポジションARの確認メッセージを透過表示部131へ表示して、設定確認する(ステップS8)。 When the setting unit 76 acquires the height and width of the reference position P and the home position AR, it displays a confirmation message for the home position AR on the transparent display unit 131 to confirm the setting (step S8).

ユーザ1による操作入力により、設定承認を示す入力がなされると(ステップS8:Yes)、設定部76は、距離Lと、ホームポジションARの高さ・幅と、基準位置Pと、を記憶部71へ設定する。また、設定部76は、位置特定部73により特定された現在位置および指向方向もホームポジションARに関する情報として、記憶部71へ設定する(ステップS9)。 When user 1 performs an operation input indicating approval of the setting (step S8: Yes), the setting unit 76 sets the distance L, the height and width of the home position AR, and the reference position P in the storage unit 71. The setting unit 76 also sets the current position and pointing direction identified by the position identification unit 73 as information related to the home position AR in the storage unit 71 (step S9).

また、設定部76は、撮像部74へ設定完了の旨を通知し、撮像部74は、撮像状態をオフ(無効化)にする(ステップS10)。また、設定部76は、ホームポジション設定モードを解除する。なお、ステップS8において、ユーザ1による操作入力により、設定否認を示す入力がなされると(ステップS8:No)、ステップS3へ移動する。 The setting unit 76 also notifies the imaging unit 74 of the completion of the setting, and the imaging unit 74 turns off (disables) the imaging state (step S10). The setting unit 76 also cancels the home position setting mode. Note that in step S8, if the user 1 performs an operation input indicating that the setting is not to be accepted (step S8: No), the process proceeds to step S3.

続いて、ユーザ1移動時のホームポジションARの表示例を図9および図10を用いて説明する。まず、図9を用いて、ユーザ1が装着したヘッドマウントディスプレイ100において、ホームポジションARを設定するまでを説明する。図9は、ユーザ1が装着したヘッドマウントディスプレイ100において、ホームポジションARを設定するまでの状態を説明するための図である。 Next, a display example of the home position AR when the user 1 moves will be described with reference to Figs. 9 and 10. First, with reference to Fig. 9, a process up to setting the home position AR on the head mounted display 100 worn by the user 1 will be described. Fig. 9 is a diagram for explaining the state up to setting the home position AR on the head mounted display 100 worn by the user 1.

図9(a)は、ユーザ1の部屋の見取り図である。図9(a)に示すように、ユーザ1の部屋には、ベッド600と、机601と、椅子602と、書棚603と、TV台604と、TV605と、を含むものとする。 Figure 9(a) is a floor plan of user 1's room. As shown in Figure 9(a), user 1's room includes a bed 600, a desk 601, a chair 602, a bookshelf 603, a TV stand 604, and a TV 605.

図9(b)は、ユーザ1が椅子602に座った状態を示す図である。ヘッドマウントディスプレイ100を装着したユーザ1は、椅子602に着席した状態で、操作入力部120を操作し、ヘッドマウントディスプレイ100は、これに応じてホームポジションARに関する情報を設定する。 Figure 9(b) is a diagram showing a state in which a user 1 is sitting in a chair 602. The user 1 wearing the head mounted display 100 operates the operation input unit 120 while seated in the chair 602, and the head mounted display 100 sets information about the home position AR in response to this.

続いて、図10を用いてホームポジションの表示制御について説明する。図10は、ホームポジションARの表示制御について説明するための図である。図10(a)は、ユーザ1がホームポジションとは異なる場所を見ている(ヘッドマウントディスプレイ100がホームポジションとは異なる方向を向いている)例を示す図である。図10(a)に示すように、ヘッドマウントディスプレイ100の方向(視認領域)に基準位置Pが無い場合、ヘッドマウントディスプレイ100は、ホームポジションARを表示しない。 Next, the display control of the home position will be described with reference to FIG. 10. FIG. 10 is a diagram for explaining the display control of the home position AR. FIG. 10(a) is a diagram showing an example in which the user 1 is looking at a location different from the home position (the head mounted display 100 is facing in a direction different from the home position). As shown in FIG. 10(a), if the reference position P is not in the direction (visual recognition area) of the head mounted display 100, the head mounted display 100 does not display the home position AR.

また、図10(b)は、ヘッドマウントディスプレイ100がホームポジションARの方向を向いている(即ち、視認領域に基準位置Pがある)例を示す。図10(b)に示すように、ヘッドマウントディスプレイ100が、ホームポジションARの方向を向いた場合、視認領域に基準位置Pが含まれるので、ヘッドマウントディスプレイ100は、ホームポジションARを表示する。この時のホームポジションの表示態様は、設定時の向きを保ったままでもよいし、ユーザ1の方向に向きを変えてもよい。 Also, FIG. 10(b) shows an example in which the head mounted display 100 faces the direction of the home position AR (i.e., the reference position P is in the visual recognition area). As shown in FIG. 10(b), when the head mounted display 100 faces the direction of the home position AR, the visual recognition area includes the reference position P, so the head mounted display 100 displays the home position AR. The display mode of the home position at this time may be kept in the orientation at the time of setting, or may be changed to face the user 1.

続いて、図11を用いて、ホームポジションARの表示制御をする処理手順を説明する。図11は、ホームポジションARの表示制御をする処理を示すフローチャートである。ユーザ1の操作入力により、ホームポジション使用モードが指定されている場合(ステップS11:Yes)、アプリ制御部77は、記憶部71に記憶されているホームポジションARに関する情報(現在位置、指向方向、距離L、ホームポジションの幅、高さ、基準位置P)を取得する(ステップS12)。 Next, the process procedure for controlling the display of the home position AR will be described with reference to FIG. 11. FIG. 11 is a flowchart showing the process for controlling the display of the home position AR. When the home position use mode is designated by the operation input of the user 1 (step S11: Yes), the application control unit 77 acquires information about the home position AR stored in the memory unit 71 (current position, pointing direction, distance L, width and height of the home position, and reference position P) (step S12).

続いて、アプリ制御部77は、位置特定部73から現在位置情報を取得する(ステップS13)。また、アプリ制御部77は、位置特定部73から指向方向を取得する(ステップS14)。 Next, the application control unit 77 acquires current location information from the position identification unit 73 (step S13). The application control unit 77 also acquires the orientation direction from the position identification unit 73 (step S14).

アプリ制御部77は、記憶部71に記憶されているホームポジションARに関する情報と、位置特定部73により特定された現在位置情報および指向方向とを比較する。アプリ制御部77は、当該比較した結果、ホームポジションの基準位置Pが視認領域内であり(ステップS15:Yes)、且つヘッドマウントディスプレイ100からホームポジションの基準位置Pまでの距離が所定値以内である場合(ステップS16:Yes)、ホームポジションを透過表示部131に表示する(ステップS17)。なお、ステップS15の条件に合致しない場合(ステップS15:No)またはステップS16の条件に合致しない場合(ステップS16:No)、ステップS18へ進む。 The application control unit 77 compares the information about the home position AR stored in the memory unit 71 with the current position information and orientation direction identified by the position identification unit 73. If the comparison result indicates that the reference position P of the home position is within the visual recognition area (step S15: Yes) and the distance from the head mounted display 100 to the reference position P of the home position is within a predetermined value (step S16: Yes), the application control unit 77 displays the home position on the transparent display unit 131 (step S17). Note that if the condition of step S15 is not met (step S15: No) or the condition of step S16 is not met (step S16: No), the application control unit 77 proceeds to step S18.

<ホームポジションへのアプリケーション移動>
続いて、図12~図17を用いて、ヘッドマウントディスプレイ100が表示しているアプリケーションをホームポジションへ移動させる方法について説明する。
<Move application to home position>
Next, a method for moving an application displayed on the head mounted display 100 to the home position will be described with reference to FIGS.

まず、図12を用いて、ホームポジションを設定した時のホームポジションの表示例を説明する。図12は、ホームポジションを設定した時のホームポジションの表示例を説明するための図である。図12(a)は、ユーザ1が椅子602に座った状態を示す図である。この状態で、ヘッドマウントディスプレイ100が、ユーザ1からの操作要求に応じてホームポジションを設定する。 First, a display example of the home position when the home position is set will be described with reference to FIG. 12. FIG. 12 is a diagram for explaining a display example of the home position when the home position is set. FIG. 12(a) is a diagram showing a state in which the user 1 is sitting on the chair 602. In this state, the head mounted display 100 sets the home position in response to an operation request from the user 1.

図12(b)は、この状態において、ヘッドマウントディスプレイ100の透過表示部131に表示される画像の例である。図12(b)に示すように、ヘッドマウントディスプレイ100は、アプリAP1(アプリA)、アプリAP2(アプリB)を表示すると共に、ホームポジションを透過表示部131に表示する。 Figure 12 (b) is an example of an image displayed on the transparent display section 131 of the head mounted display 100 in this state. As shown in Figure 12 (b), the head mounted display 100 displays app AP1 (app A) and app AP2 (app B), and also displays the home position on the transparent display section 131.

続いて、図13に、ヘッドマウントディスプレイ100が、ホームポジションとは異なる方向を向いている場合の例を示す。図13(a)は、ヘッドマウントディスプレイ100が、ホームポジションとは異なる方向を向いている例である。図13(b)は、図13(a)の状態において、ヘッドマウントディスプレイ100の透過表示部131に表示される画像の例を示す図である。 Next, FIG. 13 shows an example in which the head mounted display 100 faces in a direction different from the home position. FIG. 13(a) shows an example in which the head mounted display 100 faces in a direction different from the home position. FIG. 13(b) shows an example of an image displayed on the transmissive display section 131 of the head mounted display 100 in the state shown in FIG. 13(a).

図13(b)に示すように、ヘッドマウントディスプレイ100は、ホームポジションを表示せずに、当該方向に割り当てられているアプリAP3(アプリC)、アプリAP4(アプリD)、アプリAP5(アプリE)、アプリAP6(アプリF)を透過表示部131に表示する。 As shown in FIG. 13(b), the head mounted display 100 does not display the home position, but displays app AP3 (app C), app AP4 (app D), app AP5 (app E), and app AP6 (app F) assigned to the direction in the transparent display section 131.

続いて、図14に、ヘッドマウントディスプレイ100が、アプリをホームポジションへ移動させる例を示す。図14に示すように、図13(b)の状態において、ユーザ1による操作入力により、アプリAP5が選択されると、メニューを表示する。このメニューにおいて、「呼ぶ」が選択されるものとする。この「呼ぶ」とは、ホームポジションに呼び出すことを示すメニューである。 Next, FIG. 14 shows an example in which the head mounted display 100 moves an application to the home position. As shown in FIG. 14, when the application AP5 is selected by an operation input by the user 1 in the state shown in FIG. 13(b), a menu is displayed. It is assumed that "Call" is selected in this menu. This "Call" is a menu that indicates calling to the home position.

メニューにおいて、「呼ぶ」が選択された後の状態について、図15を用いて説明する。図15(a)に示すように、図13(a)と同様に、ユーザ1が向いている方向は、変わっていない。図15(b)は、メニュー選択後の透過表示部131の表示状態を示す図である。図15(b)に示すように、選択されて、「呼ぶ」が指定されたアプリAP5は、ホームポジションへ移動しているため、表示対象から外れる。この場合、アプリ制御部77は、当該アプリAP5の移動前の位置および移動後の位置を記憶しておく。なお、アプリAP5が呼ばれた後、ヘッドマウントディスプレイ100は、移動前のアプリAP5の箇所を、移動前よりも薄い色で表示するようにしてもよい。これにより、ユーザ1は、移動前のアプリAP5の位置を視認することができ、この移動前のアプリAP5の領域でアプリの表示位置を調整する際の参考にすることができる。 The state after "call" is selected in the menu will be described with reference to FIG. 15. As shown in FIG. 15(a), the direction in which the user 1 is facing has not changed, as in FIG. 13(a). FIG. 15(b) is a diagram showing the display state of the transparent display unit 131 after the menu is selected. As shown in FIG. 15(b), the app AP5 selected and designated with "call" has moved to the home position, and is therefore no longer a display target. In this case, the app control unit 77 stores the position of the app AP5 before and after the movement. Note that after the app AP5 is called, the head mounted display 100 may display the location of the app AP5 before the movement in a lighter color than before the movement. This allows the user 1 to visually confirm the position of the app AP5 before the movement, and can use this as a reference when adjusting the display position of the app in the area of the app AP5 before the movement.

続いて、ユーザ1がホームポジションの位置する方向を向いた場合について図16を用いて説明する。図16(a)は、ユーザ1が姿勢を変えて、視認領域内にホームポジションが含まれる方向にヘッドマウントディスプレイ100が向いている状態である。 Next, a case where the user 1 faces the direction in which the home position is located will be described with reference to FIG. 16. FIG. 16(a) shows a state in which the user 1 has changed his/her posture and the head mounted display 100 faces in a direction in which the home position is included in the visual recognition area.

図16(b)は、上記の状態における、ヘッドマウントディスプレイ100の透過表示部131に表示される画像の例を示す図である。図16(b)に示すように、アプリ制御部77は、ホームポジションARの位置に、アプリAP5を配置して表示する。また、アプリ制御部77は、ユーザ1の入力操作により、アプリAP5に対するメニュー表示要求を受け付けた場合に、メニューを表示し、「戻る」が選択されると、アプリAP5を表示対象から外す。 Fig. 16(b) is a diagram showing an example of an image displayed on the transparent display section 131 of the head mounted display 100 in the above state. As shown in Fig. 16(b), the application control section 77 positions and displays the application AP5 at the position of the home position AR. Furthermore, when a menu display request for the application AP5 is received by an input operation of the user 1, the application control section 77 displays the menu, and when "Back" is selected, removes the application AP5 from the display targets.

続いて、再度ユーザ1が左方向を向いた場合について図17を用いて説明する。図17(a)は、ユーザ1が姿勢を変えて、左方向にヘッドマウントディスプレイ100が向いている状態である。図17(b)は、上記の状態における、ヘッドマウントディスプレイ100の透過表示部131に表示される画像の例を示す図である。 Next, a case where the user 1 faces left again will be described with reference to FIG. 17. FIG. 17(a) shows a state in which the user 1 has changed his/her posture and the head mounted display 100 faces left. FIG. 17(b) shows an example of an image displayed on the transmissive display section 131 of the head mounted display 100 in the above state.

図17(b)に示すように、アプリ制御部77は、アプリAP5について「戻る」メニューが選択されたことにより、アプリAP5を元の位置に戻して表示している。 As shown in FIG. 17(b), when the "Back" menu for app AP5 is selected, the app control unit 77 returns app AP5 to its original position and displays it.

続いて、アプリケーションの表示制御の処理手順について、図18を用いて説明する。図18は、アプリケーションの表示制御の処理手順を示すフローチャートである。まず、ホームポジション使用モードである場合(ステップS21:Yes)、位置特定部73がヘッドマウントディスプレイ100の現在位置を取得する(ステップS22)。また、位置特定部73は、指向方向を取得する(ステップS23)。アプリ制御部77は、位置特定部73から上記現在位置と指向方向とを取得し、記憶しているアプリケーションの表示位置に基づいて、現在位置および指向方向に応じたアプリケーションを表示する(ステップS24)。 Next, the processing procedure for application display control will be described with reference to FIG. 18. FIG. 18 is a flowchart showing the processing procedure for application display control. First, in the case of the home position use mode (step S21: Yes), the position identification unit 73 acquires the current position of the head mounted display 100 (step S22). The position identification unit 73 also acquires the pointing direction (step S23). The application control unit 77 acquires the current position and pointing direction from the position identification unit 73, and displays an application according to the current position and pointing direction based on the stored display positions of the applications (step S24).

アプリ制御部77は、何れかのアプリケーションが選択されたことを検出した場合(ステップS25:Yes)、メニューを表示する(ステップS26)。アプリ制御部77は、選択されたコマンドを特定する(ステップS27)。アプリ制御部77は、特定したコマンドが「戻す」であれば、選択されたアプリを元の位置に移動させて(ステップS29)、ステップS30へ進む。また、アプリ制御部77は、特定したコマンドが「呼ぶ」であれば、選択されたアプリをホームポジションへ移動させて(ステップS28)、ステップS30へ進む。また、アプリ制御部77は、「呼ぶ」「戻す」以外のメニューが選択された場合、何もせずにステップS30へ進む。ステップS30において、ホームポジション使用モードの終了を示す指示がなされていない場合(ステップS30:No)、ステップS22へ進む。また、ステップS30において、ホームポジションの終了を示す指示がなされている場合(ステップS30:Yes)、処理を終了する。 When the application control unit 77 detects that any application has been selected (step S25: Yes), it displays a menu (step S26). The application control unit 77 identifies the selected command (step S27). If the identified command is "return", the application control unit 77 moves the selected application to its original position (step S29) and proceeds to step S30. If the identified command is "call", the application control unit 77 moves the selected application to the home position (step S28) and proceeds to step S30. If a menu other than "call" or "return" is selected, the application control unit 77 proceeds to step S30 without doing anything. If an instruction to end the home position use mode has not been given in step S30 (step S30: No), it proceeds to step S22. If an instruction to end the home position has been given in step S30 (step S30: Yes), it ends the process.

<モニタとのリンク処理>
続いて、ホームポジションARの位置にモニタがある場合に、当該モニタをホームポジションARとするようにリンクする例を説明する。まず、ホームポジションARを設定する例を説明する。図19(a)は、ユーザ1が椅子602に座った状態を示す図である。ヘッドマウントディスプレイ100を装着したユーザ1は、椅子602に着席した状態で、操作入力部120を操作し、これに応じてホームポジションARを設定する。図19(b)は、上記の状態における、ヘッドマウントディスプレイ100の透過表示部131に表示される画像の例を示す図である。図19(b)に示すように、アプリ制御部77は、透過表示部131にホームポジションARを表示する。
<Monitor link processing>
Next, an example of linking a monitor to set the home position AR when the monitor is located at the home position AR will be described. First, an example of setting the home position AR will be described. FIG. 19(a) is a diagram showing a state in which a user 1 sits on a chair 602. The user 1 wearing the head mounted display 100 operates the operation input unit 120 while seated on the chair 602, and sets the home position AR accordingly. FIG. 19(b) is a diagram showing an example of an image displayed on the transparent display unit 131 of the head mounted display 100 in the above state. As shown in FIG. 19(b), the application control unit 77 displays the home position AR on the transparent display unit 131.

続いて、ホームポジションARの位置にモニタ700が配置された場合に、当該モニタ700をホームポジションARとして設定し直す例について、図20を用いて説明する。 Next, an example of resetting the monitor 700 as the home position AR when the monitor 700 is placed at the home position AR will be described with reference to FIG. 20.

図20(a)は、ユーザ1が椅子602に座った状態において、ユーザ1の前にモニタが配置されている例を示す図である。 Figure 20 (a) shows an example in which a monitor is placed in front of user 1 while user 1 is sitting in chair 602.

このような状態において、アプリ制御部77は、ホームポジションの範囲にモニタが配置されているか否かを判断する。例えば、アプリ制御部77は、撮像部74による撮像結果と、予め記憶しているモニタのテンプレートとを比較してモニタが存在するか否かを判断する。 In this state, the application control unit 77 determines whether or not a monitor is located within the range of the home position. For example, the application control unit 77 compares the image capture result by the image capture unit 74 with a pre-stored monitor template to determine whether or not a monitor is present.

アプリ制御部77は、モニタが存在すると判断した場合、当該モニタと接続するか否かを問い合わせるメッセージを透過表示部131に表示する。モニタと接続する旨、ユーザ1の操作入力がなされると、アプリ制御部77は、モニタに対して近距離無線通信して、当該モニタと情報の送受信が可能である状態にすると、当該モニタの識別情報を取得し、当該モニタの識別情報をホームポジションARに関する情報として追加する。このように、アプリ制御部77は、設定修正部として機能する。 When the application control unit 77 determines that a monitor exists, it displays a message on the transparent display unit 131 inquiring whether or not to connect to the monitor. When the user 1 inputs an operation to connect to the monitor, the application control unit 77 establishes a state in which it is possible to send and receive information with the monitor by short-range wireless communication with the monitor, acquires identification information of the monitor, and adds the identification information of the monitor as information related to the home position AR. In this way, the application control unit 77 functions as a setting correction unit.

そして、アプリ制御部77は、図20(b)に示すように、当該モニタをホームポジションARとして表示する。また、変形例として、視認領域にモニタ700が視認できる場合、そのモニタ700の画面を新たなホームポジションとして設定するという方法でもよい。その場合、必要に応じてモニタとリンクしていない元のホームポジション設定に戻せるようにしてもよい。 Then, the application control unit 77 displays the monitor as the home position AR, as shown in FIG. 20(b). As a modified example, if the monitor 700 is visible in the visible area, the screen of the monitor 700 may be set as the new home position. In this case, it may be possible to return to the original home position setting that is not linked to the monitor, if necessary.

続いて、ホームポジションARをモニタへリンクさせる処理手順について、図21を用いて説明する。図21は、ホームポジションARをモニタ700へリンクさせる処理手順を示すフローチャートである。図21に示すステップS31~ステップS35については、図11に示したステップS11~ステップS15とそれぞれ同じであるので、説明を省略する。 Next, the process for linking the home position AR to the monitor will be described with reference to FIG. 21. FIG. 21 is a flowchart showing the process for linking the home position AR to the monitor 700. Steps S31 to S35 shown in FIG. 21 are the same as steps S11 to S15 shown in FIG. 11, respectively, and therefore will not be described.

ステップS36において、アプリ制御部77は、撮像部74による撮像結果と、予め記憶しているモニタ700のテンプレートとを比較して、ホームポジションの範囲に、モニタ700が存在するか否かを判断する(ステップS36)。ホームポジションARの範囲にモニタ700が存在する場合(ステップS36:Yes)、アプリ制御部77は、モニタ700とリンクするか否かを問い合わせるメッセージを出力する(ステップS37)。ユーザ操作により、リンク解除を示す指定がされた場合、モニタ700とのリンクを解除して(ステップS40)、ステップS41へ進む。なお、ホームポジションARの範囲にモニタ700が存在しない場合(ステップS36:No)、ステップS41へ進む。 In step S36, the application control unit 77 compares the imaging result by the imaging unit 74 with a pre-stored template of the monitor 700 to determine whether the monitor 700 is present within the range of the home position (step S36). If the monitor 700 is present within the range of the home position AR (step S36: Yes), the application control unit 77 outputs a message inquiring whether to link with the monitor 700 (step S37). If a command indicating unlinking is given by a user operation, the link with the monitor 700 is unlinked (step S40) and the process proceeds to step S41. Note that if the monitor 700 is not present within the range of the home position AR (step S36: No), the process proceeds to step S41.

ステップS37において、モニタとリンクする旨のユーザ操作がなされた場合(ステップS37:Yes)、リンク可能なモニタ700が複数ある場合、モニタ700の一覧を表示し、モニタ700の選択を受け付ける(ステップS38)。なお、モニタ700が1台のみの場合、ステップS38の処理を省略してもよい。アプリ制御部77は、選択されたモニタ700とリンクして(ホームポジションを当該モニタに再設定する)(ステップS39)、ステップS41へ進む。 In step S37, if a user operation is performed to link with a monitor (step S37: Yes), and if there are multiple linkable monitors 700, a list of the monitors 700 is displayed and the selection of the monitor 700 is accepted (step S38). Note that if there is only one monitor 700, the processing of step S38 may be omitted. The application control unit 77 links with the selected monitor 700 (resets the home position to that monitor) (step S39), and proceeds to step S41.

ステップS41において、ホームポジション使用モードを終了する旨の指示がなされた場合(ステップS41:Yes)、処理を終了する。また、ステップS41において、ホームポジション使用モードを終了する旨の指示がなされていない場合(ステップS41:No)、ステップS33へ進む。 If an instruction to end the home position use mode is given in step S41 (step S41: Yes), the process ends. If an instruction to end the home position use mode is not given in step S41 (step S41: No), the process proceeds to step S33.

続いて、モニタ700をホームポジションとしている場合における、アプリケーションの表示制御の処理手順について、図22を用いて説明する。図22は、モニタ700をホームポジションARとしている場合における、アプリケーションの表示制御の処理手順を示すフローチャートである。なお、図22に示すステップS51~ステップS57、ステップS62については、図18に示したステップS21~ステップS27、ステップS30とそれぞれ同じであるので、説明を省略する。 Next, the procedure for application display control when the monitor 700 is in the home position will be described with reference to FIG. 22. FIG. 22 is a flowchart showing the procedure for application display control when the monitor 700 is in the home position AR. Note that steps S51 to S57 and S62 shown in FIG. 22 are the same as steps S21 to S27 and S30 shown in FIG. 18, respectively, and therefore will not be described.

ステップS57において、特定したコマンドが「戻す」であれば、モニタ700に表示させる対象がなくなるので、アプリ制御部77は、選択されたアプリのモニタ出力を終了し(ステップS60)、当該アプリを元の位置に移動させて(ステップS61)、ステップS62へ進む。 If the identified command in step S57 is "return," there is nothing to display on the monitor 700, so the application control unit 77 ends the monitor output of the selected application (step S60), moves the application to its original position (step S61), and proceeds to step S62.

また、ステップS57において、特定したコマンドが「呼ぶ」であれば、アプリ制御部77は、選択されたアプリの表示を終了して(ステップS58)、当該アプリをホームポジションであるモニタ700へ表示させて(ステップS59)、ステップS62へ進む。また、アプリ制御部77は、「呼ぶ」「戻す」以外のメニューが選択された場合、何もせずにステップS62へ進む。 If the command identified in step S57 is "call," the application control unit 77 ends the display of the selected application (step S58), displays the application on the monitor 700 in the home position (step S59), and proceeds to step S62. If a menu other than "call" or "return" is selected, the application control unit 77 proceeds to step S62 without doing anything.

上述のように、ヘッドマウントディスプレイ100では、記憶部71が、アプリケーションを記憶する。撮像部74は、ユーザの部位を撮像し、位置特定部73が、ヘッドマウントディスプレイ100の位置および方向を特定する。検出部75は、撮像部74により撮像された画像に基づいて、ユーザ1の状態を検出し、設定部76は、検出部75により検出された結果と、位置特定部73により特定された位置および方向とに基づいて、ホームポジションを示す位置を設定する。 As described above, in the head mounted display 100, the storage unit 71 stores applications. The imaging unit 74 captures images of the user's body parts, and the position identification unit 73 identifies the position and orientation of the head mounted display 100. The detection unit 75 detects the state of the user 1 based on the image captured by the imaging unit 74, and the setting unit 76 sets a position indicating the home position based on the result of detection by the detection unit 75 and the position and orientation identified by the position identification unit 73.

ヘッドマウントディスプレイ100は、ユーザの入力指定により、アプリケーションを操作する領域を設定するので、ユーザが操作しやすい位置でアプリケーションを操作させることができる。 The head mounted display 100 sets the area in which the application is operated based on the user's input designation, allowing the user to operate the application in a position that is easy for the user to operate.

具体的に、撮像部74は、ユーザ1の指を含む部分を撮像して、検出部75は、当該撮像結果により、ユーザ1のジェスチャを検出して、設定部76は、当該ジェスチャによる位置を用いてホームポジションに関する位置を設定する。この場合、ヘッドマウントディスプレイ100は、ユーザ1の指動作(ジェスチャ)結果に基づいてホームポジションに関する位置を設定するので、煩雑な操作入力ではなく、直感的で簡易な操作によりホームポジションを設定できる。 Specifically, the imaging unit 74 captures an image of a portion including the user 1's finger, the detection unit 75 detects a gesture of the user 1 from the imaging result, and the setting unit 76 sets a position related to the home position using the position determined by the gesture. In this case, the head mounted display 100 sets a position related to the home position based on the result of the finger movement (gesture) of the user 1, so that the home position can be set by an intuitive and simple operation rather than a complicated operation input.

また、撮像部74が、ユーザ1の目周辺を撮像し、検出部75が、撮像部74による撮像結果を用いてユーザの視線を検出し、当該視線による位置を検出し、設定部76は、視線による位置を用いてホームポジションに関する位置を設定する。この場合も、ヘッドマウントディスプレイ100は、煩雑な操作入力ではなく、直感的で簡易な操作によりホームポジションを設定できる。 The imaging unit 74 also captures an image of the area around the eyes of the user 1, the detection unit 75 detects the user's line of sight using the imaging result by the imaging unit 74 and detects a position based on the line of sight, and the setting unit 76 sets a position related to the home position using the position based on the line of sight. In this case as well, the head mounted display 100 can set the home position through intuitive and simple operations rather than through complicated operational inputs.

また、検出部75により検出された位置および位置特定部73により特定された位置に基づいた位置にモニタ700がある場合、設定部76は、当該モニタ700の位置をホームポジションARに関する位置に設定する。この場合、ヘッドマウントディスプレイ100は、ユーザ1のジェスチャなどによる直感的な操作により、モニタ700をホームポジションARとして設定することができる。 When the monitor 700 is located at a position based on the position detected by the detection unit 75 and the position identified by the position identification unit 73, the setting unit 76 sets the position of the monitor 700 to a position related to the home position AR. In this case, the head mounted display 100 can set the monitor 700 as the home position AR by an intuitive operation such as a gesture by the user 1.

また、設定部76により、ホームポジションARに関する位置が設定されている場合に、アプリ制御部77は、当該位置に対応する位置に、モニタ700を新たに特定した場合、当該モニタの位置を新たにホームポジションとして設定し直す。これにより、ヘッドマウントディスプレイ100は、ホームポジションを設定した後に、ユーザ1による新たな位置指定を示す操作を必要とせずにモニタの位置をホームポジションに設定することができる。 In addition, when the setting unit 76 sets a position related to the home position AR, if the application control unit 77 identifies a new position for the monitor 700 corresponding to that position, the application control unit 77 resets the position of the monitor as a new home position. This allows the head mounted display 100 to set the position of the monitor as the home position after setting the home position without requiring the user 1 to perform an operation indicating a new position designation.

また、アプリ制御部77は、所定の入力操作に応じて、記憶部71で記憶しているアプリケーションをホームポジションへ表示するように制御することで、ユーザが操作しやすい位置にアプリケーションを表示することができる。 In addition, the application control unit 77 controls the display of an application stored in the memory unit 71 in the home position in response to a specific input operation, thereby enabling the application to be displayed in a position that is easy for the user to operate.

上述の実施形態では、特に述べなかったが、複数のホームポジションを設定してもよい。また、この場合に、ヘッドマウントディスプレイ100の現在位置に基づいて、対象のホームポジションを決定するようにしてもよいし、ユーザ操作により指定されたホームポジションを優先するようにしてもよい。 Although not specifically mentioned in the above embodiment, multiple home positions may be set. In this case, the target home position may be determined based on the current position of the head mounted display 100, or a home position specified by a user operation may be given priority.

位置特定部73は、緯度経度等の現在位置に基づいて位置を特定する場合について述べたが、他の種々の方法により位置を特定するようにしてもよい。例えば、基準となる物体(ランドマークとなる物体)に基づいた相対位置を特定するようにしてもよい。 Although the position identification unit 73 has been described as identifying a position based on a current position such as latitude and longitude, the position may be identified by various other methods. For example, a relative position based on a reference object (a landmark object) may be identified.

上述の実施形態では、特に述べなかったが、コマンド指定(例えば、「呼ぶ」等)を音声入力により指定するようにしてもよい。 Although not specifically mentioned in the above embodiment, command specification (e.g., "call") may be specified by voice input.

上述の実施形態では、ホームポジションに関する情報として、現在位置および指向方向以外に距離L、ホームポジションの幅、高さ、および基準位置Pを設定する場合について述べたが、距離L、ホームポジションの幅、高さについては、予め定められている値を保持しておき、現在位置および指向方向と、基準位置Pとを設定するようにしてもよい。 In the above embodiment, a case was described in which distance L, width and height of the home position, and reference position P are set as information related to the home position in addition to the current position and direction of orientation. However, it is also possible to hold predetermined values for distance L, width and height of the home position, and set the current position, direction of orientation, and reference position P.

前述した本発明の機能等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、マイクロプロセッサユニット等がそれぞれの機能等を実現する動作プログラムを解釈して実行することによりソフトウェアで実現してもよい。ハードウェアとソフトウェアを併用してもよい。 The functions of the present invention described above may be realized in part or in whole by hardware, for example by designing them as integrated circuits. They may also be realized by software, with a microprocessor unit or the like interpreting and executing an operating program that realizes each function. Hardware and software may also be used in combination.

また、図中に示した制御線や情報線は説明上必要と考えられるものを示しており、必ずしも製品上の全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 The control lines and information lines shown in the diagram are those considered necessary for explanation, and do not necessarily represent all control lines and information lines on the product. In reality, it is safe to assume that almost all components are interconnected.

また、図中に示した制御線や情報線は説明上必要と考えられるものを示しており、必ずしも製品上の全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。 The control lines and information lines shown in the diagram are those considered necessary for explanation, and do not necessarily represent all control lines and information lines on the product. In reality, it is safe to assume that almost all components are interconnected.

前記実施の形態は、以下の形態を含む 。
(付記1)
アプリケーションを記憶するヘッドマウントディスプレイであって、
前記ヘッドマウントディスプレイを装着したユーザの部位を撮像する撮像部と、
前記撮像部により撮像された画像に基づいて、前記ユーザが示す位置を検出する検出部と、
前記ヘッドマウントディスプレイの位置および方向を特定する位置特定部と、
前記検出部により検出された結果と、前記位置特定部により特定された位置および方向とに基づいて、前記アプリケーションを操作する領域である操作領域に関する情報を設定する設定部と、
を備える、
ヘッドマウントディスプレイ。
The above embodiment includes the following aspects.
(Appendix 1)
A head mounted display that stores an application,
An imaging unit that images a part of a user wearing the head mounted display;
A detection unit that detects a position indicated by the user based on an image captured by the imaging unit;
a position identification unit that identifies a position and a direction of the head mounted display;
a setting unit that sets information regarding an operation area, which is an area in which the application is operated, based on the result of detection by the detection unit and the position and direction specified by the position specifying unit;
Equipped with
Head-mounted display.

(付記2)
アプリケーションを記憶するヘッドマウントディスプレイで実行する設定方法であって、
ユーザの部位を撮像する撮像ステップと、
前記撮像ステップで撮像した画像に基づいて、前記ヘッドマウントディスプレイを装着したユーザが示す位置を検出する検出ステップと、
前記ヘッドマウントディスプレイの位置および方向を特定する位置特定ステップと、
前記検出ステップで検出した結果と、前記位置特定ステップで特定した位置および方向とに基づいて、前記アプリケーションを操作する領域である操作領域に関する情報を設定する設定ステップと、を含む、
設定方法。
(Appendix 2)
A setting method executed on a head mounted display storing an application, comprising:
An imaging step of imaging a part of a user;
a detection step of detecting a position indicated by a user wearing the head mounted display based on the image captured in the imaging step;
A position determination step of determining a position and an orientation of the head mounted display;
A setting step of setting information regarding an operation area, which is an area for operating the application, based on the result detected in the detection step and the position and direction identified in the position identification step.
Setting method.

1…ユーザ、71…記憶部、72…設定受付部、73…位置特定部、74…撮像部、75…検出部、76…設定部、77…アプリ制御部、100…ヘッドマウントディスプレイ、101…主制御部、103…RAM、110…ストレージ、120…操作入力部、121…操作キー、122…タッチセンサ、131…透過表示部、132…画像信号処理部、133…第1撮像部、134…第2撮像部、141…音声出力部、142…音声信号処理部、143…音声入力部、150…センサ部、151…GPS受信部、152…ジャイロセンサ、153…地磁気センサ、154…加速度センサ、160…通信部、170…拡張I/F部。 1...user, 71...storage unit, 72...settings reception unit, 73...position identification unit, 74...imaging unit, 75...detection unit, 76...setting unit, 77...application control unit, 100...head mounted display, 101...main control unit, 103...RAM, 110...storage, 120...operation input unit, 121...operation keys, 122...touch sensor, 131...transparent display unit, 132...image signal processing unit, 133...first imaging unit, 134...second imaging unit, 141...audio output unit, 142...audio signal processing unit, 143...audio input unit, 150...sensor unit, 151...GPS receiving unit, 152...gyro sensor, 153...geomagnetic sensor, 154...acceleration sensor, 160...communication unit, 170...extension I/F unit.

Claims (6)

仮想空間の任意の位置に配置された仮想オブジェクトを視認可能なヘッドマウントディスプレイで実行する仮想オブジェクト操作方法であって、
前記仮想空間または前記仮想オブジェクトを操作するための操作入力を受け付ける操作受付ステップと、
前記操作受付ステップにおいて外部ディスプレイ連携操作を受け付けた場合に、実空間にある外部ディスプレイ装置を、前記仮想オブジェクトを操作するための操作領域として設定する外部ディスプレイ連携ステップと、
前記操作受付ステップにおいて仮想オブジェクト選択操作を受け付けた場合に、前記仮想空間の任意の位置に配置された仮想オブジェクトから所定の仮想オブジェクトを選択する仮想オブジェクト選択ステップと、
前記操作受付ステップにおいて仮想オブジェクト編集要求操作を受け付けた場合に、前記仮想オブジェクト選択ステップで選択された前記所定の仮想オブジェクトを前記外部ディスプレイ装置に表示させるための情報を、前記外部ディスプレイ連携ステップで連携させた前記外部ディスプレイ装置に出力する仮想オブジェクト出力ステップと、
を含む、
仮想オブジェクト操作方法。
A virtual object operation method executed on a head mounted display in which a virtual object placed at an arbitrary position in a virtual space can be viewed, comprising:
an operation receiving step of receiving an operation input for operating the virtual space or the virtual object;
an external display linking step of setting an external display device in a real space as an operation area for operating the virtual object when an external display linking operation is accepted in the operation accepting step;
a virtual object selection step of selecting a predetermined virtual object from virtual objects arranged at any position in the virtual space when a virtual object selection operation is accepted in the operation acceptance step;
a virtual object output step of outputting, when a virtual object editing request operation is accepted in the operation accepting step, information for displaying the predetermined virtual object selected in the virtual object selecting step on the external display device to the external display device linked in the external display linking step;
including,
How to manipulate virtual objects.
請求項1に記載の仮想オブジェクト操作方法であって、
前記操作受付ステップにおいて操作領域設定操作を受け付けた場合に、前記操作領域設定操作で指定される仮想空間の所定の位置に対応する実空間の位置に前記外部ディスプレイ装置があるか否かを確認する外部ディスプレイ確認ステップを更に備え、
前記外部ディスプレイ連携ステップにおいては、前記外部ディスプレイ確認ステップにおいて前記外部ディスプレイ装置があることが確認された場合に、前記外部ディスプレイ装置を、前記仮想オブジェクトを操作するための操作領域として設定する
仮想オブジェクト操作方法。
The virtual object operation method according to claim 1 ,
an external display confirmation step of confirming, when an operation area setting operation is accepted in the operation acceptance step, whether or not the external display device is located at a position in a real space corresponding to a predetermined position in a virtual space designated by the operation area setting operation;
In the external display linking step, when it is confirmed that the external display device is present in the external display confirmation step, the external display device is set as an operation area for operating the virtual object.
How to manipulate virtual objects.
請求項1に記載の仮想オブジェクト操作方法であって、
前記操作受付ステップにおいて仮想オブジェクト編集終了操作を受け付けた場合に、前記外部ディスプレイ連携ステップで連携させた前記外部ディスプレイ装置への、前記仮想オブジェクト選択ステップで選択された前記所定の仮想オブジェクトを前記外部ディスプレイ装置に表示させるための情報の出力を終了する仮想オブジェクト出力終了ステップ、
を更に含む、
仮想オブジェクト操作方法。
The virtual object operation method according to claim 1 ,
a virtual object output terminating step of terminating output of information for displaying the predetermined virtual object selected in the virtual object selection step on the external display device linked in the external display linking step, when a virtual object editing terminating operation is accepted in the operation accepting step;
Further comprising:
How to manipulate virtual objects.
仮想空間の任意の位置に配置された仮想オブジェクトを視認可能なヘッドマウントディスプレイであって、
前記仮想空間または前記仮想オブジェクトを操作するための操作入力を受け付ける操作受付部と、
外部とのデータ送受信を行う通信部と、
制御部と、
を備え、
前記制御部は、
前記操作受付部が外部ディスプレイ連携操作を受け付けた場合に、実空間にある外部ディスプレイ装置を、前記仮想オブジェクトを操作するための操作領域として設定し
前記操作受付部が仮想オブジェクト選択操作を受け付けた場合に、前記仮想空間の任意の位置に配置された仮想オブジェクトから所定の仮想オブジェクトを選択し、
前記操作受付部が仮想オブジェクト編集要求操作を受け付けた場合に、前記選択された前記所定の仮想オブジェクトを前記外部ディスプレイ装置に表示させるための情報を、前記連携させた前記外部ディスプレイ装置に前記通信部を介して出力する、
ヘッドマウントディスプレイ。
A head mounted display capable of visually recognizing a virtual object placed at an arbitrary position in a virtual space,
an operation receiving unit that receives an operation input for operating the virtual space or the virtual object;
A communication unit that transmits and receives data to and from the outside;
A control unit;
Equipped with
The control unit is
When the operation reception unit receives an external display linked operation, the external display device in a real space is set as an operation area for operating the virtual object;
When the operation reception unit receives a virtual object selection operation, the operation reception unit selects a predetermined virtual object from virtual objects arranged at any position in the virtual space;
When the operation reception unit receives a virtual object editing request operation, information for displaying the selected predetermined virtual object on the external display device is output to the linked external display device via the communication unit.
Head-mounted display.
請求項4に記載のヘッドマウントディスプレイであって、
前記制御部は、更に、
前記操作受付部が操作領域設定操作を受け付けた場合に、前記操作領域設定操作で指定される仮想空間の所定の位置に対応する実空間の位置に外部ディスプレイ装置があるか否かを確認し、
前記外部ディスプレイ装置があることが確認された場合に、前記外部ディスプレイ装置を、前記仮想オブジェクトを操作するための操作領域として設定する
ヘッドマウントディスプレイ。
The head mounted display according to claim 4,
The control unit further
when the operation reception unit receives an operation area setting operation, it is confirmed whether or not an external display device is present at a position in a real space corresponding to a predetermined position in a virtual space designated by the operation area setting operation;
when it is confirmed that the external display device is present, setting the external display device as an operation area for operating the virtual object;
Head-mounted display.
請求項4に記載のヘッドマウントディスプレイであって、
前記制御部は、更に、前記操作受付部が仮想オブジェクト編集終了操作を受け付けた場合に、連携させた前記外部ディスプレイ装置への、前記選択された前記所定の仮想オブジェクトを前記外部ディスプレイ装置に表示させるための情報の前記通信部を介した出力を終了する、
ヘッドマウントディスプレイ。
The head mounted display according to claim 4,
The control unit further terminates, when the operation reception unit receives a virtual object editing end operation, outputting, via the communication unit , information for displaying the selected predetermined virtual object on the external display device to the linked external display device .
Head-mounted display.
JP2023046344A 2018-07-04 2023-03-23 Virtual object operation method and head-mounted display Active JP7498330B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023046344A JP7498330B2 (en) 2018-07-04 2023-03-23 Virtual object operation method and head-mounted display

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020528598A JP7077405B2 (en) 2018-07-04 2018-07-04 Head-mounted display and setting method
PCT/JP2018/025354 WO2020008559A1 (en) 2018-07-04 2018-07-04 Head-mounted display and setting method
JP2022081421A JP7252398B2 (en) 2018-07-04 2022-05-18 Virtual object manipulation method and head-mounted display
JP2023046344A JP7498330B2 (en) 2018-07-04 2023-03-23 Virtual object operation method and head-mounted display

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022081421A Division JP7252398B2 (en) 2018-07-04 2022-05-18 Virtual object manipulation method and head-mounted display

Publications (2)

Publication Number Publication Date
JP2023075353A JP2023075353A (en) 2023-05-30
JP7498330B2 true JP7498330B2 (en) 2024-06-11

Family

ID=87888388

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022081421A Active JP7252398B2 (en) 2018-07-04 2022-05-18 Virtual object manipulation method and head-mounted display
JP2023046344A Active JP7498330B2 (en) 2018-07-04 2023-03-23 Virtual object operation method and head-mounted display

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2022081421A Active JP7252398B2 (en) 2018-07-04 2022-05-18 Virtual object manipulation method and head-mounted display

Country Status (1)

Country Link
JP (2) JP7252398B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7252398B2 (en) * 2018-07-04 2023-04-04 マクセル株式会社 Virtual object manipulation method and head-mounted display

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006267604A (en) 2005-03-24 2006-10-05 Canon Inc Composite information display device
JP2012173476A (en) 2011-02-21 2012-09-10 Nec Casio Mobile Communications Ltd Display system, terminal device, method for controlling the device, and program
WO2014002242A1 (en) 2012-06-29 2014-01-03 日立コンシューマエレクトロニクス株式会社 Image display system, information terminal, and information-terminal control method and control program
US20160037573A1 (en) 2014-07-29 2016-02-04 Samsung Electronics Co., Ltd. Mobile device and method of pairing the same with electronic device
WO2016199699A1 (en) 2015-06-12 2016-12-15 株式会社ソニー・インタラクティブエンタテインメント Control device, control method, and program
JP2018101019A (en) 2016-12-19 2018-06-28 セイコーエプソン株式会社 Display unit and method for controlling display unit
JP2022113692A (en) 2018-07-04 2022-08-04 マクセル株式会社 Virtual object operation method and head-mounted display

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10001645B2 (en) * 2014-01-17 2018-06-19 Sony Interactive Entertainment America Llc Using a second screen as a private tracking heads-up display
KR102400900B1 (en) * 2015-10-26 2022-05-23 엘지전자 주식회사 System
JP2017187757A (en) * 2016-03-30 2017-10-12 TsZ株式会社 Image display device
JP6676213B2 (en) * 2016-07-22 2020-04-08 グーグル エルエルシー Detection of User Motion Range for Virtual Reality User Interface
JP2022081421A (en) * 2020-11-19 2022-05-31 昭和電工マテリアルズ株式会社 Negative electrode body for zinc battery and zinc battery

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006267604A (en) 2005-03-24 2006-10-05 Canon Inc Composite information display device
JP2012173476A (en) 2011-02-21 2012-09-10 Nec Casio Mobile Communications Ltd Display system, terminal device, method for controlling the device, and program
WO2014002242A1 (en) 2012-06-29 2014-01-03 日立コンシューマエレクトロニクス株式会社 Image display system, information terminal, and information-terminal control method and control program
US20160037573A1 (en) 2014-07-29 2016-02-04 Samsung Electronics Co., Ltd. Mobile device and method of pairing the same with electronic device
WO2016199699A1 (en) 2015-06-12 2016-12-15 株式会社ソニー・インタラクティブエンタテインメント Control device, control method, and program
JP2018101019A (en) 2016-12-19 2018-06-28 セイコーエプソン株式会社 Display unit and method for controlling display unit
JP2022113692A (en) 2018-07-04 2022-08-04 マクセル株式会社 Virtual object operation method and head-mounted display

Also Published As

Publication number Publication date
JP2022113692A (en) 2022-08-04
JP2023075353A (en) 2023-05-30
JP7252398B2 (en) 2023-04-04

Similar Documents

Publication Publication Date Title
US9378592B2 (en) Apparatus and method of providing user interface on head mounted display and head mounted display thereof
US9323343B2 (en) Information processing method and information processing apparatus
KR101430614B1 (en) Display device using wearable eyeglasses and method for operating the same
CN106066537B (en) Head-mounted display and control method of head-mounted display
US11367260B2 (en) Video synthesis device, video synthesis method and recording medium
KR20150054825A (en) Apparatus and method of providing user interface on head mounted display and head mounted display threrof
US20170038838A1 (en) Information processing system and information processing method
US11625858B2 (en) Video synthesis device, video synthesis method and recording medium
JP7498330B2 (en) Virtual object operation method and head-mounted display
US10929083B2 (en) Resource sharing device and control method thereof
KR101878144B1 (en) An Apparatus and Method of Providing User Interface on Head Mounted Display and a Head Mounted Display Thereof
WO2017085974A1 (en) Information processing apparatus
US20240054975A1 (en) Head mounted display and setting method
US20220291744A1 (en) Display processing device, display processing method, and recording medium
US10437415B2 (en) System, method, and device for controlling a display
JP2015005823A (en) Image processing apparatus and digital mirror system
US20200241633A1 (en) Display device and display device control method
JP6308842B2 (en) Display system and program
JP6982656B2 (en) Eye-pointing system operated by the eye
JP6779715B2 (en) Information processing system
JP6873186B2 (en) Information processing equipment, switching systems, programs and methods
JP2017151672A (en) Pointing device operated with eye, and measurement system utilizing the same
WO2020110283A1 (en) Display device
JP4019643B2 (en) Video selection control device using cursor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240530

R150 Certificate of patent or registration of utility model

Ref document number: 7498330

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150