JP2013254251A - Head-mounted display device, control method, and program - Google Patents

Head-mounted display device, control method, and program Download PDF

Info

Publication number
JP2013254251A
JP2013254251A JP2012128054A JP2012128054A JP2013254251A JP 2013254251 A JP2013254251 A JP 2013254251A JP 2012128054 A JP2012128054 A JP 2012128054A JP 2012128054 A JP2012128054 A JP 2012128054A JP 2013254251 A JP2013254251 A JP 2013254251A
Authority
JP
Japan
Prior art keywords
motion
map
head
user
mounted display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012128054A
Other languages
Japanese (ja)
Inventor
Satoshi Shimomura
聡 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC System Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC System Technologies Ltd filed Critical NEC System Technologies Ltd
Priority to JP2012128054A priority Critical patent/JP2013254251A/en
Publication of JP2013254251A publication Critical patent/JP2013254251A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a head-mounted display device capable of executing processing depending on movement properties for respective users, a control method, and a program.SOLUTION: The head-mounted display device mounted on a user's head includes a sensor 4, an operation execution part 55, and a movement learning part 54. The sensor 4 detects movement of the user's head. The operation execution part 55 determines whether the detected movement exists on a movement map in which movement that is previously set and operation are associated with each other. Also, when determining the detected movement exists, the operation execution part 55 specifies operation corresponding to the detected movement and executes processing corresponding to the specified operation. When processing is executed by the operation execution part 55 and it is determined that the detected movement does not exist before the execution of the processing, the movement learning part 54 updates the movement map by using the movement that is an object of the determination of the non-existence.

Description

本発明は、ユーザの頭部に装着されるヘッドマウントディスプレイ装置、制御方法、及びプログラムに関する。   The present invention relates to a head mounted display device mounted on a user's head, a control method, and a program.

従来、ヘッドマウントディスプレイ装置を操作する場合、例えば、ヘッドマウンドディスプレイ装置のディスプレイに表示された画面をスクロール等する場合、ヘッドマウントディスプレイ装置が備えるコントローラを用いて操作していた。   Conventionally, when operating the head mounted display device, for example, when scrolling the screen displayed on the display of the head mounted display device, the head mounted display device is operated using a controller.

ここで、ヘッドマウントディスプレイ装置はユーザに装着された状態で使用されるため、ヘッドマウントディスプレイ装置が備えるコントローラは小型となっている。また、コントローラが小型となっていることによって、コントローラに配置されるボタン又はスイッチの数も限られたものとなっている。   Here, since the head-mounted display device is used while being worn by the user, the controller included in the head-mounted display device is small. Further, since the controller is small, the number of buttons or switches arranged on the controller is also limited.

このように、コントローラが小さいと誤操作が多くなるといった問題がある。また、コントローラに配置されるボタン又はスイッチの数が少ないと、可能な操作数が少なくなってしまうという問題があった。このような問題に対応するため、例えば、ヘッドマウントディスプレイ装置を装着したユーザの頭部の動作でヘッドマウントディスプレイ装置を操作する技術が提案されている。   Thus, there is a problem that if the controller is small, there are many erroneous operations. Further, when the number of buttons or switches arranged on the controller is small, there is a problem that the number of possible operations is reduced. In order to cope with such a problem, for example, a technique for operating the head mounted display device by the operation of the head of the user wearing the head mounted display device has been proposed.

例えば、特許文献1に開示されたヘッドマウントディスプレイ装置は、頭部の動き検出装置が、ユーザの頭部の動きをセンサで検出する。そして、この頭部の動き検出装置が検出したユーザ頭部の加速度変化を中央制御装置に送り、動作入力処理が、その加速度変化のパターンと、記憶装置に記憶されたパターンとを照合する。この照合の結果、頭部の動き検出装置によって検出した加速度変化のパターンが、記憶装置に記憶されたパターンと一致、又は所定の閾値範囲内であれば、ユーザが頭部の動作を行ったと判断し、それに応じた処理が実行される。   For example, in the head-mounted display device disclosed in Patent Literature 1, the head movement detection device detects the movement of the user's head with a sensor. Then, the acceleration change of the user's head detected by the head motion detection device is sent to the central control device, and the motion input process collates the acceleration change pattern with the pattern stored in the storage device. As a result of this collation, if the acceleration change pattern detected by the head motion detection device matches the pattern stored in the storage device or is within a predetermined threshold range, it is determined that the user has moved the head. Then, processing corresponding to that is executed.

特開2004−233909号公報Japanese Patent Laid-Open No. 2004-233909

ところで、この特許文献1のヘッドマウントディスプレイ装置では、記憶装置に記憶されたパターンは全てのユーザで共通のものが使用されており、ユーザの動作特性(ユーザの動作の癖)に合ったものではなかった。このため、ユーザによっては、頭部を動作させても思い通りに処理が実行されないという問題があった。   By the way, in the head mounted display device of this patent document 1, the pattern memorize | stored in the memory | storage device uses the common thing for all the users, and does not match a user's operation characteristic (user's operation habit). There wasn't. For this reason, depending on the user, there is a problem that processing is not performed as expected even if the head is moved.

そこで、本発明の目的の一例は、ユーザ毎の動作特性に合わせて処理を実行することができるヘッドマウントディスプレイ装置、制御方法、及びプログラムを提供することにある。   Accordingly, an object of the present invention is to provide a head mounted display device, a control method, and a program capable of executing processing in accordance with operation characteristics for each user.

上記目的を達成するため、本発明の一側面におけるヘッドマウントディスプレイ装置は、ユーザの頭部に装着されるヘッドマウントディスプレイ装置であって、
前記ユーザの頭部の動作を検出するためのセンサと、
予め設定された動作と操作とを対応付けた動作マップ上に、検出された前記動作が存在するか否か判定し、検出された前記動作が存在すると判定した場合、検出された前記動作に対応する操作を特定し、特定した前記操作に応じた処理を実行する操作実行部と、
前記操作実行部によって前記処理が実行され、且つ、前記処理の実行前に、検出された前記動作が存在しないとの判定が行われている場合に、存在しないとの判定の対象となった前記動作を用いて、前記動作マップを更新する動作学習部と、
を備えることを特徴とする。
In order to achieve the above object, a head mounted display device according to one aspect of the present invention is a head mounted display device mounted on a user's head,
A sensor for detecting movement of the user's head;
It is determined whether or not the detected motion exists on a motion map in which a preset motion and operation are associated with each other. When it is determined that the detected motion is present, the detected motion corresponds to the detected motion An operation execution unit that identifies an operation to be performed and executes processing according to the identified operation;
When the process is executed by the operation execution unit and it is determined that the detected operation does not exist before the execution of the process, the target that is determined to be non-existent An action learning unit for updating the action map using an action;
It is characterized by providing.

また、上記目的を達成するため、本発明の一側面における制御方法は、ユーザの頭部に装着されるヘッドマウントディスプレイ装置の制御方法であって、
(a)前記ヘッドマウントディスプレイに取り付けられたセンサに、前記ユーザの頭部の動作の検出を実行させるステップと、
(b)予め設定された動作と操作とを対応付けた動作マップ上に、前記(a)のステップで検出された前記動作が存在するか否かを判定するステップと、
(c)前記(b)のステップにおいて、前記(a)のステップで検出された前記動作が存在すると判定した場合に、検出された前記動作に対応する操作を特定し、特定した前記操作に応じた処理を実行するステップと、
(d)前記(c)のステップで前記処理が実行され、且つ、前記(c)のステップでの前記処理の実行前に、検出された前記動作が存在していないとの判定が行われている場合に、存在していないとの判定の対象となった前記動作を用いて、前記動作マップを更新するステップと、
を含むことを特徴とする。
In order to achieve the above object, a control method according to one aspect of the present invention is a control method for a head mounted display device mounted on a user's head,
(A) causing a sensor attached to the head mounted display to detect the movement of the user's head;
(B) determining whether or not the motion detected in the step (a) exists on a motion map in which a preset motion and operation are associated with each other;
(C) In the step (b), when it is determined that the motion detected in the step (a) exists, an operation corresponding to the detected motion is specified, and the operation corresponding to the specified operation is determined. The steps of executing the processing,
(D) The process is executed in the step (c), and it is determined that the detected operation does not exist before the process in the step (c) is executed. Updating the action map using the action that was determined to be non-existent when
It is characterized by including.

更に、上記目的を達成するため、本発明の一側面におけるプログラムは、ユーザの頭部に装着されるヘッドマウントディスプレイ装置の制御を、プロセッサによって実行するためのプログラムであって、前記プロセッサに、
(a)前記ヘッドマウントディスプレイに取り付けられたセンサに、前記ユーザの頭部の動作の検出を実行させるステップと、
(b)予め設定された動作と操作とを対応付けた動作マップ上に、前記(a)のステップで検出された前記動作が存在するか否かを判定するステップと、
(c)前記(b)のステップにおいて、前記(a)のステップで検出された前記動作が存在すると判定した場合に、検出された前記動作に対応する操作を特定し、特定した前記操作に応じた処理を実行するステップと、
(d)前記(c)のステップで前記処理が実行され、且つ、前記(c)のステップでの前記処理の実行前に、検出された前記動作が存在していないとの判定が行われている場合に、存在していないとの判定の対象となった前記動作を用いて、前記動作マップを更新するステップと、
を実行させることを特徴とする。
Furthermore, in order to achieve the above object, a program according to one aspect of the present invention is a program for executing control of a head mounted display device mounted on a user's head by a processor.
(A) causing a sensor attached to the head mounted display to detect the movement of the user's head;
(B) determining whether or not the motion detected in the step (a) exists on a motion map in which a preset motion and operation are associated with each other;
(C) In the step (b), when it is determined that the motion detected in the step (a) exists, an operation corresponding to the detected motion is specified, and the operation corresponding to the specified operation is determined. The steps of executing the processing,
(D) The process is executed in the step (c), and it is determined that the detected operation does not exist before the process in the step (c) is executed. Updating the action map using the action that was determined to be non-existent when
Is executed.

以上のように本発明におけるヘッドマウントディスプレイ装置、ヘッドマウントディスプレイ装置の制御方法、及びプログラムによれば、ユーザ毎の動作特性に合わせて処理を実行することができる。   As described above, according to the head-mounted display device, the control method for the head-mounted display device, and the program according to the present invention, processing can be executed in accordance with the operation characteristics for each user.

図1は本発明の実施形態に係るヘッドマウントディスプレイ装置の構成を示す機能ブロック図である。FIG. 1 is a functional block diagram showing a configuration of a head mounted display device according to an embodiment of the present invention. 図2は本発明の実施形態に係るヘッドマウントディスプレイ装置の外観を示す概略図である。FIG. 2 is a schematic view showing the appearance of the head mounted display device according to the embodiment of the present invention. 図3は本発明の実施形態に係るヘッドマウントディスプレイ装置の動作マップの一例を示す図である。FIG. 3 is a diagram showing an example of an operation map of the head mounted display device according to the embodiment of the present invention. 図4は本発明の実施形態に係るヘッドマウントディスプレイ装置が動作マップの作成処理又は読込処理を実行する際の動作手順を示すフローチャートである。FIG. 4 is a flowchart showing an operation procedure when the head-mounted display device according to the embodiment of the present invention executes an operation map creation process or a read process. 図5は本発明の実施形態に係るヘッドマウントディスプレイ装置の通常モードにおける動作を示すフローチャートである。FIG. 5 is a flowchart showing the operation in the normal mode of the head mounted display device according to the embodiment of the present invention. 図6は本発明の実施形態に係るヘッドマウントディスプレイ装置の動作特性の登録モードにおける動作を示すフローチャートである。FIG. 6 is a flowchart showing the operation in the operation characteristic registration mode of the head mounted display device according to the embodiment of the present invention. 図7は本発明の実施形態に係るヘッドマウントディスプレイ装置の更新後の動作マップの一例を示す図である。FIG. 7 is a diagram showing an example of an operation map after the update of the head mounted display device according to the embodiment of the present invention.

(実施形態)
以下、本発明の実施形態におけるヘッドマウントディスプレイ装置について、図面を参照しながら説明する。
(Embodiment)
Hereinafter, a head mounted display device according to an embodiment of the present invention will be described with reference to the drawings.

[ヘッドマウントディスプレイ装置]
最初に図1を用いて、本実施形態におけるヘッドマウントディスプレイ装置の構成について説明する。図1は、本発明の実施形態に係るヘッドマウントディスプレイ装置の構成を示す機能ブロック図である。
[Head-mounted display device]
First, the configuration of the head mounted display device according to the present embodiment will be described with reference to FIG. FIG. 1 is a functional block diagram showing a configuration of a head mounted display device according to an embodiment of the present invention.

図1に示すように、本実施形態におけるヘッドマウントディスプレイ装置1は、センサ4と、操作実行部55と、動作学習部54とを備えている。センサ4は、ユーザの頭部の動作を検出するためのものである。   As shown in FIG. 1, the head mounted display device 1 in the present embodiment includes a sensor 4, an operation execution unit 55, and an action learning unit 54. The sensor 4 is for detecting the movement of the user's head.

操作実行部55は、予め設定された動作と操作とを対応付けた動作マップ上に、検出された動作が存在するか否か判定する。また、操作実行部55は、検出された動作が存在すると判定した場合、検出された動作に対応する操作を特定し、特定した操作に応じた処理を実行する。   The operation execution unit 55 determines whether or not the detected operation exists on the operation map in which the preset operation and the operation are associated with each other. Further, when it is determined that the detected action exists, the operation execution unit 55 specifies an operation corresponding to the detected action, and executes a process corresponding to the specified operation.

動作学習部54は、操作実行部55によって処理が実行され、且つ、その処理の実行前に、検出された動作が動作マップ上に存在しないとの判定が行われている場合に、存在しないとの判定の対象となった動作を用いて、動作マップを更新する。   The motion learning unit 54 is not present when the operation is performed by the operation execution unit 55 and it is determined that the detected motion does not exist on the motion map before the processing is performed. The motion map is updated using the motion that is the target of the determination.

このように構成されたヘッドマウントディスプレイ装置1では、操作実行部55が動作マップに存在しないと判定した動作を用いて、動作学習部54が動作マップを更新するため、使用するごとに動作マップはユーザの動作特性に合ったものとなる。この結果、上記ヘッドマウントディスプレイ装置1は、ユーザの動作特性に合わせた処理を実行することができる。   In the head-mounted display device 1 configured as described above, the motion learning unit 54 updates the motion map using the motion that the operation execution unit 55 determines is not present in the motion map. It matches the user's operating characteristics. As a result, the head mounted display device 1 can execute processing according to the user's operating characteristics.

ここで、ヘッドマウントディスプレイ装置1の構成について図面を参照しつつ更に具体的に説明する。図2は、本発明の実施形態に係るヘッドマウントディスプレイ装置の外観を示す概略図である。   Here, the configuration of the head mounted display device 1 will be described more specifically with reference to the drawings. FIG. 2 is a schematic view showing the appearance of the head mounted display device according to the embodiment of the present invention.

図2に示すように、本実施形態では、ヘッドマウントディスプレイ装置1は、ユーザに対して画像を出力するディスプレイ2と、そのディスプレイ2をユーザの頭部に装着するための装着部3と、を備えている。また、ヘッドマウントディスプレイ装置1は、装着部3又はディスプレイ2に取り付けられたセンサ4と、ディスプレイ2及びセンサ4に有線又は無線で接続するコントローラとをさらに備えている。   As shown in FIG. 2, in the present embodiment, the head mounted display device 1 includes a display 2 that outputs an image to a user, and a mounting unit 3 for mounting the display 2 on the user's head. I have. The head mounted display device 1 further includes a sensor 4 attached to the mounting unit 3 or the display 2 and a controller connected to the display 2 and the sensor 4 by wire or wirelessly.

ディスプレイ2は、ヘッドマウントディスプレイ装置1を装着したユーザの少なくとも一方の眼の前方に配置されており、ユーザに対して選択画面、及びメニュー画面等の種々の画像を提供する。   The display 2 is disposed in front of at least one eye of the user wearing the head mounted display device 1 and provides the user with various images such as a selection screen and a menu screen.

装着部3は、ユーザの頭部の形状に沿うように略U字状に形成されており、ユーザの頭部の大きさに合うよう、伸縮するよう調節可能とすることができる。   The mounting portion 3 is formed in a substantially U shape so as to conform to the shape of the user's head, and can be adjusted so as to expand and contract to fit the size of the user's head.

センサ4は、ヘッドマウントディスプレイ装置1を装着したユーザの頭部の動作を検出するためのものである。詳細には、センサ4は、ユーザの頭部の動作が、正面を向いている状態を基準として、上、下、右、又は左のどの方向に何度回転したかについて検出するとともに、そのときの加速度について検出する。センサ4として、加速度を検出するための加速度センサ4aと、傾きを検出するための傾きセンサ4bをそれぞれ用いることができる。なお、加速度及び傾きの双方を検出することのできるセンサを使用してもよい。なお、加速度センサ4aと傾きセンサ4bとを総称してセンサ4という。   The sensor 4 is for detecting the movement of the head of the user wearing the head mounted display device 1. Specifically, the sensor 4 detects how many times the user's head has rotated up, down, right, or left with reference to the state of facing the front, and at that time Detect the acceleration of. As the sensor 4, an acceleration sensor 4a for detecting acceleration and an inclination sensor 4b for detecting inclination can be used. A sensor that can detect both acceleration and tilt may be used. The acceleration sensor 4a and the tilt sensor 4b are collectively referred to as a sensor 4.

コントローラ5は、ユーザからの指示を入力するための十字キー50a、及びAボタン,Bボタン,Cボタンの3つのボタン50bを有している。なお、十字キー50aは、上ボタン、下ボタン、右ボタン、及び左ボタンから構成されている。   The controller 5 includes a cross key 50a for inputting an instruction from the user, and three buttons 50b including an A button, a B button, and a C button. The cross key 50a includes an upper button, a lower button, a right button, and a left button.

図1に示すように、ヘッドマウントディスプレイ装置1は、コントローラ5は、表示部51、動作マップ選択部52、入力受付部53、動作学習部54、操作実行部55、動作マップ格納部56、及び一時データ格納部57を有している。   As shown in FIG. 1, the head-mounted display device 1 includes a controller 5, a display unit 51, an operation map selection unit 52, an input reception unit 53, an operation learning unit 54, an operation execution unit 55, an operation map storage unit 56, and A temporary data storage unit 57 is provided.

動作マップ格納部56は、ユーザごとの動作マップと、デフォルトの動作マップを格納している。この動作マップ格納部56に格納されたユーザごとの動作マップは、図3に示すように、当該動作マップを使用するユーザを特定するためのユーザIDを有するとともに、ユーザの頭部の動作と操作との対応情報を有している。なお、動作マップは、頭部の動作として、動作方向、加速度の数値範囲、及び傾きの数値範囲を有している。また、本実施形態では、動作マップは、さらにボタンの押下動作もさらに有している。すなわち、本実施形態に係る動作マップは、ユーザの頭部の動作及びボタンの押下動作と、操作との対応情報を記憶している。   The operation map storage unit 56 stores an operation map for each user and a default operation map. As shown in FIG. 3, the motion map for each user stored in the motion map storage unit 56 has a user ID for specifying a user who uses the motion map, and the motion and operation of the user's head. And correspondence information. The motion map has a motion direction, a numerical value range of acceleration, and a numerical value range of inclination as head motions. In the present embodiment, the operation map further includes a button pressing operation. That is, the action map according to the present embodiment stores correspondence information between the action of the user's head and the button pressing action and the operation.

なお、動作方向として、上、下、右、及び左があり、例えば、ユーザが上方を向くように水平軸周りに頭部を上に回転させた場合、動作方向は「上」となる。また、ユーザが下方を向くように水平軸周りに頭部を下に回転させた場合、動作方向は「下」となる。また、ユーザが右を向くように垂直軸周りに頭部を右に回転させた場合、動作方向は「右」となり、ユーザが左を向くように垂直軸周りに頭部を左に回転させた場合、動作方向は「左」となる。   Note that there are up, down, right, and left as the motion direction. For example, when the user rotates the head up around the horizontal axis so as to face upward, the motion direction is “up”. In addition, when the user rotates the head down around the horizontal axis so as to face downward, the operation direction is “down”. In addition, when the user rotates the head to the right around the vertical axis so that the user is facing right, the movement direction is “right”, and the head is rotated to the left around the vertical axis so that the user is facing left. In this case, the operation direction is “left”.

また、加速度とは、ユーザが頭部を回転させたときの加速度を示している。また、傾きとは、頭部が正面方向を向いた状態を基準とし、その状態からユーザが頭部を何度回転させたかという角度を示している。   The acceleration indicates the acceleration when the user rotates the head. Further, the inclination indicates an angle of how many times the user has rotated the head from the state where the head is directed in the front direction.

また、ボタンの押下動作として、動作マップは、ボタンを押下するか否か、また押下する場合は、どのボタン50bを押下するかという情報を有している。なお、図3の動作マップの「-」は、ボタンを押下しないことを示し、図3の動作マップの「A」,「B」,「C」は、それぞれ、押下するボタンを示している。   In addition, as a button pressing operation, the operation map includes information about whether or not to press a button and which button 50b to press when pressing. Note that “−” in the operation map in FIG. 3 indicates that the button is not pressed, and “A”, “B”, and “C” in the operation map in FIG.

また、動作について、1回だけ行う動作だけでなく2回行う動作もある。例えば、「キャンセル」という操作は、図3の動作マップに従って説明すると、動作方向が右で、加速度が2〜5m/s2で、40〜90度だけ右に頭部を回転させた後に、加速度が2〜5m/s2で40〜90度だけ左に頭部を回転させる動作と対応している。なお、1回目の動作と2回目の動作の間隔は、例えば、1秒以内とすることができる。 In addition, the operation includes not only an operation performed once but also an operation performed twice. For example, the operation “cancel” is described according to the motion map of FIG. 3. The motion direction is right, the acceleration is 2 to 5 m / s 2 , the head is rotated 40 to 90 degrees to the right, and then the acceleration is performed. Corresponds to the operation of rotating the head to the left by 40 to 90 degrees at 2 to 5 m / s 2 . Note that the interval between the first operation and the second operation can be, for example, within one second.

また、動作マップ格納部56に格納されたデフォルトの動作マップは、新規ユーザが使用を開始するときにコピーして使用される動作マップであり、既定のデータを記憶している。   The default action map stored in the action map storage unit 56 is an action map that is copied and used when a new user starts use, and stores default data.

一時データ格納部57は、操作実行部55が取得した加速度及び傾き、及び動作学習部54が取得した加速度及び傾きを一時的に格納する領域である。   The temporary data storage unit 57 is an area for temporarily storing the acceleration and inclination acquired by the operation execution unit 55 and the acceleration and inclination acquired by the motion learning unit 54.

表示部51は、ディスプレイ2に、選択画面、またはメニュー画面等のユーザインターフェースを表示させたり、各種情報を表示させたりする。入力受付部53は、ヘッドマウントディスプレイ装置を使用するユーザがコントローラ5の各種ボタンを介して指示を入力すると、その入力を受け付ける。   The display unit 51 displays a user interface such as a selection screen or a menu screen on the display 2 or displays various types of information. When the user who uses the head mounted display device inputs an instruction via various buttons of the controller 5, the input receiving unit 53 receives the input.

動作マップ選択部52は、入力受付部53からの指示に従い、動作マップ格納部56に格納されたユーザ毎の動作マップから、特定の動作マップを選択する。また、動作マップ選択部52は、新規ユーザに対しては、デフォルトの動作マップをコピーして、それを新規の動作マップとして作成する。   The operation map selection unit 52 selects a specific operation map from the operation maps for each user stored in the operation map storage unit 56 in accordance with an instruction from the input reception unit 53. In addition, the behavior map selection unit 52 copies a default behavior map to a new user and creates it as a new behavior map.

操作実行部55は、本実施形態では、センサ4が検出した頭部の動作を取得し、動作マップに基づいて、センサ4から取得した動作と対応する操作に応じた処理を実行する。また、操作実行部55は、センサ4から取得した動作が動作マップ上に存在しない場合、その動作を失敗動作として一時格納部57に格納する。   In this embodiment, the operation execution unit 55 acquires the motion of the head detected by the sensor 4 and executes processing corresponding to the operation corresponding to the motion acquired from the sensor 4 based on the motion map. Further, when the operation acquired from the sensor 4 does not exist on the operation map, the operation execution unit 55 stores the operation in the temporary storage unit 57 as a failed operation.

動作学習部54は、ユーザの動作特性に基づいて、動作マップを更新する機能を有する。   The motion learning unit 54 has a function of updating the motion map based on the user's motion characteristics.

[ヘッドマウントディスプレイ装置の動作]
次に、本発明の実施形態に係るヘッドマウントディスプレイ装置の動作について、図1〜図3を適宜参酌しつつ、図4〜図7を用いて説明する。なお、本実施形態では、ヘッドマウントディスプレイ装置を動作させることによってヘッドマウントディスプレイ装置の制御方法が実施されるため、本実施形態における制御方法の説明は以下のヘッドマウントディスプレイ装置の動作説明に代える。
[Operation of head mounted display device]
Next, the operation of the head mounted display device according to the embodiment of the present invention will be described with reference to FIGS. 4 to 7 with appropriate reference to FIGS. In the present embodiment, since the head mounted display device control method is implemented by operating the head mounted display device, the description of the control method in the present embodiment is replaced with the following description of the head mounted display device operation.

まず、本発明実施形態に係るヘッドマウントディスプレイ装置1が動作マップを作成又は読み込む際の動作について図4を参照しつつ説明する。図4は、本発明の実施形態に係るヘッドマウントディスプレイ装置が動作マップの作成処理又は読込処理を実行する際の動作手順を示すフローチャートである。   First, an operation when the head mounted display device 1 according to the embodiment of the present invention creates or reads an operation map will be described with reference to FIG. FIG. 4 is a flowchart showing an operation procedure when the head-mounted display device according to the embodiment of the present invention executes an operation map creation process or a read process.

図4に示すように、まず、ユーザが電源ボタンを押下する等してヘッドマウントディスプレイ装置1が起動すると、表示部51は、ヘッドマウントディスプレイ装置1のディスプレイ2に選択画面を表示する(ステップS1)。詳細には、表示部51は、ヘッドマウントディスプレイ装置1を使用しているユーザが新規ユーザか登録済みユーザかを選択するための選択画面をディスプレイに表示する。   As shown in FIG. 4, first, when the head-mounted display device 1 is activated by the user pressing the power button or the like, the display unit 51 displays a selection screen on the display 2 of the head-mounted display device 1 (step S1). ). Specifically, the display unit 51 displays on the display a selection screen for selecting whether the user using the head mounted display device 1 is a new user or a registered user.

次に、ユーザが、コントローラの十字キー50a及びボタン50bを用いて、新規ユーザ及び登録済みユーザのどちらかを選択すると、入力受付部53は、ユーザが新規ユーザ又は登録済みユーザのどちらを選択したかを示す選択情報の入力を受け付ける(ステップS2)。そして、入力受付部53は、その選択情報を動作マップ選択部52に出力する。   Next, when the user selects either a new user or a registered user using the cross key 50a and the button 50b of the controller, the input reception unit 53 selects either the new user or the registered user. An input of selection information indicating such is accepted (step S2). Then, the input reception unit 53 outputs the selection information to the operation map selection unit 52.

次に、動作マップ選択部52は、入力受付部53から受け取った選択情報に基づき、ヘッドマウントディスプレイ装置1を現在使用しているユーザが新規ユーザか否かを判定する(ステップS3)。   Next, the motion map selection unit 52 determines whether the user currently using the head mounted display device 1 is a new user based on the selection information received from the input reception unit 53 (step S3).

動作マップ選択部52は、ヘッドマウントディスプレイ装置1を現在使用中のユーザが新規ユーザであると判定すると(ステップS3のYes)、そのユーザのための動作マップを新規に登録する(ステップS4)。詳細には、動作マップ選択部52は、動作マップ格納部56に格納されているデフォルトの動作マップをコピーして新規の動作マップを作成する。そして、動作マップ選択部52は、新規に作成した動作マップを識別するために、ヘッドマウントディスプレイ装置1を現在使用中のユーザのユーザIDをその動作マップに登録する。これにより、新規ユーザのための動作マップが新たに登録される。   When determining that the user currently using the head mounted display device 1 is a new user (Yes in Step S3), the operation map selection unit 52 newly registers an operation map for the user (Step S4). Specifically, the motion map selection unit 52 creates a new motion map by copying the default motion map stored in the motion map storage unit 56. Then, the motion map selection unit 52 registers the user ID of the user currently using the head mounted display device 1 in the motion map in order to identify the newly created motion map. Thereby, an operation map for a new user is newly registered.

そして、動作マップ選択部52は、上記ステップS4において新たに登録された動作マップを、ヘッドマウントディスプレイ装置1を現在使用中のユーザの動作マップであるとして、動作学習部54及び操作実行部55に引き渡す(ステップS5)。   Then, the motion map selection unit 52 determines that the motion map newly registered in step S4 is the motion map of the user currently using the head mounted display device 1, and then stores the motion map in the motion learning unit 54 and the operation execution unit 55. Deliver (step S5).

一方、動作マップ選択部52は、ヘッドマウントディスプレイ装置1を現在使用中のユーザが登録済ユーザであると判定すると(ステップS3のNo)、表示部51は、登録済ユーザのユーザIDの一覧画面をディスプレイ2に表示する(ステップS6)。なお、表示部51は、ユーザIDに紐付けられたユーザ名の一覧画面をディスプレイ2に表示することもできる。   On the other hand, when the operation map selection unit 52 determines that the user currently using the head mounted display device 1 is a registered user (No in step S3), the display unit 51 displays a list screen of user IDs of registered users. Is displayed on the display 2 (step S6). The display unit 51 can also display a list screen of user names associated with the user ID on the display 2.

ユーザが、ディスプレイ2に表示されたユーザIDの一覧画面から、コントローラの十字キー50a及びボタン50bを用いて自分のユーザIDを選択すると、入力受付部53は、選択されたユーザIDの入力を受け付ける(ステップS7)。入力受付部53は、その受け付けたユーザIDに関する情報を動作マップ選択部52に出力する。   When the user selects his / her user ID from the list screen of user IDs displayed on the display 2 using the cross key 50a and the button 50b of the controller, the input reception unit 53 receives input of the selected user ID. (Step S7). The input reception unit 53 outputs information regarding the received user ID to the operation map selection unit 52.

次に、動作マップ選択部52は、入力受付部53から受け取ったユーザIDに関する情報に基づき、そのユーザIDに該当する動作マップを動作マップ格納部56から読み込む(ステップS8)。   Next, based on the information regarding the user ID received from the input reception unit 53, the operation map selection unit 52 reads the operation map corresponding to the user ID from the operation map storage unit 56 (step S8).

そして、動作マップ選択部52は、動作マップ格納部56から読み込んだ動作マップを、動作学習部54及び操作実行部55に引き渡す(ステップS9)。   Then, the motion map selection unit 52 passes the motion map read from the motion map storage unit 56 to the motion learning unit 54 and the operation execution unit 55 (step S9).

次に、「通常モード」におけるヘッドマウントディスプレイ装置の動作について説明する。なお、通常モードとは、ユーザの頭部の動作に基づいてヘッドマウントディスプレイ装置が処理を実行するモードのことである。なお、本実施形態に係るヘッドマウントディスプレイ装置1は、この「通常モード」に加え、後に詳述する「動作特性の登録モード」の2つのモードを有している。   Next, the operation of the head mounted display device in the “normal mode” will be described. The normal mode is a mode in which the head mounted display device executes processing based on the movement of the user's head. In addition to the “normal mode”, the head mounted display device 1 according to the present embodiment has two modes of “operation characteristic registration mode” to be described in detail later.

図5は、本発明の実施形態に係るヘッドマウントディスプレイ装置の通常モードにおける動作を示すフローチャートである。なお、ヘッドマウントディスプレイ装置の通常モードにおける動作は、少なくとも、上述したヘッドマウントディスプレイ装置が動作マップの作成処理又は読込処理を実行した後に行われる。   FIG. 5 is a flowchart showing the operation in the normal mode of the head mounted display device according to the embodiment of the present invention. The operation of the head-mounted display device in the normal mode is performed at least after the above-described head-mounted display device executes the operation map creation process or reading process.

図5に示すように、まず、表示部51は、「通常モード」又は「動作特性の登録モード」のどちらのモードでヘッドマウントディスプレイ装置1を動作させるかをユーザが選択することのできるメニュー画面をディスプレイ2に表示する(ステップS11)。   As shown in FIG. 5, first, the display unit 51 is a menu screen on which the user can select whether to operate the head-mounted display device 1 in the “normal mode” or “operation characteristic registration mode”. Is displayed on the display 2 (step S11).

ユーザが、コントローラの十字キー50a及びボタン50bを用いて通常モードを選択すると、入力受付部53は、ユーザが通常モードを選択したことを示す選択情報の入力を受け付ける(ステップS12)。そして、入力受付部53は、通常モードで動作する旨の情報を動作学習部54及び操作実行部55に出力する。これにより、動作学習部54及び操作実行部55は、通常モードで動作する。この通常モードにおける動作学習部54及び操作実行部55の動作を以下に説明する。   When the user selects the normal mode using the cross key 50a and the button 50b of the controller, the input receiving unit 53 receives input of selection information indicating that the user has selected the normal mode (step S12). Then, the input reception unit 53 outputs information indicating that the operation is performed in the normal mode to the operation learning unit 54 and the operation execution unit 55. Thereby, the operation learning unit 54 and the operation execution unit 55 operate in the normal mode. The operations of the motion learning unit 54 and the operation execution unit 55 in the normal mode will be described below.

まず、ユーザが頭部の動作を行うとともにボタン操作を行う。例えば、ユーザがディスプレイ2に表示している画面を右にスクロールしたい場合、ユーザはコントローラのボタンは何も押下せずに、右方向を向くように頭部を垂直軸周りに右に回転させる。すると、センサ4は、動作方向が右であることを検出するとともに、そのときの加速度と、傾き、すなわち、正面を向いた状態を0度として垂直軸周りに頭部が右に何度回転したかという角度とを検出する。これにより、操作実行部55は、センサ4を介して、頭部の動作として、動作方向、加速度、及び角度を取得する(ステップS13)。   First, the user performs a head operation and button operation. For example, when the user wants to scroll the screen displayed on the display 2 to the right, the user rotates the head to the right around the vertical axis so as to turn right without pressing any button on the controller. Then, the sensor 4 detects that the movement direction is right, and the head and the head rotate about the vertical axis several times with the acceleration and inclination at that time, that is, the state facing the front as 0 degrees. The angle is detected. Thereby, the operation execution part 55 acquires a motion direction, an acceleration, and an angle as a motion of a head via the sensor 4 (step S13).

操作実行部55は、センサ4から取得した、動作方向、加速度、及び角度によって特定される動作が、当該ユーザの動作マップ上に存在するか否か判定する(ステップS14)。すなわち、操作実行部55は、センサ4から取得した動作方向が一致し、且つ、センサ4から取得した加速度及び角度が範囲内に入る動作が動作マップ上に存在するか否か判定する。なお、ユーザがボタンを押下する動作を行っている場合は、操作実行部55は、入力受付53から取得したボタンの押下動作が動作マップ上のボタンの押下動作と一致するか否かも判定する。   The operation execution unit 55 determines whether or not the motion specified by the motion direction, acceleration, and angle acquired from the sensor 4 is present on the motion map of the user (step S14). That is, the operation execution unit 55 determines whether or not there is an operation on the operation map in which the operation directions acquired from the sensor 4 match and the acceleration and angle acquired from the sensor 4 fall within the range. When the user performs an operation of pressing a button, the operation execution unit 55 also determines whether or not the button pressing operation acquired from the input reception 53 matches the button pressing operation on the operation map.

操作実行部55は、取得した動作方向、加速度、及び角度が、動作マップ上に存在しないと判定した場合(ステップS14のNo)、その取得した動作方向、加速度、及び角度を失敗動作として一時データ格納部57に格納する(ステップS15)。なお、操作実行部55は、その動作に対して処理は実行しない。   When it is determined that the acquired motion direction, acceleration, and angle do not exist on the motion map (No in step S14), the operation execution unit 55 temporarily stores the acquired motion direction, acceleration, and angle as a failure motion. Store in the storage unit 57 (step S15). The operation execution unit 55 does not execute processing for the operation.

一方、操作実行部55は、取得した動作方向と一致し、また、取得した加速度、及び角度が範囲内に入る動作が動作マップ上に存在すると判定した場合(ステップS14のYes)、動作マップに基づいて、その動作に対応する操作を特定し、その操作に応じた処理を実行する(ステップS16)。   On the other hand, when the operation executing unit 55 determines that there is a motion on the motion map that matches the acquired motion direction and the acquired acceleration and angle are within the range (Yes in step S14), Based on this, an operation corresponding to the operation is specified, and a process corresponding to the operation is executed (step S16).

ステップS16において処理を実行した後に、操作実行部55は、一時データ格納部57に失敗動作が格納されているか否か判定する(ステップS17)。操作実行部5は、失敗動作が一時データ格納部57に格納されていないと判定すると(ステップS17のNo)、そのまま処理を終了する。   After executing the process in step S16, the operation execution unit 55 determines whether or not a failure operation is stored in the temporary data storage unit 57 (step S17). When the operation execution unit 5 determines that the failure operation is not stored in the temporary data storage unit 57 (No in step S17), the operation is ended.

一方、操作実行部55は、一時データ格納部57に失敗動作が格納されていると判定した場合(ステップS17のYes)、その一時データ格納部57に格納されている失敗動作に関するデータを動作学習部54に出力する(ステップS18)。   On the other hand, when the operation execution unit 55 determines that the failure operation is stored in the temporary data storage unit 57 (Yes in step S17), the operation execution unit 55 learns data related to the failure operation stored in the temporary data storage unit 57. It outputs to the part 54 (step S18).

動作学習部54は、操作実行部55から受け取った失敗動作を用いて、動作マップを更新する(ステップS19)。詳細には、操作実行部55から受け取った失敗動作によって、上述したステップS16において実行した処理が実行できるように、動作学習部54は、動作マップを更新する。例えば、動作学習部54は、上記失敗動作を含めるために、動作マップの加速度又は角度の数値範囲を広げるよう動作マップを更新する。   The motion learning unit 54 updates the motion map using the failed motion received from the operation execution unit 55 (step S19). Specifically, the action learning unit 54 updates the action map so that the process executed in step S <b> 16 described above can be executed by the failure action received from the operation execution unit 55. For example, the motion learning unit 54 updates the motion map so as to widen the numerical range of the acceleration or angle of the motion map in order to include the failure motion.

なお、動作学習部54が失敗動作を用いて動作マップを更新する処理について、所定条件を満たす場合にのみ動作マップを更新するようにしてもよい。例えば、動作学習部54は、失敗動作の動作方向及びボタンの押下動作が、対応する動作マップの動作の、動作方向及びボタンの押下動作と一致するか判定する。これらが一致しない場合、動作学習部54は、動作マップを更新しない。   In addition, about the process in which the action learning part 54 updates an action map using a failure action, you may make it update an action map only when predetermined conditions are satisfy | filled. For example, the operation learning unit 54 determines whether the operation direction of the failure operation and the button pressing operation match the operation direction and the button pressing operation of the corresponding operation map operation. If they do not match, the motion learning unit 54 does not update the motion map.

また、動作方向及びボタンの押下動作が一致した場合、次に、動作学習部54は、失敗動作の加速度及び角度のうち、動作マップの動作の数値範囲内に入っていないものを抽出する。そして、動作学習部54は、加速度が抽出されると、その失敗動作の加速度が、動作マップの加速度の数値範囲の上限又は下限から所定範囲内であるか否か判定する。動作学習部54は、失敗動作の加速度が上記所定範囲内であると判定すると、その失敗動作の加速度が含まれるように、動作マップの加速度の数値範囲を広げて動作マップを更新する。例えば、失敗動作の加速度が、動作マップの数値範囲の下限側に外れていた場合には、動作学習部54は、その失敗動作の加速度を、動作マップの加速度の数値範囲の下限とする。また、失敗動作の加速度が、動作マップの数値範囲の上限側に外れていた場合には、動作学習部54は、その失敗動作の加速度を、動作マップの加速度の数値範囲の上限とする。   If the motion direction and the button press motion match, then the motion learning unit 54 extracts the acceleration and angle of the failed motion that are not within the numerical value range of the motion map motion. Then, when the acceleration is extracted, the motion learning unit 54 determines whether or not the acceleration of the failure motion is within a predetermined range from the upper limit or the lower limit of the numerical range of the acceleration of the motion map. When the motion learning unit 54 determines that the acceleration of the failure motion is within the predetermined range, the motion learning unit 54 updates the motion map by expanding the numerical range of the acceleration of the motion map so that the acceleration of the failure motion is included. For example, when the acceleration of the failure motion is out of the lower limit of the numerical range of the motion map, the motion learning unit 54 sets the acceleration of the failure motion as the lower limit of the numerical range of the acceleration of the motion map. In addition, when the acceleration of the failure motion is out of the upper limit of the numerical range of the motion map, the motion learning unit 54 sets the acceleration of the failure motion as the upper limit of the numerical range of the acceleration of the motion map.

また、動作学習部54は、角度が抽出された場合も、上記加速度が抽出された場合と同様の処理を行う。すなわち、動作学習部54は、その失敗動作の角度が、動作マップの角度の数値範囲の上限又は下限から所定範囲内であるか否か判定する。そして、動作学習部54は、失敗動作の角度が上記所定範囲内であると判定すると、その失敗動作の角度が含まれるように、動作マップの角度の数値範囲を広げて動作マップを更新する。例えば、失敗動作の角度が、動作マップの数値範囲の下限側に外れていた場合には、動作学習部54は、その失敗動作の角度を、動作マップの角度の数値範囲の下限とする。また、失敗動作の角度が、動作マップの数値範囲の上限側に外れていた場合には、動作学習部54は、その失敗動作の角度を、動作マップの加速度の数値範囲の上限とする。   Further, the motion learning unit 54 performs the same processing as when the acceleration is extracted even when the angle is extracted. That is, the motion learning unit 54 determines whether or not the angle of the failure motion is within a predetermined range from the upper limit or the lower limit of the numerical value range of the motion map angle. When the motion learning unit 54 determines that the angle of the failure motion is within the predetermined range, the motion learning unit 54 updates the motion map by expanding the numerical value range of the angle of the motion map so that the angle of the failure motion is included. For example, if the angle of the failure action is outside the lower limit of the numerical value range of the action map, the action learning unit 54 sets the angle of the failure action as the lower limit of the numerical value range of the action map angle. If the angle of the failure motion is outside the upper limit of the numerical range of the motion map, the motion learning unit 54 sets the angle of the failure motion as the upper limit of the numerical range of the acceleration of the motion map.

そして、動作学習部54は、動作マップを更新した後、一時データ格納部57に格納されているデータを削除する(ステップS20)。また、失敗動作が上述した所定条件を満たさないため、動作学習部54が動作マップを更新しなかった場合も、一時データ格納部57に格納されているデータを削除する。   Then, after updating the motion map, the motion learning unit 54 deletes the data stored in the temporary data storage unit 57 (step S20). Further, since the failure operation does not satisfy the predetermined condition described above, the data stored in the temporary data storage unit 57 is deleted even when the operation learning unit 54 does not update the operation map.

以上のステップS13からステップS20を繰り返すことで、当該ユーザの動作マップの加速度及び角度の数値範囲が、当該ユーザの動作特性に合ったものとなり、使用時の精度が向上する。なお、失敗動作が2回連続で続いた場合には、動作学習部54は、その2つの失敗動作を用いて動作マップを更新してもよいし、最新の失敗動作のみを用いて動作マップを更新してもよい。   By repeating the above steps S13 to S20, the numerical range of the acceleration and the angle of the user's motion map matches the user's motion characteristics, and the accuracy during use is improved. If the failure operation continues twice in succession, the operation learning unit 54 may update the operation map using the two failure operations, or the operation map may be updated using only the latest failure operation. It may be updated.

次に、「動作特性の登録モード」における本実施形態に係るヘッドマウントディスプレイ装置の動作について図面を参照しつつ説明する。なお、「動作特性の登録モード」とは、各操作に対して、ユーザの頭部の動作特性を登録するモードである。   Next, the operation of the head mounted display device according to the present embodiment in the “operation characteristic registration mode” will be described with reference to the drawings. The “motion characteristic registration mode” is a mode for registering the motion characteristics of the user's head for each operation.

図6は、本発明の実施形態に係るヘッドマウントディスプレイ装置の動作特性の登録モードにおける動作を示すフローチャートである。なお、ヘッドマウントディスプレイ装置の動作特性の登録モードにおける動作は、少なくとも、上述したヘッドマウントディスプレイ装置が動作マップの作成処理又は読込処理を実行した後に行われることが好ましい。また、ヘッドマウントディスプレイ装置の動作特性の登録モードにおける動作は、上述したヘッドマウントディスプレイ装置の通常モードにおける動作の前に行ってもよいし、後に行ってもよいし、途中で行ってもよい。   FIG. 6 is a flowchart showing the operation in the registration mode of the operation characteristics of the head mounted display device according to the embodiment of the present invention. The operation in the operation characteristic registration mode of the head-mounted display device is preferably performed at least after the above-described head-mounted display device executes the operation map creation process or reading process. Further, the operation in the registration mode of the operation characteristics of the head mounted display device may be performed before the operation in the normal mode of the head mounted display device described above, may be performed later, or may be performed in the middle.

図6に示すように、まず、表示部51は、「動作特性の登録モード」又は「通常モード」のどちらのモードでヘッドマウントディスプレイ装置1を動作させるかをユーザが選択することのできるメニュー画面をディスプレイ2に表示する(ステップS21)。   As shown in FIG. 6, first, the display unit 51 displays a menu screen on which the user can select whether to operate the head mounted display device 1 in the “operation characteristic registration mode” or the “normal mode”. Is displayed on the display 2 (step S21).

ユーザが、コントローラの十字キー50a及びボタン50bを用いて動作特性の登録モードを選択すると、入力受付部53は、ユーザが動作特性の登録モードを選択したことを示す選択情報の入力を受け付ける(ステップS22)。そして、入力受付部53は、動作特性の登録モードで動作する旨の情報を動作学習部54及び操作実行部55に出力する。これにより、動作学習部54及び操作実行部55は、動作特性の登録モードで動作する。この動作特性の登録モードにおける動作学習部54及び操作実行部55の動作を以下に説明する。   When the user selects the operation characteristic registration mode using the controller's cross key 50a and the button 50b, the input receiving unit 53 receives input of selection information indicating that the user has selected the operation characteristic registration mode (step S40). S22). Then, the input reception unit 53 outputs information indicating that the operation is performed in the operation characteristic registration mode to the operation learning unit 54 and the operation execution unit 55. As a result, the motion learning unit 54 and the operation execution unit 55 operate in the motion characteristic registration mode. The operations of the operation learning unit 54 and the operation execution unit 55 in the operation characteristic registration mode will be described below.

ます、表示部51は、動作マップ中の操作の一覧をディスプレイ2に表示する(ステップS23)。ユーザは、コントローラ5の十字キー50a及びボタン50bを用いて、ディスプレイ2に表示された操作の一覧の中から、動作特性を登録したい操作を一つ選択する。   First, the display unit 51 displays a list of operations in the operation map on the display 2 (step S23). The user uses the cross key 50 a and the button 50 b of the controller 5 to select one operation for which the operation characteristics are to be registered from the list of operations displayed on the display 2.

入力受付部53は、ユーザが選択した操作を特定する情報の入力を受け付ける(ステップS24)。そして、入力受付部53は、その操作を特定する情報を動作学習部54に出力する。   The input receiving unit 53 receives an input of information specifying the operation selected by the user (step S24). Then, the input receiving unit 53 outputs information specifying the operation to the motion learning unit 54.

続いてユーザが、選択した操作に対して、頭部の動作を行うことで、動作学習部54は、センサ4から、ユーザの頭部の動作として、動作方向、加速度、及び角度を取得する(ステップS25)。   Subsequently, when the user performs a head motion in response to the selected operation, the motion learning unit 54 acquires a motion direction, an acceleration, and an angle as the motion of the user's head from the sensor 4 ( Step S25).

動作学習部54は、センサ4から取得した動作方向、加速度、及び角度を、一時データ格納部57に格納する(ステップS26)。好ましくは、このステップS25及びS26の処理を何度か行い、一時データ格納部57に複数のデータを蓄積する。   The motion learning unit 54 stores the motion direction, acceleration, and angle acquired from the sensor 4 in the temporary data storage unit 57 (step S26). Preferably, the processes in steps S25 and S26 are performed several times to accumulate a plurality of data in the temporary data storage unit 57.

そして、動作学習部54は、一時データ格納部57に格納された加速度及び角度のうち、ステップS24でユーザが選択した操作と対応する動作マップの動作における加速度及び角度の数値範囲を超えているものがあるか否か判定する(ステップS27)。   The motion learning unit 54 exceeds the numerical ranges of the acceleration and angle in the motion map motion corresponding to the operation selected by the user in step S24 among the accelerations and angles stored in the temporary data storage unit 57. It is determined whether or not there is (step S27).

動作学習部54は、動作マップの加速度又は角度の数値範囲を超えている加速度又は角度が一時データ格納部57に格納されていないと判定した場合(ステップS27のNo)、動作マップを更新することなく、処理を終了する。   When it is determined that the acceleration or angle exceeding the numerical value range of the acceleration or angle of the motion map is not stored in the temporary data storage unit 57 (No in step S27), the motion learning unit 54 updates the motion map. Without processing.

一方、動作学習部54は、一時データ格納部57に、動作マップの加速度又は角度の数値範囲を超えている加速度又は角度がある場合(ステップS27のYes)、動作マップを更新する(ステップS28)。詳細には、動作学習部54は、一時データ格納部57に格納された加速度又は角度が、動作マップの加速度又は角度の数値範囲内に収まるように、動作マップの加速度又は角度の数値範囲を修正して動作マップを更新する。以上の動作特性の登録を繰り返すことにより、当該ユーザの動作マップの数値範囲が、当該ユーザの動作特性に合ったものとなり、使用時の精度が向上する。   On the other hand, the motion learning unit 54 updates the motion map (step S28) when the temporary data storage unit 57 has an acceleration or angle exceeding the numerical range of the acceleration or angle of the motion map (Yes in step S27). . Specifically, the motion learning unit 54 corrects the numerical value range of acceleration or angle of the motion map so that the acceleration or angle stored in the temporary data storage unit 57 falls within the numerical value range of acceleration or angle of the motion map. To update the motion map. By repeating the registration of the above operation characteristics, the numerical range of the user's operation map matches the user's operation characteristics, and the accuracy in use is improved.

[具体例]
次に、通常モードにおけるヘッドマウントディスプレイ装置の通常モードにおける動作の具体例について説明する。なお、本具体例に係るヘッドマウントディスプレイ装置を装着するユーザの動作マップは図3と同じものとする。
[Concrete example]
Next, a specific example of the operation in the normal mode of the head mounted display device in the normal mode will be described. Note that the operation map of the user wearing the head-mounted display device according to this specific example is the same as FIG.

まず、ヘッドマウントディスプレイ装置1を装着したユーザが、ディスプレイ2に表示された画面を右にスクロールするために、右方向を向くように頭部を回転させる動作を行う。このときの頭部の動作は、動作方向が右で、加速度が3m/s2、角度が38度であったとする。 First, in order to scroll the screen displayed on the display 2 to the right, the user wearing the head mounted display device 1 performs an operation of rotating the head so as to face right. The movement of the head at this time is assumed that the movement direction is right, the acceleration is 3 m / s 2 , and the angle is 38 degrees.

すると、センサ4は、このユーザの頭部の動作として、動作方向、加速度、及び角度を検出する。これにより、操作実行部55は、センサ4を介して、これらのデータを取得する(ステップS13)。   Then, the sensor 4 detects an operation direction, an acceleration, and an angle as the operation of the user's head. Thereby, the operation execution part 55 acquires these data via the sensor 4 (step S13).

次に、操作実行部55は、取得した動作方向、加速度、及び角度によって特定される動作が、動作マップ上に存在するか否か判定する(ステップS14)。   Next, the operation execution unit 55 determines whether or not the motion specified by the acquired motion direction, acceleration, and angle exists on the motion map (step S14).

そして、操作実行部55は、取得した動作方向、加速度、及び角度によって特定される動作が、図3の動作マップに存在しないと判定する(ステップS14のNo)。すなわち、操作実行部55が取得した動作を特定する情報のうち、38度という角度は、動作マップ上のどの動作の角度の数値範囲内でもない。このため、操作実行部55は、取得した動作方向、加速度、及び角度が特定する動作は、動作マップ上に存在しないと判定する。   And the operation execution part 55 determines with the operation | movement specified by the acquired operation | movement direction, acceleration, and angle not existing in the operation | movement map of FIG. 3 (No of step S14). That is, in the information specifying the motion acquired by the operation execution unit 55, the angle of 38 degrees is not within the numerical value range of any motion angle on the motion map. For this reason, the operation execution unit 55 determines that the motion specified by the acquired motion direction, acceleration, and angle does not exist on the motion map.

そして、操作実行部55は、取得した動作が動作マップ上に存在しないため、これを失敗動作として一時データ格納部57に格納する(ステップS15)。   And since the acquired operation does not exist on an operation | movement map, the operation execution part 55 stores this as temporary operation in the temporary data storage part 57 (step S15).

ユーザは、先ほどの頭部の動作でディスプレイ2に表示された画面が右にスクロールされなかったため、再度、右方向を向くように頭部を回転させる動作を行う。このときの頭部の動作は、動作方向が右で、加速度が3m/s2、角度が42度であったとする。 Since the screen displayed on the display 2 was not scrolled to the right by the operation of the head, the user performs the operation of rotating the head again so as to face the right direction. The movement of the head at this time is assumed that the movement direction is right, the acceleration is 3 m / s 2 , and the angle is 42 degrees.

センサ4は、この動作方向、加速度、及び角度を検出し、操作実行部55は、このセンサ4によって検出された動作方向、加速度、及び角度を取得する(ステップS13)。   The sensor 4 detects the motion direction, acceleration, and angle, and the operation execution unit 55 acquires the motion direction, acceleration, and angle detected by the sensor 4 (step S13).

そして、操作実行部55は、取得した動作方向、加速度、及び角度によって特定される動作が動作マップ上に存在するか否か判定する(ステップS14)。ここで、この動作は、動作マップ上に存在するため、すなわち、図3の上から3番目の動作に該当するため、操作実行部55は、取得した動作が動作マップ上に存在すると判定する(ステップS14のYes)。   Then, the operation execution unit 55 determines whether or not the motion specified by the acquired motion direction, acceleration, and angle exists on the motion map (step S14). Here, since this operation exists on the operation map, that is, corresponds to the third operation from the top in FIG. 3, the operation execution unit 55 determines that the acquired operation exists on the operation map ( Yes in step S14).

次に、操作実行部55は、図3の動作マップに基づいて、その動作と対応する操作を特定し、その操作に応じた処理を実行する(ステップS16)。すなわち、上記動作と対応する操作は「右」であるため、操作実行部55は、その「右」という操作に応じた処理を実行することで、ディスプレイ2の画面を右にスクロールさせる。   Next, the operation execution unit 55 identifies an operation corresponding to the operation based on the operation map of FIG. 3, and executes a process corresponding to the operation (step S16). That is, since the operation corresponding to the above operation is “right”, the operation execution unit 55 scrolls the screen of the display 2 to the right by executing a process corresponding to the operation “right”.

続いて、操作実行部55は、一時データ格納部57に、失敗動作が格納されているか否か判定する(ステップS17)。上記ステップS15によって、一時データ格納部57には、動作方向が右、加速度が3m/s2、角度が38度という失敗動作が格納されているため、操作実行部55は失敗動作が格納されていると判定する(ステップS17のYes)。 Subsequently, the operation execution unit 55 determines whether or not a failure operation is stored in the temporary data storage unit 57 (step S17). As a result of the above step S15, the temporary data storage unit 57 stores a failure operation in which the operation direction is right, the acceleration is 3 m / s 2 , and the angle is 38 degrees, so the operation execution unit 55 stores the failure operation. (Yes in step S17).

次に、操作実行部55は、その失敗動作に関する動作方向、加速度、及び角度を、動作学習部54に出力する(ステップS18)。   Next, the operation execution unit 55 outputs the motion direction, acceleration, and angle regarding the failed motion to the motion learning unit 54 (step S18).

動作学習部54は、その失敗動作の動作方向、加速度、及び角度を用いて、図3の動作マップを更新する(ステップS19)。詳細には、動作学習部54は、失敗動作が動作マップを更新する条件を満たしているか否かをまずは判定し、条件を満たしていると判定すると動作マップを更新する。   The motion learning unit 54 updates the motion map of FIG. 3 using the motion direction, acceleration, and angle of the failed motion (step S19). Specifically, the motion learning unit 54 first determines whether or not the failed motion satisfies a condition for updating the motion map, and updates the motion map when it is determined that the condition is satisfied.

まず、動作学習部45は、上記ステップS16で処理を実行した際の動作、すなわち、図3の上から3番目の動作と、失敗動作とを比較する。動作学習部54は、「右」とする動作方向、及びボタンを押下していないとするボタン動作が、失敗動作と動作マップの動作とで一致すると判定する。また、失敗動作の加速度は3m/s2であるため、これも動作マップの加速度の数値範囲内(2〜5m/s2)であると判定する。よって、動作学習部45は、動作方向、加速度、及びボタン動作については、動作マップを更新するための条件を満たしていると判定する。 First, the action learning unit 45 compares the action when the process is executed in step S16, that is, the third action from the top of FIG. 3 with the failure action. The action learning unit 54 determines that the action direction to be “right” and the button action not to press the button match between the failure action and the action map action. Further, since the acceleration of the failure motion is 3 m / s 2, it is determined that this is also within the numerical range of the acceleration of the motion map ( 2 to 5 m / s 2 ). Therefore, the motion learning unit 45 determines that the conditions for updating the motion map are satisfied for the motion direction, acceleration, and button motion.

そして、動作学習部54は、失敗動作の角度が、動作マップで規定されている角度の数値範囲の上限及び下限から所定範囲内であるか否か判定する。例えば、所定範囲を数値範囲の10%とすると、数値範囲は40〜90度であるので、その数値範囲の10%は5度となる。よって、失敗動作の角度が、35〜95度の範囲内であれば、動作学習部54は、動作マップを更新するための条件が全て満たされたと判定し、失敗動作が含まれるように、動作マップを更新する。   Then, the motion learning unit 54 determines whether or not the angle of the failure motion is within a predetermined range from the upper limit and the lower limit of the angle numerical range defined in the motion map. For example, if the predetermined range is 10% of the numerical range, the numerical range is 40 to 90 degrees, so 10% of the numerical range is 5 degrees. Therefore, if the angle of the failure action is within a range of 35 to 95 degrees, the action learning unit 54 determines that all the conditions for updating the action map are satisfied, and the action is performed so that the failure action is included. Update the map.

ここで、失敗動作の角度は38度であるため、動作学習部54は、上記所定条件を満たしていると判定し、この失敗動作の角度38度が数値範囲内に含まれるように動作マップの角度の数値範囲を修正する。例えば、図7の太線で囲った部分に示すように、動作学習部54は、動作マップの上から3番目の動作における角度の数値範囲を、40〜90度から38〜90度となるように修正する。なお、図7は、本発明の実施形態に係るヘッドマウントディスプレイ装置の更新後における動作マップの一例を示す図である。   Here, since the angle of the failure action is 38 degrees, the action learning unit 54 determines that the predetermined condition is satisfied, and the action map includes the angle 38 degrees of the failure action within the numerical range. Correct the numerical range of the angle. For example, as shown in a portion surrounded by a thick line in FIG. 7, the motion learning unit 54 changes the numerical range of the angle in the third motion from the top of the motion map from 40 to 90 degrees to 38 to 90 degrees. Correct it. FIG. 7 is a diagram showing an example of an operation map after updating the head mounted display device according to the embodiment of the present invention.

[プログラム]
本実施形態では、コントローラ5は、ワンチップマイクロコンピュータ(one-chip microcomputer)に、図4に示すステップS1〜S9、図5に示すステップS11〜S20、図6に示すステップS21〜S28を実行させるプログラムをインストールすることによって実現することができる。この場合、ワンチップマイクロコンピュータのCPUは、表示部51と、動作マップ選択部52と、入力受付部53と、動作学習部54と、操作実行部55として機能し、処理を行う。
[program]
In the present embodiment, the controller 5 causes a one-chip microcomputer to execute steps S1 to S9 shown in FIG. 4, steps S11 to S20 shown in FIG. 5, and steps S21 to S28 shown in FIG. This can be realized by installing a program. In this case, the CPU of the one-chip microcomputer functions as a display unit 51, an operation map selection unit 52, an input reception unit 53, an operation learning unit 54, and an operation execution unit 55, and performs processing.

以上のように本実施形態によれば、動作学習部54によって、ユーザの動作特性に応じて動作マップを更新していくことができるため、ヘッドマウントディスプレイ装置は使用するごとにユーザが使いやすいものとなる。   As described above, according to the present embodiment, the motion learning unit 54 can update the motion map in accordance with the motion characteristics of the user, so that the head-mounted display device is easy to use every time it is used. It becomes.

上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記18)によって表現することができるが、以下の記載に限定されるものではない。   Part or all of the above-described embodiments can be expressed by (Appendix 1) to (Appendix 18) described below, but is not limited to the following description.

(付記1)
ユーザの頭部に装着されるヘッドマウントディスプレイ装置であって、
前記ユーザの頭部の動作を検出するためのセンサと、
予め設定された動作と操作とを対応付けた動作マップ上に、検出された前記動作が存在するか否か判定し、検出された前記動作が存在すると判定した場合、検出された前記動作に対応する操作を特定し、特定した前記操作に応じた処理を実行する操作実行部と、
前記操作実行部によって前記処理が実行され、且つ、前記処理の実行前に、検出された前記動作が存在しないとの判定が行われている場合に、存在しないとの判定の対象となった前記動作を用いて、前記動作マップを更新する動作学習部と、
を備える、ヘッドマウントディスプレイ装置。
(Appendix 1)
A head mounted display device mounted on a user's head,
A sensor for detecting movement of the user's head;
It is determined whether or not the detected motion exists on a motion map in which a preset motion and operation are associated with each other. When it is determined that the detected motion is present, the detected motion corresponds to the detected motion An operation execution unit that identifies an operation to be performed and executes processing according to the identified operation;
When the process is executed by the operation execution unit and it is determined that the detected operation does not exist before the execution of the process, the target that is determined to be non-existent An action learning unit for updating the action map using an action;
A head mounted display device.

(付記2)
前記動作学習部は、存在していないとの判定の対象となった前記動作が、前記動作マップ上に存在するように、前記動作マップを更新する、付記1に記載のヘッドマウントディスプレイ装置。
(Appendix 2)
The head mounted display device according to appendix 1, wherein the motion learning unit updates the motion map so that the motion that has been determined to be nonexistent is present on the motion map.

(付記3)
前記操作実行部によって実行された処理が、当該処理の実行前に存在しないと判定された前記動作によって、実行されるよう、前記動作学習部が前記動作マップを更新する、付記1又は2に記載のヘッドマウントディスプレイ装置。
(Appendix 3)
The supplementary note 1 or 2, wherein the action learning part updates the action map so that the process executed by the operation execution part is executed by the action determined not to exist before the execution of the process. Head mounted display device.

(付記4)
前記センサは、前記ユーザの頭部の動作として、加速度、及び動作方向毎の傾きの値を検出し、
前記動作マップは、加速度及び動作方向毎の傾きそれぞれの設定された数値範囲と、操作とを対応付けており、
前記動作学習部は、存在していないとの判定の対象となった、加速度及び動作方向毎の傾きの値が、前記動作マップに設定された、加速度及び動作方向毎の傾きの数値範囲内に入るように、前記動作マップを更新する、付記1から3のいずれかに記載のヘッドマウントディスプレイ装置。
(Appendix 4)
The sensor detects the value of the acceleration and the inclination for each movement direction as the movement of the user's head,
The motion map associates a set numerical range for each acceleration and inclination for each motion direction with an operation,
The motion learning unit is subject to the determination that the motion learning unit does not exist, and the acceleration and the slope value for each motion direction are within the numerical range of the slope for each acceleration and motion direction set in the motion map. The head mounted display device according to any one of appendices 1 to 3, wherein the operation map is updated so as to enter.

(付記5)
前記動作学習部は、存在していないとの判定の対象となった前記動作によって、前記操作実行部によって実行された前記処理が実行されるよう、前記動作マップを更新する、付記1から4のいずれかに記載のヘッドマウントディスプレイ装置。
(Appendix 5)
The operation learning unit updates the operation map so that the process executed by the operation execution unit is executed by the operation determined to be nonexistent. The head mounted display apparatus in any one.

(付記6)
前記動作マップを格納する動作マップ格納部をさらに備え、
前記動作マップ格納部は、前記動作マップをユーザ毎に格納している、付記1から5のいずれかに記載のヘッドマウントディスプレイ装置。
(Appendix 6)
An operation map storage unit for storing the operation map;
The head mounted display device according to any one of appendices 1 to 5, wherein the motion map storage unit stores the motion map for each user.

(付記7)
ユーザの頭部に装着されるヘッドマウントディスプレイ装置の制御方法であって、
(a)前記ヘッドマウントディスプレイに取り付けられたセンサに、前記ユーザの頭部の動作の検出を実行させるステップと、
(b)予め設定された動作と操作とを対応付けた動作マップ上に、前記(a)のステップで検出された前記動作が存在するか否かを判定するステップと、
(c)前記(b)のステップにおいて、前記(a)のステップで検出された前記動作が存在すると判定した場合に、検出された前記動作に対応する操作を特定し、特定した前記操作に応じた処理を実行するステップと、
(d)前記(c)のステップで前記処理が実行され、且つ、前記(c)のステップでの前記処理の実行前に、検出された前記動作が存在していないとの判定が行われている場合に、存在していないとの判定の対象となった前記動作を用いて、前記動作マップを更新するステップと、
を含む、制御方法。
(Appendix 7)
A method for controlling a head mounted display device mounted on a user's head,
(A) causing a sensor attached to the head mounted display to detect the movement of the user's head;
(B) determining whether or not the motion detected in the step (a) exists on a motion map in which a preset motion and operation are associated with each other;
(C) In the step (b), when it is determined that the motion detected in the step (a) exists, an operation corresponding to the detected motion is specified, and the operation corresponding to the specified operation is determined. The steps of executing the processing,
(D) The process is executed in the step (c), and it is determined that the detected operation does not exist before the process in the step (c) is executed. Updating the action map using the action that was determined to be non-existent when
Including a control method.

(付記8)
前記ステップ(d)において、存在していないとの判定の対象となった前記動作が、前記動作マップ上に存在するように、前記動作マップを更新する、付記7に記載の制御方法。
(Appendix 8)
The control method according to appendix 7, wherein, in the step (d), the operation map is updated so that the operation that has been determined to be nonexistent exists on the operation map.

(付記9)
前記ステップ(c)において実行された処理が、当該処理の実行前に存在しないと判定された前記動作によって、実行されるよう、前記ステップ(d)において前記動作マップを更新する、付記7又は8に記載の制御方法。
(Appendix 9)
(7) The operation map is updated in the step (d) so that the process executed in the step (c) is executed by the operation determined not to exist before the execution of the process. The control method described in 1.

(付記10)
前記ステップ(a)において、前記ユーザの頭部の動作として、加速度、及び動作方向毎の傾きの値の検出を実行させ、
前記動作マップは、加速度及び動作方向毎の傾きそれぞれの設定された数値範囲と、操作とを対応付けており、
前記ステップ(d)において、存在していないとの判定の対象となった、加速度及び動作方向毎の傾きの値が、前記動作マップに設定された、加速度及び動作方向毎の傾きの数値範囲内に入るように、前記動作マップを更新する、付記7から9のいずれかに記載の制御方法。
(Appendix 10)
In the step (a), as the movement of the user's head, detection of acceleration and inclination value for each movement direction is executed,
The motion map associates a set numerical range for each acceleration and inclination for each motion direction with an operation,
In step (d), the value of the slope for each acceleration and motion direction, which is the object of determination that it does not exist, is within the numerical range of the slope for each acceleration and motion direction set in the motion map. The control method according to any one of appendices 7 to 9, wherein the operation map is updated so as to enter.

(付記11)
前記ステップ(d)において、存在していないとの判定の対象となった前記動作によって、前記操作実行部によって実行された前記処理が実行されるよう、前記動作マップを更新する、付記7から10のいずれかに記載の制御方法。
(Appendix 11)
In the step (d), the operation map is updated so that the processing executed by the operation execution unit is executed by the operation that is determined to be nonexistent. The control method in any one of.

(付記12)
前記動作マップは、動作マップ格納部に格納されており、
前記動作マップ格納部は、前記動作マップをユーザ毎に格納している、付記7から11のいずれかに記載の制御方法。
(Appendix 12)
The motion map is stored in a motion map storage unit,
The control method according to any one of appendices 7 to 11, wherein the operation map storage unit stores the operation map for each user.

(付記13)
ユーザの頭部に装着されるヘッドマウントディスプレイ装置の制御を、プロセッサによって実行するためのプログラムであって、前記プロセッサに、
(a)前記ヘッドマウントディスプレイに取り付けられたセンサに、前記ユーザの頭部の動作の検出を実行させるステップと、
(b)予め設定された動作と操作とを対応付けた動作マップ上に、前記(a)のステップで検出された前記動作が存在するか否かを判定するステップと、
(c)前記(b)のステップにおいて、前記(a)のステップで検出された前記動作が存在すると判定した場合に、検出された前記動作に対応する操作を特定し、特定した前記操作に応じた処理を実行するステップと、
(d)前記(c)のステップで前記処理が実行され、且つ、前記(c)のステップでの前記処理の実行前に、検出された前記動作が存在していないとの判定が行われている場合に、存在していないとの判定の対象となった前記動作を用いて、前記動作マップを更新するステップと、
を実行させる、プログラム。
(Appendix 13)
A program for executing control of a head mounted display device mounted on a user's head by a processor, the processor including:
(A) causing a sensor attached to the head mounted display to detect the movement of the user's head;
(B) determining whether or not the motion detected in the step (a) exists on a motion map in which a preset motion and operation are associated with each other;
(C) In the step (b), when it is determined that the motion detected in the step (a) exists, an operation corresponding to the detected motion is specified, and the operation corresponding to the specified operation is determined. The steps of executing the processing,
(D) The process is executed in the step (c), and it is determined that the detected operation does not exist before the process in the step (c) is executed. Updating the action map using the action that was determined to be non-existent when
A program that executes

(付記14)
前記ステップ(d)において、存在していないとの判定の対象となった前記動作が、前記動作マップ上に存在するように、前記動作マップを更新する、付記13に記載のプログラム。
(Appendix 14)
14. The program according to appendix 13, wherein in the step (d), the operation map is updated so that the operation subject to determination that it does not exist exists on the operation map.

(付記15)
前記ステップ(c)において実行された処理が、当該処理の実行前に存在しないと判定された前記動作によって、実行されるよう、前記ステップ(d)において前記動作マップを更新する、付記13又は14に記載のプログラム。
(Appendix 15)
Appendix 13 or 14 wherein the operation map is updated in step (d) so that the process executed in step (c) is executed by the operation determined not to exist before the execution of the process. The program described in.

(付記16)
前記ステップ(a)において、前記ユーザの頭部の動作として、加速度、及び動作方向毎の傾きの値の検出を実行させ、
前記動作マップは、加速度及び動作方向毎の傾きそれぞれの設定された数値範囲と、操作とを対応付けており、
前記ステップ(d)において、存在していないとの判定の対象となった、加速度及び動作方向毎の傾きの値が、前記動作マップに設定された、加速度及び動作方向毎の傾きの数値範囲内に入るように、前記動作マップを更新する、付記13から15のいずれかに記載のプログラム。
(Appendix 16)
In the step (a), as the movement of the user's head, detection of acceleration and inclination value for each movement direction is executed,
The motion map associates a set numerical range for each acceleration and inclination for each motion direction with an operation,
In step (d), the value of the slope for each acceleration and motion direction, which is the object of determination that it does not exist, is within the numerical range of the slope for each acceleration and motion direction set in the motion map. The program according to any one of appendices 13 to 15, wherein the operation map is updated so as to enter.

(付記17)
前記ステップ(d)において、存在していないとの判定の対象となった前記動作によって、前記操作実行部によって実行された前記処理が実行されるよう、前記動作マップを更新する、付記13から16のいずれかに記載のプログラム。
(Appendix 17)
Supplementary notes 13 to 16 in which, in the step (d), the action map is updated so that the process executed by the operation execution unit is executed by the action that is determined to be nonexistent. A program according to any of the above.

(付記18)
前記動作マップは、動作マップ格納部に格納されており、
前記動作マップ格納部は、前記動作マップをユーザ毎に格納している、付記13から17のいずれかに記載のプログラム。
(Appendix 18)
The motion map is stored in a motion map storage unit,
The program according to any one of appendices 13 to 17, wherein the action map storage unit stores the action map for each user.

本実施形態によれば、ユーザの動作特性に合わせた処理を実行することができる。このため、ユーザの動作特性がある頭部の動作に基づいて処理を実行するヘッドマウントディスプレイ装置に有用である。また、上記実施形態におけるヘッドマウントディスプレイ装置1のコントローラ5を、AV機器などのリモートコントローラとして使用したり、ゲーム機器のコントローラとして使用することもできる。   According to the present embodiment, it is possible to execute processing in accordance with user operation characteristics. For this reason, it is useful for a head-mounted display device that executes processing based on the motion of the head having user motion characteristics. Further, the controller 5 of the head mounted display device 1 in the above embodiment can be used as a remote controller such as an AV device or a controller of a game device.

1 ヘッドマウントディスプレイ装置
2 ディスプレイ
4 センサ
5 コントローラ
54 動作学習部
55 操作実行部
DESCRIPTION OF SYMBOLS 1 Head mounted display apparatus 2 Display 4 Sensor 5 Controller 54 Action learning part 55 Operation execution part

Claims (8)

ユーザの頭部に装着されるヘッドマウントディスプレイ装置であって、
前記ユーザの頭部の動作を検出するためのセンサと、
予め設定された動作と操作とを対応付けた動作マップ上に、検出された前記動作が存在するか否か判定し、検出された前記動作が存在すると判定した場合、検出された前記動作に対応する操作を特定し、特定した前記操作に応じた処理を実行する操作実行部と、
前記操作実行部によって前記処理が実行され、且つ、前記処理の実行前に、検出された前記動作が存在しないとの判定が行われている場合に、存在しないとの判定の対象となった前記動作を用いて、前記動作マップを更新する動作学習部と、
を備える、ヘッドマウントディスプレイ装置。
A head mounted display device mounted on a user's head,
A sensor for detecting movement of the user's head;
It is determined whether or not the detected motion exists on a motion map in which a preset motion and operation are associated with each other. When it is determined that the detected motion is present, the detected motion corresponds to the detected motion An operation execution unit that identifies an operation to be performed and executes processing according to the identified operation;
When the process is executed by the operation execution unit and it is determined that the detected operation does not exist before the execution of the process, the target that is determined to be non-existent An action learning unit for updating the action map using an action;
A head mounted display device.
前記動作学習部は、存在していないとの判定の対象となった前記動作が、前記動作マップ上に存在するように、前記動作マップを更新する、請求項1に記載のヘッドマウントディスプレイ装置。   The head-mounted display device according to claim 1, wherein the motion learning unit updates the motion map so that the motion that has been determined to be non-existent is present on the motion map. 前記操作実行部によって実行された処理が、当該処理の実行前に存在しないと判定された前記動作によって、実行されるよう、前記動作学習部が前記動作マップを更新する、請求項1又は2に記載のヘッドマウントディスプレイ装置。   The operation learning unit updates the operation map so that the process executed by the operation execution unit is executed by the operation determined not to exist before the execution of the process. The head mounted display device described. 前記センサは、前記ユーザの頭部の動作として、加速度、及び動作方向毎の傾きの値を検出し、
前記動作マップは、加速度及び動作方向毎の傾きそれぞれの設定された数値範囲と、操作とを対応付けており、
前記動作学習部は、存在していないとの判定の対象となった、加速度及び動作方向毎の傾きの値が、前記動作マップに設定された、加速度及び動作方向毎の傾きの数値範囲内に入るように、前記動作マップを更新する、請求項1から3のいずれかに記載のヘッドマウントディスプレイ装置。
The sensor detects the value of the acceleration and the inclination for each movement direction as the movement of the user's head,
The motion map associates a set numerical range for each acceleration and inclination for each motion direction with an operation,
The motion learning unit is subject to the determination that the motion learning unit does not exist, and the acceleration and the slope value for each motion direction are within the numerical range of the slope for each acceleration and motion direction set in the motion map. The head mounted display device according to claim 1, wherein the operation map is updated so as to enter.
前記動作学習部は、存在していないとの判定の対象となった前記動作によって、前記操作実行部によって実行された前記処理が実行されるよう、前記動作マップを更新する、請求項1から4のいずれかに記載のヘッドマウントディスプレイ装置。   The operation learning unit updates the operation map so that the processing executed by the operation execution unit is executed by the operation determined to be nonexistent. The head mounted display apparatus in any one of. 前記動作マップを格納する動作マップ格納部をさらに備え、
前記動作マップ格納部は、前記動作マップをユーザ毎に格納している、請求項1から5のいずれかに記載のヘッドマウントディスプレイ装置。
An operation map storage unit for storing the operation map;
The head mounted display device according to claim 1, wherein the motion map storage unit stores the motion map for each user.
ユーザの頭部に装着されるヘッドマウントディスプレイ装置の制御方法であって、
(a)前記ヘッドマウントディスプレイに取り付けられたセンサに、前記ユーザの頭部の動作の検出を実行させるステップと、
(b)予め設定された動作と操作とを対応付けた動作マップ上に、前記(a)のステップで検出された前記動作が存在するか否かを判定するステップと、
(c)前記(b)のステップにおいて、前記(a)のステップで検出された前記動作が存在すると判定した場合に、検出された前記動作に対応する操作を特定し、特定した前記操作に応じた処理を実行するステップと、
(d)前記(c)のステップで前記処理が実行され、且つ、前記(c)のステップでの前記処理の実行前に、検出された前記動作が存在していないとの判定が行われている場合に、存在していないとの判定の対象となった前記動作を用いて、前記動作マップを更新するステップと、
を含む、制御方法。
A method for controlling a head mounted display device mounted on a user's head,
(A) causing a sensor attached to the head mounted display to detect the movement of the user's head;
(B) determining whether or not the motion detected in the step (a) exists on a motion map in which a preset motion and operation are associated with each other;
(C) In the step (b), when it is determined that the motion detected in the step (a) exists, an operation corresponding to the detected motion is specified, and the operation corresponding to the specified operation is determined. The steps of executing the processing,
(D) The process is executed in the step (c), and it is determined that the detected operation does not exist before the process in the step (c) is executed. Updating the action map using the action that was determined to be non-existent when
Including a control method.
ユーザの頭部に装着されるヘッドマウントディスプレイ装置の制御を、プロセッサによって実行するためのプログラムであって、前記プロセッサに、
(a)前記ヘッドマウントディスプレイに取り付けられたセンサに、前記ユーザの頭部の動作の検出を実行させるステップと、
(b)予め設定された動作と操作とを対応付けた動作マップ上に、前記(a)のステップで検出された前記動作が存在するか否かを判定するステップと、
(c)前記(b)のステップにおいて、前記(a)のステップで検出された前記動作が存在すると判定した場合に、検出された前記動作に対応する操作を特定し、特定した前記操作に応じた処理を実行するステップと、
(d)前記(c)のステップで前記処理が実行され、且つ、前記(c)のステップでの前記処理の実行前に、検出された前記動作が存在していないとの判定が行われている場合に、存在していないとの判定の対象となった前記動作を用いて、前記動作マップを更新するステップと、
を実行させる、プログラム。
A program for executing control of a head mounted display device mounted on a user's head by a processor, the processor including:
(A) causing a sensor attached to the head mounted display to detect the movement of the user's head;
(B) determining whether or not the motion detected in the step (a) exists on a motion map in which a preset motion and operation are associated with each other;
(C) In the step (b), when it is determined that the motion detected in the step (a) exists, an operation corresponding to the detected motion is specified, and the operation corresponding to the specified operation is determined. The steps of executing the processing,
(D) The process is executed in the step (c), and it is determined that the detected operation does not exist before the process in the step (c) is executed. Updating the action map using the action that was determined to be non-existent when
A program that executes
JP2012128054A 2012-06-05 2012-06-05 Head-mounted display device, control method, and program Pending JP2013254251A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012128054A JP2013254251A (en) 2012-06-05 2012-06-05 Head-mounted display device, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012128054A JP2013254251A (en) 2012-06-05 2012-06-05 Head-mounted display device, control method, and program

Publications (1)

Publication Number Publication Date
JP2013254251A true JP2013254251A (en) 2013-12-19

Family

ID=49951727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012128054A Pending JP2013254251A (en) 2012-06-05 2012-06-05 Head-mounted display device, control method, and program

Country Status (1)

Country Link
JP (1) JP2013254251A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016076061A (en) * 2014-10-06 2016-05-12 三菱電機株式会社 Operation input device
JP2016134063A (en) * 2015-01-21 2016-07-25 セイコーエプソン株式会社 Wearable computer, command setting method and command setting program
CN107466160A (en) * 2016-06-06 2017-12-12 宁波舜宇光电信息有限公司 The manufacturing equipment and its manufacture method of the molded circuit board of camera module
JP2018508805A (en) * 2014-12-29 2018-03-29 株式会社ソニー・インタラクティブエンタテインメント Method and system for user interaction in a virtual or augmented reality scene using a head mounted display
US9965830B2 (en) 2014-12-12 2018-05-08 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program
JP2019016316A (en) * 2017-07-11 2019-01-31 株式会社日立エルジーデータストレージ Display system and display control method for display system
JP2019535055A (en) * 2016-09-29 2019-12-05 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Perform gesture-based operations

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064199A (en) * 2007-09-05 2009-03-26 Casio Comput Co Ltd Gesture recognition apparatus and gesture recognition method
JP2009123042A (en) * 2007-11-16 2009-06-04 Nikon Corp Controller and head mounted display
JP2010205214A (en) * 2009-03-06 2010-09-16 Nikon Corp Controller and head-mount display device
JP2011197992A (en) * 2010-03-19 2011-10-06 Fujitsu Ltd Device and method for determining motion, and computer program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064199A (en) * 2007-09-05 2009-03-26 Casio Comput Co Ltd Gesture recognition apparatus and gesture recognition method
JP2009123042A (en) * 2007-11-16 2009-06-04 Nikon Corp Controller and head mounted display
JP2010205214A (en) * 2009-03-06 2010-09-16 Nikon Corp Controller and head-mount display device
JP2011197992A (en) * 2010-03-19 2011-10-06 Fujitsu Ltd Device and method for determining motion, and computer program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016076061A (en) * 2014-10-06 2016-05-12 三菱電機株式会社 Operation input device
US9965830B2 (en) 2014-12-12 2018-05-08 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program
JP2018508805A (en) * 2014-12-29 2018-03-29 株式会社ソニー・インタラクティブエンタテインメント Method and system for user interaction in a virtual or augmented reality scene using a head mounted display
US10073516B2 (en) 2014-12-29 2018-09-11 Sony Interactive Entertainment Inc. Methods and systems for user interaction within virtual reality scene using head mounted display
JP2016134063A (en) * 2015-01-21 2016-07-25 セイコーエプソン株式会社 Wearable computer, command setting method and command setting program
CN107466160B (en) * 2016-06-06 2022-04-29 宁波舜宇光电信息有限公司 Equipment and method for manufacturing molded circuit board of camera module
CN107466160A (en) * 2016-06-06 2017-12-12 宁波舜宇光电信息有限公司 The manufacturing equipment and its manufacture method of the molded circuit board of camera module
US11745401B2 (en) 2016-06-06 2023-09-05 Ningbo Sunny Opotech Co., Ltd. Molded circuit board of camera module, manufacturing equipment and manufacturing method for molded circuit board
JP2019535055A (en) * 2016-09-29 2019-12-05 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Perform gesture-based operations
JP2019016316A (en) * 2017-07-11 2019-01-31 株式会社日立エルジーデータストレージ Display system and display control method for display system
JP2021114343A (en) * 2017-07-11 2021-08-05 株式会社日立エルジーデータストレージ Display system and display control method for display system
JP7064040B2 (en) 2017-07-11 2022-05-09 株式会社日立エルジーデータストレージ Display system and display control method of display system
US11016559B2 (en) 2017-07-11 2021-05-25 Hitachi-Lg Data Storage, Inc. Display system and display control method of display system

Similar Documents

Publication Publication Date Title
JP2013254251A (en) Head-mounted display device, control method, and program
JP5521117B2 (en) Method and apparatus for gesture-based remote control
JP5857257B2 (en) Display device and display direction switching method
KR101453703B1 (en) Automated controls for sensor enabled user interface
JP6365197B2 (en) Remote operation support program, remote operation support method, information processing apparatus
KR20180048343A (en) Dynamic haptic generation based on detected video events
JP6252409B2 (en) Information processing apparatus, information processing method, and program
US10140002B2 (en) Information processing apparatus, information processing method, and program
JP2017204115A (en) Operation input device, portable terminal, and operation input method
JP2015153302A (en) Display controller, display control method and recording medium
KR20150003957A (en) Method and apparatus for Operating the lock screen of the mobile terminal
US20120146901A1 (en) Operation control device, operation control method, and input device
JP7244231B2 (en) ELECTRONIC DEVICE, CONTROL PROGRAM AND DISPLAY CONTROL METHOD
JP2006343419A (en) Display device, program, and recording medium
JP2015525927A (en) Method and apparatus for controlling a display device
JP7498330B2 (en) Virtual object operation method and head-mounted display
JP7140515B2 (en) Information processing device, information processing system, information processing program, and information processing method
US9942387B2 (en) Method and apparatus for sensing flexing of a device
JP7034856B2 (en) Electronic devices, control programs and display control methods
JP5238880B2 (en) Camera symbol display device and computer program
JP2008117256A (en) Operation data input system, operation data input method and program
JP5841023B2 (en) Information processing apparatus, information processing method, program, and information storage medium
JP6623362B2 (en) Display control device and program
CN112384879A (en) Head-mounted display and setting method
JP6081537B2 (en) Information processing apparatus, information processing method, program, and information storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140604

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140609

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141104