JP2020071588A - Display device and method for controlling display device - Google Patents

Display device and method for controlling display device Download PDF

Info

Publication number
JP2020071588A
JP2020071588A JP2018203895A JP2018203895A JP2020071588A JP 2020071588 A JP2020071588 A JP 2020071588A JP 2018203895 A JP2018203895 A JP 2018203895A JP 2018203895 A JP2018203895 A JP 2018203895A JP 2020071588 A JP2020071588 A JP 2020071588A
Authority
JP
Japan
Prior art keywords
unit
user
image
input
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018203895A
Other languages
Japanese (ja)
Inventor
小林 伸一
Shinichi Kobayashi
伸一 小林
高野 正秀
Masahide Takano
正秀 高野
秀穂 金子
Hideho Kaneko
秀穂 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2018203895A priority Critical patent/JP2020071588A/en
Publication of JP2020071588A publication Critical patent/JP2020071588A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To improve a user's operability.SOLUTION: An HMD 100 comprises: a transmission type image display unit 20 that is attached to the head of a user and transmits light; a myoelectric sensor 200 that detects the motion of the hand of the user; an operation estimation unit 143 that estimates an operation to select one image MA for input from a plurality of images MN for input based on a detection value from the myoelectric sensor 200; a determination unit 144 that determines a result of estimation made by the operation estimation unit 143; and a learning unit 145 that machine-learns a condition for specifying the one image MA for input from the detection value from the myoelectric sensor 200 based on a learning data set 147a including the detection value from the myoelectric sensor 200, the one image MA for input, and a result of determination made by the determination unit 144.SELECTED DRAWING: Figure 6

Description

本発明は、表示装置、及び、表示装置の制御方法に関する。   The present invention relates to a display device and a display device control method.

従来、ユーザーの操作を受け付ける種々のインターフェイス装置が知られている(例えば、特許文献1参照)。
例えば、特許文献1に記載のインターフェイス装置は、操作者の手に装着される。このインターフェイス装置は、操作者の一方の手の平の少なくとも一部に接触する部材と、カメラと、検出手段とを備える。カメラは、この部材の一方の手の平に対向する面とは反対側の面上に配置される。検出手段は、このカメラにより撮像された画像に基づいて、一方の手の動作を検出する。
Conventionally, various interface devices that receive a user's operation are known (for example, refer to Patent Document 1).
For example, the interface device described in Patent Document 1 is attached to the operator's hand. The interface device includes a member that comes into contact with at least a part of one palm of an operator, a camera, and a detection unit. The camera is located on the side of the member opposite the palm-facing side. The detection means detects the motion of one hand based on the image captured by this camera.

特開2012−73830号公報JP2012-73830A

本発明は、ユーザーの操作性を向上可能な表示装置を提供することを目的とする。   An object of the present invention is to provide a display device capable of improving operability for users.

上記目的を達成する一態様は、光を透過する透過型の表示部であって、ユーザーの頭部に装着される表示部と、前記表示部を透過して視認される前記ユーザーの手に重なる位置に、複数の入力用画像を前記表示部に表示させる表示制御部と、前記ユーザーの手の動きを検出する動きセンサーと、前記動きセンサーの検出値に基づき、前記複数の入力用画像の中から1つの入力用画像を選択する操作を推定する操作推定部と、前記操作推定部の推定結果を判定する判定部と、前記動きセンサーの検出値と、前記1つの入力用画像と、前記判定部の判定結果との組み合わせを含む学習データセットに基づいて、前記動きセンサーの検出値から前記1つの入力用画像を特定するための条件を機械学習する学習部と、を備える表示装置である。   One mode for achieving the above object is a transmissive display unit that transmits light, and is overlapped with a display unit mounted on a user's head and the user's hand visually recognized through the display unit. At the position, a display control unit for displaying a plurality of input images on the display unit, a motion sensor for detecting a motion of the user's hand, and a plurality of input images among the plurality of input images based on a detection value of the motion sensor. From the operation estimation unit that estimates an operation of selecting one input image from the determination unit, the determination unit that determines the estimation result of the operation estimation unit, the detection value of the motion sensor, the one input image, and the determination A learning unit that machine-learns a condition for specifying the one input image from the detection value of the motion sensor based on a learning data set including a combination with a determination result of the unit.

上記表示装置において、撮像部を備え、前記判定部は、前記判定部は、前記操作推定部の推定結果の正否を、前記撮像部による画像に基づいて判定する構成であってもよい。   The display device may include an imaging unit, and the determination unit may be configured to determine whether the estimation result of the operation estimation unit is correct based on an image captured by the imaging unit.

上記表示装置において、前記ユーザーからの音声の入力を受け付ける音声入力部を備え、前記判定部は、前記操作推定部の推定結果の正否を、前記音声入力部に入力された音声に基づいて判定する構成であってもよい。   In the display device, a voice input unit that receives a voice input from the user is provided, and the determination unit determines whether the estimation result of the operation estimation unit is correct based on the voice input to the voice input unit. It may be configured.

上記表示装置において、前記複数の入力用画像の各々は、互いに相違する文字を示し、前記操作推定部は、前記動きセンサーの検出値に基づいて、入力する文字を推定する構成であってもよい。   In the display device, each of the plurality of input images may indicate a different character, and the operation estimation unit may be configured to estimate a character to be input based on a detection value of the motion sensor. ..

上記表示装置において、前記複数の入力用画像の各々は、前記ユーザーの手の親指を除く各指において関節で区切られた領域に対応付けられ、前記1つの入力用画像を選択する操作は、前記ユーザーの手の親指を前記関節で区切られた領域に押圧する操作である構成であってもよい。   In the display device, each of the plurality of input images is associated with a region separated by a joint in each finger of the user other than the thumb of the hand, and the operation of selecting the one input image is performed as described above. The operation may be such that the thumb of the user's hand is pressed against a region divided by the joint.

上記表示装置において、前記複数の入力用画像に含まれる2つ以上の所定個数の入力用画像は、前記ユーザーの手の親指を除く各指において関節で区切られた領域に対応付けられ、前記領域を選択する操作は、前記ユーザーの手の親指を前記関節で区切られた領域に押圧する操作であり、前記領域に対応付けられた前記所定個数の入力用画像から前記1つの入力用画像を選択する操作は、前記ユーザーの手の親指を所定方向に移動する操作である構成であってもよい。   In the above display device, two or more predetermined number of input images included in the plurality of input images are associated with a region separated by a joint in each finger of the user other than the thumb, The operation of selecting is an operation of pressing the thumb of the user's hand to a region delimited by the joint, and selecting the one input image from the predetermined number of input images associated with the region. The operation to be performed may be an operation of moving the thumb of the user's hand in a predetermined direction.

上記表示装置において、前記表示制御部は、前記ユーザーの手の位置をガイドする第1ガイド画像を前記表示部に表示させる構成であってもよい。   In the above display device, the display control unit may be configured to display a first guide image for guiding the position of the user's hand on the display unit.

上記表示装置において、前記表示制御部は、前記表示部を透過して視認される前記ユーザーの手の位置を追跡し、前記ユーザーの手の移動に応じて、前記複数の入力用画像の各々の表示位置を調整する構成であってもよい。   In the display device, the display control unit tracks the position of the user's hand visually recognized through the display unit, and according to the movement of the user's hand, each of the plurality of input images is displayed. The display position may be adjusted.

上記表示装置において、前記動きセンサーは、前記ユーザーの手首に装着される筋電センサーを含む構成であってもよい。   In the display device, the motion sensor may include a myoelectric sensor attached to the wrist of the user.

上記目的を達成する別の一態様は、光を透過する透過型の表示部であって、ユーザーの頭部に装着される表示部と、前記ユーザーの手の動きを検出する動きセンサーと、を備える表示装置の制御方法であって、前記動きセンサーの検出値から前記複数の入力用画像の中から1つの入力用画像を選択する操作を推定する操作推定ステップと、前記操作推定ステップの推定結果を判定する判定ステップと、前記動きセンサーの検出値と、前記1つの入力用画像と、前記判定ステップの判定結果との組み合わせを含む学習データセットに基づいて、前記動きセンサーの検出値から前記1つの入力用画像を特定するための条件を機械学習する学習ステップと、を含む、表示装置の制御方法である。   Another aspect of achieving the above object is a transmissive display unit that transmits light, and includes a display unit mounted on a user's head and a motion sensor that detects a motion of the user's hand. A method for controlling a display device, comprising: an operation estimation step of estimating an operation of selecting one input image from the plurality of input images from a detection value of the motion sensor; and an estimation result of the operation estimation step. Based on a learning data set including a combination of a determination step of determining the motion sensor, a detection value of the motion sensor, the one input image, and a determination result of the determination step. And a learning step of machine-learning a condition for specifying one input image, the control method of the display device.

HMDの外観構成を示す説明図。Explanatory drawing which shows the external appearance structure of HMD. 画像表示部の光学系の構成を示す図。The figure which shows the structure of the optical system of an image display part. 画像表示部の要部構成を示す斜視図。FIG. 3 is a perspective view showing a main configuration of an image display unit. 対象物の位置と撮像範囲との関係を示す模式図。The schematic diagram which shows the relationship between the position of an object and an imaging range. HMDを構成する各部の構成を示す図。The figure which shows the structure of each part which comprises HMD. 制御部の構成を示す図。The figure which shows the structure of a control part. ガイド画像を示す図。The figure which shows a guide image. 入力用画像を示す図。The figure which shows the image for input. 制御部の処理を示すフローチャート。The flowchart which shows the process of a control part. 制御部の機械学習処理を示すフローチャート。The flowchart which shows the machine learning process of a control part. 学習処理後の制御部の処理を示すフローチャート。The flowchart which shows the process of the control part after a learning process. 入力用画像の他の形態を示す図。The figure which shows the other form of the image for input.

以下、図面を参照して本実施形態について説明する。
図1は、HMD100の外観構成を示す説明図である。
図1に示すように、HMD(Head Mounted Display)100は、いわゆるシースルー型()のHMDであって、制御装置10と、画像表示部20とを備える。HMD100は、「表示装置」の一例に相当する。シースルー型は、「透過型」ということもできる。
制御装置10は、平たい箱形のケース10Aを備える。ケース10Aは、ユーザーの操作を受け付ける各種のスイッチやトラックパッド14等を備え、これらをユーザーが操作することによって、制御装置10は、HMD100を制御する制御装置として機能する。また、ケース10Aは、HMD100を制御する機能部を内蔵する。ケース10Aは、筐体の一例に対応する。
Hereinafter, the present embodiment will be described with reference to the drawings.
FIG. 1 is an explanatory diagram showing an external configuration of the HMD 100.
As shown in FIG. 1, an HMD (Head Mounted Display) 100 is a so-called see-through type () HMD, and includes a control device 10 and an image display unit 20. The HMD 100 corresponds to an example of a “display device”. The see-through type can also be referred to as a “transmissive type”.
The control device 10 includes a flat box-shaped case 10A. The case 10A includes various switches that receive user's operations, the track pad 14, and the like, and the user operates these to cause the control device 10 to function as a control device that controls the HMD 100. Further, the case 10A has a built-in functional unit that controls the HMD 100. The case 10A corresponds to an example of a housing.

また、HMD100の制御装置10は、筋電センサー200と無線にて通信可能に接続される。筋電センサー200は、ユーザーの手首に装着される。
筋電センサー200は、ユーザーの指の筋肉の動きに応じて発生する電気信号を検出する。本実施形態では、筋電センサー200は、主にユーザーの親指の筋肉の動きに応じて発生する電気信号を検出する。
筋電センサー200は、後述にて図7を参照して説明するように、ユーザーの手首に装着される。筋電センサー200は、円筒状に形成され、その内面側に複数のセンサーが配置される。「内面側」とは、ユーザーの手首の外周面と当接する側を示す。筋電センサー200は、複数のセンサーによって、複数の筋肉の動きを検出可能に構成される。
筋電センサー200は、バッテリー、通信部、制御部、入出力部を備える。通信部は、例えばBluetooth(登録商標)のような無線通信によって、HMD100の制御装置10との間で通信可能である。
筋電センサー200は、「動きセンサー」の一例に相当する。なお、「動きセンサー」は、ユーザーの指に装着されるジャイロセンサーでもよい。また、「動きセンサー」は、筋電センサー200とジャイロセンサーとを含んでもよい。
Further, the control device 10 of the HMD 100 is connected to the myoelectric sensor 200 in a wirelessly communicable manner. The myoelectric sensor 200 is worn on the user's wrist.
The myoelectric sensor 200 detects an electric signal generated according to the movement of the muscle of the user's finger. In the present embodiment, the myoelectric sensor 200 mainly detects an electric signal generated according to the movement of the muscles of the thumb of the user.
The myoelectric sensor 200 is attached to the user's wrist as described later with reference to FIG. 7. The myoelectric sensor 200 is formed in a cylindrical shape, and a plurality of sensors are arranged on the inner surface side thereof. The “inner surface side” refers to the side in contact with the outer peripheral surface of the user's wrist. The myoelectric sensor 200 is configured to be able to detect movements of a plurality of muscles by the plurality of sensors.
The myoelectric sensor 200 includes a battery, a communication unit, a control unit, and an input / output unit. The communication unit can communicate with the control device 10 of the HMD 100 by wireless communication such as Bluetooth (registered trademark).
The myoelectric sensor 200 corresponds to an example of a “motion sensor”. The "motion sensor" may be a gyro sensor attached to the user's finger. Further, the “motion sensor” may include the myoelectric sensor 200 and the gyro sensor.

画像表示部20は、ユーザーの頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22、左表示ユニット24、右導光板26、及び左導光板28を備える。画像表示部20は、「表示部」の一例に相当する。
右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプルのように、ユーザーの頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態においてユーザーの右側に位置する端部を端部ERとし、ユーザーの左側に位置する端部を端部ELとする。右保持部21は、画像表示部20の装着状態において、前部フレーム27の端部ERからユーザーの右側頭部に対応する位置まで延伸して設けられる。左保持部23は、画像表示部20の装着状態において、端部ELからユーザーの左側頭部に対応する位置まで延伸して設けられる。
The image display unit 20 is a wearing body worn on the head of the user, and has a spectacle shape in the present embodiment. The image display unit 20 includes a right display unit 22, a left display unit 24, a right light guide plate 26, and a left light guide plate 28 in a main body having a right holding unit 21, a left holding unit 23, and a front frame 27. .. The image display unit 20 corresponds to an example of a “display unit”.
The right holding unit 21 and the left holding unit 23 extend rearward from both ends of the front frame 27, and hold the image display unit 20 on the user's head like temples of glasses. Here, of both ends of the front frame 27, an end located on the right side of the user in the mounted state of the image display unit 20 is an end ER, and an end located on the left side of the user is an end EL. The right holding unit 21 is provided so as to extend from the end ER of the front frame 27 to a position corresponding to the right side of the user's head in the mounted state of the image display unit 20. The left holding part 23 is provided so as to extend from the end part EL to a position corresponding to the left side head of the user in the mounted state of the image display part 20.

右導光板26及び左導光板28は、前部フレーム27に設けられる。右導光板26は、画像表示部20の装着状態においてユーザーの右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態においてユーザーの左眼の眼前に位置し、左眼に画像を視認させる。   The right light guide plate 26 and the left light guide plate 28 are provided on the front frame 27. The right light guide plate 26 is located in front of the right eye of the user when the image display unit 20 is attached, and allows the right eye to visually recognize the image. The left light guide plate 28 is located in front of the left eye of the user when the image display unit 20 is attached, and allows the left eye to visually recognize the image.

前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、ユーザーが画像表示部20を装着する装着状態で、ユーザーの眉間に対応する。前部フレーム27は、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態でユーザーの鼻に当接する鼻当て部を設けてもよい。この場合、鼻当て部と右保持部21及び左保持部23とにより画像表示部20をユーザーの頭部に保持できる。また、右保持部21及び左保持部23に、画像表示部20の装着状態においてユーザーの後頭部に接する図示しないベルトを連結してもよく、この場合、ベルトによって画像表示部20をユーザーの頭部に保持できる。   The front frame 27 has a shape in which one end of the right light guide plate 26 and one end of the left light guide plate 28 are connected to each other. Corresponding to. The front frame 27 may be provided with a nose pad that comes into contact with the user's nose when the image display unit 20 is attached, at the connection position between the right light guide plate 26 and the left light guide plate 28. In this case, the image display unit 20 can be held on the user's head by the nose pad, the right holding unit 21, and the left holding unit 23. Further, a belt (not shown) that contacts the user's occipital region when the image display unit 20 is attached may be connected to the right holding unit 21 and the left holding unit 23. In this case, the image display unit 20 is connected to the user's head by the belt. Can be held at

右表示ユニット22は、右導光板26による画像の表示に係るユニットであり、右保持部21に設けられ、装着状態においてユーザーの右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示に係るユニットであり、左保持部23に設けられ、装着状態においてユーザーの左側頭部の近傍に位置する。   The right display unit 22 is a unit related to the display of an image by the right light guide plate 26, is provided in the right holding portion 21, and is located in the vicinity of the right side head of the user in the mounted state. The left display unit 24 is a unit related to the display of an image by the left light guide plate 28, is provided in the left holding portion 23, and is located in the vicinity of the user's left head in the mounted state.

本実施形態の右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部であり、例えばプリズムであり、右表示ユニット22及び左表示ユニット24が出力する画像光を、ユーザーの眼に導く。   The right light guide plate 26 and the left light guide plate 28 of the present embodiment are optical parts formed of a light-transmissive resin or the like, and are, for example, prisms, and generate image light output from the right display unit 22 and the left display unit 24. , To the eyes of the user.

また、右導光板26及び左導光板28の表面に、調光機能を有する図示しない電子シェードを設けてもよい。電子シェードは電圧を入力する図示しない端子、及び、端子間の電圧に応じて光の透過率が変化する図示しないシェード本体を有し、後述する制御部141の制御により、印加される電圧を調整可能である。電子シェードは、可視光を含む波長域全体の透過率が変化する構成であってもよいし、光の波長域により異なる透過率を有する構成であってもよい。電子シェードは、例えば、ユーザーの眼の側とは反対の側である前部フレーム27の表側を覆うように配置される。電子シェードの光学特性を調整することにより、外部から右導光板26及び左導光板28に入射し、右導光板26及び左導光板28を透過する外光の光量を調整できる。   Further, an electronic shade (not shown) having a dimming function may be provided on the surfaces of the right light guide plate 26 and the left light guide plate 28. The electronic shade has a terminal (not shown) for inputting a voltage, and a shade body (not shown) whose light transmittance changes according to the voltage between the terminals, and adjusts the applied voltage under the control of the control unit 141 described later. It is possible. The electronic shade may have a configuration in which the transmittance in the entire wavelength range including visible light changes, or a configuration in which the transmittance varies depending on the wavelength range of light. The electronic shade is arranged, for example, so as to cover the front side of the front frame 27, which is the side opposite to the eye side of the user. By adjusting the optical characteristics of the electronic shade, it is possible to adjust the amount of external light that enters the right light guide plate 26 and the left light guide plate 28 from the outside and that passes through the right light guide plate 26 and the left light guide plate 28.

画像表示部20は、右表示ユニット22及び左表示ユニット24がそれぞれ生成する画像光を、右導光板26及び左導光板28に導き、この画像光によって虚像をユーザーに視認させることによって、画像を表示する。ユーザーの前方から、右導光板26及び左導光板28を透過して外光がユーザーの眼に入射する場合、ユーザーの眼には、虚像を構成する画像光及び外光が入射することとなり、虚像の視認性が外光の強さに影響される。このため、例えば前部フレーム27に電子シェードを装着し、電子シェードの光学特性を適宜選択あるいは調整することによって、虚像の視認のし易さを調整できる。   The image display unit 20 guides the image light generated by the right display unit 22 and the left display unit 24 to the right light guide plate 26 and the left light guide plate 28, respectively, and allows the user to visually recognize a virtual image by the image light, thereby displaying an image. indicate. When external light passes through the right light guide plate 26 and the left light guide plate 28 from the front of the user and enters the user's eye, the image light and the external light forming a virtual image enter the user's eye. The visibility of the virtual image is affected by the intensity of outside light. Therefore, for example, by mounting the electronic shade on the front frame 27 and appropriately selecting or adjusting the optical characteristics of the electronic shade, the visibility of the virtual image can be adjusted.

カメラ61は、画像表示部20の前部フレーム27に配置される。カメラ61は、ユーザーが画像表示部20を装着した状態で視認する外景方向を撮像することが望ましく、前部フレーム27の前面において、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61が前部フレーム27の端部ER側に配置される。カメラ61は、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。カメラ61は、「撮像部」の一例に相当する。   The camera 61 is arranged on the front frame 27 of the image display unit 20. It is desirable that the camera 61 capture an image of the outside view direction that the user visually recognizes with the image display unit 20 mounted, and blocks outside light that passes through the right light guide plate 26 and the left light guide plate 28 on the front surface of the front frame 27. It is provided in a position that does not exist. In the example of FIG. 1, the camera 61 is arranged on the end portion ER side of the front frame 27. The camera 61 may be arranged on the end EL side, or may be arranged on the connecting portion between the right light guide plate 26 and the left light guide plate 28. The camera 61 corresponds to an example of an “imaging unit”.

カメラ61は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。本実施形態のカメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態におけるユーザーの視界方向の少なくとも一部の外景を撮像する。外景は、実空間に対応する。別の表現では、カメラ61は、ユーザーの視界と重なる範囲または方向を撮像し、ユーザーが注視する方向を撮像するということもできる。カメラ61の画角の広さは適宜設定可能であるが、本実施形態では、後述するように、ユーザーが右導光板26及び左導光板28を通して視認する外界を含む。より好ましくは、右導光板26及び左導光板28を透過して視認可能なユーザーの視界の全体を撮像できるように、カメラ61の撮像範囲が設定される。
カメラ61は、制御部141の指示に従って撮像処理を実行し、撮像画像データを表示制御部142及び判定部144に出力する。表示制御部142及び判定部144の各々については、後述にて図6を参照して説明する。
The camera 61 is a digital camera including an image pickup element such as a CCD (Charge Coupled Device) and a CMOS (Complementary Metal Oxide Semiconductor), an image pickup lens, and the like. The camera 61 of this embodiment is a monocular camera, but may be a stereo camera. The camera 61 captures an outside view of at least a part of the front side direction of the HMD 100, in other words, the user's view direction in the state where the HMD 100 is mounted. The outside scene corresponds to the real space. In other words, it can be said that the camera 61 captures a range or a direction overlapping with the user's field of view, and captures a direction in which the user is gazing. The width of the angle of view of the camera 61 can be set as appropriate, but in the present embodiment, as will be described later, the user includes the outside world visually recognized through the right light guide plate 26 and the left light guide plate 28. More preferably, the imaging range of the camera 61 is set so that the entire visual field of the user, which is visible through the right light guide plate 26 and the left light guide plate 28, can be imaged.
The camera 61 executes the imaging process according to the instruction of the control unit 141 and outputs the captured image data to the display control unit 142 and the determination unit 144. Each of the display control unit 142 and the determination unit 144 will be described later with reference to FIG.

HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する距離センサー64を備える。距離センサー64は、例えば、ユーザーにとって前方に位置する測定対象物までの距離を検出する構成とすることができ、本実施形態では、前部フレーム27において右導光板26と左導光板28との連結部分に配置される。この例では、画像表示部20の装着状態において、距離センサー64の位置は、水平方向ではユーザーの両眼のほぼ中間であり、鉛直方向ではユーザーの両眼より上である。距離センサー64の測定方向は、例えば、前部フレーム27の表側方向とすることができ、言い換えればカメラ61の撮像方向と重複する方向である。   The HMD 100 includes a distance sensor 64 that detects a distance to a measurement object located in a preset measurement direction. The distance sensor 64 may be configured to detect a distance to a measurement object located in front of the user, and in the present embodiment, the distance between the right light guide plate 26 and the left light guide plate 28 in the front frame 27 is set. It is placed in the connecting part. In this example, in the mounted state of the image display unit 20, the position of the distance sensor 64 is substantially in the middle of both eyes of the user in the horizontal direction and above the both eyes of the user in the vertical direction. The measurement direction of the distance sensor 64 can be, for example, the front side direction of the front frame 27, in other words, the direction overlapping with the imaging direction of the camera 61.

距離センサー64は、例えば、LED(Light Emitting Diode)やレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する。距離センサー64は、制御部141の指示に従い、三角測距処理や時間差に基づく測距処理を実行すればよい。また、距離センサー64は、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサー64は、制御部141の指示に従い、超音波の反射までの時間差に基づき測距処理を実行すればよい。   The distance sensor 64 has, for example, a light source such as an LED (Light Emitting Diode) or a laser diode, and a light receiving unit that receives the reflected light that the light emitted from the light source reflects on the measurement target. The distance sensor 64 may execute the triangular distance measuring process or the distance measuring process based on the time difference according to the instruction of the control unit 141. Further, the distance sensor 64 may be configured to include a sound source that emits ultrasonic waves and a detection unit that receives the ultrasonic waves reflected by the measurement target. In this case, the distance sensor 64 may execute the distance measurement process based on the time difference until the reflection of the ultrasonic wave according to the instruction of the control unit 141.

制御装置10と画像表示部20とは、接続ケーブル40により接続される。接続ケーブル40は、ケース10Aの端部に設けられるコネクター42に着脱可能に接続される。すなわち、ケース10Aには、接続ケーブル40を抜き差し可能なコネクター42が設けられ、画像表示部20を使用する場合にコネクター42に接続ケーブル40が接続される。   The control device 10 and the image display unit 20 are connected by a connection cable 40. The connection cable 40 is detachably connected to a connector 42 provided at the end of the case 10A. That is, the case 10A is provided with a connector 42 into / from which the connection cable 40 can be inserted / removed, and the connection cable 40 is connected to the connector 42 when the image display unit 20 is used.

接続ケーブル40は、左保持部23の先端から、画像表示部20の内部に設けられる各種回路に接続する。接続ケーブル40は、デジタルデータを伝送するメタルケーブルまたは光ファイバーケーブルを有し、アナログ信号を伝送するメタルケーブルを有していてもよい。接続ケーブル40の途中には、コネクター46が設けられる。
コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46と制御装置10とは、例えばアナログ音声信号を伝送するラインで接続される。コネクター46は、オーディオコネクターという場合がある。図1に示す構成例では、ステレオヘッドホンを構成する右イヤホン32及び左イヤホン34と、マイク63とを有するヘッドセット30が、コネクター46に接続される。
The connection cable 40 connects from the tip of the left holding unit 23 to various circuits provided inside the image display unit 20. The connection cable 40 includes a metal cable that transmits digital data or an optical fiber cable, and may have a metal cable that transmits an analog signal. A connector 46 is provided in the middle of the connection cable 40.
The connector 46 is a jack for connecting a stereo mini plug, and the connector 46 and the control device 10 are connected by a line for transmitting an analog audio signal, for example. The connector 46 may be called an audio connector. In the configuration example shown in FIG. 1, the headset 30 including the right earphone 32 and the left earphone 34 that configure the stereo headphones, and the microphone 63 is connected to the connector 46.

マイク63は、例えば図1に示すように、マイク63の集音部がユーザーの視線方向を向くように配置され、音声を集音して、音声信号を図5に示す音声インターフェイス182に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。   For example, as shown in FIG. 1, the microphone 63 is arranged such that the sound collecting unit of the microphone 63 faces the direction of the user's line of sight, collects sound, and outputs a sound signal to the sound interface 182 shown in FIG. .. The microphone 63 may be, for example, a monaural microphone or a stereo microphone, a directional microphone, or an omnidirectional microphone.

制御装置10は、ユーザーにより操作される被操作部として、トラックパッド14、上下キー15、LED表示部17及び電源スイッチ18を備える。これらの被操作部はケース10Aの表面に配置される。これらの被操作部は、例えば、ユーザーの手指により操作される。   The control device 10 includes a track pad 14, an up / down key 15, an LED display unit 17, and a power switch 18 as operated parts operated by a user. These operated parts are arranged on the surface of the case 10A. These operated parts are operated, for example, by the fingers of the user.

トラックパッド14は、ケース10Aの前面において、ユーザーが指を接触させる、タッチ操作を行うための領域である。トラックパッド14は、ケース10Aの前面と同様の平面であってもよいが、トラックパッド14と、それ以外の領域とをユーザーが識別できる構成であることが好ましい。例えば、トラックパッド14の縁を示す線が印刷または凹凸により形成されてもよいし、トラックパッド14が、トラックパッド14の表面の触感をそれ以外の領域と異ならせる表面加工を施されてもよい。   The track pad 14 is an area on the front surface of the case 10A for a user to touch with a finger and perform a touch operation. The track pad 14 may be the same plane as the front surface of the case 10A, but it is preferable that the user can distinguish between the track pad 14 and other areas. For example, the line indicating the edge of the track pad 14 may be formed by printing or unevenness, or the track pad 14 may be subjected to a surface treatment that makes the feel of the surface of the track pad 14 different from other areas. ..

制御装置10は、ケース10Aの前面において、図5に示すタッチセンサー13により、ユーザーによるトラックパッド14への接触操作を検出できる。制御装置10は、タッチセンサー13が接触操作を検出した場合に、操作を検出した位置を特定する。トラックパッド14は、トラックパッド14における絶対位置、或いは、相対位置を入力する操作のために使用できる。   The control device 10 can detect a touch operation by the user on the track pad 14 on the front surface of the case 10A by the touch sensor 13 shown in FIG. When the touch sensor 13 detects a contact operation, the control device 10 specifies the position where the operation is detected. The track pad 14 can be used for an operation of inputting an absolute position or a relative position on the track pad 14.

ケース10Aの前面にはLED表示部17が設置される。LED表示部17は、トラックパッド14に位置し、LED表示部17の表面は、ケース10Aの前面における他の領域と違わない。LED表示部17は、光を透過可能な図示しない透過部を有し、透過部の直下に設置される1または複数のLEDが点灯することにより、ユーザーが記号等を視認できるように、発光する。図1の例では、LED表示部17のLEDが点灯することにより、3つの記号△、記号○、記号□が現れる。記号△は、三角形を示す。記号○は丸を示す。記号□は四角形を示す。   An LED display unit 17 is installed on the front surface of the case 10A. The LED display unit 17 is located on the track pad 14, and the surface of the LED display unit 17 is not different from other regions on the front surface of the case 10A. The LED display unit 17 has a transmissive part (not shown) capable of transmitting light, and emits light so that a user can visually recognize a symbol or the like by lighting one or a plurality of LEDs installed immediately below the transmissive part. .. In the example of FIG. 1, three symbols Δ, symbol ◯, and symbol □ appear by turning on the LED of the LED display unit 17. The symbol Δ indicates a triangle. The symbol ○ indicates a circle. The symbol □ indicates a rectangle.

制御装置10は、LED表示部17に対するユーザーの手指の接触操作を、タッチセンサー13により検出し、操作位置を特定できる。このため、例えば操作位置が、LED表示部17に現れる記号のどれに対応する位置かを特定できる。従って、LED表示部17はソフトウェアボタンとして機能する。例えば、LED表示部17に現れる記号を、HMD100の機能に対応付けることで、LED表示部17へのタッチ操作を当該機能に対する操作として検出できる。HMD100は、図1の例で、記号○をホームボタンに割り当てることができる。この場合、記号○の位置に接触操作が行われると、制御部141は、ホームボタンの操作を検出する。また、記号□は履歴ボタンに割り当てることができる。この場合、記号□の接触操作を、制御部141は、履歴ボタンの操作として検出する。同様に、記号△は戻るボタンに割り当てることができる。制御部141は、記号△の接触操作を、戻るボタンの操作として検出する。   The control device 10 can detect the touch operation of the user's finger on the LED display unit 17 by the touch sensor 13 and specify the operation position. Therefore, for example, it is possible to specify which of the symbols appearing on the LED display unit 17 corresponds to the operation position. Therefore, the LED display unit 17 functions as a software button. For example, by associating the symbol appearing on the LED display unit 17 with the function of the HMD 100, the touch operation on the LED display unit 17 can be detected as the operation for the function. In the example of FIG. 1, the HMD 100 can assign the symbol ◯ to the home button. In this case, when the touch operation is performed at the position of the symbol ◯, the control unit 141 detects the operation of the home button. The symbol □ can be assigned to the history button. In this case, the control unit 141 detects the touch operation of the symbol □ as the operation of the history button. Similarly, the symbol Δ can be assigned to the back button. The control unit 141 detects the touch operation of the symbol Δ as the operation of the return button.

上下キー15は、ケース10Aの側面に配置され、押圧操作を検出する一対のキーを備える。上下キー15の右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。
電源スイッチ18は、HMD100の電源のオン及びオフを切り替えるスイッチである。
The up / down key 15 is arranged on the side surface of the case 10A and includes a pair of keys for detecting a pressing operation. The up / down key 15 is used for inputting an instruction to increase / decrease the volume output from the right earphone 32 and the left earphone 34, and to input an instruction to increase / decrease the display brightness of the image display unit 20.
The power switch 18 is a switch that switches on and off the power of the HMD 100.

ケース10Aにおいて電源スイッチ18と同じ側の側面には、図5に示すUSB(Universal Serial Bus)コネクター188が設けられる。USBコネクター188は、制御装置10を、外部の装置に接続するインターフェイスであり、本実施形態ではインターフェイスの一例として、USB規格に準拠したコネクターを例示する。USBコネクター188は、例えば、microUSB規格に適合する形状、及びサイズを有するコネクターであり、転送速度等の仕様は任意である。   A USB (Universal Serial Bus) connector 188 shown in FIG. 5 is provided on the same side surface of the case 10A as the power switch 18. The USB connector 188 is an interface for connecting the control device 10 to an external device, and in the present embodiment, a connector conforming to the USB standard is exemplified as an example of the interface. The USB connector 188 is, for example, a connector having a shape and size conforming to the microUSB standard, and specifications such as transfer speed are arbitrary.

制御装置10は、図5に示すバッテリー132を有し、バッテリー132が供給する電力により制御装置10及び画像表示部20が動作する。バッテリー132への充電は、USBコネクター188に対して電力を供給することにより行うことができる。HMD100は、制御装置10と画像表示部20とを取り外し、制御装置10のみを専用の充電装置に接続することで、充電を行うことができる。   The control device 10 has a battery 132 shown in FIG. 5, and the control device 10 and the image display unit 20 operate by the power supplied by the battery 132. The battery 132 can be charged by supplying power to the USB connector 188. The HMD 100 can be charged by removing the control device 10 and the image display unit 20 and connecting only the control device 10 to a dedicated charging device.

図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のためユーザーの左眼LE及び右眼REを図示する。
図2に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成される。ユーザーの右眼REに画像を視認させる構成として、右表示ユニット22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221を備える。また、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251を備える。画像光Lは、右光学系251により右導光板26に導かれる。
FIG. 2 is a main part plan view showing a configuration of an optical system included in the image display unit 20. FIG. 2 illustrates the left eye LE and the right eye RE of the user for the sake of explanation.
As shown in FIG. 2, the right display unit 22 and the left display unit 24 are configured symmetrically. The right display unit 22 includes an OLED (Organic Light Emitting Diode) unit 221 that emits image light as a configuration that allows the user's right eye RE to visually recognize an image. Further, the right optical system 251 including a lens group that guides the image light L emitted from the OLED unit 221 is provided. The image light L is guided to the right light guide plate 26 by the right optical system 251.

OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光してR、G、Bの色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される、自発光型の表示パネルである。Rは、赤色を示す。Gは緑色を示す。Bは青色を示す。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。OLED駆動回路225は、制御部141の制御に従って、OLEDパネル223が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル223の発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される図示しない基板に実装されてもよい。この基板には図5に示す温度センサー217が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、Wの光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。Wは白色を示す。
The OLED unit 221 has an OLED panel 223 and an OLED drive circuit 225 that drives the OLED panel 223. The OLED panel 223 is a self-luminous display panel configured by arranging light emitting elements that emit R, G, and B color lights by organic electroluminescence to be arranged in a matrix. R indicates red. G indicates green. B shows blue. The OLED panel 223 includes a plurality of pixels with a unit including one element of R, G, and B as one pixel, and an image is formed by the pixels arranged in a matrix. Under the control of the control unit 141, the OLED drive circuit 225 selects a light emitting element included in the OLED panel 223 and energizes the light emitting element to cause the light emitting element of the OLED panel 223 to emit light. The OLED drive circuit 225 is fixed to the back surface of the OLED panel 223, that is, the back surface of the light emitting surface, by bonding or the like. The OLED drive circuit 225 is composed of, for example, a semiconductor device that drives the OLED panel 223, and may be mounted on a substrate (not shown) fixed to the back surface of the OLED panel 223. The temperature sensor 217 shown in FIG. 5 is mounted on this board.
The OLED panel 223 may have a structure in which light emitting elements that emit white light are arranged in a matrix and color filters corresponding to the colors R, G, and B are arranged in an overlapping manner. Further, an OLED panel 223 having a WRGB structure including light emitting elements that emit W light in addition to light emitting elements that emit R, G, and B color lights respectively may be used. W indicates white.

右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261が形成される。ハーフミラー261は、反射面の一例に対応する。画像光Lは、ハーフミラー261で反射して右眼REに向けて右導光板26から射出され、この画像光Lが右眼REの網膜に像を結び、ユーザーに画像を視認させる。   The right optical system 251 has a collimating lens that turns the image light L emitted from the OLED panel 223 into a parallel light flux. The image light L converted into a parallel light flux by the collimator lens enters the right light guide plate 26. Inside the right light guide plate 26, a plurality of reflecting surfaces that reflect the image light L are formed in an optical path that guides the light. The image light L is guided to the right eye RE side through a plurality of reflections inside the right light guide plate 26. A half mirror 261 located in front of the right eye RE is formed on the right light guide plate 26. The half mirror 261 corresponds to an example of a reflecting surface. The image light L is reflected by the half mirror 261 and emitted from the right light guide plate 26 toward the right eye RE, and the image light L forms an image on the retina of the right eye RE to allow the user to visually recognize the image.

また、ユーザーの左眼LEに画像を視認させる構成として、左表示ユニット24は、画像光を発するOLEDユニット241と、OLEDユニット241が発する画像光Lを導くレンズ群等を備えた左光学系252とを備える。画像光Lは、左光学系252により左導光板28に導かれる。   The left display unit 24 has a left optical system 252 including a OLED unit 241 that emits image light, a lens group that guides the image light L emitted by the OLED unit 241, and the like so that the left eye LE of the user can visually recognize the image. With. The image light L is guided to the left light guide plate 28 by the left optical system 252.

OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245とを有する。OLEDパネル243は、OLEDパネル223と同様に構成される自発光型の表示パネルである。OLED駆動回路245は、制御部141の指示に従って、OLEDパネル243が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル243の発光素子を発光させる。OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される図示しない基板に実装されてもよい。この基板には、温度センサー239が実装される。   The OLED unit 241 has an OLED panel 243 and an OLED drive circuit 245 that drives the OLED panel 243. The OLED panel 243 is a self-luminous display panel configured similarly to the OLED panel 223. The OLED drive circuit 245 selects a light emitting element included in the OLED panel 243 and energizes the light emitting element according to an instruction from the control unit 141 to cause the light emitting element of the OLED panel 243 to emit light. The OLED drive circuit 245 is fixed to the back surface of the OLED panel 243, that is, the back surface of the light emitting surface, by bonding or the like. The OLED drive circuit 245 is composed of, for example, a semiconductor device that drives the OLED panel 243, and may be mounted on a substrate (not shown) fixed to the back surface of the OLED panel 243. A temperature sensor 239 is mounted on this board.

左光学系252は、OLEDパネル243から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板28に入射する。左導光板28は、画像光Lを反射する複数の反射面が形成された光学素子であり、例えばプリズムである。画像光Lは、左導光板28の内部で複数回の反射を経て左眼LE側に導かれる。左導光板28には、左眼LEの眼前に位置するハーフミラー281が形成される。ハーフミラー281は、反射面の一例に対応する。画像光Lは、ハーフミラー281で反射して左眼LEに向けて左導光板28から射出され、この画像光Lが左眼LEの網膜に像を結び、ユーザーに画像を視認させる。   The left optical system 252 has a collimating lens that converts the image light L emitted from the OLED panel 243 into a parallel light flux. The image light L converted into a parallel light flux by the collimator lens enters the left light guide plate 28. The left light guide plate 28 is an optical element having a plurality of reflecting surfaces that reflect the image light L, and is, for example, a prism. The image light L is guided to the left eye LE side through a plurality of reflections inside the left light guide plate 28. A half mirror 281 located in front of the left eye LE is formed on the left light guide plate 28. The half mirror 281 corresponds to an example of a reflecting surface. The image light L is reflected by the half mirror 281 and emitted from the left light guide plate 28 toward the left eye LE, and the image light L forms an image on the retina of the left eye LE to allow the user to visually recognize the image.

この構成によれば、HMD100は、透過型の表示装置として機能する。すなわち、ユーザーの右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。また、左眼LEには、ハーフミラー281で反射した画像光Lと、ハーフミラー281を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねてユーザーの眼に入射させ、ユーザーにとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。
ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
With this configuration, the HMD 100 functions as a transmissive display device. That is, the image light L reflected by the half mirror 261 and the external light OL transmitted through the right light guide plate 26 enter the right eye RE of the user. Further, the image light L reflected by the half mirror 281 and the external light OL transmitted through the half mirror 281 are incident on the left eye LE. As described above, the HMD 100 allows the image light L of the internally processed image and the external light OL to overlap and enter the user's eye, and allows the user to see the outside view through the right light guide plate 26 and the left light guide plate 28. The image by the image light L is visually recognized in a manner superimposed on the outside scene.
The half mirrors 261 and 281 are image extraction units that reflect the image lights output by the right display unit 22 and the left display unit 24 to extract images, and can be referred to as display units.

なお、左光学系252と左導光板28とを総称して「左導光部」とも呼び、右光学系251と右導光板26とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いてユーザーの眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。   The left optical system 252 and the left light guide plate 28 are collectively referred to as “left light guide portion”, and the right optical system 251 and the right light guide plate 26 are collectively referred to as “right light guide portion”. The configurations of the right light guide section and the left light guide section are not limited to the above examples, and any method can be used as long as a virtual image is formed in front of the user's eyes by using image light. For example, a diffraction grating is used. Alternatively, a semi-transmissive reflective film may be used.

図3及び図4は、画像表示部20の要部の構成を示す図である。図3は、画像表示部20をユーザーの頭部側から見た要部斜視図である。なお、図3では接続ケーブル40の図示を省略する。図4は、対象物の位置とカメラ61の撮像範囲との関係を示す模式図である。   3 and 4 are diagrams showing a configuration of a main part of the image display unit 20. FIG. 3 is a perspective view of a main part of the image display unit 20 viewed from the user's head side. The connection cable 40 is not shown in FIG. FIG. 4 is a schematic diagram showing the relationship between the position of the object and the imaging range of the camera 61.

図3は、画像表示部20のユーザーの頭部に接する側、言い換えればユーザーの右眼RE及び左眼LEに見える側である。別の言い方をすれば、図3では、右導光板26及び左導光板28の裏側が見えている。
図3では、ユーザーの右眼REに画像光を照射するハーフミラー261、及び、左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、ユーザーには、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
FIG. 3 is a side of the image display unit 20 that is in contact with the user's head, in other words, a side visible to the right eye RE and the left eye LE of the user. In other words, the back sides of the right light guide plate 26 and the left light guide plate 28 are visible in FIG.
In FIG. 3, the half mirror 261 that irradiates the right eye RE of the user with the image light and the half mirror 281 that irradiates the left eye LE of the image light with each other appear as substantially rectangular areas. Further, the entire right light guide plate 26 and left light guide plate 28 including the half mirrors 261 and 281 transmit outside light as described above. Therefore, the user sees the outside scene through the entire right light guide plate 26 and the left light guide plate 28, and sees the rectangular display image at the positions of the half mirrors 261 and 281.

カメラ61は、上記のように画像表示部20において右側の端部に配置され、ユーザーの両眼が向く方向、すなわちユーザーにとって前方を撮像する。図4では、カメラ61の位置を、ユーザーの右眼RE及び左眼LEとともに平面視で模式的に示す。カメラ61の画角をCで示す。画角Cは、撮像範囲の一例に対応する。なお、図4には水平方向の画角Cを示すが、カメラ61の実際の画角は、一般的なデジタルカメラと同様に上下方向にも拡がる。   The camera 61 is arranged at the right end of the image display unit 20 as described above, and images the direction in which both eyes of the user face, that is, the front of the user. In FIG. 4, the position of the camera 61 is schematically shown in a plan view together with the right eye RE and the left eye LE of the user. The angle of view of the camera 61 is indicated by C. The angle of view C corresponds to an example of the imaging range. Although the horizontal view angle C is shown in FIG. 4, the actual view angle of the camera 61 extends in the vertical direction as in a general digital camera.

カメラ61の光軸は、右眼RE及び左眼LEの視線方向を含む方向とされる。ユーザーがHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば図4に示すように、ユーザーが両眼で対象物OBを注視すると、ユーザーの視線は、図中の符号RD、LDに示すように対象物OBに向けられる。この場合、ユーザーから対象物OBまでの距離は、30cm〜10m程度であることが多く、1m〜4m程度であることが、より多い。そこで、HMD100について、通常使用時におけるユーザーから対象物OBまでの距離の上限、及び下限の目安を定めてもよい。この目安は調査や実験により求めてもよいしユーザーが設定してもよい。カメラ61の光軸、及び画角は、通常使用時における対象物OBまでの距離が、設定された上限の目安に相当する場合、及び、下限の目安に相当する場合に、この対象物OBが画角に含まれるように、設定されることが好ましい。   The optical axis of the camera 61 is a direction including the line-of-sight directions of the right eye RE and the left eye LE. The external view that the user can see while wearing the HMD 100 is not limited to infinity. For example, as shown in FIG. 4, when the user gazes at the object OB with both eyes, the user's line of sight is directed to the object OB as indicated by reference characters RD and LD in the figure. In this case, the distance from the user to the object OB is often about 30 cm to 10 m, and more often about 1 m to 4 m. Therefore, for the HMD 100, the upper limit and the lower limit of the distance from the user to the object OB during normal use may be set. This standard may be obtained by research or experiment, or may be set by the user. When the distance to the object OB during normal use corresponds to the set upper limit and when the distance to the object OB corresponds to the set lower limit, the object OB is It is preferably set so as to be included in the angle of view.

また、一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。この場合、注視点が、図4の対象物OBであるとき、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。さらに、ユーザーが画像表示部20を透過して右導光板26及び左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶことができる。図3に示す本実施形態の構成で、実視野は、右導光板26及び左導光板28を透過してユーザーが視認する実際の視野に相当する。実視野は、視野角及び安定注視野より狭いが、有効視野より広い。   Generally, a human viewing angle is about 200 degrees in the horizontal direction and about 125 degrees in the vertical direction, and the effective field of view having excellent information receiving ability is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction. Furthermore, the stable gazing point where a gazing point to which a human gazes quickly and stably is set to about 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction. In this case, when the gazing point is the object OB of FIG. 4, the effective visual field is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction with the lines of sight RD and LD as the centers. Further, the stable fixation field is 60 to 90 degrees in the horizontal direction and 45 to 70 degrees in the vertical direction, and the viewing angle is approximately 200 degrees in the horizontal direction and 125 degrees in the vertical direction. Further, an actual visual field that the user sees through the image display unit 20 and the right light guide plate 26 and the left light guide plate 28 can be referred to as a real field of view (FOV). In the configuration of the present embodiment shown in FIG. 3, the actual visual field corresponds to the actual visual field that the user sees through the right light guide plate 26 and the left light guide plate 28. The real field of view is narrower than the viewing angle and the stable fixation field, but wider than the effective field of view.

カメラ61の画角Cは、ユーザーの視野よりも広い範囲を撮像可能であることが好ましく、具体的には、画角Cが、少なくともユーザーの有効視野よりも広いことが好ましい。また、画角Cが、ユーザーの実視野よりも広いことが、より好ましい。さらに好ましくは、画角Cが、ユーザーの安定注視野よりも広く、最も好ましくは、画角Cがユーザーの両眼の視野角よりも広い。   The angle of view C of the camera 61 is preferably capable of capturing a wider range than the visual field of the user, and specifically, the angle of view C is preferably at least wider than the effective visual field of the user. It is more preferable that the angle of view C is wider than the actual visual field of the user. More preferably, the angle of view C is wider than the stable fixation field of view of the user, and most preferably the angle of view C is wider than the viewing angles of both eyes of the user.

カメラ61が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群をカメラ61が備える構成であってもよい。   The camera 61 may be provided with a so-called wide-angle lens as an imaging lens so that a wide field angle can be imaged. The wide-angle lens may include a lens called an ultra-wide-angle lens or a quasi-wide-angle lens, may be a single-focus lens or a zoom lens, and the camera 61 includes a lens group including a plurality of lenses. It may be.

また、距離センサー64は、右導光板26と左導光板28との中央において、前方を向いて配置される。例えば、距離センサー64は、画像表示部20の中央位置から、図4に示す対象物OBのように、ユーザーの正面方向に位置する物体までの距離を検出可能に構成される。HMD100を装着したユーザーは、注視する方向に頭を向けるので、注視する対象は画像表示部20の正面にあると考えることができる。このため、画像表示部20の中央に配置された距離センサー64が、画像表示部20の正面を検出方向64Aとすれば、ユーザーが注視する対象までの距離を検出できる。   Further, the distance sensor 64 is arranged facing the front in the center of the right light guide plate 26 and the left light guide plate 28. For example, the distance sensor 64 is configured to be able to detect the distance from the center position of the image display unit 20 to an object located in the front direction of the user, such as the object OB shown in FIG. Since the user wearing the HMD 100 turns his or her head in the gaze direction, it can be considered that the gaze target is in front of the image display unit 20. Therefore, if the distance sensor 64 arranged in the center of the image display unit 20 sets the front direction of the image display unit 20 as the detection direction 64A, the distance to the target watched by the user can be detected.

また、図3に示すように、画像表示部20のユーザー側には内側カメラ68が配置される。内側カメラ68は、ユーザーの右眼RE、及び、左眼LEのそれぞれに対応するように、右導光板26と左導光板28との中央位置に一対、設けられる。内側カメラ68は、ユーザーの右眼REと左眼LEとをそれぞれ撮像する一対のカメラである。内側カメラ68は、制御部141の指示に従って撮像を行う。制御部141は、内側カメラ68の撮像画像データを解析する。例えば、制御部141は、内側カメラ68の撮像画像データから右眼RE及び左眼LEの眼球表面における反射光や瞳孔の画像を検出し、ユーザーの視線方向を特定する。また、制御部141は、ユーザーの視線方向の変化を求めることができ、右眼RE及び左眼LEのそれぞれの眼球運動を検出してもよい。
ここで、ユーザーの視線の移動は、ユーザーの仮想視点の移動とみることもできる。
Further, as shown in FIG. 3, an inner camera 68 is arranged on the user side of the image display unit 20. A pair of inner cameras 68 are provided at the center positions of the right light guide plate 26 and the left light guide plate 28 so as to correspond to the user's right eye RE and left eye LE, respectively. The inner cameras 68 are a pair of cameras that image the right eye RE and the left eye LE of the user, respectively. The inner camera 68 captures an image according to an instruction from the control unit 141. The control unit 141 analyzes the captured image data of the inner camera 68. For example, the control unit 141 detects the reflected light on the eyeball surface of the right eye RE and the left eye LE and the image of the pupil from the imaged image data of the inner camera 68, and specifies the user's gaze direction. Further, the control unit 141 may obtain a change in the line-of-sight direction of the user, and may detect the eye movements of the right eye RE and the left eye LE.
Here, the movement of the user's line of sight can also be regarded as the movement of the user's virtual viewpoint.

また、制御部141は、内側カメラ68の撮像画像データからユーザーの右眼RE及び左眼LEの瞼の画像を抽出して、眼瞼運動を検出してもよく、眼瞼の状態を検出してもよい。瞼を眼瞼という場合がある。本実施形態では画像表示部20が一対の内側カメラ68、68を備える構成を例示するが、例えば、1つの内側カメラ68を、画像表示部20の中央位置に設けてもよい。この場合、1つの内側カメラ68が、右眼RE及び左眼LEを撮像できる画角を有することが好ましいが、例えば、右眼REまたは左眼LEの一方のみを内側カメラ68により撮像してもよい。すなわち、右眼REまたは左眼LEのいずれか一方の視線方向、眼球運動、眼瞼運動、眼瞼の状態等を制御部141が検出する構成としてもよい。   The control unit 141 may also extract eyelid images of the user's right eye RE and left eye LE from the imaged image data of the inner camera 68 to detect eyelid movements, or detect eyelid states. Good. The eyelid is sometimes called the eyelid. In the present embodiment, the image display unit 20 includes a pair of inner cameras 68, 68 as an example, but one inner camera 68 may be provided at the center position of the image display unit 20, for example. In this case, it is preferable that one inner camera 68 has an angle of view capable of picking up the right eye RE and the left eye LE. However, for example, even if only one of the right eye RE and the left eye LE is picked up by the inner camera 68. Good. That is, the control unit 141 may detect the line-of-sight direction of one of the right eye RE and the left eye LE, eye movement, eyelid movement, eyelid state, and the like.

また、制御部141は、内側カメラ68の撮像画像から右眼RE及び左眼LEの視線方向を検出した場合に、右眼RE及び左眼LEの輻輳角を求めることができる。図4には輻輳角を符号PAで示す。輻輳角PAは、ユーザーが注視する対象物OBまでの距離に対応する。すなわち、ユーザーが立体的に画像や物体を視認する場合、視認する対象までの距離に対応して、右眼RE及び左眼LEの輻輳角が定まる。従って、輻輳角を検出することで、ユーザーが注視する距離を求めることができる。また、ユーザーの輻輳角を誘導するように画像を表示することにより、立体視を誘導できる。   Further, the control unit 141 can obtain the vergence angles of the right eye RE and the left eye LE when detecting the line-of-sight directions of the right eye RE and the left eye LE from the image captured by the inner camera 68. In FIG. 4, the vergence angle is indicated by the symbol PA. The vergence angle PA corresponds to the distance to the object OB that the user gazes at. That is, when a user stereoscopically views an image or an object, the vergence angles of the right eye RE and the left eye LE are determined according to the distance to the object to be viewed. Therefore, by detecting the angle of convergence, it is possible to determine the distance the user is gazing. In addition, stereoscopic vision can be guided by displaying an image so as to guide the vergence angle of the user.

輻輳角は、例えば、内側カメラ68の撮像画像データから求めることができる。例えば、内側カメラ68に撮像画像データから右眼REの視線方向を求め、この視線方向から、右眼REの正面方向に対する右眼REの視線方向の角度LAを求める。同様に、内側カメラ68の撮像画像データから左眼LEの視線方向を求め、この視線方向に基づき、左眼LEの正面方向に対する左眼LEの視線方向の角度RAを求める。輻輳角PAは、角度LAと、角度RAとの和に等しく、容易に輻輳角PAを求めることができる。   The vergence angle can be obtained from the imaged image data of the inner camera 68, for example. For example, the line-of-sight direction of the right eye RE is obtained from the captured image data by the inner camera 68, and the angle LA of the line-of-sight direction of the right eye RE with respect to the front direction of the right eye RE is obtained from this line-of-sight direction. Similarly, the line-of-sight direction of the left eye LE is obtained from the imaged image data of the inner camera 68, and the angle RA of the line-of-sight direction of the left eye LE with respect to the front direction of the left eye LE is obtained based on this line-of-sight direction. The vergence angle PA is equal to the sum of the angle LA and the angle RA, and the vergence angle PA can be easily obtained.

図5は、HMD100を構成する各部の構成を示す図である。
図5に示すように、制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140を備える。メインプロセッサー140には、メモリー118及び不揮発性記憶部121が接続される。また、メインプロセッサー140には、入力装置として操作部110が接続される。また、メインプロセッサー140には、センサー類として、6軸センサー111、磁気センサー113、及び、GPS115が接続される。また、メインプロセッサー140には、通信部117、音声コーデック180、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、及び、FPGA194が接続される。これらは外部とのインターフェイスとして機能する。
FIG. 5 is a diagram showing a configuration of each unit that constitutes the HMD 100.
As shown in FIG. 5, the control device 10 includes a main processor 140 that executes a program to control the HMD 100. A memory 118 and a non-volatile storage unit 121 are connected to the main processor 140. The operation unit 110 is connected to the main processor 140 as an input device. A 6-axis sensor 111, a magnetic sensor 113, and a GPS 115 are connected to the main processor 140 as sensors. Further, the main processor 140 is connected with the communication unit 117, the audio codec 180, the external connector 184, the external memory interface 186, the USB connector 188, the sensor hub 192, and the FPGA 194. These function as an interface with the outside.

メインプロセッサー140は、制御装置10が内蔵するコントローラー基板120に実装される。コントローラー基板120には、メインプロセッサー140に加えて、メモリー118、不揮発性記憶部121等が実装されてもよい。本実施形態では、6軸センサー111、磁気センサー113、GPS115、通信部117、メモリー118、不揮発性記憶部121、音声コーデック180等がコントローラー基板120に実装される。また、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、FPGA194、及びインターフェイス196をコントローラー基板120に実装した構成であってもよい。   The main processor 140 is mounted on the controller board 120 included in the control device 10. In addition to the main processor 140, the memory 118, the non-volatile storage unit 121, and the like may be mounted on the controller board 120. In this embodiment, the 6-axis sensor 111, the magnetic sensor 113, the GPS 115, the communication unit 117, the memory 118, the non-volatile storage unit 121, the audio codec 180, etc. are mounted on the controller board 120. Further, the external connector 184, the external memory interface 186, the USB connector 188, the sensor hub 192, the FPGA 194, and the interface 196 may be mounted on the controller board 120.

メモリー118は、メインプロセッサー140が制御プログラムを実行する場合に、実行される制御プログラム、及び、処理されるデータを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するプログラムや、メインプロセッサー140がプログラムを実行して処理する各種データを記憶する。   The memory 118 constitutes a work area for temporarily storing a control program to be executed and data to be processed when the main processor 140 executes the control program. The non-volatile storage unit 121 is composed of a flash memory or an eMMC (embedded Multi Media Card). The non-volatile storage unit 121 stores a program executed by the main processor 140 and various data processed by the main processor 140 by executing the program.

メインプロセッサー140は、操作部110から入力される操作信号に基づいて、トラックパッド14の操作面に対する接触操作を検出し、操作位置を取得する。
操作部110は、ボタン11、タッチセンサー13、およびLED表示部17を含む。タッチセンサー13は、トラックパッド14へのタッチ操作を検出し、検出したタッチ操作の操作位置を特定する。この場合、操作部110は、トラックパッド14におけるタッチ位置を示すデータを含む操作信号をメインプロセッサー140に出力する。ボタン11の操作が行われた場合、及び、タッチセンサー13がタッチ操作を検出した場合、操作部110からメインプロセッサー140に対し、操作信号が出力される。
LED表示部17は、図3に示すトラックパッド14の直下に配置される図示しないLED、及び、このLEDを点灯させる駆動回路を含む。LED表示部17は、メインプロセッサー140の制御に従って、LEDを点灯、点滅、消灯させる。
The main processor 140 detects a touch operation on the operation surface of the track pad 14 based on an operation signal input from the operation unit 110, and acquires an operation position.
The operation unit 110 includes a button 11, a touch sensor 13, and an LED display unit 17. The touch sensor 13 detects a touch operation on the track pad 14 and specifies the operation position of the detected touch operation. In this case, the operation unit 110 outputs an operation signal including data indicating the touch position on the track pad 14 to the main processor 140. When the button 11 is operated and when the touch sensor 13 detects a touch operation, an operation signal is output from the operation unit 110 to the main processor 140.
The LED display unit 17 includes an LED (not shown) arranged immediately below the track pad 14 shown in FIG. 3, and a drive circuit for lighting the LED. The LED display unit 17 turns on, blinks, and turns off the LED under the control of the main processor 140.

6軸センサー111は、3軸加速度センサー、及び、3軸ジャイロセンサーを備えるモーションセンサーである。ジャイロセンサーは、角速度センサーの一例に対応する。モーションセンサーは、慣性センサーという場合がある。6軸センサー111は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー113は、例えば、3軸の地磁気センサーである。
GPS(Global Positioning System)115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信して、制御装置10の現在位置の座標を検出する。
6軸センサー111、磁気センサー113及びGPS115は、検出値を、予め指定されたサンプリング周期に従ってメインプロセッサー140に出力する。或いは、6軸センサー111、磁気センサー113及びGPS115は、メインプロセッサー140の要求に応じて、メインプロセッサー140により指定されたタイミングで、検出値をメインプロセッサー140に出力する。
The 6-axis sensor 111 is a motion sensor including a 3-axis acceleration sensor and a 3-axis gyro sensor. The gyro sensor corresponds to an example of the angular velocity sensor. The motion sensor may be called an inertial sensor. The 6-axis sensor 111 may employ an IMU (Internal Measurement Unit) in which the above sensor is modularized.
The magnetic sensor 113 is, for example, a triaxial geomagnetic sensor.
A GPS (Global Positioning System) 115 includes a GPS antenna (not shown), receives a radio signal transmitted from a GPS satellite, and detects the coordinates of the current position of the control device 10.
The 6-axis sensor 111, the magnetic sensor 113, and the GPS 115 output the detected value to the main processor 140 according to a sampling cycle designated in advance. Alternatively, the 6-axis sensor 111, the magnetic sensor 113, and the GPS 115 output detection values to the main processor 140 at a timing designated by the main processor 140 in response to a request from the main processor 140.

通信部117は、外部の機器との間で無線通信を実行する。本実施形態では、通信部117は、筋電センサー200と無線通信を実行する。通信部117は、アンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、或いはこれらが統合されたデバイスで構成される。通信部117は、例えば、Bluetooth(登録商標)、無線LAN等の規格に準拠した無線通信を行う。なお、無線LANは、Wi−Fi(登録商標)含む。   The communication unit 117 executes wireless communication with an external device. In the present embodiment, the communication unit 117 executes wireless communication with the myoelectric sensor 200. The communication unit 117 is configured to include an antenna, an RF circuit, a baseband circuit, a communication control circuit, and the like, or a device in which these are integrated. The communication unit 117 performs wireless communication in compliance with standards such as Bluetooth (registered trademark) and wireless LAN. The wireless LAN includes Wi-Fi (registered trademark).

音声インターフェイス182は、音声信号を入出力するインターフェイスである。本実施形態では、音声インターフェイス182は、接続ケーブル40に設けられた図3に示すコネクター46を含む。音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード及びデコードを行う。また、音声コーデック180はアナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、及び、その逆の変換を行うD/Aコンバーターを備えてもよい。例えば、本実施形態のHMD100は、音声を右イヤホン32及び左イヤホン34により出力し、マイク63で集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換して、音声インターフェイス182を介して出力する。また、音声コーデック180は、音声インターフェイス182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。
マイク63、音声インターフェイス182及び音声コーデック180は、「音声入力部」の一例に相当する。
The voice interface 182 is an interface that inputs and outputs a voice signal. In the present embodiment, the audio interface 182 includes the connector 46 shown in FIG. 3 provided on the connection cable 40. The audio codec 180 is connected to the audio interface 182, and encodes and decodes an audio signal input / output via the audio interface 182. The audio codec 180 may include an A / D converter that converts an analog audio signal into digital audio data, and a D / A converter that performs the reverse conversion. For example, in the HMD 100 of this embodiment, sound is output by the right earphone 32 and the left earphone 34, and is collected by the microphone 63. The audio codec 180 converts the digital audio data output by the main processor 140 into an analog audio signal and outputs the analog audio signal via the audio interface 182. The audio codec 180 also converts an analog audio signal input to the audio interface 182 into digital audio data and outputs the digital audio data to the main processor 140.
The microphone 63, the voice interface 182, and the voice codec 180 correspond to an example of “voice input unit”.

外部コネクター184は、メインプロセッサー140と通信する外部の装置を接続するコネクターである。外部コネクター184は、例えば、外部の装置をメインプロセッサー140に接続して、メインプロセッサー140が実行するプログラムのデバッグや、HMD100の動作のログの収集を行う場合に、この外部の装置を接続するインターフェイスである。
外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。この場合のカード型記録媒体のサイズ、形状、規格は制限されず、適宜に変更可能である。
The external connector 184 is a connector for connecting an external device that communicates with the main processor 140. The external connector 184 is, for example, an interface that connects an external device to the main processor 140 when the program executed by the main processor 140 is debugged or the operation log of the HMD 100 is collected. Is.
The external memory interface 186 is an interface to which a portable memory device can be connected, and includes, for example, a memory card slot into which a card type recording medium can be attached and which can read data, and an interface circuit. The size, shape, and standard of the card-type recording medium in this case are not limited and can be changed as appropriate.

USBコネクター188は、USB規格に準拠したコネクターとインターフェイス回路とを備え、USBメモリーデバイス、スマートフォン、コンピューター等を接続できる。USBコネクター188のサイズや形状、適合するUSB規格のバージョンは適宜に選択、変更可能である。HMD100とリモートコントローラー350とをUSBケーブルによって接続する場合、USBコネクター188が、リモートコントローラー350に接続される。   The USB connector 188 includes a connector conforming to the USB standard and an interface circuit, and can be connected to a USB memory device, a smartphone, a computer, or the like. The size and shape of the USB connector 188 and the compatible version of the USB standard can be appropriately selected and changed. When connecting the HMD 100 and the remote controller 350 with a USB cable, the USB connector 188 is connected to the remote controller 350.

また、HMD100は、バイブレーター19を備える。バイブレーター19は、図示しないモーター、偏心した図示しない回転子等を備え、メインプロセッサー140の制御に従って振動を発生する。HMD100は、例えば、操作部110に対する操作を検出した場合、HMD100の電源がオン及びオフされる場合等に、所定の振動パターンでバイブレーター19により振動を発生する。   Further, the HMD 100 includes a vibrator 19. The vibrator 19 includes a motor (not shown), an eccentric rotor (not shown), etc., and generates vibration under the control of the main processor 140. The HMD 100 causes the vibrator 19 to vibrate in a predetermined vibration pattern when, for example, an operation on the operation unit 110 is detected, or when the HMD 100 is powered on and off.

センサーハブ192及びFPGA194は、インターフェイス(I/F)196を介して、画像表示部20を接続される。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得してメインプロセッサー140に出力する。また、FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信するデータの処理、及び、インターフェイス196を介した伝送を実行する。   The image display unit 20 is connected to the sensor hub 192 and the FPGA 194 via an interface (I / F) 196. The sensor hub 192 acquires detection values of various sensors included in the image display unit 20 and outputs the detection values to the main processor 140. Further, the FPGA 194 executes processing of data transmitted and received between the main processor 140 and each unit of the image display unit 20, and transmission via the interface 196.

画像表示部20の右表示ユニット22及び左表示ユニット24は、それぞれ、制御装置10に接続される。図3に示すように、HMD100では左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24とのそれぞれが制御装置10に接続される。   The right display unit 22 and the left display unit 24 of the image display unit 20 are connected to the control device 10, respectively. As shown in FIG. 3, in the HMD 100, the connection cable 40 is connected to the left holding portion 23, the wiring connected to the connection cable 40 is laid inside the image display unit 20, and the right display unit 22 and the left display unit 24 are respectively provided. Are connected to the control device 10.

右表示ユニット22は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)211、インターフェイス211を介して制御装置10から入力されるデータを受信する受信部(Rx)213、及び、EEPROM215が実装される。EEPROM215は、記憶部の一例に対応する。
インターフェイス211は、受信部213、EEPROM215、温度センサー217、カメラ61、照度センサー65、及びLEDインジケーター67を、制御装置10に接続する。
The right display unit 22 has a display unit substrate 210. An interface (I / F) 211 connected to the interface 196, a receiver (Rx) 213 for receiving data input from the control device 10 via the interface 211, and an EEPROM 215 are mounted on the display unit substrate 210. It The EEPROM 215 corresponds to an example of a storage unit.
The interface 211 connects the receiving unit 213, the EEPROM 215, the temperature sensor 217, the camera 61, the illuminance sensor 65, and the LED indicator 67 to the control device 10.

EEPROM(Electrically Erasable Programmable ROM)215は、各種のデータをメインプロセッサー140が読み取り可能に記憶する。EEPROM215は、例えば、画像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22または左表示ユニット24が備えるセンサーの特性に関するデータなどを記憶する。具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれ、出荷後はメインプロセッサー140がEEPROM215のデータを利用して処理を行える。   An EEPROM (Electrically Erasable Programmable ROM) 215 stores various data so that the main processor 140 can read the data. The EEPROM 215 stores, for example, data regarding emission characteristics and display characteristics of the OLED units 221 and 241 included in the image display unit 20, data regarding characteristics of a sensor included in the right display unit 22 or the left display unit 24, and the like. Specifically, parameters for gamma correction of the OLED units 221, 241 and data for compensating the detection values of the temperature sensors 217, 239 are stored. These data are generated by the factory inspection of the HMD 100 and written in the EEPROM 215, and after the shipment, the main processor 140 can perform processing by using the data of the EEPROM 215.

カメラ61は、インターフェイス211を介して入力される信号に従って撮像を実行し、撮像画像データ、或いは、撮像結果を示す信号を制御装置10に出力する。
照度センサー65は、図3に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着するユーザーの前方からの外光を受光するよう配置される。照度センサー65は、受光量に対応する検出値を出力する。受光量は、受光強度という場合もある。
LEDインジケーター67は、図3に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
The camera 61 performs imaging according to a signal input via the interface 211, and outputs captured image data or a signal indicating an imaging result to the control device 10.
As shown in FIG. 3, the illuminance sensor 65 is provided at the end ER of the front frame 27 and is arranged to receive external light from the front of the user wearing the image display unit 20. The illuminance sensor 65 outputs a detection value corresponding to the amount of received light. The amount of received light may be referred to as received light intensity.
As shown in FIG. 3, the LED indicator 67 is arranged near the camera 61 at the end ER of the front frame 27. The LED indicator 67 lights up while the image pickup by the camera 61 is being performed, and notifies that the image pickup is in progress.

温度センサー217は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー217は、図3に示すOLEDパネル223の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は、主としてOLEDパネル223の温度を検出する。   The temperature sensor 217 detects temperature and outputs a voltage value or a resistance value corresponding to the detected temperature as a detected value. The temperature sensor 217 is mounted on the back surface side of the OLED panel 223 shown in FIG. The temperature sensor 217 may be mounted on the same substrate as the OLED drive circuit 225, for example. With this configuration, the temperature sensor 217 mainly detects the temperature of the OLED panel 223.

内側カメラ68は、インターフェイス211を介して制御装置10から入力される信号に従って撮像を実行し、撮像画像データ、或いは、撮像結果を示す信号を制御装置10に出力する。図3に示す一対の内側カメラ68、68が同時に動作してもよい。また、一対の内側カメラ68、68のそれぞれが、インターフェイス211に接続され、独立して動作する構成であってもよい。   The inner camera 68 performs imaging according to a signal input from the control device 10 via the interface 211, and outputs captured image data or a signal indicating an imaging result to the control device 10. The pair of inner cameras 68, 68 shown in FIG. 3 may operate simultaneously. Further, each of the pair of inner cameras 68, 68 may be connected to the interface 211 and operate independently.

距離センサー64は、インターフェイス211を介して制御装置10から入力される信号に従って距離検出を実行し、検出結果を示す信号を制御装置10に出力する。図3に示す一対の距離センサー64、64が同時に動作してもよい。また、一対の距離センサー64、64のそれぞれが、インターフェイス211に接続され、独立して動作する構成であってもよい。   The distance sensor 64 performs distance detection according to a signal input from the control device 10 via the interface 211, and outputs a signal indicating the detection result to the control device 10. The pair of distance sensors 64, 64 shown in FIG. 3 may operate simultaneously. Further, each of the pair of distance sensors 64, 64 may be connected to the interface 211 and operate independently.

受信部213は、インターフェイス211を介してメインプロセッサー140が送信するデータを受信する。受信部213は、OLEDユニット221で表示する画像の画像データを受信した場合に、受信した画像データを、図2に示すOLED駆動回路225に出力する。   The receiving unit 213 receives data transmitted by the main processor 140 via the interface 211. When receiving the image data of the image displayed by the OLED unit 221, the receiving unit 213 outputs the received image data to the OLED drive circuit 225 shown in FIG.

左表示ユニット24は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)231、インターフェイス231を介して制御装置10から入力されるデータを受信する受信部233が実装される。受信部を「Rx」と記載する場合がある。また、表示ユニット基板210には、6軸センサー235、及び、磁気センサー237が実装される。6軸センサー235は、「動きセンサー」の一例に対応する。
インターフェイス231は、受信部233、6軸センサー235、磁気センサー237、及び温度センサー239を、制御装置10に接続する。
The left display unit 24 has a display unit substrate 210. An interface (I / F) 231 connected to the interface 196, and a receiver 233 that receives data input from the control device 10 via the interface 231 are mounted on the display unit substrate 210. The receiving unit may be described as “Rx”. A 6-axis sensor 235 and a magnetic sensor 237 are mounted on the display unit substrate 210. The 6-axis sensor 235 corresponds to an example of “motion sensor”.
The interface 231 connects the receiving unit 233, the 6-axis sensor 235, the magnetic sensor 237, and the temperature sensor 239 to the control device 10.

6軸センサー235は、3軸加速度センサー、及び、3軸ジャイロセンサーを備えるモーションセンサーである。6軸センサー235は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー237は、例えば、3軸の地磁気センサーである。
The 6-axis sensor 235 is a motion sensor including a 3-axis acceleration sensor and a 3-axis gyro sensor. The 6-axis sensor 235 may employ an IMU (Internal Measurement Unit) in which the above sensor is modularized.
The magnetic sensor 237 is, for example, a triaxial geomagnetic sensor.

温度センサー239は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー239は、図3に示すOLEDパネル243の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は、主としてOLEDパネル243の温度を検出する。
また、温度センサー239が、OLEDパネル243或いはOLED駆動回路245に内蔵されてもよい。また、上記基板は半導体基板であってもよい。具体的には、OLEDパネル243が、Si−OLEDとして、OLED駆動回路245等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。
The temperature sensor 239 detects the temperature and outputs the voltage value or the resistance value corresponding to the detected temperature as the detected value. The temperature sensor 239 is mounted on the back surface side of the OLED panel 243 shown in FIG. The temperature sensor 239 may be mounted on the same substrate as the OLED drive circuit 245, for example. With this configuration, the temperature sensor 239 mainly detects the temperature of the OLED panel 243.
Further, the temperature sensor 239 may be built in the OLED panel 243 or the OLED drive circuit 245. Further, the substrate may be a semiconductor substrate. Specifically, when the OLED panel 243 is mounted as a Si-OLED together with the OLED drive circuit 245 and the like as an integrated circuit on an integrated semiconductor chip, the temperature sensor 239 may be mounted on this semiconductor chip.

右表示ユニット22が備えるカメラ61、距離センサー64、照度センサー65、内側カメラ68、温度センサー217、左表示ユニット24が備える6軸センサー235、磁気センサー237、温度センサー239は、センサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定及び初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。また、センサーハブ192は、予め設定されたタイミングで、右表示ユニット22及び左表示ユニット24が備える各センサーの検出値を、メインプロセッサー140に出力する。センサーハブ192は、各センサーの検出値を、メインプロセッサー140に対する出力のタイミングに合わせて一時的に保持する機能を備えてもよい。また、センサーハブ192は、各センサーの出力値の信号形式、或いはデータ形式の相違に対応し、統一されたデータ形式のデータに変換して、メインプロセッサー140に出力する機能を備えてもよい。
また、センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始及び停止させ、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯または点滅させる。
The camera 61, the distance sensor 64, the illuminance sensor 65, the inner camera 68, the temperature sensor 217 included in the right display unit 22 and the 6-axis sensor 235, the magnetic sensor 237, and the temperature sensor 239 included in the left display unit 24 are connected to the sensor hub 192. To be done. The sensor hub 192 sets and initializes the sampling cycle of each sensor under the control of the main processor 140. The sensor hub 192 executes energization to each sensor, transmission of control data, acquisition of a detection value, and the like in accordance with the sampling cycle of each sensor. Further, the sensor hub 192 outputs the detection value of each sensor included in the right display unit 22 and the left display unit 24 to the main processor 140 at a preset timing. The sensor hub 192 may have a function of temporarily holding the detection value of each sensor in synchronization with the timing of output to the main processor 140. Further, the sensor hub 192 may have a function of converting to a signal format or a data format of an output value of each sensor, converting the data into a unified data format, and outputting the data to the main processor 140.
Further, the sensor hub 192 starts and stops energization of the LED indicator 67 under the control of the main processor 140, and turns on or blinks the LED indicator 67 at the timing when the camera 61 starts and ends image capturing.

制御装置10は、電源部130を備え、電源部130から供給される電力により動作する。電源部130は充電可能なバッテリー132、及び、バッテリー132の残容量の検出およびバッテリー132への充電の制御を行う電源制御回路134を備える。電源制御回路134はメインプロセッサー140に接続され、バッテリー132の残容量の検出値、或いは電圧の検出値をメインプロセッサー140に出力する。また、電源部130が供給する電力に基づき、制御装置10から画像表示部20に電力を供給してもよい。また、電源部130から制御装置10の各部及び画像表示部20への電力の供給状態を、メインプロセッサー140が制御可能な構成としてもよい。   The control device 10 includes a power supply unit 130 and operates by electric power supplied from the power supply unit 130. The power supply unit 130 includes a rechargeable battery 132 and a power supply control circuit 134 that detects the remaining capacity of the battery 132 and controls charging of the battery 132. The power supply control circuit 134 is connected to the main processor 140 and outputs the detected value of the remaining capacity of the battery 132 or the detected value of the voltage to the main processor 140. Further, the control device 10 may supply power to the image display unit 20 based on the power supplied by the power supply unit 130. Further, the main processor 140 may control the power supply state from the power supply unit 130 to each unit of the control device 10 and the image display unit 20.

HMD100は、コンテンツの供給元となる種々の外部機器を接続する図示しないインターフェイスを備えてもよい。例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスであってもよく、無線通信インターフェイスで構成してもよい。この場合の外部機器は、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。この場合、HMD100は、これらの外部機器から入力されるコンテンツデータに基づく画像や音声を出力できる。   The HMD 100 may include an interface (not shown) that connects various external devices that are content supply sources. For example, the interface may be a wired interface such as a USB interface, a micro USB interface, or a memory card interface, or may be a wireless communication interface. The external device in this case is an image supply device that supplies an image to the HMD 100, and a personal computer (PC), a mobile phone terminal, a portable game machine, or the like is used. In this case, the HMD 100 can output images and sounds based on the content data input from these external devices.

図6は、制御部141の構成を示す図である。
図6に示すように、制御部141は、表示制御部142と、操作推定部143と、判定部144と、学習部145と、信号記憶部146と、学習データ記憶部147と、画像記憶部148とを備える。具体的には、メインプロセッサー140がメモリー118の制御プログラムを実行することによって、表示制御部142、操作推定部143、判定部144及び学習部145として機能する。また、メインプロセッサー140がメモリー118の制御プログラムを実行することによって、メモリー118を、信号記憶部146、学習データ記憶部147及び画像記憶部148として機能させる。
FIG. 6 is a diagram showing the configuration of the control unit 141.
As shown in FIG. 6, the control unit 141 includes a display control unit 142, an operation estimation unit 143, a determination unit 144, a learning unit 145, a signal storage unit 146, a learning data storage unit 147, and an image storage unit. And 148. Specifically, the main processor 140 executes the control program of the memory 118 to function as the display control unit 142, the operation estimation unit 143, the determination unit 144, and the learning unit 145. Further, the main processor 140 executes the control program of the memory 118 to cause the memory 118 to function as the signal storage unit 146, the learning data storage unit 147, and the image storage unit 148.

表示制御部142は、複数の入力用画像MNを、画像表示部20を透過して視認されるユーザーの手と重なる位置に画像表示部20に表示させる。
具体的には、表示制御部142は、カメラ61によって取得される画像データに基づいて、外景に含まれるユーザーの手の位置を特定する。そして、表示制御部142は、複数の入力用画像MNを、特定したユーザーの手の位置に重なるように、画像表示部20に表示させる。すなわち、表示制御部142は、複数の入力用画像MNの表示位置を、特定したユーザーの手の位置に決定する。
また、表示制御部142は、画像表示部20を透過して視認されるユーザーの手の位置を追跡し、ユーザーの手の移動に応じて、複数の入力用画像MNの表示位置を調整する。
具体的には、複数の入力用画像MNの各々は、互いに相違する文字を示す。複数の入力用画像MNについては、後述にて図8を参照して詳細に説明する。
また、表示制御部142は、ユーザーの手の位置をガイドする第1ガイド画像GL1を画像表示部20に表示させる。また、表示制御部142は、筋電センサー200の位置をガイドする第2ガイド画像GL2を画像表示部20に表示させる。第1ガイド画像GL1及び第2ガイド画像GL2については、後述にて図7を参照して詳細に説明する。
The display control unit 142 causes the image display unit 20 to display the plurality of input images MN at a position overlapping the user's hand which is visible through the image display unit 20.
Specifically, the display control unit 142 specifies the position of the user's hand included in the outside scene, based on the image data acquired by the camera 61. Then, the display control unit 142 causes the image display unit 20 to display the plurality of input images MN so as to overlap the specified position of the user's hand. That is, the display control unit 142 determines the display position of the plurality of input images MN to be the position of the identified user's hand.
The display control unit 142 also tracks the position of the user's hand that is visually recognized through the image display unit 20, and adjusts the display position of the plurality of input images MN according to the movement of the user's hand.
Specifically, each of the plurality of input images MN shows different characters. The plurality of input images MN will be described later in detail with reference to FIG.
The display control unit 142 also causes the image display unit 20 to display the first guide image GL1 that guides the position of the user's hand. The display control unit 142 also causes the image display unit 20 to display the second guide image GL2 that guides the position of the myoelectric sensor 200. The first guide image GL1 and the second guide image GL2 will be described later in detail with reference to FIG. 7.

信号記憶部146は、筋電センサー200の基準値を記憶する。
具体的には、信号記憶部146は、複数の入力用画像MNの各々を選択する操作に対応する筋電センサー200の基準値を記憶する。
信号記憶部146が記憶する筋電センサー200の基準値は、例えば、事前のキャリブレーションによって得られる。例えば、筋電センサー200の基準値は、ユーザーを示す情報に対応付けて記憶する。換言すれば、筋電センサー200の基準値は、ユーザー毎に記憶する。
また、信号記憶部146に記憶する筋電センサー200の基準値は、ユーザーが筋電センサー200を適正な位置に装着した状態で、繰り返し検出される。そして、その平均値が、信号記憶部146に記憶される。また、平均値に替えて、筋電センサー200の基準値の範囲を信号記憶部146に記憶してもよい。
The signal storage unit 146 stores the reference value of the myoelectric sensor 200.
Specifically, the signal storage unit 146 stores the reference value of the myoelectric sensor 200 corresponding to the operation of selecting each of the plurality of input images MN.
The reference value of the myoelectric sensor 200 stored in the signal storage unit 146 is obtained by, for example, pre-calibration. For example, the reference value of the myoelectric sensor 200 is stored in association with the information indicating the user. In other words, the reference value of the myoelectric sensor 200 is stored for each user.
Further, the reference value of the myoelectric sensor 200 stored in the signal storage unit 146 is repeatedly detected with the user wearing the myoelectric sensor 200 at an appropriate position. Then, the average value is stored in the signal storage unit 146. Further, instead of the average value, the range of the reference value of the myoelectric sensor 200 may be stored in the signal storage unit 146.

画像記憶部148は、表示制御部142が表示する画像を記憶する。具体的には、画像記憶部148は、複数の入力用画像MN、第1ガイド画像GL1、第2ガイド画像GL2等の画像を記憶する。   The image storage unit 148 stores the image displayed by the display control unit 142. Specifically, the image storage unit 148 stores images such as the plurality of input images MN, the first guide image GL1, and the second guide image GL2.

操作推定部143は、筋電センサー200の検出値を取得し、筋電センサー200の検出値に基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
更に具体的には、学習部145が判定基準を生成するまでの期間において、操作推定部143は、以下のようにして複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。すなわち、操作推定部143は、筋電センサー200の検出値と、信号記憶部146に記憶された筋電センサー200の基準値とに基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
学習部145が判定基準を生成した後の期間において、操作推定部143は、以下のようにして複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。すなわち、操作推定部143は、筋電センサー200の検出値と、判定基準とに基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
The operation estimating unit 143 acquires the detection value of the myoelectric sensor 200, and estimates the operation of selecting one input image MA from the plurality of input images MN based on the detection value of the myoelectric sensor 200. ..
More specifically, in the period until the learning unit 145 generates the determination criterion, the operation estimation unit 143 performs the operation of selecting one input image MA from the plurality of input images MN as follows. To estimate. That is, the operation estimation unit 143, based on the detected value of the myoelectric sensor 200 and the reference value of the myoelectric sensor 200 stored in the signal storage unit 146, selects one input image from the plurality of input images MN. The operation of selecting the image MA is estimated.
In the period after the learning unit 145 has generated the determination criterion, the operation estimation unit 143 estimates the operation of selecting one input image MA from the plurality of input images MN as follows. That is, the operation estimation unit 143 estimates the operation of selecting one input image MA from the plurality of input images MN based on the detection value of the myoelectric sensor 200 and the determination criterion.

判定部144は、操作推定部143の推定結果を判定する。
具体的には、判定部144は、カメラ61による画像に基づいて、操作推定部143の推定結果の正否を判定する。
更に具体的には、カメラ61は、表示制御部142によって複数の入力用画像MNの各々が表示される位置を含むユーザーの手の動画像を生成する。そして、判定部144は、ユーザーの手の動画像に基づいて、操作推定部143の推定結果の正否を判定する。
The determination unit 144 determines the estimation result of the operation estimation unit 143.
Specifically, the determination unit 144 determines whether the estimation result of the operation estimation unit 143 is correct based on the image captured by the camera 61.
More specifically, the camera 61 generates a moving image of the user's hand including the position where each of the plurality of input images MN is displayed by the display control unit 142. Then, the determination unit 144 determines whether the estimation result of the operation estimation unit 143 is correct based on the moving image of the user's hand.

すなわち、ユーザーの手の動画像が、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示す場合には、判定部144は、操作推定部143の推定結果が正しいと判定する。ユーザーの手の動画像が、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示さない場合には、判定部144は、操作推定部143の推定結果が正しくないと判定する。
ユーザーの手の動画像が、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示さない場合は、下記の2つの場合を含む。第1の場合は、ユーザーの手の動画像が、複数の入力用画像MNの中から1つの入力用画像MA以外の入力用画像を選択する操作を示す場合である。第2の場合は、ユーザーの手の動画像が、複数の入力用画像MNのいずれかの入力用画像を選択する操作を示さない場合である。
本実施形態では、判定部144は、カメラ61による画像に基づいて、操作推定部143の推定結果の正否を判定するが、これに限定されない。判定部144が、例えば、ユーザーからの操作に基づいて、操作推定部143の推定結果の正否を判定してもよい。また、判定部144が、例えば、ユーザーからの音声に基づいて、操作推定部143の推定結果の正否を判定してもよい。
That is, when the moving image of the user's hand indicates the operation of selecting one input image MA from the plurality of input images MN, the determination unit 144 determines that the estimation result of the operation estimation unit 143 is correct. judge. When the moving image of the user's hand does not indicate the operation of selecting one input image MA from the plurality of input images MN, the determination unit 144 determines that the estimation result of the operation estimation unit 143 is incorrect. judge.
When the moving image of the user's hand does not show the operation of selecting one input image MA from the plurality of input images MN, the following two cases are included. The first case is a case where the moving image of the user's hand indicates an operation of selecting an input image other than one input image MA from the plurality of input images MN. The second case is a case where the moving image of the user's hand does not indicate the operation of selecting one of the input images MN.
In the present embodiment, the determination unit 144 determines whether the estimation result of the operation estimation unit 143 is correct based on the image captured by the camera 61, but is not limited to this. The determination unit 144 may determine whether the estimation result of the operation estimation unit 143 is correct, for example, based on the operation by the user. Further, the determination unit 144 may determine whether the estimation result of the operation estimation unit 143 is correct, for example, based on the voice from the user.

学習データ記憶部147は、学習データセット147aを記憶する。学習データセット147aは、筋電センサー200の検出値と、1つの入力用画像MAと、判定部144の判定結果との組み合わせを含む。   The learning data storage unit 147 stores the learning data set 147a. The learning data set 147a includes a combination of the detection value of the myoelectric sensor 200, one input image MA, and the determination result of the determination unit 144.

学習部145は、学習データセット147aに基づいて、筋電センサー200の検出値から1つの入力用画像MAを特定するための条件を機械学習する。
筋電センサー200の検出値から1つの入力用画像MAを特定するための条件は、例えば、筋電センサー200の検出値が、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示すか否かの判定基準である。学習部145が実行する機械学習処理については、後述にて図9を参照して詳細に説明する。
また、学習部145は、学習データセット147aを学習データ記憶部147に記憶する。具体的には、操作推定部143の推定結果の正否を判定部144が判定する度に、学習部145は、学習データセット147aを学習データ記憶部147に記憶する。
The learning unit 145 machine-learns the conditions for specifying one input image MA from the detection value of the myoelectric sensor 200 based on the learning data set 147a.
The condition for specifying one input image MA from the detection values of the myoelectric sensor 200 is, for example, that the detection value of the myoelectric sensor 200 selects one input image MA from a plurality of input images MN. This is a criterion for determining whether or not to indicate an operation to be performed. The machine learning process executed by the learning unit 145 will be described later in detail with reference to FIG. 9.
In addition, the learning unit 145 stores the learning data set 147a in the learning data storage unit 147. Specifically, the learning unit 145 stores the learning data set 147 a in the learning data storage unit 147 every time the determination unit 144 determines whether the estimation result of the operation estimation unit 143 is correct.

図7は、ガイド画像GLを示す図である。
図7には、視野領域AR1と画像領域AR2とが示されている。視野領域AR1は、右導光板26を透過した外光と、左導光板28を透過した外光とによって、ユーザーが認識可能な実空間の景色の範囲を示す。換言すれば、視野領域AR1は、HMD100を装着したユーザーの視野の範囲を示す。視野領域AR1には、ユーザーの右手HPが含まれる。また、ユーザーの右手HPの手首の位置PS1には、筋電センサー200が装着されている。
画像領域AR2は、右導光板26により導かれた画像光と、左導光板28により導かれた画像光とによって、ユーザーが認識可能な画像の範囲を示す。換言すれば、画像領域AR2は、HMD100を装着したユーザーが認識可能な画像の範囲を示す。画像領域AR2には、第1ガイド画像GL1と第2ガイド画像GL2とが含まれる。
FIG. 7 is a diagram showing the guide image GL.
In FIG. 7, a visual field area AR1 and an image area AR2 are shown. The visual field area AR1 indicates the range of the scenery in the real space that can be recognized by the user by the external light transmitted through the right light guide plate 26 and the external light transmitted through the left light guide plate 28. In other words, the visual field area AR1 indicates the visual field range of the user wearing the HMD 100. The visual field area AR1 includes the right hand HP of the user. A myoelectric sensor 200 is attached to the wrist position PS1 of the user's right hand HP.
The image area AR2 indicates the range of the image that can be recognized by the user by the image light guided by the right light guide plate 26 and the image light guided by the left light guide plate 28. In other words, the image area AR2 shows the range of the image that can be recognized by the user wearing the HMD 100. The image area AR2 includes the first guide image GL1 and the second guide image GL2.

第1ガイド画像GL1は、ユーザーの手の位置をガイドする。具体的には、第1ガイド画像GL1は、ユーザーの右手HPを実空間において配置すべき位置を示す。図7に示すように、ユーザーの右手HPは、第1ガイド画像GL1が示す位置に配置されている。
第2ガイド画像GL2は、筋電センサー200によって適正な電気信号を検出するための筋電センサー200のユーザーの右手HPの手首への装着位置を示す。図7では、第2ガイド画像GL2は、実空間における筋電センサー200の位置を示す位置PS1よりも手のひらに近い。
このように、筋電センサー200の位置PS1が第2ガイド画像GL2と重なっていない場合には、表示制御部142は、第2ガイド画像GL2を点滅表示する。
また、ユーザーは、筋電センサー200の位置PS1が第2ガイド画像GL2と重なるように、筋電センサー200を手のひらに近付ける必要がある。
The first guide image GL1 guides the position of the user's hand. Specifically, the first guide image GL1 indicates the position where the user's right hand HP should be placed in the real space. As shown in FIG. 7, the user's right hand HP is arranged at the position indicated by the first guide image GL1.
The second guide image GL2 shows a mounting position of the myoelectric sensor 200 on the wrist of the user's right hand HP for detecting an appropriate electric signal by the myoelectric sensor 200. In FIG. 7, the second guide image GL2 is closer to the palm than the position PS1 indicating the position of the myoelectric sensor 200 in the real space.
In this way, when the position PS1 of the myoelectric sensor 200 does not overlap the second guide image GL2, the display control unit 142 blinks the second guide image GL2.
In addition, the user needs to bring the myoelectric sensor 200 close to the palm so that the position PS1 of the myoelectric sensor 200 overlaps the second guide image GL2.

なお、本実施形態では、筋電センサー200の位置PS1が第2ガイド画像GL2と重なっていない場合には、表示制御部142は、第2ガイド画像GL2を点滅表示するが、これに限定されない。筋電センサー200の位置PS1が第2ガイド画像GL2と重なっていない場合には、表示制御部142は、第2ガイド画像GL2の表示形態を変更すればよい。例えば、表示制御部142は、第2ガイド画像GL2の表示色を変更してもよい。   In the present embodiment, when the position PS1 of the myoelectric sensor 200 does not overlap the second guide image GL2, the display control unit 142 blinks and displays the second guide image GL2, but the present invention is not limited to this. When the position PS1 of the myoelectric sensor 200 does not overlap with the second guide image GL2, the display control unit 142 may change the display form of the second guide image GL2. For example, the display control unit 142 may change the display color of the second guide image GL2.

図8は、本実施形態に係る入力用画像MNを示す図である。
図8には、図7と同様に、視野領域AR1と画像領域AR2とが示されている。
画像領域AR2には、ユーザーの右手HPが含まれる。また、ユーザーの右手HPの手首の位置PS1には、筋電センサー200が装着されている。
FIG. 8 is a diagram showing the input image MN according to the present embodiment.
Similar to FIG. 7, FIG. 8 shows a visual field area AR1 and an image area AR2.
The image area AR2 includes the right hand HP of the user. A myoelectric sensor 200 is attached to the wrist position PS1 of the user's right hand HP.

また、本実施形態では、HMD100がユーザーIDの入力を受け付ける場合について説明する。図8の画像領域AR2には、ガイド画像GP1が表示される。ガイド画像GP1には、「ID:123_」と表示されている。
ガイド画像GP1は、ユーザーIDとして、「1」の数字と、「2」の数字と、「3」の数字とが入力されていることを示す。また、ガイド画像GP1のカーソルを示す「_」は、ユーザーIDとして、4個目の文字の入力を待っている状態であることを示す。
Further, in the present embodiment, a case where the HMD 100 receives an input of a user ID will be described. The guide image GP1 is displayed in the image area AR2 of FIG. “ID: 123_” is displayed in the guide image GP1.
The guide image GP1 shows that the numbers “1”, “2”, and “3” have been input as user IDs. Further, "_" indicating the cursor on the guide image GP1 indicates that the user ID is waiting for the input of the fourth character.

複数の入力用画像MNの各々は、互いに相違する文字を示す。図8に示すように、例えば、複数の入力用画像MNの各々は、「0」〜「9」の数字と、「−」の記号と、決定コマンドと、戻るコマンドとを含む。
決定コマンドは、ユーザーIDの入力を決定する旨のコマンドを示す。戻るコマンドは、ユーザーIDとして入力された文字のうち1つの文字を消去する旨のコマンドを示す。
具体的には、複数の入力用画像MNの各々は、ユーザーの右手HPの指において関節で区切られた領域に対応付けられる。
更に具体的には、複数の入力用画像MNの各々は、ユーザーの右手HPの親指FP1を除く各指において関節で区切られた領域に対応付けられる。
Each of the plurality of input images MN indicates different characters. As shown in FIG. 8, for example, each of the plurality of input images MN includes numbers “0” to “9”, a symbol “−”, a determination command, and a return command.
The decision command indicates a command to decide the input of the user ID. The return command indicates a command to erase one of the characters input as the user ID.
Specifically, each of the plurality of input images MN is associated with a region demarcated by a joint in the finger of the user's right hand HP.
More specifically, each of the plurality of input images MN is associated with a region separated by a joint in each finger of the user's right hand HP except the thumb FP1.

ユーザーの右手HPは、親指FP1、人差し指FP2、中指FP3、薬指FP4、及び小指FP5を含む。
人差し指FP2は、第1関節FP21と、第2関節FP22と、第3関節FP23とを含む。
人差し指FP2において、第1関節FP21の先端側の領域には、入力用画像M21が表示される。入力用画像M21は、「1」の数字を示す。先端側は、手のひらから離間する側を示す。
すなわち、表示制御部142は、入力用画像M21を、画像表示部20を透過して視認されるユーザーの右手HPの人差し指FP2の第1関節FP21の先端側の領域と重なる位置に、画像表示部20に表示させる。
具体的には、表示制御部142は、カメラ61によって取得される画像データに基づいて、外景に含まれるユーザーの右手HPの人差し指FP2の第1関節FP21の先端側の領域の位置を特定する。そして、入力用画像M21の表示位置を、特定したユーザーの右手HPの人差し指FP2の第1関節FP21の先端側の領域の位置に決定する。
なお、入力用画像M21は、複数の入力用画像MNに含まれる。
また、複数の入力用画像MNに含まれる入力用画像M21を除く入力用画像MNについては、図8において、複数の入力用画像MNを示す参照符号MNの記載を省略している。
The user's right hand HP includes a thumb FP1, an index finger FP2, a middle finger FP3, a ring finger FP4, and a little finger FP5.
The index finger FP2 includes a first joint FP21, a second joint FP22, and a third joint FP23.
In the index finger FP2, the input image M21 is displayed in the region on the tip side of the first joint FP21. The input image M21 indicates the number "1". The tip side indicates the side away from the palm.
That is, the display control unit 142 places the input image M21 at a position overlapping the region on the distal end side of the first joint FP21 of the index finger FP2 of the user's right hand HP that is visible through the image display unit 20. 20 to display.
Specifically, the display control unit 142 specifies the position of the region on the tip side of the first joint FP21 of the index finger FP2 of the user's right hand HP included in the outside scene, based on the image data acquired by the camera 61. Then, the display position of the input image M21 is determined to be the position of the region on the distal end side of the first joint FP21 of the index finger FP2 of the identified right hand HP of the user.
The input image M21 is included in the plurality of input images MN.
Further, for the input images MN excluding the input images M21 included in the plurality of input images MN, reference numeral MN indicating the plurality of input images MN is omitted in FIG.

第1関節FP21と第2関節FP22との間の領域には、入力用画像M22が表示される。入力用画像M22は、「5」の数字を示す。
すなわち、表示制御部142は、入力用画像M22を、画像表示部20を透過して視認されるユーザーの右手HPの人差し指FP2の第1関節FP21と第2関節FP22との間の領域と重なる位置に、画像表示部20に表示させる。
人差し指FP2において、第2関節FP22と第3関節FP23との間の領域には、入力用画像M23が表示される。入力用画像M23は、「9」の数字を示す。
すなわち、表示制御部142は、入力用画像M23を、画像表示部20を透過して視認されるユーザーの右手HPの人差し指FP2の第2関節FP22と第3関節FP23との間の領域と重なる位置に、画像表示部20に表示させる。
人差し指FP2の第3関節FP23と近接する手のひらの領域には、入力用画像M24が表示される。入力用画像M24は、決定コマンドを示す。
すなわち、入力用画像M24は、ユーザーIDを構成する各数字及び記号の入力を確定する旨のコマンドを示す。また、入力用画像M24は、ユーザーIDを確定する旨のコマンドを示す。入力用画像M24は、「決定」の文字列を示す。
また、表示制御部142は、入力用画像M24を、画像表示部20を透過して視認されるユーザーの右手HPの第3関節FP23と近接する手のひらの領域と重なる位置に、画像表示部20に表示させる。
An input image M22 is displayed in the area between the first joint FP21 and the second joint FP22. The input image M22 indicates the number "5".
That is, the display control unit 142 positions the input image M22 so as to overlap a region between the first joint FP21 and the second joint FP22 of the index finger FP2 of the user's right hand HP that is visually recognized through the image display unit 20. Then, the image is displayed on the image display unit 20.
On the index finger FP2, the input image M23 is displayed in a region between the second joint FP22 and the third joint FP23. The input image M23 indicates the number "9".
That is, the display control unit 142 positions the input image M23 so as to overlap with a region between the second joint FP22 and the third joint FP23 of the index finger FP2 of the user's right hand HP that is visually recognized through the image display unit 20. Then, the image is displayed on the image display unit 20.
An input image M24 is displayed in the area of the palm of the index finger FP2 that is close to the third joint FP23. The input image M24 shows a decision command.
That is, the input image M24 shows a command for confirming the input of each number and symbol forming the user ID. Further, the input image M24 shows a command to confirm the user ID. The input image M24 shows the character string of “determination”.
In addition, the display control unit 142 displays the input image M24 on the image display unit 20 at a position overlapping the third joint FP23 of the user's right hand HP visible through the image display unit 20 and the area of the palm adjacent to the third joint FP23. Display it.

中指FP3は、第1関節FP31と、第2関節FP32と、第3関節FP33とを含む。
中指FP3において、第1関節FP31の先端側の領域には、入力用画像M31が表示される。入力用画像M31は、「2」の数字を示す。
中指FP3において、第1関節FP31と第2関節FP32との間の領域には、入力用画像M32が表示される。入力用画像M32は、「6」の数字を示す。
中指FP3において、第2関節FP32と第3関節FP33との間の領域には、入力用画像M33が表示される。入力用画像M33は、「0」の数字を示す。
表示制御部142は、入力用画像M31〜入力用画像M33の各々を、画像表示部20を透過して視認されるユーザーの右手HPの中指FP3において関節で区切られた領域と重なる位置に、画像表示部20に表示させる。関節で区切られた領域は、第1関節FP31の先端側の領域と、第1関節FP31と第2関節FP32との間の領域と、第2関節FP32と第3関節FP33との間の領域とを含む。
The middle finger FP3 includes a first joint FP31, a second joint FP32, and a third joint FP33.
In the middle finger FP3, the input image M31 is displayed in the region on the tip side of the first joint FP31. The input image M31 shows the number “2”.
In the middle finger FP3, the input image M32 is displayed in the area between the first joint FP31 and the second joint FP32. The input image M32 indicates the number "6".
In the middle finger FP3, the input image M33 is displayed in the area between the second joint FP32 and the third joint FP33. The input image M33 indicates the number "0".
The display control unit 142 images each of the input image M31 to the input image M33 at a position that overlaps a region separated by a joint in the middle finger FP3 of the user's right hand HP that is visually recognized through the image display unit 20. It is displayed on the display unit 20. The regions delimited by the joints are a region on the distal end side of the first joint FP31, a region between the first joint FP31 and the second joint FP32, and a region between the second joint FP32 and the third joint FP33. including.

薬指FP4は、第1関節FP41と、第2関節FP42と、第3関節FP43とを含む。
薬指FP4において、第1関節FP41の先端側の領域には、入力用画像M41が表示される。入力用画像M41は、「3」の数字を示す。
薬指FP4において、第1関節FP41と第2関節FP42との間の領域には、入力用画像M42が表示される。入力用画像M42は、「7」の数字を示す。
薬指FP4において、第2関節FP42と第3関節FP43との間の領域には、入力用画像M43が表示される。入力用画像M43は、「−」の記号を示す。
表示制御部142は、入力用画像M41〜入力用画像M43の各々を、画像表示部20を透過して視認されるユーザーの右手HPの薬指FP4において関節で区切られた領域と重なる位置に、画像表示部20に表示させる。関節で区切られた領域は、第1関節FP41の先端側の領域と、第1関節FP41と第2関節FP42との間の領域と、第2関節FP42と第3関節FP43との間の領域とを含む。
The ring finger FP4 includes a first joint FP41, a second joint FP42, and a third joint FP43.
In the ring finger FP4, the input image M41 is displayed in the region on the tip side of the first joint FP41. The input image M41 indicates the number "3".
On the ring finger FP4, an input image M42 is displayed in the area between the first joint FP41 and the second joint FP42. The input image M42 indicates the number "7".
On the ring finger FP4, the input image M43 is displayed in the region between the second joint FP42 and the third joint FP43. The input image M43 shows the symbol "-".
The display control unit 142 places each of the input image M41 to the input image M43 at a position that overlaps with a region separated by a joint in the ring finger FP4 of the user's right hand HP that is visually recognized through the image display unit 20. It is displayed on the display unit 20. The regions delimited by the joints include a region on the distal end side of the first joint FP41, a region between the first joint FP41 and the second joint FP42, and a region between the second joint FP42 and the third joint FP43. including.

小指FP5は、第1関節FP51と、第2関節FP52と、第3関節FP53とを含む。
小指FP5において、第1関節FP51の先端側の領域には、入力用画像M51が表示される。入力用画像M51は、「4」の数字を示す。
小指FP5において、第1関節FP51と第2関節FP52との間の領域には、入力用画像M52が表示される。入力用画像M52は、「8」の数字を示す。
小指FP5において、第2関節FP52と第3関節FP53との間の領域には、入力用画像M53が表示される。入力用画像M53は、ユーザーIDとして入力された文字のうち1つの文字を消去する旨のコマンドを示す。入力用画像M53は、「戻」の文字を示す。
表示制御部142は、入力用画像M51〜入力用画像M53の各々を、画像表示部20を透過して視認されるユーザーの右手HPの小指FP5において関節で区切られた領域と重なる位置に、画像表示部20に表示させる。関節で区切られた領域は、第1関節FP51の先端側の領域と、第1関節FP51と第2関節FP52との間の領域と、第2関節FP52と第3関節FP53との間の領域とを含む。
The little finger FP5 includes a first joint FP51, a second joint FP52, and a third joint FP53.
In the little finger FP5, the input image M51 is displayed in the region on the tip side of the first joint FP51. The input image M51 indicates the number "4".
In the little finger FP5, the input image M52 is displayed in the area between the first joint FP51 and the second joint FP52. The input image M52 indicates the number "8".
In the little finger FP5, the input image M53 is displayed in the area between the second joint FP52 and the third joint FP53. The input image M53 shows a command to erase one of the characters input as the user ID. The input image M53 shows the character “return”.
The display control unit 142 places each of the input image M51 to the input image M53 at a position that overlaps with a region demarcated by a joint in the little finger FP5 of the user's right hand HP that is seen through the image display unit 20. It is displayed on the display unit 20. The regions delimited by the joints are a region on the distal end side of the first joint FP51, a region between the first joint FP51 and the second joint FP52, and a region between the second joint FP52 and the third joint FP53. including.

操作推定部143は、筋電センサー200の検出値に基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
具体的には、1つの入力用画像MAを選択する操作は、ユーザーの右手HPの親指FP1を、人差し指FP2、中指FP3、薬指FP4、及び小指FP5の各々における関節で区切られた領域に押圧する操作である。
換言すれば、1つの入力用画像MAを選択するジェスチャーは、ユーザーの右手HPの親指FP1を、人差し指FP2、中指FP3、薬指FP4、及び小指FP5の各々における関節で区切られた領域に押圧するジェスチャーである。
このジェスチャーは、筋電センサー200の検出値に基づいて操作推定部143によって検出されるため、一般的なジェスチャーと区別できるように、「筋電ジェスチャー」と記載してもよい。
ユーザーの右手HPの親指FP1は、第1関節FP11と、第2関節FP12とを含む。親指FP1において、第1関節FP11の先端側の領域には、ガイド画像M1が表示される。ガイド画像M1は、例えば丸印「〇」の記号を示す。
ガイド画像M1は、第1関節FP11の先端側の領域を、関節で区切られた領域に押圧する操作によって、1つの入力用画像MAを選択することを示す。
The operation estimation unit 143 estimates the operation of selecting one input image MA from the plurality of input images MN based on the detection value of the myoelectric sensor 200.
Specifically, in the operation of selecting one input image MA, the thumb FP1 of the user's right hand HP is pressed against the regions delimited by the joints of the index finger FP2, the middle finger FP3, the ring finger FP4, and the little finger FP5. It is an operation.
In other words, the gesture of selecting one input image MA is a gesture of pressing the thumb FP1 of the user's right hand HP to the joint-separated area of each of the index finger FP2, the middle finger FP3, the ring finger FP4, and the little finger FP5. Is.
Since this gesture is detected by the operation estimation unit 143 based on the detection value of the myoelectric sensor 200, it may be described as “myoelectric gesture” so as to be distinguishable from a general gesture.
The thumb FP1 of the user's right hand HP includes a first joint FP11 and a second joint FP12. A guide image M1 is displayed in the region of the thumb FP1 on the distal end side of the first joint FP11. The guide image M1 shows, for example, a symbol of a circle “◯”.
The guide image M1 indicates that one input image MA is selected by the operation of pressing the region on the distal end side of the first joint FP11 to the region divided by the joint.

例えば、「1」の数字を示す入力用画像M21を選択する場合には、ユーザーは、親指FP1の第1関節FP11の先端側の領域を、人差し指FP2の第1関節FP21の先端側の領域に押圧する操作を行う。
また、例えば、「6」の数字を示す入力用画像M32を選択する場合には、ユーザーは、親指FP1の第1関節FP11の先端側の領域を、中指FP3の第1関節FP31と第2関節FP32との間の領域に押圧する操作を行う。
また、例えば、「−」の記号を示す入力用画像M43を選択する場合には、ユーザーは、親指FP1の第1関節FP11の先端側の領域を、薬指FP4の第2関節FP42と第3関節FP43との間の領域に押圧する操作を行う。
また、例えば、決定コマンドを示す入力用画像M24を選択する場合には、ユーザーは、親指FP1の第1関節FP11の先端側の領域を、人差し指FP2の第3関節FP23と近接する手のひらの領域に押圧する操作を行う。
For example, in the case of selecting the input image M21 indicating the number “1”, the user sets the region on the tip side of the first joint FP11 of the thumb FP1 to the region on the tip side of the first joint FP21 of the index finger FP2. Perform pressing operation.
Further, for example, when selecting the input image M32 indicating the number “6”, the user sets the region on the tip side of the first joint FP11 of the thumb FP1 to the first joint FP31 and the second joint FP3 of the middle finger FP3. The operation of pressing the area between the FP 32 and the FP 32 is performed.
Further, for example, when selecting the input image M43 indicating the symbol “−”, the user sets the region on the tip side of the first joint FP11 of the thumb FP1 to the second joint FP42 and the third joint of the ring finger FP4. The operation of pressing the area between the FP 43 and the FP 43 is performed.
Further, for example, when selecting the input image M24 indicating the determination command, the user sets the region on the tip side of the first joint FP11 of the thumb FP1 to the region of the palm adjacent to the third joint FP23 of the index finger FP2. Perform pressing operation.

また、操作推定部143は、筋電センサー200の検出値に基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
複数の入力用画像MNは、「0」〜「9」の数字と、「−」の記号と、決定コマンドと、戻るコマンドとを含む。具体的には、複数の入力用画像MNは、入力用画像M21〜入力用画像M24、入力用画像M31〜入力用画像M33、入力用画像M41〜入力用画像M43、及び入力用画像M51〜入力用画像M53に対応する。すなわち、複数の入力用画像MNは、図8に示す13個の入力用画像MNを示す。操作推定部143は、筋電センサー200の検出値に基づいて、13個の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
Further, the operation estimation unit 143 estimates the operation of selecting one input image MA from the plurality of input images MN based on the detection value of the myoelectric sensor 200.
The plurality of input images MN include numbers “0” to “9”, a symbol “−”, a determination command, and a return command. Specifically, the plurality of input images MN include the input image M21 to the input image M24, the input image M31 to the input image M33, the input image M41 to the input image M43, and the input image M51 to the input image M51. It corresponds to the image M53 for use. That is, the plurality of input images MN represent the 13 input images MN shown in FIG. The operation estimation unit 143 estimates the operation of selecting one input image MA from the 13 input images MN based on the detection value of the myoelectric sensor 200.

信号記憶部146には、13個の入力用画像MNの各々を選択する操作に対応する筋電センサー200の基準値を記憶する。
信号記憶部146に記憶する筋電センサー200の基準値は、ユーザーが筋電センサー200を適正な位置に装着した状態で、ユーザー毎に、且つ13個の入力用画像MNの各々を選択する操作毎に繰り返し検出される。そして、その平均値が、筋電センサー200の基準値として、13個の入力用画像MNの各々を選択する操作に対応付けて信号記憶部146に記憶される。また、平均値に替えて、筋電センサー200の検出値の範囲を信号記憶部146に記憶してもよい。
The signal storage unit 146 stores the reference value of the myoelectric sensor 200 corresponding to the operation of selecting each of the 13 input images MN.
The reference value of the myoelectric sensor 200 stored in the signal storage unit 146 is an operation for selecting each of the 13 input images MN for each user while the user wears the myoelectric sensor 200 at an appropriate position. It is repeatedly detected every time. Then, the average value is stored in the signal storage unit 146 as the reference value of the myoelectric sensor 200 in association with the operation of selecting each of the 13 input images MN. Further, instead of the average value, the range of the detection value of the myoelectric sensor 200 may be stored in the signal storage unit 146.

操作推定部143は、筋電センサー200の検出値と、信号記憶部146に記憶された筋電センサー200の基準値とに基づいて、13個の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
例えば、筋電センサー200の検出値が、親指FP1の第1関節FP11の先端側の領域を、人差し指FP2の第1関節FP21の先端側の領域に押圧する操作を示す場合には、操作推定部143は、入力用画像M21を選択する操作を推定する。
また、例えば、筋電センサー200の検出値が、親指FP1の第1関節FP11の先端側の領域を、中指FP3の第1関節FP31と第2関節FP32との間の領域に押圧する操作を示す場合には、操作推定部143は、以下の処理を行う。すなわち、操作推定部143は、入力用画像M32を選択する操作を推定する。
また、例えば、筋電センサー200の検出値が、親指FP1の第1関節FP11の先端側の領域を、薬指FP4の第2関節FP42と第3関節FP43との間の領域に押圧する操作を示す場合には、操作推定部143は、以下の処理を行う。すなわち、操作推定部143は、入力用画像M43を選択する操作を推定する。
また、例えば、筋電センサー200の検出値が、親指FP1の第1関節FP11の先端側の領域を、人差し指FP2の第3関節FP23と近接する手のひらの領域に押圧する操作を示す場合には、操作推定部143は、以下の処理を行う。すなわち、操作推定部143は、入力用画像M24を選択する操作を推定する。
The operation estimation unit 143, based on the detection value of the myoelectric sensor 200 and the reference value of the myoelectric sensor 200 stored in the signal storage unit 146, selects one input image from the 13 input images MN. Estimate the operation of selecting MA.
For example, when the detected value of the myoelectric sensor 200 indicates an operation of pressing the region on the tip side of the first joint FP11 of the thumb FP1 to the region on the tip side of the first joint FP21 of the index finger FP2, the operation estimation unit 143 estimates the operation of selecting the input image M21.
Further, for example, the detection value of the myoelectric sensor 200 indicates an operation of pressing the region on the tip side of the first joint FP11 of the thumb FP1 to the region between the first joint FP31 and the second joint FP32 of the middle finger FP3. In that case, the operation estimation unit 143 performs the following processing. That is, the operation estimation unit 143 estimates the operation of selecting the input image M32.
In addition, for example, the detection value of the myoelectric sensor 200 indicates an operation of pressing the region on the tip side of the first joint FP11 of the thumb FP1 to the region between the second joint FP42 and the third joint FP43 of the ring finger FP4. In that case, the operation estimation unit 143 performs the following processing. That is, the operation estimation unit 143 estimates the operation of selecting the input image M43.
Further, for example, in the case where the detection value of the myoelectric sensor 200 indicates an operation of pressing the region on the tip side of the first joint FP11 of the thumb FP1 to the region of the palm of the index finger FP2 that is close to the third joint FP23, The operation estimation unit 143 performs the following processing. That is, the operation estimation unit 143 estimates the operation of selecting the input image M24.

このようにして、操作推定部143が、筋電センサー200の検出値と、信号記憶部146に記憶された筋電センサー200の基準値とに基づいて、13個の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。その結果、ユーザーIDが入力される。   In this way, the operation estimation unit 143 selects from the 13 input images MN based on the detected value of the myoelectric sensor 200 and the reference value of the myoelectric sensor 200 stored in the signal storage unit 146. The operation of selecting one input image MA is estimated. As a result, the user ID is input.

図9は、制御部141の処理を示すフローチャートである。なお、本実施形態では、ユーザーの右手HPが、第1ガイド画像GL1が示す位置に配置されている場合について説明する。
図9に示すように、まず、ステップS101において、表示制御部142が、ガイド画像GLを表示する。ガイド画像GLは、ユーザーの右手HPの位置をガイドする第1ガイド画像GL1と、筋電センサー200の位置をガイドする第2ガイド画像GL2とを含む。
次に、ステップS103において、表示制御部142は、第2ガイド画像GL2に基づいて、筋電センサー200が装着されている位置PS1が適切であるか否かを判定する。
筋電センサー200が装着されている位置PS1が適切であると表示制御部142が判定した場合(ステップS103でYES)には、処理がステップS107に進む。筋電センサー200が装着されている位置PS1が適切ではないと表示制御部142が判定した場合(ステップS103でNO)には、処理がステップS105に進む。
そして、ステップS105において、ユーザーが、筋電センサー200が装着されている位置PS1を修正する。換言すれば、表示制御部142は、筋電センサー200が装着されている位置PS1が適切でないことを検出し、第2ガイド画像GL2を点滅表示する。そして、表示制御部142は、筋電センサー200が装着されている位置PS1が修正されたことを検出する。その後、処理がステップS103に戻る。
FIG. 9 is a flowchart showing the processing of the control unit 141. In the present embodiment, a case where the user's right hand HP is arranged at the position indicated by the first guide image GL1 will be described.
As shown in FIG. 9, first, in step S101, the display control unit 142 displays the guide image GL. The guide image GL includes a first guide image GL1 that guides the position of the user's right hand HP and a second guide image GL2 that guides the position of the myoelectric sensor 200.
Next, in step S103, the display control unit 142 determines, based on the second guide image GL2, whether or not the position PS1 at which the myoelectric sensor 200 is attached is appropriate.
When the display control unit 142 determines that the position PS1 where the myoelectric sensor 200 is attached is appropriate (YES in step S103), the process proceeds to step S107. When the display control unit 142 determines that the position PS1 where the myoelectric sensor 200 is attached is not appropriate (NO in step S103), the process proceeds to step S105.
Then, in step S105, the user corrects the position PS1 at which the myoelectric sensor 200 is attached. In other words, the display control unit 142 detects that the position PS1 where the myoelectric sensor 200 is attached is not appropriate, and displays the second guide image GL2 in a blinking manner. Then, the display control unit 142 detects that the position PS1 where the myoelectric sensor 200 is attached is corrected. Then, the process returns to step S103.

ステップS103でYESの場合には、ステップS107において、表示制御部142は、複数の入力用画像MNを画像表示部20に表示させる。具体的には、表示制御部142は、複数の入力用画像MNを、画像表示部20を透過して視認されるユーザーの右手HPと重なる位置に、画像表示部20に表示させる。   If YES in step S103, the display control unit 142 causes the image display unit 20 to display the plurality of input images MN in step S107. Specifically, the display control unit 142 causes the image display unit 20 to display the plurality of input images MN at a position overlapping the right hand HP of the user who is visually recognized through the image display unit 20.

次に、ステップS109において、操作推定部143が、筋電センサー200の検出値を取得したか否かを判定する。
筋電センサー200の検出値を取得していないと操作推定部143が判定した場合(ステップS109でNO)には、処理が待機状態になる。筋電センサー200の検出値を取得したと操作推定部143が判定した場合(ステップS109でYES)には、処理がステップS111に進む。
そして、ステップS111において、判定部144は、カメラ61が生成したユーザーの右手HPの動画像を取得する。ユーザーの右手HPの動画像は、複数の入力用画像MNの中からいずれかの入力用画像を選択する操作を示す。よって、本実施形態では、「操作画像」と記載する場合がある。
次に、ステップS113において、操作推定部143は、筋電センサー200の検出値に基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
次に、ステップS115において、判定部144は、カメラ61が生成したユーザーの右手HPの動画像に基づいて、操作推定部143の推定結果の正否を判定する。
すなわち、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作が行われたと判定部144が判定した場合には、操作推定部143の推定結果が正しいと判定部144が判定する。また、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作が行われていないと判定部144が判定した場合には、操作推定部143の推定結果が正しくないと判定部144が判定する。
次に、ステップS117において、学習部145が「機械学習処理」を実行し、処理が終了する。「機械学習処理」は、学習部145が学習データセット147aに基づいて、筋電センサー200の検出値が複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示すか否かの判定基準を生成する処理を示す。
Next, in step S109, the operation estimation unit 143 determines whether or not the detection value of the myoelectric sensor 200 is acquired.
When the operation estimation unit 143 determines that the detection value of the myoelectric sensor 200 is not acquired (NO in step S109), the process is in a standby state. When the operation estimation unit 143 determines that the detection value of the myoelectric sensor 200 is acquired (YES in step S109), the process proceeds to step S111.
Then, in step S111, the determination unit 144 acquires the moving image of the user's right hand HP generated by the camera 61. The moving image of the user's right hand HP indicates an operation of selecting one of the input images from the plurality of input images MN. Therefore, in this embodiment, it may be described as an “operation image”.
Next, in step S113, the operation estimation unit 143 estimates the operation of selecting one input image MA from the plurality of input images MN based on the detection value of the myoelectric sensor 200.
Next, in step S115, the determination unit 144 determines whether the estimation result of the operation estimation unit 143 is correct, based on the moving image of the user's right hand HP generated by the camera 61.
That is, when the determination unit 144 determines that the operation of selecting one input image MA from the plurality of input images MN is performed, the determination unit 144 determines that the estimation result of the operation estimation unit 143 is correct. To do. Further, when the determination unit 144 determines that the operation of selecting one input image MA from the plurality of input images MN is not performed, the estimation result of the operation estimation unit 143 is incorrect. 144 determines.
Next, in step S117, the learning unit 145 executes the "machine learning process", and the process ends. In the “machine learning process”, it is determined whether or not the learning unit 145 indicates an operation in which the detection value of the myoelectric sensor 200 selects one input image MA from the plurality of input images MN based on the learning data set 147a. A process for generating the determination criterion will be described.

なお、ステップS107は、「表示制御ステップ」の一例に相当する。ステップS113は、「操作推定ステップ」の一例に相当する。ステップS115は、「判定ステップ」の一例に相当する。ステップS117は、「学習ステップ」の一例に相当する。   Note that step S107 corresponds to an example of “display control step”. Step S113 corresponds to an example of “operation estimation step”. Step S115 corresponds to an example of a "determination step". Step S117 corresponds to an example of a "learning step".

図10は、制御部141の機械学習処理を示すフローチャートである。
図10に示すように、ステップS201において、学習部145は、学習データセット147aを、複数の入力用画像MNに含まれる入力用画像MA毎に分類して、学習データ記憶部147に記憶する。学習データセット147aは、筋電センサー200の検出値と、1つの入力用画像MAと、判定部144の判定結果とを含む。
すなわち、学習データ記憶部147において、学習データセット147aは、入力用画像MA毎に分類されて記憶される。
次に、ステップS203において、学習部145は、操作推定部143の推定結果が正しいと判定部144が判定したか否かを判定する。
操作推定部143の推定結果が正しくないと判定部144が判定した場合(ステップS203でNO)には、処理がステップS211に進む。操作推定部143の推定結果が正しいと判定部144が判定した場合(ステップS203でYES)には、処理がステップS205に進む。
FIG. 10 is a flowchart showing the machine learning process of the control unit 141.
As shown in FIG. 10, in step S201, the learning unit 145 classifies the learning data set 147a for each input image MA included in the plurality of input images MN and stores the learning data set 147a in the learning data storage unit 147. The learning data set 147a includes the detection value of the myoelectric sensor 200, one input image MA, and the determination result of the determination unit 144.
That is, in the learning data storage unit 147, the learning data set 147a is classified and stored for each input image MA.
Next, in step S203, the learning unit 145 determines whether the determination unit 144 determines that the estimation result of the operation estimation unit 143 is correct.
When the determination unit 144 determines that the estimation result of the operation estimation unit 143 is incorrect (NO in step S203), the process proceeds to step S211. If the determination unit 144 determines that the estimation result of the operation estimation unit 143 is correct (YES in step S203), the process proceeds to step S205.

そして、ステップS205において、学習部145は、筋電センサー200の検出値から第1特徴量を抽出する。第1特徴量は、操作推定部143の推定結果が正しいと判定部144が判定した場合における筋電センサー200の検出値の特徴を示す。
例えば、第1特徴量は、筋電センサー200の検出値の周波数、及び振幅のいずれかを含む。具体的には、第1特徴量は、筋電センサー200の検出値における周波数の最大値、周波数の平均値、周波数の最小値、振幅の最大値、振幅の平均値、及び振幅の最小値の少なくとも1つを含む。
また、第1特徴量が、例えば、筋電センサー200の検出値の経時的な変化の特徴を示してもよい。
次に、ステップS207において、学習部145は、ステップS205で抽出した第1特徴量を学習データ記憶部147に記憶する。具体的には、学習部145は、図9のステップS113において操作推定部143が推定した操作によって選択された1つの入力用画像MAに対応付けて、第1特徴量を学習データ記憶部147に記憶する。
次に、ステップS209において、学習部145は、第1特徴量を集計し、処理がステップS217に進む。
具体的には、学習データ記憶部147において、1つの入力用画像MAに対応付けて記憶された複数の第1特徴量を集計する。例えば、学習部145は、第1特徴量の平均値、標準偏差、最大値、及び最小値の少なくとも1つを算出する。
Then, in step S205, the learning unit 145 extracts the first feature amount from the detection value of the myoelectric sensor 200. The first feature amount indicates the feature of the detection value of the myoelectric sensor 200 when the determination unit 144 determines that the estimation result of the operation estimation unit 143 is correct.
For example, the first feature amount includes either the frequency or the amplitude of the detection value of the myoelectric sensor 200. Specifically, the first feature amount includes the maximum value of frequency, the average value of frequency, the minimum value of frequency, the maximum value of amplitude, the average value of amplitude, and the minimum value of amplitude in the detection value of the myoelectric sensor 200. At least one is included.
Further, the first feature amount may indicate, for example, a feature of change over time in the detection value of the myoelectric sensor 200.
Next, in step S207, the learning unit 145 stores the first feature amount extracted in step S205 in the learning data storage unit 147. Specifically, the learning unit 145 associates the first feature amount with the learning data storage unit 147 by associating it with the one input image MA selected by the operation estimated by the operation estimating unit 143 in step S113 of FIG. Remember.
Next, in step S209, the learning unit 145 totalizes the first characteristic amount, and the process proceeds to step S217.
Specifically, the learning data storage unit 147 aggregates a plurality of first feature amounts stored in association with one input image MA. For example, the learning unit 145 calculates at least one of the average value, standard deviation, maximum value, and minimum value of the first feature amount.

ステップS203でNOの場合には、ステップS211において、学習部145は、筋電センサー200の検出値から第2特徴量を抽出する。第2特徴量は、操作推定部143の推定結果が正しくないと判定部144が判定した場合における筋電センサー200の検出値の特徴を示す。
例えば、第2特徴量は、筋電センサー200の検出値の周波数、及び振幅のいずれかを含む。具体的には、第2特徴量は、筋電センサー200の検出値における周波数の最大値、周波数の平均値、周波数の最小値、振幅の最大値、振幅の平均値、及び振幅の最小値の少なくとも1つを含む。
また、第2特徴量が、例えば、筋電センサー200の検出値の経時的な変化の特徴を示してもよい。
次に、ステップS213において、学習部145は、ステップS211で抽出した第2特徴量を学習データ記憶部147に記憶する。具体的には、学習部145は、図9のステップS113において操作推定部143が推定した操作によって選択された1つの入力用画像MAに対応付けて、第2特徴量を学習データ記憶部147に記憶する。
次に、ステップS215において、学習部145は、第2特徴量を集計し、処理がステップS217に進む。
具体的には、学習データ記憶部147において、1つの入力用画像MAに対応付けて記憶された複数の第2特徴量を集計する。例えば、学習部145は、第2特徴量の平均値、標準偏差、最大値、及び最小値の少なくとも1つを算出する。
In the case of NO in step S203, the learning unit 145 extracts the second feature amount from the detection value of the myoelectric sensor 200 in step S211. The second feature amount indicates the feature of the detection value of the myoelectric sensor 200 when the determination unit 144 determines that the estimation result of the operation estimation unit 143 is incorrect.
For example, the second feature amount includes either the frequency or the amplitude of the detection value of the myoelectric sensor 200. Specifically, the second feature amount includes the maximum value of frequency, the average value of frequency, the minimum value of frequency, the maximum value of amplitude, the average value of amplitude, and the minimum value of amplitude in the detected value of the myoelectric sensor 200. At least one is included.
In addition, the second feature amount may indicate, for example, a feature of change over time in the detection value of the myoelectric sensor 200.
Next, in step S213, the learning unit 145 stores the second feature amount extracted in step S211 in the learning data storage unit 147. Specifically, the learning unit 145 associates the second feature amount with the learning data storage unit 147 by associating it with the one input image MA selected by the operation estimated by the operation estimating unit 143 in step S113 of FIG. Remember.
Next, in step S215, the learning unit 145 totalizes the second feature amount, and the process proceeds to step S217.
Specifically, the learning data storage unit 147 aggregates a plurality of second feature amounts stored in association with one input image MA. For example, the learning unit 145 calculates at least one of the average value, standard deviation, maximum value, and minimum value of the second feature amount.

そして、ステップS217において、学習部145は、筋電センサー200の検出値が複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を示すか否かの判定基準を生成し、処理が終了する。
例えば、第1特徴量の最小値が第2特徴量の最大値より大きい場合には、学習部145は、特徴量の値が第1特徴量の最小値以上であることを示す判定基準を生成する。
また、例えば、第1特徴量の最大値が第2特徴量の最小値より小さい場合には、学習部145は、特徴量の値が第1特徴量の最大値以下であることを示す判定基準を生成する。
Then, in step S217, the learning unit 145 generates a criterion for determining whether or not the detection value of the myoelectric sensor 200 indicates an operation of selecting one input image MA from the plurality of input images MN, The process ends.
For example, when the minimum value of the first characteristic amount is larger than the maximum value of the second characteristic amount, the learning unit 145 generates the determination criterion indicating that the value of the characteristic amount is equal to or larger than the minimum value of the first characteristic amount. To do.
Further, for example, when the maximum value of the first feature amount is smaller than the minimum value of the second feature amount, the learning unit 145 determines that the value of the feature amount is equal to or less than the maximum value of the first feature amount. To generate.

図11は、学習処理後の制御部141の処理を示すフローチャートである。
図11に示すステップS301〜ステップS311の各々は、図8に示すステップS101〜ステップS111の各々と同一の処理であるため、その説明を省略する。
ステップS313において、学習部145は、筋電センサー200の検出値から特徴量を抽出する。特徴量は、第1特徴量及び第2特徴量に対応する。
次に、ステップS315において、操作推定部143は、筋電センサー200の検出値と、判定基準とに基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。その後、処理がステップS317に進む。
具体的には、操作推定部143は、ステップS313で抽出された特徴量と、判定基準とに基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
図11に示すステップS317〜ステップS319の各々は、図8に示すステップS115〜ステップS117の各々と同一の処理であるため、その説明を省略する。
FIG. 11 is a flowchart showing the processing of the control unit 141 after the learning processing.
Since each of steps S301 to S311 shown in FIG. 11 is the same as each of steps S101 to S111 shown in FIG. 8, description thereof will be omitted.
In step S313, the learning unit 145 extracts the feature amount from the detection value of the myoelectric sensor 200. The feature amount corresponds to the first feature amount and the second feature amount.
Next, in step S315, the operation estimation unit 143 estimates the operation of selecting one input image MA from the plurality of input images MN based on the detection value of the myoelectric sensor 200 and the determination criterion. To do. Then, a process progresses to step S317.
Specifically, the operation estimation unit 143 estimates the operation of selecting one input image MA from the plurality of input images MN based on the feature amount extracted in step S313 and the determination criterion. ..
Since each of steps S317 to S319 shown in FIG. 11 is the same as each of steps S115 to S117 shown in FIG. 8, description thereof will be omitted.

図12は、入力用画像MNの他の形態を示す図である。図12には、図7と同様に、視野領域AR1と画像領域AR2とが示されている。
画像領域AR2には、ユーザーの右手HPが含まれる。また、ユーザーの右手HPの手首の位置PS1には、筋電センサー200が装着されている。
FIG. 12 is a diagram showing another form of the input image MN. Similar to FIG. 7, FIG. 12 shows the visual field region AR1 and the image region AR2.
The image area AR2 includes the right hand HP of the user. A myoelectric sensor 200 is attached to the wrist position PS1 of the user's right hand HP.

図8を参照して説明したように、HMD100が数字の入力を受け付けるのに対して、図12では、HMD100がアルファベット等の入力を受け付ける点で相違している。
複数の入力用画像MNの各々は、互いに相違する文字を示す。例えば、複数の入力用画像MNの各々は、「A」〜「Z」のアルファベットと、「@」マークと、バックスペースコマンドと、戻るコマンドと、文字種変更コマンドと、エンターコマンドとを含む。
バックスペースコマンドは、入力した文字を1文字削除する旨のコマンドを示す。戻るコマンドは、直前に行われた1つの操作を取り消す旨のコマンドを示す。文字種変更コマンドは、入力する文字の種類を変更する旨のコマンドを示す。エンターコマンドは、入力された操作を確定する旨のコマンドを示す。
複数の入力用画像MNは、ユーザーの右手HPの指において関節で区切られた領域に対応付けられる。
更に具体的には、複数の入力用画像MNは、ユーザーの右手HPの親指FP1を除く各指において関節で区切られた領域に対応付けられる。
As described with reference to FIG. 8, the HMD 100 accepts an input of a numeral, whereas in FIG. 12, the HMD 100 accepts an input of an alphabet or the like, which is a difference.
Each of the plurality of input images MN indicates different characters. For example, each of the plurality of input images MN includes alphabets "A" to "Z", an "@" mark, a backspace command, a return command, a character type change command, and an enter command.
The backspace command indicates a command to delete one input character. The return command indicates a command to cancel one operation performed immediately before. The character type change command indicates a command to change the type of input character. The enter command is a command for confirming the input operation.
The plurality of input images MN are associated with the area delimited by the joint in the finger of the user's right hand HP.
More specifically, the plurality of input images MN are associated with the regions delimited by joints in each finger of the user's right hand HP except the thumb FP1.

ユーザーの右手HPは、親指FP1、人差し指FP2、中指FP3、薬指FP4、及び小指FP5を含む。
人差し指FP2は、第1関節FP21と、第2関節FP22と、第3関節FP23とを含む。中指FP3は、第1関節FP31と、第2関節FP32と、第3関節FP33とを含む。薬指FP4は、第1関節FP41と、第2関節FP42と、第3関節FP43とを含む。小指FP5は、第1関節FP51と、第2関節FP52と、第3関節FP53とを含む。これらの関節に対応する参照符号は、図示を省略している。
The user's right hand HP includes a thumb FP1, an index finger FP2, a middle finger FP3, a ring finger FP4, and a little finger FP5.
The index finger FP2 includes a first joint FP21, a second joint FP22, and a third joint FP23. The middle finger FP3 includes a first joint FP31, a second joint FP32, and a third joint FP33. The ring finger FP4 includes a first joint FP41, a second joint FP42, and a third joint FP43. The little finger FP5 includes a first joint FP51, a second joint FP52, and a third joint FP53. Reference numerals corresponding to these joints are omitted in the drawing.

複数の入力用画像MNに含まれる2つ以上の所定個数の入力用画像は、ユーザーの右手HPの親指を除く各指において関節で区切られた領域に対応付けられる。
例えば、人差し指FP2において、第1関節FP21の先端側の領域には、3つの入力用画像L21が表示される。3つの入力用画像L21は、「D」のアルファベットと、「E」のアルファベットと、「F」のアルファベットとを示す。この場合には、所定個数は「3個」である。
また、例えば、人差し指FP2において、第1関節FP21と第2関節FP22との間の領域には、3つの入力用画像L22が表示される。3つの入力用画像L22は、「M」のアルファベットと、「N」のアルファベットと、「O」のアルファベットとを示す。この場合には、所定個数は「3個」である。
また、例えば、人差し指FP2において、第2関節FP22と第3関節FP23との間の領域には、4つの入力用画像L23が表示される。4つの入力用画像L23は、「W」のアルファベットと、「X」のアルファベットと、「Y」のアルファベットと、「Z」のアルファベットとを示す。この場合には、所定個数は「4個」である。
The two or more predetermined number of input images included in the plurality of input images MN are associated with the areas delimited by the joints of the fingers of the user's right hand HP except the thumb.
For example, in the index finger FP2, three input images L21 are displayed in the region on the distal end side of the first joint FP21. The three input images L21 show the alphabet “D”, the alphabet “E”, and the alphabet “F”. In this case, the predetermined number is “3”.
Further, for example, in the index finger FP2, three input images L22 are displayed in a region between the first joint FP21 and the second joint FP22. The three input images L22 show the alphabet “M”, the alphabet “N”, and the alphabet “O”. In this case, the predetermined number is “3”.
Further, for example, in the index finger FP2, four input images L23 are displayed in the region between the second joint FP22 and the third joint FP23. The four input images L23 show the alphabet "W", the alphabet "X", the alphabet "Y", and the alphabet "Z". In this case, the predetermined number is "4".

操作推定部143は、筋電センサー200の検出値に基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。
具体的には、操作推定部143は、筋電センサー200の検出値に基づいて、関節で区切られた領域を選択する操作と、領域に対応付けられた所定個数の入力用画像MBから1つの入力用画像MAを選択する操作とを推定する。
まず、関節で区切られた領域を選択する操作は、ユーザーの右手HPの親指FP1を、人差し指FP2、中指FP3、薬指FP4、及び小指FP5の各々における関節で区切られた領域に押圧する操作である。関節で区切られた領域を選択する操作によって、複数の入力用画像MNの中から所定個数の入力用画像MBが選択される。
次に、領域に対応付けられた所定個数の入力用画像MBから1つの入力用画像MAを選択する操作は、ユーザーの右手HPの親指FP1を所定方向に移動する操作である。
The operation estimation unit 143 estimates the operation of selecting one input image MA from the plurality of input images MN based on the detection value of the myoelectric sensor 200.
Specifically, the operation estimation unit 143 selects one of the areas selected by the joint based on the detection value of the myoelectric sensor 200, and one of the predetermined number of input images MB associated with the area. The operation of selecting the input image MA is estimated.
First, the operation of selecting the area delimited by the joint is an operation of pressing the thumb FP1 of the user's right hand HP to the area delimited by the joint in each of the index finger FP2, the middle finger FP3, the ring finger FP4, and the little finger FP5. .. A predetermined number of input images MB are selected from the plurality of input images MN by the operation of selecting the area delimited by the joints.
Next, the operation of selecting one input image MA from the predetermined number of input images MB associated with the area is an operation of moving the thumb FP1 of the user's right hand HP in a predetermined direction.

更に、具体的には、例えば、人差し指FP2において、第2関節FP22と第3関節FP23との間の領域が選択されている場合には、以下のようにして1つの入力用画像MAが選択される。
すなわち、「W」のアルファベットを選択する場合には、ユーザーは、右手HPの親指FP1を、人差し指FP2の先端に向かう方向(上方向)に移動する操作を行う。「X」のアルファベットを選択する場合には、ユーザーは、右手HPの親指FP1を、中指FP3から離間する方向(右方向)に移動する操作を行う。「Y」のアルファベットを選択する場合には、ユーザーは、右手HPの親指FP1を、人差し指FP2の基端に向かう方向(下方向)に移動する操作を行う。「Z」のアルファベットを選択する場合には、ユーザーは、右手HPの親指FP1を、中指FP3に向かう方向(左方向)に移動する操作を行う。
Further, more specifically, for example, when the area between the second joint FP22 and the third joint FP23 is selected on the index finger FP2, one input image MA is selected as follows. It
That is, when selecting the alphabet “W”, the user performs an operation of moving the thumb FP1 of the right hand HP in the direction toward the tip of the index finger FP2 (upward). When selecting the alphabet “X”, the user performs an operation of moving the thumb FP1 of the right hand HP in a direction away from the middle finger FP3 (right direction). When selecting the alphabet “Y”, the user performs an operation of moving the thumb FP1 of the right hand HP in a direction (downward) toward the base end of the index finger FP2. When selecting the alphabet "Z", the user performs an operation of moving the thumb FP1 of the right hand HP in the direction toward the middle finger FP3 (to the left).

このようにして、操作推定部143が、筋電センサー200の検出値に基づいて、関節で区切られた領域を選択する操作と、領域に対応付けられた所定個数の入力用画像MBから1つの入力用画像MAを選択する操作とを推定する。したがって、ユーザーは、アルファベットを入力することができる。   In this way, the operation estimation unit 143 performs an operation of selecting an area demarcated by the joint based on the detection value of the myoelectric sensor 200, and one from the predetermined number of input images MB associated with the area. The operation of selecting the input image MA is estimated. Therefore, the user can input the alphabet.

以上、図1〜図12を参照して説明したように、本実施形態では、操作推定部143は、動きセンサーの一例である筋電センサー200の検出値に基づいて、複数の入力用画像MNの中から1つの入力用画像MAを選択する操作を推定する。判定部144は、操作推定部143の推定結果を判定する。学習部145は、学習データセット147aに基づいて、筋電センサー200の検出値から1つの入力用画像MAを特定するための条件を機械学習する。1つの入力用画像MAを特定するための条件は、例えば、1つの入力用画像MAを特定するための筋電センサー200の検出値の特徴量の判定基準を示す。学習データセット147aは、筋電センサー200の検出値と、1つの入力用画像MAと、判定部144の判定結果との組み合わせを含む。
よって、筋電センサー200の検出値から1つの入力用画像MAを特定するための条件を機械学習するため、操作推定部143が1つの入力用画像MAを選択する操作を推定する精度を向上できる。したがって、HMD100の操作性を向上できる。
As described above with reference to FIGS. 1 to 12, in the present embodiment, the operation estimation unit 143, based on the detection value of the myoelectric sensor 200 that is an example of the motion sensor, the plurality of input images MN. The operation of selecting one input image MA from among the above is estimated. The determination unit 144 determines the estimation result of the operation estimation unit 143. The learning unit 145 machine-learns the conditions for specifying one input image MA from the detection value of the myoelectric sensor 200 based on the learning data set 147a. The condition for specifying one input image MA indicates, for example, a criterion for determining the feature amount of the detection value of the myoelectric sensor 200 for specifying one input image MA. The learning data set 147a includes a combination of the detection value of the myoelectric sensor 200, one input image MA, and the determination result of the determination unit 144.
Therefore, since the condition for specifying one input image MA is machine-learned from the detected value of the myoelectric sensor 200, the accuracy with which the operation estimation unit 143 estimates the operation of selecting one input image MA can be improved. .. Therefore, the operability of the HMD 100 can be improved.

また、カメラ61を備え、判定部144は、操作推定部143の推定結果の正否を、カメラ61による画像に基づいて判定する。
よって、カメラ61が、ユーザーの右手HPの画像を生成できる。したがって、判定部144は、ユーザーの右手HPの動きによる操作が1つの入力用画像MAを選択する操作であるか否かを正確に判定できる。
Further, the camera 61 is provided, and the determination unit 144 determines whether the estimation result of the operation estimation unit 143 is correct based on the image captured by the camera 61.
Therefore, the camera 61 can generate an image of the right hand HP of the user. Therefore, the determination unit 144 can accurately determine whether or not the operation by the movement of the user's right hand HP is the operation of selecting one input image MA.

また、複数の入力用画像MNの各々は、互いに相違する文字を示す。操作推定部143は、筋電センサー200の検出値に基づいて、入力する文字を推定する。
よって、ユーザーは、文字を入力する操作を容易に実行できる。したがって、HMD100の操作性を更に向上できる。
Further, each of the plurality of input images MN indicates different characters. The operation estimation unit 143 estimates a character to be input based on the detection value of the myoelectric sensor 200.
Therefore, the user can easily perform the operation of inputting characters. Therefore, the operability of the HMD 100 can be further improved.

複数の入力用画像MNの各々は、ユーザーの右手HPの親指FP1を除く各指において関節で区切られた領域に対応付けられる。1つの入力用画像MAを選択する操作は、ユーザーの右手HPの親指FP1を関節で区切られた領域に押圧する操作である。
よって、筋電センサー200は、1つの入力用画像MAを選択する操作を正確に検出できる。また、ユーザーは、右手HPだけを用いて、1つの入力用画像MAを選択する操作を実行できる。したがって、HMD100の操作性を更に向上できる。
Each of the plurality of input images MN is associated with a region separated by a joint in each finger of the user's right hand HP except the thumb FP1. The operation of selecting one input image MA is an operation of pressing the thumb FP1 of the user's right hand HP to a region delimited by joints.
Therefore, the myoelectric sensor 200 can accurately detect the operation of selecting one input image MA. Further, the user can perform an operation of selecting one input image MA using only the right hand HP. Therefore, the operability of the HMD 100 can be further improved.

複数の入力用画像MNに含まれる2つ以上の所定個数の入力用画像MBは、ユーザーの右手HPの親指FP1を除く各指において関節で区切られた領域に対応付けられている。領域を選択する操作は、ユーザーの右手HPの親指FP1を関節で区切られた領域に押圧する操作である。領域に対応付けられた所定個数の入力用画像MBから1つの入力用画像MAを選択する操作は、ユーザーの右手HPの親指FP1を所定方向に移動する操作である。
よって、筋電センサー200は、1つの入力用画像MAを選択する操作を正確に検出できる。また、ユーザーは、右手HPだけを用いて、アルファベットのような多数の入力用画像MNから1つの入力用画像MAを選択する操作を実行できる。したがって、HMD100の操作性を更に向上できる。
The two or more predetermined number of input images MB included in the plurality of input images MN are associated with the regions separated by the joints in each finger of the user's right hand HP except the thumb FP1. The operation of selecting an area is an operation of pressing the thumb FP1 of the user's right hand HP to an area delimited by joints. The operation of selecting one input image MA from the predetermined number of input images MB associated with the area is an operation of moving the thumb FP1 of the user's right hand HP in a predetermined direction.
Therefore, the myoelectric sensor 200 can accurately detect the operation of selecting one input image MA. Further, the user can perform an operation of selecting one input image MA from a large number of input images MN such as alphabets by using only the right hand HP. Therefore, the operability of the HMD 100 can be further improved.

また、表示制御部142は、ユーザーの右手HPの位置をガイドする第1ガイド画像GL1を画像表示部20に表示させる。
よって、例えば、筋電センサー200の位置をガイドする第2ガイド画像GL2を画像表示部20に表示させることによって、ユーザーに筋電センサー200を適正な位置に装着させることができる。したがって、1つの入力用画像MAを選択する操作を更に正確に検出できる。その結果、HMD100の操作性を更に向上できる。
Further, the display control unit 142 causes the image display unit 20 to display the first guide image GL1 that guides the position of the right hand HP of the user.
Therefore, for example, by displaying the second guide image GL2 for guiding the position of the myoelectric sensor 200 on the image display unit 20, the user can mount the myoelectric sensor 200 at an appropriate position. Therefore, the operation of selecting one input image MA can be detected more accurately. As a result, the operability of the HMD 100 can be further improved.

また、表示制御部142は、画像表示部20を透過して視認されるユーザーの手の位置を追跡し、ユーザーの手の移動に応じて、複数の入力用画像MNの各々の表示位置を調整する。
よって、ユーザーの手が移動した場合にも、複数の入力用画像MNの各々を適正な位置に表示できる。したがって、HMD100の操作性を更に向上できる。
The display control unit 142 also tracks the position of the user's hand visually recognized through the image display unit 20, and adjusts the display position of each of the plurality of input images MN according to the movement of the user's hand. To do.
Therefore, even when the user's hand moves, each of the plurality of input images MN can be displayed at an appropriate position. Therefore, the operability of the HMD 100 can be further improved.

また、動きセンサーは、ユーザーの手首に装着される筋電センサー200を含む。
したがって、簡素な構成で、1つの入力用画像MAを選択する操作を検出できる。
In addition, the motion sensor includes a myoelectric sensor 200 worn on the user's wrist.
Therefore, the operation of selecting one input image MA can be detected with a simple configuration.

なお、本実施形態では、表示制御部142が、ユーザーの右手HPと重なる位置に入力用の画像Mを表示するが、これに限定されない。表示制御部142が、ユーザーの手と重なる位置に複数の入力用画像MNを表示すればよい。例えば、表示制御部142が、ユーザーの左手と重なる位置に複数の入力用画像MNを表示してもよい。また、例えば、表示制御部142が、ユーザーの両手と重なる位置に複数の入力用画像MNを表示してもよい。この場合には、ユーザーの右手HPと重なる位置に入力用画像MNを表示する場合と比較して、多数の入力用画像MNを表示できる。   In the present embodiment, the display control unit 142 displays the input image M at a position overlapping the user's right hand HP, but the present invention is not limited to this. The display control unit 142 may display the plurality of input images MN at the position overlapping the user's hand. For example, the display control unit 142 may display the plurality of input images MN at a position overlapping the user's left hand. Further, for example, the display control unit 142 may display a plurality of input images MN at positions overlapping both hands of the user. In this case, as compared with the case where the input image MN is displayed at a position overlapping the right hand HP of the user, a large number of input images MN can be displayed.

また、本実施形態では、複数の入力用画像MNの各々が数字を示す場合について説明したが、これに限定されない。複数の入力用画像MNの各々が記号を示せばよい。ここで、「記号」とは、文字、数学記号、及び図形記号等を含む。文字は、アルファベット、平仮名、及びカタカナを含む。例えば、複数の入力用画像MNの各々がアルファベットのうちの1文字を示してもよい。この場合には、文章の入力が可能になる。   Further, in the present embodiment, a case has been described in which each of the plurality of input images MN indicates a number, but the present invention is not limited to this. Each of the plurality of input images MN only needs to show a symbol. Here, the "symbol" includes characters, mathematical symbols, graphic symbols, and the like. The characters include alphabets, hiragana, and katakana. For example, each of the plurality of input images MN may indicate one character of the alphabet. In this case, the text can be input.

また、本実施形態では、動きセンサーが、ユーザーの右手HPの手首に装着される筋電センサー200である場合について説明したが、これに限定されない。動きセンサーが、ユーザーの右手HPの指に装着されるジャイロセンサーでもよい。右手HPの指は、例えば、親指FP1である。また、動きセンサーが、手首に装着される筋電センサー200と、ユーザーの指に装着されるジャイロセンサーとを含んでもよい。
また、例えば、指に装着されるセンサーが、3軸の加速度センサーでもよいし、6軸センサーでもよい。6軸センサーは、3軸加速度センサー、及び、3軸ジャイロセンサーを備えるモーションセンサーである。6軸センサーは、上記のセンサーがモジュール化されたIMUを採用してもよい。
また、例えば、親指FP1以外の指にも、ジャイロセンサーが装着されてもよい。具体的には、右手HPの人差し指FP2、中指FP3、薬指FP4、及び小指FP5にも、ジャイロセンサーが装着されてもよい。
Further, in the present embodiment, the case where the motion sensor is the myoelectric sensor 200 worn on the wrist of the user's right hand HP has been described, but the present invention is not limited to this. The motion sensor may be a gyro sensor attached to the finger of the user's right hand HP. The finger of the right hand HP is, for example, the thumb FP1. Further, the motion sensor may include a myoelectric sensor 200 worn on the wrist and a gyro sensor worn on the user's finger.
Further, for example, the sensor worn on the finger may be a triaxial acceleration sensor or a 6-axis sensor. The 6-axis sensor is a motion sensor including a 3-axis acceleration sensor and a 3-axis gyro sensor. The 6-axis sensor may employ an IMU in which the above sensor is modularized.
Further, for example, the gyro sensor may be attached to a finger other than the thumb FP1. Specifically, the gyro sensor may be attached to the index finger FP2, the middle finger FP3, the ring finger FP4, and the little finger FP5 of the right hand HP.

また、本実施形態では、判定部144が、操作推定部143の推定結果の正否を判定するが、これに限定されない。判定部144が、操作推定部143の推定結果を判定すればよい。例えば、判定部144が、操作推定部143の推定結果が正しくない場合に、操作推定部143の推定結果が正しくない程度を判定してもよい。例えば、操作推定部143が1つの入力用画像MAを選択する操作を推定し、判定部144が入力用画像MAと相違する1つの入力用画像MBを選択する操作が行われたと判定した場合に、判定部144が以下の処理を実行してもよい。すなわち、判定部144は、入力用画像MAと入力用画像MBとの間の距離に基づいて、推定部143の推定結果が正しくない程度を判定してもよい。   Further, in the present embodiment, the determination unit 144 determines whether the estimation result of the operation estimation unit 143 is correct, but the present invention is not limited to this. The determination unit 144 may determine the estimation result of the operation estimation unit 143. For example, when the estimation result of the operation estimation unit 143 is incorrect, the determination unit 144 may determine the degree to which the estimation result of the operation estimation unit 143 is incorrect. For example, when the operation estimating unit 143 estimates the operation of selecting one input image MA, and the determining unit 144 determines that the operation of selecting one input image MB different from the input image MA is performed. The determination unit 144 may execute the following processing. That is, the determination unit 144 may determine the degree to which the estimation result of the estimation unit 143 is incorrect based on the distance between the input image MA and the input image MB.

また、本実施形態では、1つの入力用画像MAを特定するための条件が、1つの入力用画像MAを特定するための筋電センサー200の検出値の特徴量の判定基準を示すが、これに限定されない。1つの入力用画像MAを特定するための条件が、1つの入力用画像MAを特定するための筋電センサー200の検出値に関する条件であればよい。
例えば、1つの入力用画像MAを特定するための条件が、1つの入力用画像MAを特定するための筋電センサー200の検出値の特徴量の範囲でもよい。なお、筋電センサー200の検出値の特徴量は、筋電センサー200の検出値の周波数、及び振幅のいずれかを含む。具体的には、特徴量は、筋電センサー200の検出値における周波数の最大値、周波数の平均値、周波数の最小値、振幅の最大値、振幅の平均値、及び振幅の最小値の少なくとも1つを含む。
Further, in the present embodiment, the condition for specifying one input image MA indicates the criterion for the feature amount of the detection value of the myoelectric sensor 200 for specifying one input image MA. Not limited to. The condition for specifying one input image MA may be a condition related to the detection value of the myoelectric sensor 200 for specifying one input image MA.
For example, the condition for specifying one input image MA may be the range of the characteristic amount of the detection value of the myoelectric sensor 200 for specifying one input image MA. The feature amount of the detected value of the myoelectric sensor 200 includes either the frequency or the amplitude of the detected value of the myoelectric sensor 200. Specifically, the feature amount is at least 1 of the maximum value of the frequency, the average value of the frequency, the minimum value of the frequency, the maximum value of the amplitude, the average value of the amplitude, and the minimum value of the amplitude in the detected value of myoelectric sensor 200. Including one.

なお、本実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、本実施形態では、制御装置10が画像表示部20と有線接続される構成を例示したが、これに限定されず、制御装置10に対して画像表示部20が無線接続される構成であってもよい。この場合の無線通信方式は通信部117が対応する通信方式として例示した方式を採用してもよいし、その他の通信方式であってもよい。
Note that the configuration is not limited to the configuration of the present embodiment, and can be implemented in various modes without departing from the gist thereof.
For example, in the present embodiment, the configuration in which the control device 10 is connected to the image display unit 20 by wire is illustrated, but the configuration is not limited to this, and the image display unit 20 is configured to be wirelessly connected to the control device 10. You may. The wireless communication method in this case may be the method exemplified as the communication method supported by the communication unit 117, or may be another communication method.

また、制御装置10が備える一部の機能を画像表示部20に設けてもよく、制御装置10を複数の装置により実現してもよい。例えば、制御装置10に代えて、ユーザーの身体、着衣、或いは、ユーザーが身につける装身具に取り付け可能なウェアラブルデバイスを用いてもよい。この場合のウェアラブルデバイスは、例えば、時計型の装置、指輪型の装置、レーザーポインター、マウス、エアーマウス、ゲームコントローラー、ペン型のデバイス等であってもよい。   Further, some functions of the control device 10 may be provided in the image display unit 20, or the control device 10 may be realized by a plurality of devices. For example, instead of the control device 10, a wearable device that can be attached to the user's body, clothing, or clothing worn by the user may be used. In this case, the wearable device may be, for example, a watch type device, a ring type device, a laser pointer, a mouse, an air mouse, a game controller, a pen type device, or the like.

さらに、本実施形態では、画像表示部20と制御装置10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明した。これに限定されず、制御装置10と画像表示部20とが一体に構成され、ユーザーの頭部に装着される構成とすることも可能である。   Furthermore, in the present embodiment, the configuration in which the image display unit 20 and the control device 10 are separated and connected via the connection cable 40 has been described as an example. The present invention is not limited to this, and the control device 10 and the image display unit 20 may be integrally configured and mounted on the user's head.

また、本実施形態において、ユーザーが表示部を透過して外景を視認する構成は、右導光板26及び左導光板28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、カメラ61の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。例えば、カメラ61により撮像する外景の画像と、表示画像とを合成した合成画像を画像表示部20により表示する構成とすれば、画像表示部20が外光を透過しなくても、ユーザーに外景と画像とを視認可能に表示できる。このような、いわゆるビデオシースルー型の表示装置に適用することも勿論可能である。   Further, in the present embodiment, the configuration in which the user sees the outside scene through the display unit is not limited to the configuration in which the right light guide plate 26 and the left light guide plate 28 transmit the outside light. For example, it can be applied to a display device that displays an image in a state where the outside scene cannot be visually recognized. Specifically, it can be applied to a display device that displays a captured image of the camera 61, an image or CG generated based on this captured image, video data stored in advance, video based on video data input from the outside, or the like. .. This type of display device may include a so-called closed type display device in which the outside scene cannot be visually recognized. For example, if the image display unit 20 displays a composite image in which the image of the outside scene captured by the camera 61 and the display image are combined together, the user can see the outside scene even if the image display unit 20 does not transmit external light. And the image can be visually displayed. Of course, it is also possible to apply to such a so-called video see-through type display device.

また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、ユーザーの左眼LEに対応して画像を表示する表示部と、ユーザーの右眼REに対応して画像を表示する表示部とを備えていればよい。また、表示装置は、例えば、自動車や飛行機等の車両に搭載されるHMDとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたHMDとして構成されてもよい。この場合、ユーザーの身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。   Further, for example, instead of the image display unit 20, an image display unit of another system such as an image display unit worn like a hat may be adopted, and an image is displayed corresponding to the left eye LE of the user. It suffices to include a display unit that displays the image and a display unit that displays an image corresponding to the right eye RE of the user. Further, the display device may be configured as an HMD mounted on a vehicle such as an automobile or an airplane. Further, for example, it may be configured as an HMD built in a body protector such as a helmet. In this case, the part that positions the position with respect to the body of the user and the part that is positioned with respect to the part can be the mounting part.

また、画像光をユーザーの眼に導く光学系として、右導光板26及び左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。これに限定されず、右導光板26及び左導光板28の全面または大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
さらに、光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光をユーザーの眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
Further, as an optical system for guiding the image light to the eyes of the user, a configuration in which a virtual image is formed by the half mirrors 261 and 281 on a part of the right light guide plate 26 and the left light guide plate 28 has been illustrated. The present invention is not limited to this, and the image may be displayed in a display area having an area that occupies the entire surface or most of the right light guide plate 26 and the left light guide plate 28. In this case, the operation of changing the display position of the image may include a process of reducing the image.
Further, the optical element is not limited to the right light guide plate 26 and the left light guide plate 28 having the half mirrors 261, 281 and may be any optical component that allows image light to enter the user's eye. , A prism, or a holographic display section may be used.

また、図5、図6等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部141が実行するプログラムは、不揮発性記憶部121または制御装置10内の他の図示しない記憶装置に記憶されてもよい。また、外部の装置に記憶されたプログラムを通信部117や外部コネクター184を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部110がユーザーインターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、メインプロセッサー140と同様のプロセッサーが画像表示部20に配置されてもよいし、制御装置10が備えるメインプロセッサー140と画像表示部20のプロセッサーとが別々に分けられた機能を実行する構成としてもよい。   Further, at least some of the functional blocks shown in FIGS. 5 and 6 may be realized by hardware, or may be realized by the cooperation of hardware and software. It is not limited to a configuration in which independent hardware resources are arranged as described above. The program executed by the control unit 141 may be stored in the non-volatile storage unit 121 or another storage device (not shown) in the control device 10. Alternatively, the program stored in an external device may be acquired via the communication unit 117 or the external connector 184 and executed. Further, among the components formed on the control device 10, the operation unit 110 may be formed as a user interface (UI). Moreover, the configuration formed in the control device 10 may be duplicated in the image display unit 20. For example, a processor similar to the main processor 140 may be arranged in the image display unit 20, or the main processor 140 included in the control device 10 and the processor of the image display unit 20 may be configured to execute separate functions. Good.

10…制御装置、20…画像表示部(表示部)、21…右保持部、22…右表示ユニット、23…左保持部、24…左表示ユニット、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、61…カメラ(撮像部)、63…マイク(音声入力部の一部)、100…HMD(表示装置)、110…操作部、117…通信部、118…メモリー、120…コントローラー基板、121…不揮発性記憶部、130…電源部、140…メインプロセッサー、141…制御部、142…表示制御部、143…操作推定部、144…判定部、145…学習部、146…信号記憶部、147…学習データ記憶部、147a…学習データセット、148…画像記憶部、180…音声コーデック(音声入力部の一部)、182…音声インターフェイス(音声入力部の一部)、200…筋電センサー(動きセンサー)、AR1…視野領域、AR2…画像領域、FP1…親指、FP11…第1関節、FP12…第2関節、FP2…人差し指、FP21…第1関節、FP22…第2関節、FP23…第3関節、FP3…中指、FP31…第1関節、FP32…第2関節、FP33…第3関節、FP4…薬指、FP41…第1関節、FP42…第2関節、FP43…第3関節、FP5…小指、FP51…第1関節、FP52…第2関節、FP53…第3関節、GL…ガイド画像、GL1…第1ガイド画像、GL2…第2ガイド画像、HP…右手、MA…入力用画像、MN…入力用画像。   10 ... Control device, 20 ... Image display part (display part), 21 ... Right holding part, 22 ... Right display unit, 23 ... Left holding part, 24 ... Left display unit, 26 ... Right light guide plate, 27 ... Front frame , 28 ... Left light guide plate, 30 ... Headset, 32 ... Right earphone, 34 ... Left earphone, 40 ... Connection cable, 61 ... Camera (imaging unit), 63 ... Microphone (part of voice input unit), 100 ... HMD (Display device), 110 ... Operation unit, 117 ... Communication unit, 118 ... Memory, 120 ... Controller board, 121 ... Nonvolatile storage unit, 130 ... Power supply unit, 140 ... Main processor, 141 ... Control unit, 142 ... Display control Section, 143 ... operation estimation section, 144 ... determination section, 145 ... learning section, 146 ... signal storage section, 147 ... learning data storage section, 147a ... learning data set, 148 ... image storage section, 18 ... voice codec (part of voice input unit), 182 ... voice interface (part of voice input unit), 200 ... myoelectric sensor (motion sensor), AR1 ... field of view area, AR2 ... image area, FP1 ... thumb, FP11 ... 1st joint, FP12 ... 2nd joint, FP2 ... Index finger, FP21 ... 1st joint, FP22 ... 2nd joint, FP23 ... 3rd joint, FP3 ... Middle finger, FP31 ... 1st joint, FP32 ... 2nd joint, FP33 ... 3rd joint, FP4 ... ring finger, FP41 ... 1st joint, FP42 ... 2nd joint, FP43 ... 3rd joint, FP5 ... little finger, FP51 ... 1st joint, FP52 ... 2nd joint, FP53 ... 3rd joint, GL ... guide image, GL1 ... first guide image, GL2 ... second guide image, HP ... right hand, MA ... input image, MN ... input image.

Claims (10)

光を透過する透過型の表示部であって、ユーザーの頭部に装着される表示部と、
前記表示部を透過して視認される前記ユーザーの手に重なる位置に、複数の入力用画像を前記表示部に表示させる表示制御部と、
前記ユーザーの手の動きを検出する動きセンサーと、
前記動きセンサーの検出値に基づき、前記複数の入力用画像の中から1つの入力用画像を選択する操作を推定する操作推定部と、
前記操作推定部の推定結果を判定する判定部と、
前記動きセンサーの検出値と、前記1つの入力用画像と、前記判定部の判定結果との組み合わせを含む学習データセットに基づいて、前記動きセンサーの検出値から前記1つの入力用画像を特定するための条件を機械学習する学習部と、
を備える表示装置。
A transmissive display unit that transmits light, which is mounted on the user's head,
A display control unit that causes the display unit to display a plurality of input images at a position overlapping the user's hand that is visible through the display unit;
A motion sensor for detecting movement of the user's hand,
An operation estimation unit that estimates an operation of selecting one input image from the plurality of input images based on a detection value of the motion sensor;
A determination unit that determines the estimation result of the operation estimation unit,
The one input image is identified from the detection value of the motion sensor based on a learning data set including a combination of the detection value of the motion sensor, the one input image, and the determination result of the determination unit. A learning unit that machine-learns the conditions for
A display device including.
撮像部を備え、
前記判定部は、前記操作推定部の推定結果の正否を、前記撮像部による画像に基づいて判定する、
請求項1に記載の表示装置。
Equipped with an imaging unit,
The determination unit determines whether the estimation result of the operation estimation unit is correct based on an image captured by the imaging unit,
The display device according to claim 1.
前記ユーザーからの音声の入力を受け付ける音声入力部を備え、
前記判定部は、前記操作推定部の推定結果の正否を、前記音声入力部に入力された音声に基づいて判定する、
請求項1又は2に記載の表示装置。
A voice input unit for receiving voice input from the user,
The determination unit determines whether the estimation result of the operation estimation unit is correct based on the voice input to the voice input unit,
The display device according to claim 1.
前記複数の入力用画像の各々は、互いに相違する文字を示し、
前記操作推定部は、前記動きセンサーの検出値に基づいて、入力する文字を推定する、
請求項1から3のいずれか1項に記載の表示装置。
Each of the plurality of input images indicates different characters,
The operation estimation unit estimates a character to be input based on a detection value of the motion sensor,
The display device according to claim 1.
前記複数の入力用画像の各々は、前記ユーザーの手の親指を除く各指において関節で区切られた領域に対応付けられ、
前記1つの入力用画像を選択する操作は、前記ユーザーの手の親指を前記関節で区切られた領域に押圧する操作である、
請求項1から4のいずれか1項に記載の表示装置。
Each of the plurality of input images is associated with an area separated by a joint in each finger of the user's hand excluding the thumb,
The operation of selecting the one input image is an operation of pressing the thumb of the user's hand to a region delimited by the joint.
The display device according to claim 1.
前記複数の入力用画像に含まれる2つ以上の所定個数の入力用画像は、前記ユーザーの手の親指を除く各指において関節で区切られた領域に対応付けられ、
前記領域を選択する操作は、前記ユーザーの手の親指を前記関節で区切られた領域に押圧する操作であり、
前記領域に対応付けられた前記所定個数の入力用画像から前記1つの入力用画像を選択する操作は、前記ユーザーの手の親指を所定方向に移動する操作である、
請求項1から4のいずれか1項に記載の表示装置。
A predetermined number of two or more input images included in the plurality of input images are associated with a region separated by a joint in each finger of the user excluding the thumb of the hand,
The operation of selecting the region is an operation of pressing the thumb of the user's hand to a region delimited by the joint,
The operation of selecting the one input image from the predetermined number of input images associated with the area is an operation of moving the thumb of the user's hand in a predetermined direction.
The display device according to claim 1.
前記表示制御部は、前記ユーザーの手の位置をガイドする第1ガイド画像を前記表示部に表示させる、
請求項1から6のいずれか1項に記載の表示装置。
The display control unit causes the display unit to display a first guide image for guiding the position of the user's hand.
The display device according to claim 1.
前記表示制御部は、前記表示部を透過して視認される前記ユーザーの手の位置を追跡し、前記ユーザーの手の移動に応じて、前記複数の入力用画像の各々の表示位置を調整する、
請求項1から7のいずれか1項に記載の表示装置。
The display control unit tracks the position of the user's hand visually recognized through the display unit, and adjusts the display position of each of the plurality of input images according to the movement of the user's hand. ,
The display device according to claim 1.
前記動きセンサーは、前記ユーザーの手首に装着される筋電センサーを含む、
請求項1から8のいずれか1項に記載の表示装置。
The motion sensor includes a myoelectric sensor worn on the user's wrist,
The display device according to claim 1.
光を透過する透過型の表示部であって、ユーザーの頭部に装着される表示部と、前記ユーザーの手の動きを検出する動きセンサーと、を備える表示装置の制御方法であって、
前記表示部を透過して視認される前記ユーザーの手に重なる位置に、複数の入力用画像を前記表示部に表示させる表示制御ステップと、
前記動きセンサーの検出値に基づき、前記複数の入力用画像の中から1つの入力用画像を選択する操作を推定する操作推定ステップと、
前記操作推定ステップの推定結果を判定する判定ステップと、
前記動きセンサーの検出値と、前記1つの入力用画像と、前記判定ステップの判定結果との組み合わせを含む学習データセットに基づいて、前記動きセンサーの検出値から前記1つの入力用画像を特定するための条件を機械学習する学習ステップと、
を含む、表示装置の制御方法。
A method of controlling a display device, comprising a transmissive display unit that transmits light, the display unit being mounted on a user's head, and a motion sensor that detects a motion of the user's hand,
A display control step of displaying a plurality of input images on the display unit at a position overlapping with the user's hand visually recognized through the display unit;
An operation estimation step of estimating an operation of selecting one input image from the plurality of input images based on the detection value of the motion sensor;
A determination step of determining the estimation result of the operation estimation step,
The one input image is specified from the detection value of the motion sensor based on a learning data set including a combination of the detection value of the motion sensor, the one input image, and the determination result of the determination step. A learning step of machine learning the conditions for
A method for controlling a display device, including:
JP2018203895A 2018-10-30 2018-10-30 Display device and method for controlling display device Pending JP2020071588A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018203895A JP2020071588A (en) 2018-10-30 2018-10-30 Display device and method for controlling display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018203895A JP2020071588A (en) 2018-10-30 2018-10-30 Display device and method for controlling display device

Publications (1)

Publication Number Publication Date
JP2020071588A true JP2020071588A (en) 2020-05-07

Family

ID=70547861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018203895A Pending JP2020071588A (en) 2018-10-30 2018-10-30 Display device and method for controlling display device

Country Status (1)

Country Link
JP (1) JP2020071588A (en)

Similar Documents

Publication Publication Date Title
US10643390B2 (en) Head mounted display, method for controlling head mounted display, and computer program
CN108508603B (en) Head-mounted display device, control method therefor, and recording medium
CN108535868B (en) Head-mounted display device and control method thereof
US11216083B2 (en) Display system that switches into an operation acceptable mode according to movement detected
US11668936B2 (en) Head-mounted type display device and method of controlling head-mounted type display device
US10976836B2 (en) Head-mounted display apparatus and method of controlling head-mounted display apparatus
US20190317608A1 (en) Transmissive head-mounted display apparatus, display control method, and computer program
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
US10296105B2 (en) Head-mounted display device, computer program, and control method for head-mounted display device
JP2018142857A (en) Head mounted display device, program, and control method of head mounted display device
US20180214007A1 (en) Endoscope operation support system
JP2019164420A (en) Transmission type head-mounted display device, control method of transmission type head-mounted display device, and computer program for control of transmission type head-mounted display device
US10884498B2 (en) Display device and method for controlling display device
JP2018084886A (en) Head mounted type display device, head mounted type display device control method, computer program
JP6776578B2 (en) Input device, input method, computer program
JP2018206080A (en) Head-mounted display device, program, and control method for head-mounted display device
JP2017146726A (en) Movement support device and movement support method
JP2020135306A (en) Display system, program for controlling information processing device, and method of controlling information processing device
JP6932917B2 (en) Head-mounted display, program, and head-mounted display control method
JP2018042004A (en) Display device, head-mounted type display device, and method for controlling display device
JP2020071588A (en) Display device and method for controlling display device
JP2017182460A (en) Head-mounted type display device, method for controlling head-mounted type display device, and computer program
JP2017134630A (en) Display device, control method of display device, and program
JP6790769B2 (en) Head-mounted display device, program, and control method of head-mounted display device
JP2020119391A (en) Information processing apparatus, method for controlling information processing apparatus, and program for controlling information processing apparatus