JP6776578B2 - Input device, input method, computer program - Google Patents

Input device, input method, computer program Download PDF

Info

Publication number
JP6776578B2
JP6776578B2 JP2016064894A JP2016064894A JP6776578B2 JP 6776578 B2 JP6776578 B2 JP 6776578B2 JP 2016064894 A JP2016064894 A JP 2016064894A JP 2016064894 A JP2016064894 A JP 2016064894A JP 6776578 B2 JP6776578 B2 JP 6776578B2
Authority
JP
Japan
Prior art keywords
button
buttons
input
predetermined pattern
detection result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016064894A
Other languages
Japanese (ja)
Other versions
JP2017182228A (en
Inventor
総志 木村
総志 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016064894A priority Critical patent/JP6776578B2/en
Priority to US15/466,250 priority patent/US20170285765A1/en
Publication of JP2017182228A publication Critical patent/JP2017182228A/en
Application granted granted Critical
Publication of JP6776578B2 publication Critical patent/JP6776578B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、入力装置に関する。 The present invention relates to an input device.

スマートフォン等の機器における入力方法の1つとして、フリック入力が知られている(例えば、特許文献1参照)。フリック入力とは、タッチパッド上で指を素早く動かしたり弾いたりして行う操作全般のことを意味する。このフリック入力は、例えば、ソフトウェアキーボードを利用した文字入力を素早く実現できる手段として知られている。 Flick input is known as one of the input methods in devices such as smartphones (see, for example, Patent Document 1). Flick input refers to all operations performed by quickly moving or flipping a finger on the touchpad. This flick input is known as a means for quickly realizing character input using, for example, a software keyboard.

特開2013−33395号公報Japanese Unexamined Patent Publication No. 2013-33395

フリック入力を行うためには、入力装置において、例えばタッチパッドやタッチパネルといった、指等の軌跡を取得可能なセンサーデバイスを備えることが必要とされる。一方、例えば十字キーと幾つかのボタンを備えるリモコンやコントローラーといった、指等の軌跡を取得可能なセンサーデバイスを備えない入力装置も数多く存在する。従来、このような入力装置ではフリック入力を実現することはできないという課題があった。 In order to perform flick input, it is necessary for the input device to be provided with a sensor device such as a touch pad or a touch panel that can acquire the locus of a finger or the like. On the other hand, there are many input devices that do not have a sensor device that can acquire the trajectory of a finger or the like, such as a remote controller or a controller that has a cross key and some buttons. Conventionally, there has been a problem that flick input cannot be realized with such an input device.

このため、指等の軌跡を取得可能なセンサーデバイスを使用せずにフリック入力を行うことのできる入力装置が望まれていた。 Therefore, an input device capable of performing flick input without using a sensor device capable of acquiring a locus of a finger or the like has been desired.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。
本発明の一形態によれば、入力装置が提供される。この入力装置は、個々に入力のオンオフが可能な2つ以上のボタンと、前記入力装置を制御する制御部と、を備え、前記制御部は、前記各ボタンの検出結果が予め定められたパターンを含む場合はフリック入力に相当する出力を実行し、前記予め定められたパターンを含まない場合は前記各ボタンの検出結果をそのまま出力し、前記予め定められたパターンは、前記2つ以上のボタンのうち、一つのボタンのオンオフを少なくとも1回以上検出した後、他のボタンのオンを検出したことであり、前記2つ以上のボタンは、決定ボタンと、上下左右のそれぞれに対応した方向ボタンと、を含み、前記予め定められたパターンは、前記決定ボタンのオンオフを検出した後、前記方向ボタンのうちのいずれか1つのオンを検出したことである
この形態の入力装置によれば、個々に入力のオンオフが可能な2つ以上のボタンにおいて、各ボタンの検出結果が予め定められたパターンを含む場合はフリック入力に相当する出力がなされる。このため、使用者は、指等の軌跡を取得可能なセンサーデバイスを使用せずにフリック入力を行うことができる。またこの形態の入力装置によれば、決定ボタンが押下(またはタッチ)され、その後、方向ボタンのうちのいずれか1つが押下(またはタッチ)された際、換言すれば、押下/タッチを挟んだ指の移動に伴って、フリック入力に相当する出力がなされる。この結果、使用者は、実際のフリック動作に模した指の移動動作によってフリック入力を行うことができる。
本発明の他の一形態によれば、入力装置が提供される。この入力装置は、個々に入力のオンオフが可能な2つ以上のボタンと、前記入力装置を制御する制御部と、を備え、前記制御部は、前記各ボタンの検出結果が予め定められたパターンを含む場合はフリック入力に相当する出力を実行し、前記予め定められたパターンを含まない場合は前記各ボタンの検出結果をそのまま出力し、前記予め定められたパターンは、前記2つ以上のボタンのうち、一つのボタンのオンオフを少なくとも1回以上検出した後、他のボタンのオンを検出したことであり、前記2つ以上のボタンは、決定ボタンと、上下左右のそれぞれに対応した方向ボタンと、を含み、前記予め定められたパターンは、前記決定ボタンのオンオフを2回検出した後、前記方向ボタンのうちのいずれか1つのオンを検出したことである。この形態の入力装置によれば、個々に入力のオンオフが可能な2つ以上のボタンにおいて、各ボタンの検出結果が予め定められたパターンを含む場合はフリック入力に相当する出力がなされる。このため、使用者は、指等の軌跡を取得可能なセンサーデバイスを使用せずにフリック入力を行うことができる。またこの形態の入力装置によれば、決定ボタンの押下(またはタッチ)が2回された後に方向ボタンの押下(またはタッチ)がされた場合に限り、フリック入力に相当する出力がなされる。このため使用者は、通常の決定−方向入力と、フリック入力とを使い分けることができる。
The present invention has been made to solve at least a part of the above-mentioned problems, and can be realized as the following forms.
According to one embodiment of the present invention, an input device is provided. The input device includes two or more buttons that can individually turn inputs on and off, and a control unit that controls the input device. The control unit has a pattern in which the detection result of each button is predetermined. When is included, the output corresponding to the flick input is executed, when the predetermined pattern is not included, the detection result of each of the buttons is output as it is, and the predetermined pattern is the two or more buttons. of after detecting at least one time on and off of one of the buttons state, and are the detection of the on-the other buttons, the two or more buttons, a decision button, a direction corresponding to each of the vertical and horizontal The predetermined pattern, including the button, is that after detecting the on / off of the decision button, the on of any one of the direction buttons is detected .
According to this form of input device, in two or more buttons that can be individually turned on and off, if the detection result of each button includes a predetermined pattern, an output corresponding to a flick input is produced. Therefore, the user can perform flick input without using a sensor device capable of acquiring a trajectory such as a finger. Further, according to the input device of this form, when the enter button is pressed (or touched) and then any one of the direction buttons is pressed (or touched), in other words, the press / touch is sandwiched. As the finger moves, an output equivalent to a flick input is produced. As a result, the user can perform flick input by a finger movement motion that imitates an actual flick motion.
According to another embodiment of the present invention, an input device is provided. The input device includes two or more buttons that can individually turn inputs on and off, and a control unit that controls the input device. The control unit has a pattern in which the detection result of each button is predetermined. When is included, the output corresponding to the flick input is executed, when the predetermined pattern is not included, the detection result of each of the buttons is output as it is, and the predetermined pattern is the two or more buttons. Of these, the on / off of one button is detected at least once, and then the on / off of the other button is detected. The two or more buttons are the enter button and the direction buttons corresponding to the up / down / left / right directions. The predetermined pattern includes, and, after detecting the on / off of the decision button twice, the on of any one of the direction buttons is detected. According to this form of input device, in two or more buttons that can be individually turned on and off, if the detection result of each button includes a predetermined pattern, an output corresponding to a flick input is produced. Therefore, the user can perform flick input without using a sensor device capable of acquiring a trajectory such as a finger. Further, according to the input device of this form, the output corresponding to the flick input is produced only when the direction button is pressed (or touched) after the enter button is pressed (or touched) twice. Therefore, the user can properly use the normal decision-direction input and the flick input.

(1)本発明の一形態によれば、入力装置が提供される。この入力装置は;個々に入力のオンオフが可能な2つ以上のボタンと;前記入力装置を制御する制御部と、を備え;前記制御部は、前記各ボタンの検出結果が予め定められたパターンを含む場合はフリック入力に相当する出力を実行し、前記予め定められたパターンを含まない場合は前記各ボタンの検出結果をそのまま出力する。
この形態の入力装置によれば、個々に入力のオンオフが可能な2つ以上のボタンにおいて、各ボタンの検出結果が予め定められたパターンを含む場合はフリック入力に相当する出力がなされる。このため、使用者は、指等の軌跡を取得可能なセンサーデバイスを使用せずにフリック入力を行うことができる。
(1) According to one embodiment of the present invention, an input device is provided. The input device comprises; two or more buttons that can individually turn inputs on and off; and a control unit that controls the input device; the control unit has a predetermined pattern of detection results of each button. When is included, the output corresponding to the flick input is executed, and when the predetermined pattern is not included, the detection result of each button is output as it is.
According to this form of input device, in two or more buttons that can be individually turned on and off, if the detection result of each button includes a predetermined pattern, an output corresponding to a flick input is produced. Therefore, the user can perform flick input without using a sensor device capable of acquiring a trajectory such as a finger.

(2)上記形態の入力装置において;前記2つ以上のボタンは、決定ボタンと、上下左右のそれぞれに対応した方向ボタンと、を含み;前記予め定められたパターンは;前記決定ボタンのオンオフを検出した後、前記方向ボタンのうちのいずれか1つのオンを検出したこと、としてもよい。
この形態の入力装置によれば、決定ボタンが押下(またはタッチ)され、その後、方向ボタンのうちのいずれか1つが押下(またはタッチ)された際、換言すれば、押下/タッチを挟んだ指の移動に伴って、フリック入力に相当する出力がなされる。この結果、使用者は、実際のフリック動作に模した指の移動動作によってフリック入力を行うことができる。
(2) In the input device of the above embodiment; the two or more buttons include a decision button and a direction button corresponding to each of the up, down, left, and right; the predetermined pattern; turns the decision button on and off. After the detection, it may be said that the on of any one of the direction buttons is detected.
According to this form of input device, when the enter button is pressed (or touched) and then any one of the direction buttons is pressed (or touched), in other words, the finger holding the press / touch. As the movement of, the output corresponding to the flick input is made. As a result, the user can perform flick input by a finger movement motion that imitates an actual flick motion.

(3)上記形態の入力装置において;前記予め定められたパターンは;前記決定ボタンのオンオフを検出した後、予め定められた第1の時間内に、前記方向ボタンのうちのいずれか1つのオンを検出したこと、としてもよい。
この形態の入力装置によれば、決定ボタンの押下(またはタッチ)と方向ボタンの押下(またはタッチ)との間が第1の時間内である場合に限り、フリック入力に相当する出力がなされる。この第1の時間を適切に設定することで、使用者は、通常の決定−方向入力と、フリック入力とを使い分けることができる。
(3) In the input device of the above-described embodiment; the predetermined pattern; after detecting the on / off of the determination button, any one of the direction buttons is turned on within a predetermined first time. May be detected.
According to the input device of this form, the output corresponding to the flick input is produced only when the pressing (or touch) of the enter button and the pressing (or touch) of the direction button are within the first time. .. By appropriately setting this first time, the user can properly use the normal decision-direction input and the flick input.

(4)上記形態の入力装置において;前記予め定められたパターンは;前記決定ボタンのオンを検出した後、予め定められた第2の時間経過後に前記決定ボタンのオフを検出し、その後、前記方向ボタンのうちのいずれか1つのオンを検出したこと、としてもよい。
この形態の入力装置によれば、決定ボタンの押下(またはタッチ)開始から決定ボタンの押下(またはタッチ)終了までの間が第2の時間より長い場合に限り、フリック入力に相当する出力がなされる。この第2の時間を適切に設定することで、使用者は、ボタン長押しを契機として意識的に、通常の決定−方向入力と、フリック入力とを使い分けることができる。
(4) In the input device of the above-described embodiment; the predetermined pattern; after detecting the on of the decision button, the off of the decision button is detected after a predetermined second time has elapsed, and then the decision button is detected. It may be that the on of any one of the direction buttons is detected.
According to the input device of this form, the output corresponding to the flick input is made only when the period from the start of pressing (or touching) the enter button to the end of pressing (or touching) of the enter button is longer than the second time. To. By appropriately setting this second time, the user can consciously use the normal decision-direction input and the flick input properly by pressing and holding the button.

(5)上記形態の入力装置において;前記2つ以上のボタンは、決定ボタンと、上下左右のそれぞれに対応した方向ボタンと、を含み;前記予め定められたパターンは;前記決定ボタンのオンオフを2回検出した後、前記方向ボタンのうちのいずれか1つのオンを検出したこと、としてもよい。
この形態の入力装置によれば、決定ボタンの押下(またはタッチ)が2回された後に方向ボタンの押下(またはタッチ)がされた場合に限り、フリック入力に相当する出力がなされる。このため使用者は、通常の決定−方向入力と、フリック入力とを使い分けることができる。
(5) In the input device of the above form; the two or more buttons include a decision button and a direction button corresponding to each of the up, down, left, and right; the predetermined pattern; turns the decision button on and off. It may be that after the detection is performed twice, the on of any one of the direction buttons is detected.
According to this form of input device, an output corresponding to a flick input is produced only when the direction button is pressed (or touched) after the enter button is pressed (or touched) twice. Therefore, the user can properly use the normal decision-direction input and the flick input.

(6)上記形態の入力装置において;前記2つ以上のボタンは、各前記方向ボタンが、前記決定ボタンを中心として上下左右方向にそれぞれ配置された十字キーとしてもよい。
この形態の入力装置によれば、決定ボタンと方向ボタンとを、使用者が直感的に把握および操作しやすい十字キーとして構成することができる。
(6) In the input device of the above embodiment; the two or more buttons may be cross keys in which the direction buttons are arranged in the vertical and horizontal directions with the decision button as the center.
According to this form of input device, the enter button and the direction button can be configured as a cross key that is easy for the user to intuitively grasp and operate.

(7)上記形態の入力装置において;各前記2つ以上のボタンは、機械接点式のボタン、または、静電容量式のボタンとしてもよい。
この形態の入力装置によれば、機械接点式のボタン、または、静電容量式のボタンのいずれを用いても入力装置を構成することができる。
(7) In the input device of the above form; each of the two or more buttons may be a mechanical contact type button or a capacitance type button.
According to this form of input device, the input device can be configured by using either a mechanical contact type button or a capacitance type button.

(8)上記形態の入力装置において、さらに;使用者の頭部に装着されることで前記使用者に虚像を視認させる画像表示部に接続するためのインターフェイスを備え;前記制御部は、さらに;画像光を生成し、生成した前記画像光を前記画像表示部へ出力する機能と;種々のアプリケーションの実行を可能とするオペレーティングシステムと、を含み;前記制御部は、前記フリック入力に相当する出力または前記検出結果を、前記アプリケーションと前記オペレーティングシステムとのうちの少なくとも一方へ出力してもよい。
この形態の入力装置では、入力装置を、画像表示装置を操作および制御するコントローラーとして構成することができる。
(8) In the input device of the above-described embodiment, the control unit further includes an interface for connecting to an image display unit which is attached to the head of the user to make the user visually recognize a virtual image. It includes a function of generating an image light and outputting the generated image light to the image display unit; an operating system capable of executing various applications; the control unit outputs an output corresponding to the flick input. Alternatively, the detection result may be output to at least one of the application and the operating system.
In this form of input device, the input device can be configured as a controller that operates and controls the image display device.

(9)上記形態の入力装置において;前記制御部は、さらに、種々のアプリケーションの実行を可能とするオペレーティングシステムを含み;前記制御部は、前記フリック入力に相当する出力または前記検出結果を、前記アプリケーションと前記オペレーティングシステムとのうちの少なくとも一方へ出力してもよい。
この形態の入力装置では、入力装置を、種々のアプリケーションを実行可能なコンピューターとして構成することができる。
(9) In the input device of the above form; the control unit further includes an operating system capable of executing various applications; the control unit produces an output corresponding to the flick input or the detection result. It may be output to at least one of the application and the operating system.
In this form of input device, the input device can be configured as a computer capable of executing various applications.

(10)上記形態の入力装置において、さらに;外部装置に接続するためのインターフェイスを備え;前記制御部は、前記フリック入力に相当する出力または前記検出結果を、前記インターフェイスを介して前記外部装置へ出力してもよい。
この形態の入力装置では、入力装置を、外部装置に対する入力を行うデバイスとして構成することができる。
(10) In the input device of the above form, further; an interface for connecting to an external device; the control unit sends an output corresponding to the flick input or the detection result to the external device via the interface. You may output it.
In this form of input device, the input device can be configured as a device that inputs to an external device.

上述した本発明の各形態の有する複数の構成要素は全てが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな構成要素との差し替え、限定内容の一部削除を行うことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。 The plurality of components of each form of the present invention described above are not all essential, and may be used to solve some or all of the above-mentioned problems, or part or all of the effects described herein. In order to achieve the above, it is possible to change or delete some of the components of the plurality of components, replace them with new components, and partially delete the limited contents. Further, in order to solve a part or all of the above-mentioned problems, or to achieve a part or all of the effects described in the present specification, the technical features included in the above-mentioned embodiment of the present invention. It is also possible to combine some or all with some or all of the technical features contained in the other embodiments of the invention described above to form an independent embodiment of the invention.

なお、本発明は、種々の態様で実現することが可能であり、例えば、入力装置、入力装置と画像表示部とを組み合わせた頭部装着型表示装置、入力装置と頭部装着型表示装置とを組み合わせたシステム、入力装置と情報処理装置とを組み合わせたシステム、入力方法、これらの装置、システム、方法の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを配布するためのサーバー装置、そのコンピュータープログラムを記憶した記憶媒体等の形態で実現することができる。 The present invention can be realized in various aspects, for example, an input device, a head-mounted display device combining an input device and an image display unit, and an input device and a head-mounted display device. A system that combines input devices and an information processing device, an input method, a computer program that realizes the functions of these devices, systems, and methods, a server device that distributes the computer program, and the computer. It can be realized in the form of a storage medium or the like that stores the program.

本発明の一実施形態におけるHMDの外観構成を示す図である。It is a figure which shows the appearance structure of the HMD in one Embodiment of this invention. 画像表示部が備える光学系の構成を示す要部平面図である。It is a main part plan view which shows the structure of the optical system provided in the image display part. 使用者から見た画像表示部の要部構成を示す図である。It is a figure which shows the main part structure of the image display part seen from the user. カメラの画角を説明するための図である。It is a figure for demonstrating the angle of view of a camera. HMDの構成を機能的に示すブロック図である。It is a block diagram which shows the structure of HMD functionally. HMDの制御機能部の構成を機能的に示すブロック図である。It is a block diagram which shows the structure of the control function part of an HMD functionally. 十字キーについて説明する図である。It is a figure explaining the cross key. 十字キーを用いたフリック入力の方法について説明する図である。It is a figure explaining the method of flick input using a cross key. 入出力制御部がフリック入力に相当する出力を行う操作パターンの例を示す図である。It is a figure which shows the example of the operation pattern which the input / output control part outputs corresponding to a flick input. パターンの操作について説明する図である。It is a figure explaining operation of a pattern. パターンの操作について説明する図である。It is a figure explaining operation of a pattern. パターンの操作について説明する図である。It is a figure explaining operation of a pattern. パターンの操作および操作について説明する図である。It is a figure explaining operation of a pattern and operation. 十字キーの他の構成について説明する図である。It is a figure explaining another structure of a cross key. 十字キーの他の構成について説明する図である。It is a figure explaining another structure of a cross key. 十字キーの他の構成について説明する図である。It is a figure explaining another structure of a cross key. 変形例の画像表示部が備える光学系の構成を示す要部平面図である。It is a main part plan view which shows the structure of the optical system provided in the image display part of the modification.

A.実施形態:
A−1.HMDの構成:
図1は、本発明の一実施形態におけるHMD(頭部装着型表示装置、Head Mounted Display)100の外観構成を示す図である。HMD100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10(制御部)と、を備える表示装置である。制御装置10は、使用者の操作を取得するための各種の入力デバイスを備え、使用者がHMD100を操作するためのコントローラーとして機能する。また、本実施形態の制御装置10は、指等の軌跡を取得可能なセンサーデバイスを使用せずにフリック入力を行うことができる「入力装置」としても機能する。
A. Embodiment:
A-1. HMD configuration:
FIG. 1 is a diagram showing an external configuration of an HMD (Head Mounted Display) 100 according to an embodiment of the present invention. The HMD 100 includes a display unit 20 (display unit) that allows the user to visually recognize a virtual image while being mounted on the user's head, and a control device 10 (control unit) that controls the image display unit 20. It is a device. The control device 10 includes various input devices for acquiring the user's operation, and functions as a controller for the user to operate the HMD 100. Further, the control device 10 of the present embodiment also functions as an "input device" capable of performing flick input without using a sensor device capable of acquiring a locus of a finger or the like.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22と、左表示ユニット24と、右導光板26と、左導光板28とを備える。 The image display unit 20 is a wearer that is worn on the user's head, and has a spectacle shape in the present embodiment. The image display unit 20 has a right display unit 21, a left display unit 24, a right light guide plate 26, and a left light guide plate 28 in a main body having a right holding unit 21, a left holding unit 23, and a front frame 27. And.

右保持部21および左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20の装着状態における使用者の右側頭部に対応する位置まで延伸して設けられている。左保持部23は、前部フレーム27の端部ELから、画像表示部20の装着状態における使用者の左側頭部に対応する位置まで延伸して設けられている。 The right holding portion 21 and the left holding portion 23 extend rearward from both ends of the front frame 27, respectively, and hold the image display portion 20 on the user's head like a temple (vine) of eyeglasses. Here, of both ends of the front frame 27, the end located on the right side of the user when the image display unit 20 is attached is referred to as the end ER, and the end located on the left side of the user is referred to as the end EL. To do. The right holding portion 21 extends from the end ER of the front frame 27 to a position corresponding to the right head of the user in the mounted state of the image display portion 20. The left holding portion 23 is provided extending from the end EL of the front frame 27 to a position corresponding to the left head of the user in the mounted state of the image display portion 20.

右導光板26および左導光板28は、前部フレーム27に設けられている。右導光板26は、画像表示部20の装着状態における使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態における使用者の左眼の眼前に位置し、左眼に画像を視認させる。 The right light guide plate 26 and the left light guide plate 28 are provided on the front frame 27. The right light guide plate 26 is located in front of the user's right eye when the image display unit 20 is attached, and allows the right eye to visually recognize the image. The left light guide plate 28 is located in front of the left eye of the user when the image display unit 20 is attached, and allows the left eye to visually recognize the image.

前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有する。この連結位置は、画像表示部20の装着状態における使用者の眉間の位置に対応する。前部フレーム27には、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態において使用者の鼻に当接する鼻当て部が設けられていてもよい。この場合、鼻当て部と右保持部21と左保持部23とによって、画像表示部20を使用者の頭部に保持できる。また、右保持部21および左保持部23に対して、画像表示部20の装着状態において使用者の後頭部に接するベルトを連結してもよい。この場合、ベルトによって画像表示部20を使用者の頭部に強固に保持できる。 The front frame 27 has a shape in which one end of the right light guide plate 26 and one end of the left light guide plate 28 are connected to each other. This connection position corresponds to the position between the user's eyebrows when the image display unit 20 is worn. The front frame 27 may be provided with a nose pad that comes into contact with the user's nose when the image display unit 20 is attached at the connection position between the right light guide plate 26 and the left light guide plate 28. In this case, the image display unit 20 can be held on the user's head by the nose pad portion, the right holding portion 21, and the left holding portion 23. Further, a belt in contact with the back of the head of the user may be connected to the right holding portion 21 and the left holding portion 23 while the image display unit 20 is attached. In this case, the image display unit 20 can be firmly held on the user's head by the belt.

右表示ユニット22は、右導光板26による画像の表示を行う。右表示ユニット22は、右保持部21に設けられ、画像表示部20の装着状態における使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示を行う。左表示ユニット24は、左保持部23に設けられ、画像表示部20の装着状態における使用者の左側頭部の近傍に位置する。なお、右表示ユニット22および左表示ユニット24を総称して「表示駆動部」とも呼ぶ。 The right display unit 22 displays an image by the right light guide plate 26. The right display unit 22 is provided in the right holding unit 21 and is located near the right head of the user in the mounted state of the image display unit 20. The left display unit 24 displays an image by the left light guide plate 28. The left display unit 24 is provided on the left holding unit 23 and is located near the left side head of the user when the image display unit 20 is attached. The right display unit 22 and the left display unit 24 are also collectively referred to as a "display drive unit".

本実施形態の右導光板26および左導光板28は、光透過性の樹脂等によって形成される光学部(例えばプリズム)であり、右表示ユニット22および左表示ユニット24が出力する画像光を使用者の眼に導く。なお、右導光板26および左導光板28の表面には、調光板が設けられてもよい。調光板は、光の波長域により透過率が異なる薄板状の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、前部フレーム27の表面(使用者の眼と対向する面とは反対側の面)を覆うように配置される。調光板の光学特性を適宜選択することにより、可視光、赤外光、および紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26および左導光板28に入射し、右導光板26および左導光板28を透過する外光の光量を調整できる。 The right light guide plate 26 and the left light guide plate 28 of the present embodiment are optical portions (for example, prisms) formed of a light-transmitting resin or the like, and use the image light output by the right display unit 22 and the left display unit 24. Lead to the eyes of others. A dimming plate may be provided on the surfaces of the right light guide plate 26 and the left light guide plate 28. The dimmer is a thin plate-shaped optical element having different transmittance depending on the wavelength range of light, and functions as a so-called wavelength filter. The dimmer is arranged so as to cover, for example, the surface of the front frame 27 (the surface opposite to the surface facing the user's eyes). By appropriately selecting the optical characteristics of the dimmer, the transmittance of light in any wavelength range such as visible light, infrared light, and ultraviolet light can be adjusted, and the right light guide plate 26 and left guide can be adjusted from the outside. The amount of external light incident on the light plate 28 and transmitted through the right light guide plate 26 and the left light guide plate 28 can be adjusted.

画像表示部20は、右表示ユニット22および左表示ユニット24がそれぞれ生成する画像光を、右導光板26および左導光板28に導き、この画像光によって虚像を使用者に視認させる(これを「画像を表示する」とも呼ぶ)。使用者の前方から右導光板26および左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、虚像を構成する画像光と、外光とが入射する。このため、使用者における虚像の視認性は、外光の強さに影響を受ける。 The image display unit 20 guides the image light generated by the right display unit 22 and the left display unit 24 to the right light guide plate 26 and the left light guide plate 28, respectively, and makes the user visually recognize the virtual image by the image light. Also called "display an image"). When external light enters the user's eyes through the right light guide plate 26 and the left light guide plate 28 from the front of the user, the image light constituting the virtual image and the external light are incident on the user's eyes. To do. Therefore, the visibility of the virtual image in the user is affected by the intensity of external light.

このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択あるいは調整することによって、虚像の視認のしやすさを調整することができる。典型的な例では、HMD100を装着した使用者が少なくとも外の景色を視認できる程度の光透過性を有する調光板を選択することができる。調光板を用いると、右導光板26および左導光板28を保護し、右導光板26および左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、あるいは、右導光板26および左導光板28のそれぞれに対して着脱可能としてもよい。また、複数種類の調光板を交換して着脱可能としてもよく、調光板を省略してもよい。 Therefore, for example, by mounting a dimmer on the front frame 27 and appropriately selecting or adjusting the optical characteristics of the dimmer, the ease of viewing the virtual image can be adjusted. In a typical example, it is possible to select a dimmer plate having at least a light transmittance that allows a user wearing the HMD 100 to visually recognize the outside scenery. When the dimming plate is used, the effect of protecting the right light guide plate 26 and the left light guide plate 28 and suppressing damage to the right light guide plate 26 and the left light guide plate 28 and adhesion of dirt can be expected. The light control plate may be detachable from the front frame 27 or the right light guide plate 26 and the left light guide plate 28, respectively. Further, a plurality of types of dimmers may be exchanged so that they can be attached and detached, and the dimmers may be omitted.

カメラ61は、画像表示部20の前部フレーム27に配置されている。カメラ61は、前部フレーム27の前面において、右導光板26および左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61は、前部フレーム27の端部ER側に配置されている。カメラ61は、前部フレーム27の端部EL側に配置されていてもよく、右導光板26と左導光板28との連結部に配置されていてもよい。 The camera 61 is arranged in the front frame 27 of the image display unit 20. The camera 61 is provided on the front surface of the front frame 27 at a position that does not block the external light transmitted through the right light guide plate 26 and the left light guide plate 28. In the example of FIG. 1, the camera 61 is arranged on the end ER side of the front frame 27. The camera 61 may be arranged on the end EL side of the front frame 27, or may be arranged at the connecting portion between the right light guide plate 26 and the left light guide plate 28.

カメラ61は、CCDやCMOS等の撮像素子、および、撮像レンズ等を備えるデジタルカメラである。本実施形態のカメラ61は単眼カメラであるが、ステレオカメラを採用してもよい。カメラ61は、HMD100の表側方向、換言すれば、画像表示部20の装着状態において使用者が視認する視界方向の、少なくとも一部の外景(実空間)を撮像する。換言すれば、カメラ61は、使用者の視界と重なる範囲または方向を撮像し、使用者が視認する方向を撮像する。カメラ61の画角の広さは適宜設定できる。本実施形態では、カメラ61の画角の広さは、使用者が右導光板26および左導光板28を透過して視認可能な使用者の視界の全体を撮像するように設定される。カメラ61は、制御部150(図5)の制御に従って撮像を実行し、得られた撮像データーを制御部150へ出力する。 The camera 61 is a digital camera including an image pickup element such as a CCD or CMOS, an image pickup lens, or the like. Although the camera 61 of the present embodiment is a monocular camera, a stereo camera may be adopted. The camera 61 captures at least a part of the outside view (real space) in the front side direction of the HMD 100, in other words, in the field of view direction visually recognized by the user when the image display unit 20 is attached. In other words, the camera 61 captures a range or direction that overlaps with the user's field of view, and captures the direction that the user sees. The width of the angle of view of the camera 61 can be set as appropriate. In the present embodiment, the wide angle of view of the camera 61 is set so that the user can image the entire field of view of the user who can see through the right light guide plate 26 and the left light guide plate 28. The camera 61 executes imaging under the control of the control unit 150 (FIG. 5), and outputs the obtained imaging data to the control unit 150.

HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する測距センサーを備えていてもよい。測距センサーは、例えば、前部フレーム27の右導光板26と左導光板28との連結部分に配置することができる。測距センサーの測定方向は、MD100の表側方向(カメラ61の撮像方向と重複する方向)とすることができる。測距センサーは、例えば、LEDやレーザーダイオード等の発光部と、光源が発する光が測定対象物に反射する反射光を受光する受光部と、により構成できる。この場合、三角測距処理や、時間差に基づく測距処理により距離を求める。測距センサーは、例えば、超音波を発する発信部と、測定対象物で反射する超音波を受信する受信部と、により構成してもよい。この場合、時間差に基づく測距処理により距離を求める。測距センサーはカメラ61と同様に、制御部150により制御され、検出結果を制御部150へ出力する。 The HMD 100 may include a distance measuring sensor that detects a distance to a measurement object located in a preset measurement direction. The distance measuring sensor can be arranged, for example, at the connecting portion between the right light guide plate 26 and the left light guide plate 28 of the front frame 27. The measurement direction of the distance measuring sensor can be the front side direction of the MD 100 (the direction overlapping the imaging direction of the camera 61). The distance measuring sensor can be composed of, for example, a light emitting unit such as an LED or a laser diode, and a light receiving unit that receives the reflected light that the light emitted from the light source reflects on the object to be measured. In this case, the distance is obtained by triangular distance measurement processing or distance measurement processing based on the time difference. The distance measuring sensor may be composed of, for example, a transmitting unit that emits ultrasonic waves and a receiving unit that receives ultrasonic waves reflected by the object to be measured. In this case, the distance is obtained by distance measurement processing based on the time difference. Like the camera 61, the distance measuring sensor is controlled by the control unit 150 and outputs the detection result to the control unit 150.

図2は、画像表示部20が備える光学系の構成を示す要部平面図である。説明の便宜上、図2には使用者の右眼REおよび左眼LEを図示する。図2に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成されている。 FIG. 2 is a plan view of a main part showing the configuration of the optical system included in the image display unit 20. For convenience of explanation, FIG. 2 illustrates the user's right eye RE and left eye LE. As shown in FIG. 2, the right display unit 22 and the left display unit 24 are symmetrically configured.

右眼REに虚像を視認させる構成として、右表示ユニット22は、OLED(Organic Light Emitting Diode)ユニット221と、右光学系251とを備える。OLEDユニット221は、画像光を発する。右光学系251は、レンズ群等を備え、OLEDユニット221が発する画像光Lを右導光板26へと導く。 The right display unit 22 includes an OLED (Organic Light Emitting Diode) unit 221 and a right optical system 251 so that the right eye RE can visually recognize the virtual image. The OLED unit 221 emits image light. The right optical system 251 includes a lens group and the like, and guides the image light L emitted by the OLED unit 221 to the right light guide plate 26.

OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光し、R(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子により構成される自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素とした複数の画素が、マトリクス状に配置されている。 The OLED unit 221 has an OLED panel 223 and an OLED drive circuit 225 for driving the OLED panel 223. The OLED panel 223 is a self-luminous display panel composed of light emitting elements that emit light by organic electroluminescence and emit R (red), G (green), and B (blue) colored lights, respectively. In the OLED panel 223, a plurality of pixels having a unit including one R, G, and B element as one pixel are arranged in a matrix.

OLED駆動回路225は、制御部150(図5)の制御に従って、OLEDパネル223が備える発光素子の選択および通電を実行し、発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面、すなわち発光面の裏側に、ボンディング等により固定されている。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板に実装されてもよい。この基板には、後述する温度センサー217が実装される。なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成を採用してもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加えて、W(白)の光を放射する発光素子を備えるWRGB構成のOLEDパネル223が採用されてもよい。 The OLED drive circuit 225 selects and energizes the light emitting element included in the OLED panel 223 according to the control of the control unit 150 (FIG. 5), and causes the light emitting element to emit light. The OLED drive circuit 225 is fixed to the back surface of the OLED panel 223, that is, the back side of the light emitting surface by bonding or the like. The OLED drive circuit 225 is composed of, for example, a semiconductor device that drives the OLED panel 223, and may be mounted on a substrate fixed to the back surface of the OLED panel 223. A temperature sensor 217, which will be described later, is mounted on this substrate. The OLED panel 223 may adopt a configuration in which light emitting elements that emit white light are arranged in a matrix, and color filters corresponding to each of the R, G, and B colors are arranged in an overlapping manner. Further, an OLED panel 223 having a WRGB configuration including a light emitting element that emits W (white) light in addition to a light emitting element that emits R, G, and B colored light may be adopted.

右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射後、右導光板26から右眼REへと射出され、この画像光Lが右眼REの網膜で像を結ぶことで、使用者に虚像を視認させる。 The right optical system 251 has a collimating lens that converts the image light L emitted from the OLED panel 223 into a light flux in a parallel state. The image light L converted into a light flux in a parallel state by the collimating lens is incident on the right light guide plate 26. A plurality of reflecting surfaces that reflect the image light L are formed in the optical path that guides the light inside the right light guide plate 26. The image light L is guided to the right eye RE side through a plurality of reflections inside the right light guide plate 26. A half mirror 261 (reflection surface) located in front of the right eye RE is formed on the right light guide plate 26. After being reflected by the half mirror 261, the image light L is emitted from the right light guide plate 26 to the right eye RE, and the image light L forms an image on the retina of the right eye RE so that the user can visually recognize the virtual image.

左眼LEに虚像を視認させる構成として、左表示ユニット24は、OLEDユニット241と、左光学系252とを備える。OLEDユニット241は画像光を発する。左光学系252は、レンズ群等を備え、OLEDユニット241が発する画像光Lを左導光板28へと導く。OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245を有する。各部の詳細は、OLEDユニット221、OLEDパネル223、OLED駆動回路225と同じである。OLEDパネル243の裏面に固定される基板には、温度センサー239が実装される。また、左光学系252の詳細は右光学系251と同じである。 The left display unit 24 includes an OLED unit 241 and a left optical system 252 as a configuration for allowing the left eye LE to visually recognize a virtual image. The OLED unit 241 emits image light. The left optical system 252 includes a lens group and the like, and guides the image light L emitted by the OLED unit 241 to the left light guide plate 28. The OLED unit 241 includes an OLED panel 243 and an OLED drive circuit 245 that drives the OLED panel 243. The details of each part are the same as those of the OLED unit 221 and the OLED panel 223, and the OLED drive circuit 225. The temperature sensor 239 is mounted on the substrate fixed to the back surface of the OLED panel 243. The details of the left optical system 252 are the same as those of the right optical system 251.

以上説明した構成によれば、HMD100は、シースルー型の表示装置として機能することができる。すなわち使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。使用者の左眼LEには、ハーフミラー281で反射した画像光Lと、左導光板28を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させる。この結果、使用者にとっては、右導光板26および左導光板28を透かして外景(実世界)が見えると共に、この外景に重なるようにして画像光Lによる虚像が視認される。 According to the configuration described above, the HMD 100 can function as a see-through type display device. That is, the image light L reflected by the half mirror 261 and the external light OL transmitted through the right light guide plate 26 are incident on the user's right eye RE. The image light L reflected by the half mirror 281 and the external light OL transmitted through the left light guide plate 28 are incident on the left eye LE of the user. In this way, the HMD 100 superimposes the image light L of the internally processed image and the external light OL and causes them to enter the user's eye. As a result, the user can see the outside view (real world) through the right light guide plate 26 and the left light guide plate 28, and can visually recognize the virtual image by the image light L so as to overlap the outside view.

なお、ハーフミラー261およびハーフミラー281は、右表示ユニット22および左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す「画像取り出し部」として機能する。また、右光学系251および右導光板26を総称して「右導光部」とも呼び、左光学系252および左導光板28を総称して「左導光部」とも呼ぶ。右導光部および左導光部の構成は、上述した例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができる。例えば、右導光部および左導光部には、回折格子を用いてもよいし、半透過反射膜を用いてもよい。 The half mirror 261 and the half mirror 281 function as an "image extraction unit" that reflects the image light output by the right display unit 22 and the left display unit 24 to extract an image. Further, the right optical system 251 and the right light guide plate 26 are collectively referred to as a “right light guide unit”, and the left optical system 252 and the left light guide plate 28 are collectively referred to as a “left light guide unit”. The configuration of the right light guide unit and the left light guide unit is not limited to the above-mentioned example, and any method can be used as long as an image light is used to form a virtual image in front of the user's eyes. For example, a diffraction grating may be used for the right light guide portion and the left light guide portion, or a semitransmissive reflective film may be used.

図1において、制御装置10と画像表示部20とは、接続ケーブル40によって接続される。接続ケーブル40は、制御装置10の下部に設けられるコネクターに着脱可能に接続され、左保持部23の先端から、画像表示部20内部の各種回路に接続する。接続ケーブル40には、デジタルデータを伝送するメタルケーブルまたは光ファイバーケーブルを有する。接続ケーブル40にはさらに、アナログデータを伝送するメタルケーブルを含んでもよい。接続ケーブル40の途中には、コネクター46が設けられている。 In FIG. 1, the control device 10 and the image display unit 20 are connected by a connection cable 40. The connection cable 40 is detachably connected to a connector provided at the bottom of the control device 10, and is connected to various circuits inside the image display unit 20 from the tip of the left holding unit 23. The connection cable 40 includes a metal cable or an optical fiber cable for transmitting digital data. The connection cable 40 may further include a metal cable for transmitting analog data. A connector 46 is provided in the middle of the connection cable 40.

コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46と制御装置10とは、例えばアナログ音声信号を伝送するラインで接続される。図1に示す本実施形態の例では、コネクター46には、ステレオヘッドホンを構成する右イヤホン32および左イヤホン34と、マイク63を有するヘッドセット30とが接続されている。 The connector 46 is a jack for connecting a stereo mini plug, and the connector 46 and the control device 10 are connected by, for example, a line for transmitting an analog audio signal. In the example of the present embodiment shown in FIG. 1, the right earphone 32 and the left earphone 34 constituting the stereo headphones and the headset 30 having the microphone 63 are connected to the connector 46.

マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置されている。マイク63は、音声を集音し、音声信号を音声インターフェイス182(図5)に出力する。マイク63は、モノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであっても無指向性のマイクであってもよい。 As shown in FIG. 1, for example, the microphone 63 is arranged so that the sound collecting portion of the microphone 63 faces the line-of-sight direction of the user. The microphone 63 collects sound and outputs a voice signal to the voice interface 182 (FIG. 5). The microphone 63 may be a monaural microphone or a stereo microphone, and may be a directional microphone or an omnidirectional microphone.

制御装置10は、使用者に対する入出力インターフェイスとして、ボタン11と、LEDインジケーター12と、十字キー13と、トラックパッド14と、上下キー15と、切替スイッチ16と、電源スイッチ18とを備える。 The control device 10 includes a button 11, an LED indicator 12, a cross key 13, a track pad 14, an up / down key 15, a changeover switch 16, and a power switch 18 as input / output interfaces for the user.

ボタン11は、制御装置10が実行するOS(オペレーティングシステム)143(図6)の操作等を行うためのメニューキー、ホームキー、戻るキー等を含む。本実施形態のボタン11は、これらのキーやスイッチのうちの押圧操作により変位するタイプのボタンである。LEDインジケーター12は、HMD100の動作状態に対応して点灯あるいは消灯する。十字キー13は、上下左右および中央部分にそれぞれ対応するキーへのタッチまたは押圧操作を検出して、検出内容に応じた信号を出力する。トラックパッド14は、接触操作を検出する操作面を有し、操作面への接触操作を検出して、検出内容に応じた信号を出力する。接触操作の検出方法には、静電式、圧力検出式、光学式等の種々の方法を採用できる。 The button 11 includes a menu key, a home key, a back key, and the like for operating the OS (operating system) 143 (FIG. 6) executed by the control device 10. The button 11 of the present embodiment is a type of button that is displaced by a pressing operation among these keys and switches. The LED indicator 12 turns on or off according to the operating state of the HMD 100. The cross key 13 detects a touch or pressing operation on the keys corresponding to the up / down / left / right and the center portion, respectively, and outputs a signal according to the detected content. The trackpad 14 has an operation surface for detecting a contact operation, detects a contact operation with the operation surface, and outputs a signal according to the detected content. As the contact operation detection method, various methods such as electrostatic type, pressure detection type, and optical type can be adopted.

上下キー15は、右イヤホン32および左イヤホン34から出力する音量を増減させるための指示操作や、画像表示部20における輝度を増減させるための指示操作を検出する。切替スイッチ16は、上下キー15の指示対象(音量、輝度)の切り替え操作を検出する。電源スイッチ18は、HMD100の電源のオンオフ(ON、OFF)の切り替え操作を検出する。電源スイッチ18としては、例えばスライドスイッチを採用できる。 The up / down key 15 detects an instruction operation for increasing / decreasing the volume output from the right earphone 32 and the left earphone 34, and an instruction operation for increasing / decreasing the brightness in the image display unit 20. The changeover switch 16 detects a change operation of the referent (volume, brightness) of the up / down keys 15. The power switch 18 detects an on / off (ON / OFF) switching operation of the power supply of the HMD 100. As the power switch 18, for example, a slide switch can be adopted.

図3は、使用者から見た画像表示部20の要部構成を示す図である。図3では、接続ケーブル40、右イヤホン32、左イヤホン34の図示を省略している。図3の状態では、右導光板26および左導光板28の裏側が視認できると共に、右眼REに画像光を照射するためのハーフミラー261、および、左眼LEに画像光を照射するためのハーフミラー281が略四角形の領域として視認できる。使用者は、これらハーフミラー261、281を含む左右の導光板26、28の全体を透過して外景を視認すると共に、ハーフミラー261、281の位置に矩形の表示画像を視認する。 FIG. 3 is a diagram showing a configuration of a main part of the image display unit 20 as seen from the user. In FIG. 3, the connection cable 40, the right earphone 32, and the left earphone 34 are not shown. In the state of FIG. 3, the back side of the right light guide plate 26 and the left light guide plate 28 can be visually recognized, and the half mirror 261 for irradiating the right eye RE with image light and the left eye LE for irradiating the image light. The half mirror 281 can be visually recognized as a substantially quadrangular area. The user visually recognizes the outside view through the entire left and right light guide plates 26 and 28 including the half mirrors 261 and 281 and visually recognizes a rectangular display image at the positions of the half mirrors 261 and 281.

図4は、カメラ61の画角を説明するための図である。図4では、カメラ61と、使用者の右眼REおよび左眼LEとを平面視で模式的に示すと共に、カメラ61の画角(撮像範囲)をCで示す。なお、カメラ61の画角Cは図示のように水平方向に拡がっているほか、一般的なデジタルカメラと同様に鉛直方向にも拡がっている。 FIG. 4 is a diagram for explaining the angle of view of the camera 61. In FIG. 4, the camera 61 and the user's right eye RE and left eye LE are schematically shown in a plan view, and the angle of view (imaging range) of the camera 61 is shown by C. The angle of view C of the camera 61 is widened in the horizontal direction as shown in the drawing, and is also widened in the vertical direction like a general digital camera.

上述のようにカメラ61は、画像表示部20において右側の端部に配置され、使用者の視線の方向(すなわち使用者の前方)を撮像する。このためカメラ61の光軸は、右眼REおよび左眼LEの視線方向を含む方向とされる。使用者がHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば、使用者が両眼で対象物OBを注視すると、使用者の視線は、図中の符号RD、LDに示すように、対象物OBに向けられる。この場合、使用者から対象物OBまでの距離は、30cm〜10m程度であることが多く、1m〜4mであることがより多い。そこで、HMD100について、通常使用時における使用者から対象物OBまでの距離の上限および下限の目安を定めてもよい。この目安は、予め求められHMD100にプリセットされていてもよいし、使用者が設定してもよい。カメラ61の光軸および画角は、このような通常使用時における対象物OBまでの距離が、設定された上限および下限の目安に相当する場合において対象物OBが画角に含まれるように設定されることが好ましい。 As described above, the camera 61 is arranged at the right end of the image display unit 20 and images the direction of the user's line of sight (that is, in front of the user). Therefore, the optical axis of the camera 61 is a direction including the line-of-sight directions of the right eye RE and the left eye LE. The external view that the user can see while wearing the HMD100 is not always infinity. For example, when the user gazes at the object OB with both eyes, the user's line of sight is directed to the object OB as shown by the symbols RD and LD in the figure. In this case, the distance from the user to the object OB is often about 30 cm to 10 m, and more often 1 m to 4 m. Therefore, for the HMD 100, a guideline for the upper limit and the lower limit of the distance from the user to the object OB during normal use may be set. This guideline may be obtained in advance and preset in the HMD 100, or may be set by the user. The optical axis and angle of view of the camera 61 are set so that the object OB is included in the angle of view when the distance to the object OB during such normal use corresponds to the set upper limit and lower limit. It is preferable to be done.

なお、一般的に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされる。そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45〜70度程度とされている。この場合、注視点が対象物OB(図4)であるとき、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45〜70度程度が安定注視野である。使用者が画像表示部20を透過して右導光板26および左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶ。実視野は、視野角および安定注視野より狭いが、有効視野より広い。 Generally, the viewing angle of a human is about 200 degrees in the horizontal direction and about 125 degrees in the vertical direction. Among them, the effective visual field having excellent information receiving ability is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction. The stable gazing field at which a human gaze can be seen quickly and stably is 60 to 90 degrees in the horizontal direction and 45 to 70 degrees in the vertical direction. In this case, when the gazing point is the object OB (FIG. 4), the effective field of view is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction with the lines of sight RD and LD as the center. The stable gaze is 60 to 90 degrees in the horizontal direction and 45 to 70 degrees in the vertical direction. The actual field of view that the user sees through the image display unit 20 and through the right light guide plate 26 and the left light guide plate 28 is called an actual field of view (FOV). The actual field of view is narrower than the viewing angle and stable gaze, but wider than the effective field of view.

本実施形態のカメラ61の画角Cは、使用者の視野より広い範囲を撮像可能に設定される。カメラ61の画角Cは、少なくとも使用者の有効視野より広い範囲を撮像可能に設定されることが好ましく、実視野よりも広い範囲を撮像可能に設定されることがより好ましい。カメラ61の画角Cは、使用者の安定注視野より広い範囲を撮像可能に設定されることがさらに好ましく、使用者の両眼の視野角よりも広い範囲を撮像可能に設定されることが最も好ましい。このため、カメラ61には、撮像レンズとしていわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよい。また、カメラ61には、単焦点レンズを含んでもよく、ズームレンズを含んでもよく、複数のレンズからなるレンズ群を含んでもよい。 The angle of view C of the camera 61 of the present embodiment is set so that a range wider than the field of view of the user can be imaged. The angle of view C of the camera 61 is preferably set so that at least a range wider than the user's effective field of view can be imaged, and more preferably a range wider than the actual field of view can be imaged. The angle of view C of the camera 61 is more preferably set so as to be able to image a wider range than the user's stable gazing field, and is set to be able to image a wider range than the viewing angle of both eyes of the user. Most preferred. Therefore, the camera 61 may be provided with a so-called wide-angle lens as an image pickup lens, and may be configured to be able to image a wide angle of view. The wide-angle lens may include a lens called an ultra-wide-angle lens or a quasi-wide-angle lens. Further, the camera 61 may include a single focus lens, a zoom lens, or a lens group including a plurality of lenses.

図5は、HMD100の構成を機能的に示すブロック図である。制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140と、記憶部と、入出力部と、センサー類と、インターフェイスと、電源部130とを備える。メインプロセッサー140には、これらの記憶部、入出力部、センサー類、インターフェイス、電源部130がそれぞれ接続されている。メインプロセッサー140は、制御装置10が内蔵しているコントローラー基板120に実装されている。 FIG. 5 is a block diagram functionally showing the configuration of the HMD 100. The control device 10 includes a main processor 140 that executes a program to control the HMD 100, a storage unit, an input / output unit, sensors, an interface, and a power supply unit 130. These storage units, input / output units, sensors, interfaces, and power supply units 130 are connected to the main processor 140, respectively. The main processor 140 is mounted on the controller board 120 in which the control device 10 is built.

記憶部には、メモリー118と、不揮発性記憶部121とが含まれている。メモリー118は、メインプロセッサー140によって実行されるコンピュータープログラム、および、処理されるデーターを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するコンピュータープログラムや、メインプロセッサー140によって処理される各種のデーターを記憶する。本実施形態において、これらの記憶部はコントローラー基板120に実装されている。 The storage unit includes a memory 118 and a non-volatile storage unit 121. The memory 118 constitutes a work area for temporarily storing a computer program executed by the main processor 140 and data to be processed. The non-volatile storage unit 121 is composed of a flash memory and an eMMC (embedded Multi Media Card). The non-volatile storage unit 121 stores a computer program executed by the main processor 140 and various data processed by the main processor 140. In this embodiment, these storage units are mounted on the controller board 120.

入出力部には、トラックパッド14と、操作部110とが含まれている。操作部110には、上述したボタン11と、LEDインジケーター12と、十字キー13と、トラックパッド14と、上下キー15と、切替スイッチ16と、電源スイッチ18とが含まれる。メインプロセッサー140は、これら各入出力部を制御すると共に、各入出力部から出力される信号を取得する。 The input / output unit includes a track pad 14 and an operation unit 110. The operation unit 110 includes the button 11, the LED indicator 12, the cross key 13, the track pad 14, the up / down key 15, the changeover switch 16, and the power switch 18. The main processor 140 controls each of these input / output units and acquires signals output from each input / output unit.

センサー類には、6軸センサー111と、磁気センサー113と、GPS(Global Positioning System)115とが含まれている。6軸センサー111は、3軸加速度センサーと3軸ジャイロ(角速度)センサーとを備えるモーションセンサー(慣性センサー)である。6軸センサー111は、これらセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。磁気センサー113は、例えば、3軸の地磁気センサーである。GPS115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信して、制御装置10の現在位置の座標を検出する。これらセンサー類(6軸センサー111、磁気センサー113、GPS115)は、検出値を予め指定されたサンプリング周波数に従って、メインプロセッサー140へと出力する。各センサーが検出値を出力するタイミングは、メインプロセッサー140からの指示に応じてもよい。 The sensors include a 6-axis sensor 111, a magnetic sensor 113, and a GPS (Global Positioning System) 115. The 6-axis sensor 111 is a motion sensor (inertia sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 111 may employ an IMU (Inertial Measurement Unit) in which these sensors are modularized. The magnetic sensor 113 is, for example, a three-axis geomagnetic sensor. The GPS 115 includes a GPS antenna (not shown), receives a radio signal transmitted from a GPS satellite, and detects the coordinates of the current position of the control device 10. These sensors (6-axis sensor 111, magnetic sensor 113, GPS 115) output the detected value to the main processor 140 according to a sampling frequency specified in advance. The timing at which each sensor outputs the detected value may be in response to an instruction from the main processor 140.

インターフェイスには、通信部117と、音声コーデック180と、外部コネクター184と、外部メモリーインターフェイス186と、USB(Universal Serial Bus)コネクター188と、センサーハブ192と、FPGA194と、インターフェイス196とが含まれている。これらは、外部とのインターフェイスとして機能する。通信部117は、HMD100と外部機器との間における無線通信を実行する。通信部117は、図示しないアンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、あるいはこれらが統合されたデバイスとして構成されている。通信部117は、例えば、Bluetooth(登録商標)、Wi−Fi(登録商標)を含む無線LAN等の規格に準拠した無線通信を行う。 The interface includes a communication unit 117, a voice codec 180, an external connector 184, an external memory interface 186, a USB (Universal Serial Bus) connector 188, a sensor hub 192, an FPGA 194, and an interface 196. There is. These serve as interfaces to the outside world. The communication unit 117 executes wireless communication between the HMD 100 and the external device. The communication unit 117 is configured to include an antenna (not shown), an RF circuit, a baseband circuit, a communication control circuit, and the like, or is configured as a device in which these are integrated. The communication unit 117 performs wireless communication conforming to standards such as a wireless LAN including Bluetooth (registered trademark) and Wi-Fi (registered trademark).

音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード/デコードを行う。音声インターフェイス182は、音声信号を入出力するインターフェイスである。音声コーデック180は、アナログ音声信号からデジタル音声データーへの変換を行うA/Dコンバーター、および、その逆の変換を行うD/Aコンバーターを備えてもよい。本実施形態のHMD100は、音声を右イヤホン32および左イヤホン34から出力し、マイク63により集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データーをアナログ音声信号に変換し、音声インターフェイス182を介して出力する。また、音声コーデック180は、音声インターフェイス182に入力されるアナログ音声信号をデジタル音声データーに変換してメインプロセッサー140に出力する。 The voice codec 180 is connected to the voice interface 182 and encodes / decodes a voice signal input / output via the voice interface 182. The voice interface 182 is an interface for inputting / outputting a voice signal. The voice codec 180 may include an A / D converter that converts an analog voice signal into digital voice data, and a D / A converter that performs the reverse conversion. The HMD 100 of the present embodiment outputs sound from the right earphone 32 and the left earphone 34, and collects the sound by the microphone 63. The voice codec 180 converts the digital voice data output by the main processor 140 into an analog voice signal and outputs it via the voice interface 182. Further, the voice codec 180 converts the analog voice signal input to the voice interface 182 into digital voice data and outputs it to the main processor 140.

外部コネクター184は、メインプロセッサー140に対して、メインプロセッサー140と通信する外部装置(例えば、パーソナルコンピューター、スマートフォン、ゲーム機器等)を接続するためのコネクターである。外部コネクター184に接続された外部装置は、コンテンツの供給元となり得るほか、メインプロセッサー140が実行するコンピュータープログラムのデバッグや、HMD100の動作ログの収集に使用できる。外部コネクター184は種々の態様を採用できる。外部コネクター184としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスや、無線LANインターフェイス、Bluetoothインターフェイス等の無線接続に対応したインターフェイスを採用できる。 The external connector 184 is a connector for connecting an external device (for example, a personal computer, a smartphone, a game device, etc.) that communicates with the main processor 140 to the main processor 140. The external device connected to the external connector 184 can be used as a source of contents, debug a computer program executed by the main processor 140, and collect an operation log of the HMD 100. The external connector 184 can adopt various aspects. As the external connector 184, for example, an interface corresponding to a wired connection such as a USB interface, a micro USB interface, and a memory card interface, or an interface corresponding to a wireless connection such as a wireless LAN interface and a Bluetooth interface can be adopted.

外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスである。外部メモリーインターフェイス186は、例えば、カード型記録媒体を装着してデーターの読み書きを行うメモリーカードスロットと、インターフェイス回路とを含む。カード型記録媒体のサイズ、形状、規格等は適宜選択できる。USBコネクター188は、USB規格に準拠したメモリーデバイス、スマートフォン、パーソナルコンピューター等を接続可能なインターフェイスである。USBコネクター188は、例えば、USB規格に準拠したコネクターと、インターフェイス回路とを含む。USBコネクター188のサイズ、形状、USB規格のバージョン等は適宜選択できる。 The external memory interface 186 is an interface to which a portable memory device can be connected. The external memory interface 186 includes, for example, a memory card slot in which a card-type recording medium is attached to read / write data, and an interface circuit. The size, shape, standard, etc. of the card-type recording medium can be appropriately selected. The USB connector 188 is an interface to which a memory device, a smartphone, a personal computer, or the like conforming to the USB standard can be connected. The USB connector 188 includes, for example, a connector conforming to the USB standard and an interface circuit. The size, shape, USB standard version, etc. of the USB connector 188 can be appropriately selected.

また、HMD100は、バイブレーター19を備える。バイブレーター19は、図示しないモーターと、偏芯した回転子等を備え、メインプロセッサー140の制御に従って振動を発声する。HMD100は、例えば、操作部110に対する操作を検出した場合や、HMD100の電源がオンオフされた場合等に所定の振動パターンでバイブレーター19により振動を発生させる。 The HMD 100 also includes a vibrator 19. The vibrator 19 includes a motor (not shown), an eccentric rotor, and the like, and emits vibration under the control of the main processor 140. The HMD 100 generates vibration by the vibrator 19 in a predetermined vibration pattern, for example, when an operation on the operation unit 110 is detected or when the power supply of the HMD 100 is turned on / off.

センサーハブ192およびFPGA194は、インターフェイス(I/F)196を介して画像表示部20に接続されている。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得して、メインプロセッサー140に出力する。FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信されるデーターの処理およびインターフェイス196を介した伝送を実行する。インターフェイス196は、画像表示部20の右表示ユニット22と、左表示ユニット24とに対してそれぞれ接続されている。本実施形態の例では、左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24とのそれぞれが、制御装置10のインターフェイス196に接続される。 The sensor hub 192 and the FPGA 194 are connected to the image display unit 20 via the interface (I / F) 196. The sensor hub 192 acquires the detection values of various sensors included in the image display unit 20 and outputs them to the main processor 140. The FPGA 194 executes processing of data transmitted and received between the main processor 140 and each unit of the image display unit 20 and transmission via the interface 196. The interface 196 is connected to the right display unit 22 and the left display unit 24 of the image display unit 20, respectively. In the example of the present embodiment, the connection cable 40 is connected to the left holding unit 23, the wiring connected to the connection cable 40 is laid inside the image display unit 20, and the right display unit 22 and the left display unit 24 are respectively. It is connected to the interface 196 of the control device 10.

電源部130には、バッテリー132と、電源制御回路134とが含まれている。電源部130は、制御装置10が動作するための電力を供給する。バッテリー132は、充電可能な電池である。電源制御回路134は、バッテリー132の残容量の検出と、OS143への充電の制御を行う。電源制御回路134は、メインプロセッサー140に接続され、バッテリー132の残容量の検出値や、バッテリー132の電圧の検出値をメインプロセッサー140へと出力する。なお、電源部130が供給する電力に基づいて、制御装置10から画像表示部20へと電力を供給してもよい。電源部130から制御装置10の各部および画像表示部20への電力の供給状態を、メインプロセッサー140により制御可能な構成としてもよい。 The power supply unit 130 includes a battery 132 and a power supply control circuit 134. The power supply unit 130 supplies electric power for operating the control device 10. The battery 132 is a rechargeable battery. The power supply control circuit 134 detects the remaining capacity of the battery 132 and controls the charging of the OS 143. The power supply control circuit 134 is connected to the main processor 140, and outputs the detected value of the remaining capacity of the battery 132 and the detected value of the voltage of the battery 132 to the main processor 140. The electric power may be supplied from the control device 10 to the image display unit 20 based on the electric power supplied by the power supply unit 130. The power supply state from the power supply unit 130 to each unit of the control device 10 and the image display unit 20 may be controlled by the main processor 140.

右表示ユニット22は、表示ユニット基板210と、OLEDユニット221と、カメラ61と、照度センサー65と、LEDインジケーター67と、温度センサー217とを備える。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)211と、受信部(Rx)213と、EEPROM(Electrically Erasable Programmable Read-Only Memory)215とが実装されている。受信部213は、インターフェイス211を介して制御装置10から入力されるデーターを受信する。受信部213は、OLEDユニット221で表示する画像の画像データーを受信した場合に、受信した画像データーをOLED駆動回路225(図2)へと出力する。 The right display unit 22 includes a display unit board 210, an OLED unit 221, a camera 61, an illuminance sensor 65, an LED indicator 67, and a temperature sensor 217. An interface (I / F) 211 connected to the interface 196, a receiving unit (Rx) 213, and an EEPROM (Electrically Erasable Programmable Read-Only Memory) 215 are mounted on the display unit board 210. The receiving unit 213 receives the data input from the control device 10 via the interface 211. When the receiving unit 213 receives the image data of the image displayed by the OLED unit 221, the receiving unit 213 outputs the received image data to the OLED drive circuit 225 (FIG. 2).

EEPROM215は、各種のデーターをメインプロセッサー140が読み取り可能な態様で記憶する。EEPROM215は、例えば、画像表示部20のOLEDユニット221、241の発光特性や表示特性に関するデーター、右表示ユニット22または左表示ユニット24のセンサー特性に関するデーター等を記憶する。具体的には、例えば、OLEDユニット221、241のガンマ補正に係るパラメーター、後述する温度センサー217、239の検出値を補償するデーター等を記憶する。これらのデーターは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれる。出荷後は、メインプロセッサー140がEEPROM215のデーターを読み込んで各種の処理に利用する。 The EEPROM 215 stores various data in a manner readable by the main processor 140. The EEPROM 215 stores, for example, data on the light emission characteristics and display characteristics of the OLED units 221 and 241 of the image display unit 20, data on the sensor characteristics of the right display unit 22 or the left display unit 24, and the like. Specifically, for example, parameters related to gamma correction of the OLED units 221 and 241 and data for compensating for the detected values of the temperature sensors 217 and 239 described later are stored. These data are generated by the factory inspection of the HMD100 and written to the EEPROM 215. After shipment, the main processor 140 reads the data of the EEPROM 215 and uses it for various processes.

カメラ61は、インターフェイス211を介して入力される信号に従って撮像を実行し、撮像画像データーあるいは撮像結果を表す信号を制御装置10へと出力する。照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するように配置される。照度センサー65は、受光量(受光強度)に対応した検出値を出力する。LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。 The camera 61 executes imaging according to a signal input via the interface 211, and outputs captured image data or a signal representing the imaging result to the control device 10. As shown in FIG. 1, the illuminance sensor 65 is provided at the end ER of the front frame 27 and is arranged so as to receive external light from the front of the user who wears the image display unit 20. The illuminance sensor 65 outputs a detected value corresponding to the amount of received light (light receiving intensity). As shown in FIG. 1, the LED indicator 67 is arranged in the vicinity of the camera 61 at the end ER of the front frame 27. The LED indicator 67 lights up during the image pickup by the camera 61 to notify that the image pickup is in progress.

温度センサー217は、温度を検出し、検出した温度に対応する電圧値あるいは抵抗値を出力する。温度センサー217は、OLEDパネル223(図3)の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は主としてOLEDパネル223の温度を検出する。なお、温度センサー217は、OLEDパネル223あるいはOLED駆動回路225に内蔵されてもよい。例えば、OLEDパネル223がSi−OLEDとしてOLED駆動回路225と共に統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー217を実装してもよい。 The temperature sensor 217 detects the temperature and outputs a voltage value or a resistance value corresponding to the detected temperature. The temperature sensor 217 is mounted on the back surface side of the OLED panel 223 (FIG. 3). The temperature sensor 217 may be mounted on the same substrate as the OLED drive circuit 225, for example. With this configuration, the temperature sensor 217 mainly detects the temperature of the OLED panel 223. The temperature sensor 217 may be built in the OLED panel 223 or the OLED drive circuit 225. For example, when the OLED panel 223 is mounted as a Si-OLED together with the OLED drive circuit 225 as an integrated circuit on an integrated semiconductor chip, the temperature sensor 217 may be mounted on the semiconductor chip.

左表示ユニット24は、表示ユニット基板230と、OLEDユニット241と、温度センサー239とを備える。表示ユニット基板230には、インターフェイス196に接続されるインターフェイス(I/F)231と、受信部(Rx)233と、6軸センサー235と、磁気センサー237とが実装されている。受信部233は、インターフェイス231を介して制御装置10から入力されるデーターを受信する。受信部233は、OLEDユニット241で表示する画像の画像データーを受信した場合に、受信した画像データーをOLED駆動回路245(図2)へと出力する。 The left display unit 24 includes a display unit board 230, an OLED unit 241 and a temperature sensor 239. An interface (I / F) 231 connected to the interface 196, a receiving unit (Rx) 233, a 6-axis sensor 235, and a magnetic sensor 237 are mounted on the display unit board 230. The receiving unit 233 receives the data input from the control device 10 via the interface 231. When the receiving unit 233 receives the image data of the image displayed by the OLED unit 241, the receiving unit 233 outputs the received image data to the OLED drive circuit 245 (FIG. 2).

6軸センサー235は、3軸加速度センサーおよび3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMUを採用してもよい。磁気センサー237は、例えば、3軸の地磁気センサーである。温度センサー239は、温度を検出し、検出した温度に対応する電圧値あるいは抵抗値を出力する。温度センサー239は、OLEDパネル243(図3)の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は主としてOLEDパネル243の温度を検出する。温度センサー239は、OLEDパネル243あるいはOLED駆動回路245に内蔵されてもよい。詳細は温度センサー217と同様である。 The 6-axis sensor 235 is a motion sensor (inertia sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 235 may employ an IMU in which the above sensor is modularized. The magnetic sensor 237 is, for example, a three-axis geomagnetic sensor. The temperature sensor 239 detects the temperature and outputs a voltage value or a resistance value corresponding to the detected temperature. The temperature sensor 239 is mounted on the back surface side of the OLED panel 243 (FIG. 3). The temperature sensor 239 may be mounted on the same substrate as the OLED drive circuit 245, for example. With this configuration, the temperature sensor 239 mainly detects the temperature of the OLED panel 243. The temperature sensor 239 may be built in the OLED panel 243 or the OLED drive circuit 245. The details are the same as those of the temperature sensor 217.

右表示ユニット22のカメラ61、照度センサー65、温度センサー217と、左表示ユニット24の6軸センサー235、磁気センサー237、温度センサー239は、制御装置10のセンサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定および初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データーの送信、検出値の取得等を実行する。センサーハブ192は、予め設定されたタイミングで、右表示ユニット22および左表示ユニット24が備える各センサーの検出値をメインプロセッサー140へ出力する。センサーハブ192は、各センサーの検出値を一時的に保持するキャッシュ機能を備えてもよい。センサーハブ192は、各センサーの検出値の信号形式やデーター形式の変換機能(例えば、統一形式への変換機能)を備えてもよい。センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始および停止させることで、LEDインジケーター67を点灯または消灯させる。 The camera 61, the illuminance sensor 65, and the temperature sensor 217 of the right display unit 22, and the 6-axis sensor 235, the magnetic sensor 237, and the temperature sensor 239 of the left display unit 24 are connected to the sensor hub 192 of the control device 10. The sensor hub 192 sets and initializes the sampling cycle of each sensor according to the control of the main processor 140. The sensor hub 192 executes energization of each sensor, transmission of control data, acquisition of detected values, and the like in accordance with the sampling cycle of each sensor. The sensor hub 192 outputs the detection value of each sensor included in the right display unit 22 and the left display unit 24 to the main processor 140 at a preset timing. The sensor hub 192 may have a cache function that temporarily holds the detected value of each sensor. The sensor hub 192 may include a signal format or data format conversion function (for example, a conversion function to a unified format) of the detection value of each sensor. The sensor hub 192 turns on or off the LED indicator 67 by starting and stopping the energization of the LED indicator 67 according to the control of the main processor 140.

図6は、HMD100の制御機能部の構成を機能的に示すブロック図である。HMD100の制御機能部は、記憶部122と、制御部150とを備える。記憶部122は、不揮発性記憶部121(図5)により構成される論理的な記憶部である。図6では記憶部122のみを使用する例を示すが、不揮発性記憶部121に組み合わせてEEPROM215やメモリー118が使用されてもよい。また、制御部150は、メインプロセッサー140がコンピュータープログラムを実行することにより、すなわち、ハードウェアとソフトウェアとが協働することにより構成される。 FIG. 6 is a block diagram functionally showing the configuration of the control function unit of the HMD 100. The control function unit of the HMD 100 includes a storage unit 122 and a control unit 150. The storage unit 122 is a logical storage unit composed of the non-volatile storage unit 121 (FIG. 5). Although FIG. 6 shows an example in which only the storage unit 122 is used, the EEPROM 215 or the memory 118 may be used in combination with the non-volatile storage unit 121. Further, the control unit 150 is configured by the main processor 140 executing a computer program, that is, by the hardware and software collaborating with each other.

記憶部122には、制御部150における処理に供する種々のデーターが記憶されている。具体的には、本実施形態の記憶部122には、設定データー123と、コンテンツデーター124とが記憶されている。設定データー123は、HMD100の動作に係る各種の設定値を含む。例えば、設定データー123には、制御部150がHMD100を制御する際のパラメーター、行列式、演算式、LUT(Look Up Table)等が含まれている。 The storage unit 122 stores various data to be processed by the control unit 150. Specifically, the storage unit 122 of the present embodiment stores the setting data 123 and the content data 124. The setting data 123 includes various setting values related to the operation of the HMD 100. For example, the setting data 123 includes parameters, a determinant, an arithmetic expression, a LUT (Look Up Table), and the like when the control unit 150 controls the HMD 100.

コンテンツデーター124には、制御部150の制御によって画像表示部20が表示する画像や映像を含むコンテンツのデーター(画像データー、映像データー、音声データー等)が含まれている。なお、コンテンツデーター124には、双方向型のコンテンツのデーターが含まれてもよい。双方向型のコンテンツとは、制御装置10によって使用者の操作を取得して、取得した操作内容に応じた処理を制御部150が実行し、処理内容に応じたコンテンツを画像表示部20に表示するタイプのコンテンツを意味する。この場合、コンテンツのデーターには、使用者の操作を取得するためのメニュー画面の画像データー、メニュー画面に含まれる項目に対応する処理を定めるデーター等を含みうる。 The content data 124 includes content data (image data, video data, audio data, etc.) including an image and a video displayed by the image display unit 20 under the control of the control unit 150. The content data 124 may include bidirectional content data. The bidirectional content means that the control device 10 acquires an operation of the user, the control unit 150 executes a process according to the acquired operation content, and the content according to the process content is displayed on the image display unit 20. Means the type of content that you want to do. In this case, the content data may include image data of the menu screen for acquiring the operation of the user, data for defining the process corresponding to the item included in the menu screen, and the like.

制御部150は、記憶部122が記憶しているデーターを利用して各種処理を実行することにより、OS143、画像処理部145、表示制御部147、撮像制御部149、入出力制御部151としての機能を実行する。本実施形態では、OS143以外の各機能部は、OS143上で実行されるアプリケーションプログラムとして構成されている。 The control unit 150 serves as the OS 143, the image processing unit 145, the display control unit 147, the image pickup control unit 149, and the input / output control unit 151 by executing various processes using the data stored in the storage unit 122. Perform the function. In this embodiment, each functional unit other than OS143 is configured as an application program executed on OS143.

画像処理部145は、画像表示部20により表示する画像/映像の画像データーに基づいて、右表示ユニット22および左表示ユニット24に送信する信号を生成する。画像処理部145が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。画像処理部145は、メインプロセッサー140がコンピュータープログラムを実行して実現される構成のほか、メインプロセッサー140とは別のハードウェア(例えば、DSP(Digital Signal Processor))で構成してもよい。 The image processing unit 145 generates a signal to be transmitted to the right display unit 22 and the left display unit 24 based on the image data of the image / video displayed by the image display unit 20. The signal generated by the image processing unit 145 may be a vertical synchronization signal, a horizontal synchronization signal, a clock signal, an analog image signal, or the like. The image processing unit 145 may be configured by a hardware other than the main processor 140 (for example, a DSP (Digital Signal Processor)) in addition to the configuration realized by the main processor 140 executing a computer program.

なお、画像処理部145は、必要に応じて、解像度変換処理、画像調整処理、2D/3D変換処理等を実行してもよい。解像度変換処理は、画像データーの解像度を右表示ユニット22および左表示ユニット24に適した解像度へと変換する処理である。画像調整処理は、画像データーの輝度や彩度を調整する処理である。2D/3D変換処理は、三次元画像データーから二次元画像データーを生成し、あるいは、二次元画像データーから三次元画像データーを生成する処理である。画像処理部145は、これらの処理を実行した場合、処理後の画像データーに基づき画像を表示するための信号を生成し、接続ケーブル40を介して画像表示部20へと送信する。 The image processing unit 145 may execute resolution conversion processing, image adjustment processing, 2D / 3D conversion processing, and the like, if necessary. The resolution conversion process is a process of converting the resolution of the image data into a resolution suitable for the right display unit 22 and the left display unit 24. The image adjustment process is a process for adjusting the brightness and saturation of image data. The 2D / 3D conversion process is a process of generating two-dimensional image data from three-dimensional image data or generating three-dimensional image data from two-dimensional image data. When these processes are executed, the image processing unit 145 generates a signal for displaying an image based on the processed image data and transmits the signal to the image display unit 20 via the connection cable 40.

表示制御部147は、右表示ユニット22および左表示ユニット24を制御する制御信号を生成し、この制御信号により、右表示ユニット22および左表示ユニット24のそれぞれによる画像光の生成と射出とを制御する。具体的には、表示制御部147は、OLED駆動回路225、245を制御して、OLEDパネル223、243による画像の表示を実行させる。表示制御部147は、画像処理部145が出力する信号に基づいて、OLED駆動回路225、245がOLEDパネル223、243に描画するタイミングの制御、OLEDパネル223、243の輝度の制御等を行う。 The display control unit 147 generates a control signal for controlling the right display unit 22 and the left display unit 24, and controls the generation and emission of image light by each of the right display unit 22 and the left display unit 24 by the control signal. To do. Specifically, the display control unit 147 controls the OLED drive circuits 225 and 245 to display an image on the OLED panels 223 and 243. The display control unit 147 controls the timing at which the OLED drive circuits 225 and 245 draw on the OLED panels 223 and 243, and controls the brightness of the OLED panels 223 and 243, based on the signal output by the image processing unit 145.

撮像制御部149は、カメラ61を制御して撮像を実行させ、撮像画像データーを生成し、記憶部122に一時的に記憶させる。また、カメラ61が撮像画像データーを生成する回路を含むカメラユニットとして構成される場合、撮像制御部149は、撮像画像データーをカメラ61から取得して、記憶部122に一時的に記憶させる。 The image pickup control unit 149 controls the camera 61 to execute image pickup, generate captured image data, and temporarily store it in the storage unit 122. When the camera 61 is configured as a camera unit including a circuit for generating captured image data, the imaging control unit 149 acquires the captured image data from the camera 61 and temporarily stores the captured image data in the storage unit 122.

入出力制御部151は、十字キー13における各ボタンのオンオフの検出結果を取得する。入出力制御部151は、検出結果が予め定められたパターン(詳細は後述)を含む場合は、フリック入力に相当する出力を実行し、予め定められたパターンを含まない場合は、オンオフの検出結果をそのまま出力する。ここで、フリック入力またはオンオフの検出結果の出力先は、任意に定めることができるが、本実施形態の場合はOS143である。入出力制御部151は、フリック入力またはオンオフの検出結果を、OS143に代えて、またはOS143と共に、OS143上で動作する他のアプリケーションに出力してもよい。OS143上で動作する他のアプリケーションとは、表示制御部147、撮像制御部149、または、OS143にインストールされているその他のアプリケーションである。 The input / output control unit 151 acquires the on / off detection result of each button on the cross key 13. The input / output control unit 151 executes an output corresponding to a flick input when the detection result includes a predetermined pattern (details will be described later), and when the detection result does not include a predetermined pattern, the on / off detection result. Is output as it is. Here, the output destination of the flick input or on / off detection result can be arbitrarily determined, but in the case of this embodiment, it is OS143. The input / output control unit 151 may output the flick input or on / off detection result to another application running on the OS 143 instead of the OS 143 or together with the OS 143. The other application running on the OS 143 is a display control unit 147, an imaging control unit 149, or another application installed on the OS 143.

入出力制御部151は、フリック入力またはオンオフの検出結果を、インターフェイス196を介して接続されている画像表示部20に出力してもよく、外部コネクター184を介して接続されている外部装置に出力してもよい。この場合、フリック入力またはオンオフの検出結果は、画像表示部20に搭載されている制御部や、外部装置の制御部によって使用される。 The input / output control unit 151 may output the flick input or on / off detection result to the image display unit 20 connected via the interface 196, or output to an external device connected via the external connector 184. You may. In this case, the flick input or on / off detection result is used by the control unit mounted on the image display unit 20 or the control unit of the external device.

A−2.十字キーの構成:
図7は、十字キー13について説明する図である。本実施形態のHMD100では、この十字キー13を用いてフリック入力を行うことができる。本実施形態の十字キー13は、1つの決定ボタン139と、上下左右のそれぞれに対応した4つの方向ボタン135〜138と、により構成されている。決定ボタン139は円形形状であり、各方向ボタン135〜138は矩形形状である。これらのボタンは、制御装置10の筐体表面において、4つの方向ボタン135〜138が、決定ボタン139を中心として上下左右方向にそれぞれ配置された、いわゆる十字キーの態様である。以降、4つの方向ボタン135〜138を総称して説明するときは単に「方向ボタン」と呼び、個別に説明するときは左ボタン135、右ボタン136、上ボタン137、下ボタン138と呼ぶ。図7では便宜的に、決定、上、下、左、右の文字を記しているが、実際の十字キー13にはこれらの表示は無くてもよく、記号等に置き換えられてもよい。
A-2. Cross key configuration:
FIG. 7 is a diagram illustrating the cross key 13. In the HMD 100 of the present embodiment, flick input can be performed using the cross key 13. The cross key 13 of the present embodiment is composed of one decision button 139 and four direction buttons 135 to 138 corresponding to each of the up, down, left, and right directions. The enter button 139 has a circular shape, and the direction buttons 135 to 138 have a rectangular shape. These buttons are in the form of a so-called cross key in which four direction buttons 135 to 138 are arranged in the vertical and horizontal directions around the decision button 139 on the housing surface of the control device 10. Hereinafter, when the four direction buttons 135 to 138 are collectively described, they are simply referred to as "direction buttons", and when they are individually described, they are referred to as a left button 135, a right button 136, an upper button 137, and a lower button 138. In FIG. 7, the characters for determination, up, down, left, and right are shown for convenience, but the actual cross key 13 may not have these indications and may be replaced with symbols or the like.

本実施形態の決定ボタン139は、使用者が決定ボタン139を押下することによって内部に設けられているスイッチがオンされ、使用者が決定ボタン139の押下をやめることによって内部に設けられているスイッチがオフする、いわゆる機械接点式のボタンである。一方、4つの方向ボタン135〜138は、使用者が方向ボタンにタッチする(触れる)ことによって内部に設けられているスイッチがオンされ、使用者が方向ボタンを離すことによって内部に設けられているスイッチがオフする、いわゆる静電容量式のボタンである。なお、決定ボタン139と各方向ボタンとの方式の具体例はあくまで一例であり、種々の態様を採用できる。例えば、決定ボタン139と各方向ボタンとの全てを機械接点式にしてもよく、全てを静電容量式にしてもよい。 The decision button 139 of the present embodiment is a switch provided internally when the user presses the decision button 139, and the switch provided inside is turned on when the user stops pressing the decision button 139. Is a so-called mechanical contact type button that turns off. On the other hand, the four directional buttons 135 to 138 are provided internally when the user touches (touches) the directional button to turn on the switch provided inside, and when the user releases the directional button. It is a so-called capacitive button that switches off. Note that the specific example of the method of the decision button 139 and each direction button is only an example, and various modes can be adopted. For example, all of the decision button 139 and each direction button may be of the mechanical contact type, or all of them may be of the capacitance type.

このように、本実施形態の入力装置(制御装置10)によれば、決定ボタン139と方向ボタン135〜138とを、使用者が直感的に把握および操作しやすい十字キー13として構成することができる。また、機械接点式のボタン、または、静電容量式のボタンのいずれを用いても入力装置を構成することができる。 As described above, according to the input device (control device 10) of the present embodiment, the decision button 139 and the direction buttons 135 to 138 can be configured as a cross key 13 that is easy for the user to intuitively grasp and operate. it can. Further, the input device can be configured by using either a mechanical contact type button or a capacitance type button.

A−3.入出力制御(汎用的な例):
入出力制御部151によるフリック入力の汎用的な例について説明する。
A-3. I / O control (general purpose example):
A general-purpose example of flick input by the input / output control unit 151 will be described.

図8は、十字キー13を用いたフリック入力の方法について説明する図である。図8では、右フリックを例にして説明する。
(1)まず使用者は、手hdの指を用いて決定ボタン139を押下した後、決定ボタン139の押下をやめる。本実施形態では、使用者が決定ボタン139を押下して離す一連の操作を「操作1」とも呼ぶ。操作1によって入出力制御部151は、決定ボタン139のオンオフを取得する。
(2)次に使用者は、手hdを右ボタン136の位置へ移動する(図8:矢印)。本実施形態では、使用者が次の方向ボタンに手を移動する操作を「操作2」とも呼ぶ。
(3)最後に使用者は、手hdの指を用いて右ボタン136にタッチする。本実施形態では、使用者が方向ボタンにタッチする操作を「操作3」とも呼ぶ。操作3によって入出力制御部151は、右ボタン136のオンを取得する。
なお、この一連の操作1〜3は「予め定められたパターン」として機能する。
FIG. 8 is a diagram illustrating a method of flick input using the cross key 13. In FIG. 8, a right flick will be described as an example.
(1) First, the user presses the decision button 139 with the finger of the hand hd, and then stops pressing the decision button 139. In the present embodiment, a series of operations in which the user presses and releases the enter button 139 is also referred to as "operation 1". By operation 1, the input / output control unit 151 acquires the on / off of the decision button 139.
(2) Next, the user moves the hand hd to the position of the right button 136 (Fig. 8: arrow). In the present embodiment, the operation of the user moving his / her hand to the next direction button is also referred to as “operation 2”.
(3) Finally, the user touches the right button 136 with the finger of the hand hd. In the present embodiment, the operation of the user touching the direction button is also referred to as "operation 3". By operation 3, the input / output control unit 151 acquires the on of the right button 136.
In addition, this series of operations 1 to 3 functions as a "predetermined pattern".

入出力制御部151は、操作1によって決定ボタン139のオンオフを取得し、操作3によって右ボタン136(方向ボタン)のオンを取得する。このように、決定ボタン139のオンオフを検出した後、方向ボタンのうちのいずれか1つのオンを検出した場合、入出力制御部151は、OS143に対してフリック入力に相当する出力を実行する。ここで、フリック入力に相当する出力とは、受け取り側(本実施形態の場合はOS143)において「フリック入力がされた」と解釈可能な限りにおいて、種々の態様を採用できる。例えば、入出力制御部151は、次の出力a1、a2のいずれかを行うことができる。 The input / output control unit 151 acquires the on / off of the decision button 139 by the operation 1, and the on / off of the right button 136 (direction button) by the operation 3. In this way, when any one of the direction buttons is detected on after detecting the on / off of the enter button 139, the input / output control unit 151 executes an output corresponding to a flick input to the OS 143. Here, as the output corresponding to the flick input, various modes can be adopted as long as it can be interpreted as "a flick input has been made" on the receiving side (OS143 in the case of this embodiment). For example, the input / output control unit 151 can perform either of the following outputs a1 and a2.

(a1)フリックイベントを発生させる。
(a2)受け取り側においてフリック入力を検出可能な一連のイベント(例えば下記)を発生させる。
・仮想的なタッチパネルを設定する。
・仮想的なタッチパネル上において、タッチされたイベント、例えば、getAction(ACTION_DOWN)を発生させる。
・仮想的なタッチパネル上において、タッチされた状態で移動しているイベント、例えば、getAction(ACTION_MOVE)を発生させる。
・仮想的なタッチパネル上において、タッチが離れた、例えば、getAction(ACTION_UP)を発生させる。
なお、入出力制御部151は、タッチイベントに関する種々の状態(X座標、Y座標、タッチされている指の本数、タッチの圧力、タッチされていた時間等)について、必要であれば、予め定められているダミー値を設定できる。
(A1) Generate a flick event.
(A2) Generate a series of events (for example, the following) in which a flick input can be detected on the receiving side.
-Set up a virtual touch panel.
-Generate a touched event, for example, getAction (ACTION_DOWN) on a virtual touch panel.
-On a virtual touch panel, generate an event that is moving in a touched state, for example, getAction (ACTION_MOVE).
-On a virtual touch panel, the touch is separated, for example, getAction (ACTION_UP) is generated.
The input / output control unit 151 determines in advance various states (X coordinate, Y coordinate, number of touched fingers, touch pressure, touched time, etc.) related to the touch event, if necessary. You can set the dummy value that is set.

なお、使用者は、手hdの指に代えて、タッチペン等の道具を用いてボタンを押下してもよい。また、上述の例では、機械接点式のボタンである決定ボタン139について「押下」、静電容量式のボタンである4つの方向ボタン135〜138について「タッチ」と記載した。しかし、使用者の操作内容(押下/タッチ)は、各ボタン135〜139の構成内容(機械接点式/静電容量式)に応じて適宜、相互に変更可能である。なお、各ボタン135〜139のオンオフの検出結果が予め定められたパターン(操作1〜3)を含む限りにおいて、入出力制御部151は、フリック入力に相当する出力を実行してよい。このため例えば、スイッチのチャタリング等の結果として、各ボタン135〜139のオンオフの検出結果が予め定められたパターン(操作1〜3)と完全に一致しない場合であっても、入出力制御部151は、フリック入力に相当する出力を実行できる。 The user may press the button using a tool such as a stylus instead of the finger of the hand hd. Further, in the above example, the determination button 139, which is a mechanical contact type button, is described as "press", and the four directional buttons 135 to 138, which are capacitance type buttons, are described as "touch". However, the operation content (pressing / touching) of the user can be appropriately changed from each other according to the configuration content (mechanical contact type / capacitance type) of each button 135-139. As long as the on / off detection results of the buttons 135 to 139 include a predetermined pattern (operations 1 to 3), the input / output control unit 151 may execute an output corresponding to a flick input. Therefore, for example, even if the on / off detection result of each button 135 to 139 does not completely match the predetermined pattern (operations 1 to 3) as a result of switch chattering or the like, the input / output control unit 151 Can perform output equivalent to flick input.

以上のように、上記実施形態の入力装置(制御装置10)によれば、個々に入力のオンオフが可能な2つ以上のボタン(各ボタン135〜139)において、各ボタンの検出結果が予め定められたパターン(操作1〜3)を含む場合はフリック入力に相当する出力a1、a2がなされる。具体的には、決定ボタン139が押下(またはタッチ)され、その後、4つの方向ボタン135〜138のうちのいずれか1つが押下(またはタッチ)された際、換言すれば、押下/タッチを挟んだ指の移動に伴って、フリック入力に相当する出力a1、a2がなされる。この結果、使用者は、実際のフリック動作に模した指の移動動作によって、指等の軌跡を取得可能なセンサーデバイスを使用せず、十字キー13を使用することによってフリック入力を行うことができる。また、本例では、出力a1、a2はイベントの形式でOS143等に出力されるため、受け取り側のアプリケーションによって様々な用途で利用することができる。 As described above, according to the input device (control device 10) of the above embodiment, the detection result of each button is predetermined in the two or more buttons (each button 135 to 139) that can individually turn the input on and off. When the patterns (operations 1 to 3) are included, the outputs a1 and a2 corresponding to the flick input are made. Specifically, when the enter button 139 is pressed (or touched) and then any one of the four direction buttons 135 to 138 is pressed (or touched), in other words, the push / touch is sandwiched. As the finger moves, outputs a1 and a2 corresponding to flick input are produced. As a result, the user can perform flick input by using the cross key 13 without using a sensor device capable of acquiring a trajectory of a finger or the like by a finger moving motion imitating an actual flick motion. .. Further, in this example, since the outputs a1 and a2 are output to the OS143 or the like in the form of an event, they can be used for various purposes depending on the application on the receiving side.

A−4.入出力制御(文字入力の例):
入出力制御部151によるフリック入力を利用した文字入力の例について説明する。図9は、入出力制御部151がフリック入力に相当する出力を行う操作パターンの例を示す図である。図9の各パターン1〜4はそれぞれ「予め定められたパターン」として機能する。なお、図9の各パターンは、上述した入出力制御(汎用的な例)においても利用可能できる。図9の各パターンを入出力制御(汎用的な例)において利用する場合、図9の「画面表示」は不要である。
A-4. Input / output control (example of character input):
An example of character input using flick input by the input / output control unit 151 will be described. FIG. 9 is a diagram showing an example of an operation pattern in which the input / output control unit 151 outputs an output corresponding to a flick input. Each of the patterns 1 to 4 in FIG. 9 functions as a "predetermined pattern". Each pattern in FIG. 9 can also be used in the above-mentioned input / output control (general-purpose example). When each pattern of FIG. 9 is used in input / output control (general-purpose example), the “screen display” of FIG. 9 is unnecessary.

<パターン1>
図10は、パターン1の操作1について説明する図である。図11は、パターン1の操作2について説明する図である。図12は、パターン1の操作3について説明する図である。まず、入出力制御部151は、画像表示部20にソフトウェアキーボードpdを表示させる(図10:左側)。ソフトウェアキーボードpdには、「あ」から「わ」までの日本語の五十音のあ段の候補がタイル状に配置されており、初期状態では「あ」が太い矩形で囲まれた選択状態にある。使用者は、十字キー13の方向ボタンにタッチすることで、ソフトウェアキーボードpdの五十音のあ段の候補から、所望の候補に太字の矩形を移動させて選択状態とする。図10の例では「な」が選択状態とされている。
<Pattern 1>
FIG. 10 is a diagram illustrating operation 1 of pattern 1. FIG. 11 is a diagram illustrating operation 2 of pattern 1. FIG. 12 is a diagram illustrating operation 3 of pattern 1. First, the input / output control unit 151 causes the image display unit 20 to display the software keyboard pd (FIG. 10: left side). On the software keyboard pd, candidates for the Japanese syllabary from "a" to "wa" are arranged in a tile shape, and in the initial state, "a" is surrounded by a thick rectangle. It is in. By touching the direction button of the cross key 13, the user moves the bold rectangle from the candidate of the Japanese syllabary of the software keyboard pd to the desired candidate and puts it in the selected state. In the example of FIG. 10, "na" is selected.

使用者は、手hdの指を用いて決定ボタン139を押下した後、決定ボタン139の押下をやめる(図10:操作1)。操作1によって入出力制御部151は、決定ボタン139のオンオフを取得する。このとき入出力制御部151は、図9に示すパターン1の「操作1条件」が満たされたと判定する。このため、入出力制御部151は、画像表示部20に表示させているソフトウェアキーボードpd上において、選択されている候補「な」の強調と、選択されている候補「な」に対する子音の候補「に〜の」の表示とを行う(図11:左側)。なお、図11以降の図では、図示の便宜上、選択外の五十音のあ段の表示を省略している。 The user presses the enter button 139 with the finger of the hand hd, and then stops pressing the enter button 139 (FIG. 10: operation 1). By operation 1, the input / output control unit 151 acquires the on / off of the decision button 139. At this time, the input / output control unit 151 determines that the "operation 1 condition" of the pattern 1 shown in FIG. 9 is satisfied. Therefore, the input / output control unit 151 emphasizes the selected candidate "na" and the consonant candidate "na" for the selected candidate "na" on the software keyboard pd displayed on the image display unit 20. "Ni-no" is displayed (Fig. 11: left side). In addition, in the drawings after FIG. 11, for convenience of illustration, the display of the Japanese syllabary not selected is omitted.

使用者は、手hdを、選択したい子音を表す方向ボタンの位置へと移動させる(図11:操作2)。このとき入出力制御部151は、ソフトウェアキーボードpd上における子音の候補の表示を継続する。 The user moves the hand hd to the position of the direction button representing the consonant to be selected (Fig. 11: Operation 2). At this time, the input / output control unit 151 continues to display the consonant candidates on the software keyboard pd.

使用者は、手hdの指を用いて方向ボタン(図の例では右ボタン136)にタッチする(図12:操作3)。操作3によって入出力制御部151は、右ボタン136のオンを取得する。このとき入出力制御部151は、図9に示すパターン1の「操作3条件」が満たされたと判定する。このため、入出力制御部151は、画像表示部20に表示させているソフトウェアキーボードpd上において、選択された子音「ね」の強調を行う(図12:左側)。さらに入出力制御部151は、OS143に対してフリック入力に相当する出力として、選択された子音「ね」を出力する。これにより、例えば、文字入力パッド等に対する「ね」の表示が行われる。このように、本例では、フリック入力に相当する出力として、上述した出力a1、a2に代えて、最終的に選択された文字が出力される。 The user touches the direction button (right button 136 in the example of the figure) with the finger of the hand hd (FIG. 12: operation 3). By operation 3, the input / output control unit 151 acquires the on of the right button 136. At this time, the input / output control unit 151 determines that the "operation 3 condition" of the pattern 1 shown in FIG. 9 is satisfied. Therefore, the input / output control unit 151 emphasizes the selected consonant "ne" on the software keyboard pd displayed on the image display unit 20 (FIG. 12: left side). Further, the input / output control unit 151 outputs the selected consonant "ne" to the OS 143 as an output corresponding to the flick input. As a result, for example, "ne" is displayed on the character input pad or the like. As described above, in this example, as the output corresponding to the flick input, the finally selected character is output instead of the above-mentioned outputs a1 and a2.

<パターン2>
図13は、パターン2の操作2および操作3について説明する図である。まず、入出力制御部151は、画像表示部20にソフトウェアキーボードpdを表示させる。詳細は図10と同様である。使用者は、十字キー13の方向ボタンにタッチすることで、ソフトウェアキーボードpdの五十音のあ段の候補から、所望の候補に太字の矩形を移動させて選択状態とする。
<Pattern 2>
FIG. 13 is a diagram illustrating operation 2 and operation 3 of the pattern 2. First, the input / output control unit 151 causes the image display unit 20 to display the software keyboard pd. The details are the same as in FIG. By touching the direction button of the cross key 13, the user moves the bold rectangle from the candidate of the Japanese syllabary of the software keyboard pd to the desired candidate and puts it in the selected state.

使用者は、手hdの指を用いて決定ボタン139を押下した後、決定ボタン139の押下をやめる(図10:操作1)。操作1によって入出力制御部151は、決定ボタン139のオンオフを取得する。このとき入出力制御部151は、図9に示すパターン2の「操作1条件」が満たされたと判定する。このため、入出力制御部151は、画像表示部20に表示させているソフトウェアキーボードpd上において、選択されている候補「な」の強調を行う。なお、本例では子音の候補の表示は行わない。 The user presses the enter button 139 with the finger of the hand hd, and then stops pressing the enter button 139 (FIG. 10: operation 1). By operation 1, the input / output control unit 151 acquires the on / off of the decision button 139. At this time, the input / output control unit 151 determines that the "operation 1 condition" of the pattern 2 shown in FIG. 9 is satisfied. Therefore, the input / output control unit 151 emphasizes the selected candidate "na" on the software keyboard pd displayed on the image display unit 20. In this example, consonant candidates are not displayed.

使用者は、手hdを、選択したい子音を表す方向ボタンの位置へと移動させる(図13:操作2)。 The user moves the hand hd to the position of the direction button representing the consonant to be selected (FIG. 13: operation 2).

使用者は、手hdの指を用いて方向ボタン(図の例では右ボタン136)にタッチする(図13:操作3)。操作3によって入出力制御部151は、右ボタン136のオンを取得する。次に入出力制御部151は、操作1の決定ボタン139のオフ取得から、操作3の方向ボタンのオン取得までの時間t1(sec)が、所定の時間n(sec)以内であるか否か判定する。なお、所定の時間nは「第1の時間」として機能し、予め定められて記憶部122に記憶されている。所定の時間nは任意に定めることができるが、一般的なフリック操作における指の移動時間を想定した、ある程度短い時間に設定されることが好ましい。時間t1が所定の時間n以内である場合、入出力制御部151は、図9に示すパターン2の「操作2条件」が満たされたと判定する。 The user touches the direction button (right button 136 in the example of the figure) with the finger of the hand hd (FIG. 13: operation 3). By operation 3, the input / output control unit 151 acquires the on of the right button 136. Next, the input / output control unit 151 determines whether or not the time t1 (sec) from the off acquisition of the decision button 139 of the operation 1 to the on acquisition of the direction button of the operation 3 is within a predetermined time n (sec). judge. The predetermined time n functions as a "first time" and is stored in a predetermined storage unit 122. The predetermined time n can be arbitrarily set, but it is preferably set to a somewhat short time assuming the finger movement time in a general flick operation. When the time t1 is within the predetermined time n, the input / output control unit 151 determines that the “operation 2 condition” of the pattern 2 shown in FIG. 9 is satisfied.

また、操作3によって入出力制御部151は右ボタン136のオンを取得しているため、入出力制御部151は、図9に示すパターン2の「操作3条件」も満たされたと判定する。従って、入出力制御部151は、画像表示部20に表示させているソフトウェアキーボードpd上において、選択された子音「ね」の表示と強調とを行う(図13:左側)。さらに入出力制御部151は、OS143に対してフリック入力に相当する出力として、選択された子音「ね」を出力する。 Further, since the input / output control unit 151 has acquired the on of the right button 136 by the operation 3, the input / output control unit 151 determines that the "operation 3 condition" of the pattern 2 shown in FIG. 9 is also satisfied. Therefore, the input / output control unit 151 displays and emphasizes the selected consonant "ne" on the software keyboard pd displayed on the image display unit 20 (FIG. 13: left side). Further, the input / output control unit 151 outputs the selected consonant "ne" to the OS 143 as an output corresponding to the flick input.

パターン2を用いた入出力制御によれば、決定ボタン139の押下(またはタッチ)と方向ボタン135〜138の押下(またはタッチ)との間(t1)が第1の時間(n)内である場合に限り、フリック入力に相当する出力がなされる。この第1の時間を適切に設定することで、使用者は、十字キー13を用いた通常の決定−方向入力と、フリック入力とを使い分けることができる。 According to the input / output control using the pattern 2, the time (t1) between the pressing (or touch) of the enter button 139 and the pressing (or touch) of the direction buttons 135 to 138 is within the first time (n). Only in that case, the output corresponding to the flick input is made. By appropriately setting this first time, the user can properly use the normal decision-direction input using the cross key 13 and the flick input.

<パターン3>
パターン3は、入出力制御部151における「操作1条件」の判定基準が異なる点を除いて、パターン1と同じである。パターン3において入出力制御部151は、使用者が決定ボタン139の押下を2回繰り返した場合、換言すれば、決定ボタン139のオンオフを2回続けて取得した場合に「操作1条件」が満たされたと判定する。
<Pattern 3>
Pattern 3 is the same as pattern 1 except that the determination criteria for "operation 1 condition" in the input / output control unit 151 are different. In the pattern 3, the input / output control unit 151 satisfies the "operation 1 condition" when the user repeatedly presses the decision button 139 twice, in other words, when the decision button 139 is turned on and off twice in a row. Judge that it was done.

パターン3を用いた入出力制御によれば、決定ボタン139の押下(またはタッチ)が2回された後に方向ボタン135〜138の押下(またはタッチ)がされた場合に限り、フリック入力に相当する出力がなされる。このため使用者は、十字キー13を用いた通常の決定−方向入力と、フリック入力とを使い分けることができる。 According to the input / output control using the pattern 3, only when the direction buttons 135 to 138 are pressed (or touched) after the enter button 139 is pressed (or touched) twice, it corresponds to the flick input. Output is made. Therefore, the user can properly use the normal decision-direction input using the cross key 13 and the flick input.

<パターン4>
パターン4は、入出力制御部151における「操作1条件」の判定基準が異なる点を除いて、パターン1と同じである。パターン4において入出力制御部151は、使用者が決定ボタン139を長押しした場合、換言すれば、決定ボタン139のオン取得からオフ取得までの時間t2(sec)が、所定の時間m(sec)よりも長い場合に「操作1条件」が満たされたと判定する。所定の時間mは「第2の時間」として機能し、予め定められて記憶部122に記憶されている。所定の時間mは任意に定めることができるが、一般的なボタン長押しを想定した時間に設定されることが好ましい。
<Pattern 4>
Pattern 4 is the same as pattern 1 except that the determination criteria of "operation 1 condition" in the input / output control unit 151 are different. In the pattern 4, when the user presses and holds the decision button 139, the input / output control unit 151, in other words, the time t2 (sec) from the on acquisition to the off acquisition of the decision button 139 is a predetermined time m (sec). ), It is determined that the "operation 1 condition" is satisfied. The predetermined time m functions as a "second time" and is predetermined and stored in the storage unit 122. The predetermined time m can be arbitrarily set, but it is preferable to set it to a time assuming a general button long press.

パターン4を用いた入出力制御によれば、決定ボタン139の押下(またはタッチ)開始から決定ボタン139の押下(またはタッチ)終了までの間(t2)が第2の時間(m)より長い場合に限り、フリック入力に相当する出力がなされる。この第2の時間を適切に設定することで、使用者は、決定ボタン139の長押しを契機として意識的に、十字キー13を用いた通常の決定−方向入力と、フリック入力とを使い分けることができる。 According to the input / output control using the pattern 4, when the period (t2) from the start of pressing (or touching) the decision button 139 to the end of pressing (or touching) the decision button 139 is longer than the second time (m). Only, the output corresponding to the flick input is made. By appropriately setting this second time, the user can consciously use the normal decision-direction input using the cross key 13 and the flick input properly when the decision button 139 is pressed and held. Can be done.

以上のように、上記実施形態の入力装置(制御装置10)によれば、個々に入力のオンオフが可能な2つ以上のボタン(各ボタン135〜139)において、各ボタンの検出結果が予め定められたパターン1〜4(操作1〜3)を含む場合はフリック入力に相当する出力(フリック文字入力により選択された文字の出力)がなされる。この結果、使用者は、実際のフリック動作に模した指の移動動作によって、指等の軌跡を取得可能なセンサーデバイスを使用せず、十字キー13を使用することによってフリック入力を行うことができる。 As described above, according to the input device (control device 10) of the above embodiment, the detection result of each button is predetermined in the two or more buttons (each button 135 to 139) that can individually turn the input on and off. When the patterns 1 to 4 (operations 1 to 3) are included, an output corresponding to the flick input (output of the character selected by the flick character input) is performed. As a result, the user can perform flick input by using the cross key 13 without using a sensor device capable of acquiring a trajectory of a finger or the like by a finger moving motion imitating an actual flick motion. ..

図14は、十字キー13の他の構成について説明する図である。図14に示す十字キー13aは、決定ボタン139を備えない点を除き、上述した十字キー13と同じである。このような十字キー13aを用いて上述の入力制御を行う場合、決定ボタン139の代わりに他の方向ボタンを利用すればよい。例えば、使用者は、左ボタン135をタッチし、離し、右ボタン136をタッチする。これにより、入出力制御部151は、左ボタン135のオンオフと右ボタン136のオンとを取得することができるため、右フリック入力に相当する出力を行う。同様に、使用者は、上ボタン137をタッチし、離し、下ボタン138をタッチする。これにより、入出力制御部151は、下フリック入力に相当する出力を行う。このように、決定ボタン139が無い場合であっても、2つ以上の方向ボタンがある限りにおいて入出力制御部151は、上記実施形態と同様の動作を実施することができる。 FIG. 14 is a diagram illustrating another configuration of the cross key 13. The cross key 13a shown in FIG. 14 is the same as the cross key 13 described above, except that the enter button 139 is not provided. When the above-mentioned input control is performed by using such a cross key 13a, another direction button may be used instead of the enter button 139. For example, the user touches and releases the left button 135 and touches the right button 136. As a result, the input / output control unit 151 can acquire the on / off of the left button 135 and the on / off of the right button 136, so that the output corresponding to the right flick input is performed. Similarly, the user touches and releases the upper button 137 and touches the lower button 138. As a result, the input / output control unit 151 outputs the output corresponding to the lower flick input. As described above, even when there is no decision button 139, the input / output control unit 151 can perform the same operation as that of the above embodiment as long as there are two or more direction buttons.

図15は、十字キー13の他の構成について説明する図である。図15に示す十字キー13bは、各方向ボタン135〜139の表面が円形のカバーで覆われている点を除き、上述した十字キー13と同じである。このような構成の十字キー13bを利用しても、上記実施形態と同様の効果を得ることができる。 FIG. 15 is a diagram illustrating another configuration of the cross key 13. The cross key 13b shown in FIG. 15 is the same as the cross key 13 described above, except that the surface of each direction button 135 to 139 is covered with a circular cover. Even if the cross key 13b having such a configuration is used, the same effect as that of the above embodiment can be obtained.

図16は、十字キー13の他の構成について説明する図である。図16に示すキー13cは、決定ボタン139が矩形形状に構成されている点と、決定ボタン139および各方向ボタン135〜138が一列に配置されている点とを除き、上述した十字キー13と同じである。このような構成のキー13cを利用しても、上記実施形態と同様の効果を得ることができる。 FIG. 16 is a diagram illustrating another configuration of the cross key 13. The key 13c shown in FIG. 16 is the cross key 13 described above, except that the decision button 139 is formed in a rectangular shape and the decision button 139 and the direction buttons 135 to 138 are arranged in a row. It is the same. Even if the key 13c having such a configuration is used, the same effect as that of the above embodiment can be obtained.

B.変形例:
上記実施形態において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。その他、以下のような変形も可能である。
B. Modification example:
In the above embodiment, a part of the configuration realized by the hardware may be replaced with software, and conversely, a part of the configuration realized by the software may be replaced with the hardware. Good. In addition, the following modifications are possible.

・変形例1:
上記実施形態では、HMDの構成について例示した。しかし、HMDの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、構成要素の追加・削除・変換等を行うことができる。
-Modification example 1:
In the above embodiment, the configuration of the HMD has been illustrated. However, the configuration of the HMD can be arbitrarily determined within a range that does not deviate from the gist of the present invention, and for example, components can be added, deleted, converted, and the like.

上記実施形態では、右導光板26および左導光板28が外光を透過する、いわゆる透過型のHMD100について説明した。しかし、本発明は、例えば、外景を視認できない状態で画像を表示する、いわゆる非透過型のHMD100に適用することもできる。また、これらのHMD100では、上記実施形態で説明した実空間に重畳して画像を表示するAR(Augmented Reality)表示のほか、撮像した実空間の画像と仮想画像とを組み合わせて表示するMR(Mixed Reality)表示、あるいは、仮想空間を表示するVR(Virtual Reality)表示を行うこともできる。また本発明は、AR、MR、VR表示のいずれも行わない装置にも適用できる。 In the above embodiment, the so-called transmissive HMD100 in which the right light guide plate 26 and the left light guide plate 28 transmit external light has been described. However, the present invention can also be applied to, for example, a so-called non-transparent HMD 100 that displays an image in a state where the outside view cannot be visually recognized. Further, in these HMD 100s, in addition to the AR (Augmented Reality) display that displays an image superimposed on the real space described in the above embodiment, MR (Mixed) that displays the captured real space image and the virtual image in combination is displayed. Reality) display or VR (Virtual Reality) display that displays the virtual space can also be performed. The present invention can also be applied to an apparatus that does not display AR, MR, or VR.

上記実施形態では、制御装置10および画像表示部20の機能部について説明したが、これらは任意に変更することができる。例えば、次のような態様を採用してもよい。制御装置10に記憶部122および制御部150を搭載し、画像表示部20には表示機能のみを搭載する態様。制御装置10と画像表示部20との両方に、記憶部122および制御部150を搭載する態様。制御装置10と画像表示部20とを一体化した態様。この場合、例えば、画像表示部20に制御装置10の構成要素が全て含まれ、眼鏡型のウェアラブルコンピューターとして構成される。制御装置10の代わりにスマートフォンや携帯型ゲーム機器を使用する態様。制御装置10と画像表示部20とを無線通信により接続し、接続ケーブル40を配した態様。この場合、例えば、制御装置10や画像表示部20に対する給電についても無線で実施してよい。 In the above embodiment, the functional units of the control device 10 and the image display unit 20 have been described, but these can be arbitrarily changed. For example, the following aspects may be adopted. A mode in which a storage unit 122 and a control unit 150 are mounted on the control device 10, and only a display function is mounted on the image display unit 20. A mode in which a storage unit 122 and a control unit 150 are mounted on both the control device 10 and the image display unit 20. A mode in which the control device 10 and the image display unit 20 are integrated. In this case, for example, the image display unit 20 includes all the components of the control device 10 and is configured as a glasses-type wearable computer. A mode in which a smartphone or a portable game device is used instead of the control device 10. A mode in which the control device 10 and the image display unit 20 are connected by wireless communication and a connection cable 40 is arranged. In this case, for example, power supply to the control device 10 and the image display unit 20 may be performed wirelessly.

・変形例2:
上記実施形態では、制御装置の構成について例示した。しかし、制御装置の構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、構成要素の追加・削除・変換等を行うことができる。
-Modification example 2:
In the above embodiment, the configuration of the control device has been illustrated. However, the configuration of the control device can be arbitrarily determined within a range that does not deviate from the gist of the present invention, and for example, components can be added, deleted, converted, and the like.

上記実施形態では、制御装置10が備える入力手段の一例について説明した。しかし、制御装置10は、例示した一部の入力手段を省略して構成されてもよく、上述しない他の入力手段を備えていてもよい。例えば、制御装置10は、操作スティック、キーボード、マウス等を備えていてもよい。例えば、制御装置10は、使用者の身体の動き等に対応付けられたコマンドを解釈する入力手段を備えていてもよい。使用者の身体の動き等とは、例えば、視線を検出する視線検出、手の動きを検出するジェスチャー検出、足の動きを検出するフットスイッチ等により取得できる。なお、視線検出は、例えば、画像表示部20の内側を撮像するカメラにより実現できる。ジェスチャー検出は、例えば、カメラ61により経時的に撮影された画像を画像解析することにより実現できる。 In the above embodiment, an example of the input means included in the control device 10 has been described. However, the control device 10 may be configured by omitting some of the illustrated input means, or may include other input means not described above. For example, the control device 10 may include an operation stick, a keyboard, a mouse, and the like. For example, the control device 10 may include an input means for interpreting a command associated with the movement of the user's body or the like. The movement of the user's body can be acquired by, for example, line-of-sight detection for detecting the line of sight, gesture detection for detecting the movement of the hand, a foot switch for detecting the movement of the foot, or the like. The line-of-sight detection can be realized by, for example, a camera that images the inside of the image display unit 20. Gesture detection can be realized, for example, by image analysis of an image taken with time by the camera 61.

上記実施形態では、制御部150は、メインプロセッサー140が記憶部122内のコンピュータープログラムを実行することにより動作するとした。しかし、制御部150は種々の構成を採用することができる。例えば、コンピュータープログラムは、記憶部122に代えて、または記憶部122と共に、不揮発性記憶部121、EEPROM215、メモリー118、他の外部記憶装置(各種インターフェイスに挿入されているUSBメモリー等の記憶装置、ネットワークを介して接続されているサーバー等の外部装置を含む)に格納されていてもよい。また、制御部150の各機能は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit)を用いて実現されてもよい。 In the above embodiment, the control unit 150 operates by the main processor 140 executing a computer program in the storage unit 122. However, the control unit 150 can adopt various configurations. For example, the computer program may replace the storage unit 122, or together with the storage unit 122, with the non-volatile storage unit 121, the EEPROM 215, the memory 118, and other external storage devices (storage devices such as USB memory inserted in various interfaces). It may be stored in an external device such as a server connected via a network). Further, each function of the control unit 150 may be realized by using an ASIC (Application Specific Integrated Circuit) designed to realize the function.

・変形例3:
上記実施形態では、画像表示部の構成について例示した。しかし、画像表示部の構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、構成要素の追加・削除・変換等を行うことができる。
-Modification example 3:
In the above embodiment, the configuration of the image display unit has been illustrated. However, the configuration of the image display unit can be arbitrarily determined within a range that does not deviate from the gist of the present invention, and for example, components can be added, deleted, converted, and the like.

図17は、変形例の画像表示部が備える光学系の構成を示す要部平面図である。変形例の画像表示部では、使用者の右眼REに対応したOLEDユニット221aと、左眼LEに対応したOLEDユニット241aと、が設けられている。右眼REに対応したOLEDユニット221aは、白色で発色するOLEDパネル223aと、OLEDパネル223aを駆動して発光させるOLED駆動回路225とを備えている。OLEDパネル223aと右光学系251との間には、変調素子227(変調装置)が配置されている。変調素子227は、例えば、透過型液晶パネルで構成され、OLEDパネル223aが発する光を変調して画像光Lを生成する。変調素子227を透過して変調された画像光Lは、右導光板26によって右眼REに導かれる。 FIG. 17 is a plan view of a main part showing the configuration of the optical system included in the image display unit of the modified example. In the image display unit of the modified example, an OLED unit 221a corresponding to the user's right eye RE and an OLED unit 241a corresponding to the left eye LE are provided. The OLED unit 221a corresponding to the right eye RE includes an OLED panel 223a that develops a white color and an OLED drive circuit 225 that drives the OLED panel 223a to emit light. A modulation element 227 (modulation device) is arranged between the OLED panel 223a and the right optical system 251. The modulation element 227 is composed of, for example, a transmissive liquid crystal panel, and modulates the light emitted by the OLED panel 223a to generate image light L. The image light L transmitted through the modulation element 227 and modulated is guided to the right eye RE by the right light guide plate 26.

左眼LEに対応したOLEDユニット241aは、白色で発光するOLEDパネル243aと、OLEDパネル243aを駆動して発光させるOLED駆動回路245とを備えている。OLEDパネル243aと左光学系252との間には、変調素子247(変調装置)が配置されている。変調素子247は、例えば、透過型液晶パネルで構成され、OLEDパネル243aが発する光を変調して画像光Lを生成する。変調素子247を透過して変調された画像光Lは、左導光板28によって左眼LEに導かれる。変調素子227、247は、図示しない液晶ドライバー回路に接続される。この液晶ドライバー回路(変調装置駆動部)は、例えば変調素子227、247の近傍に配置される基板に実装される。 The OLED unit 241a corresponding to the left eye LE includes an OLED panel 243a that emits light in white and an OLED drive circuit 245 that drives the OLED panel 243a to emit light. A modulation element 247 (modulation device) is arranged between the OLED panel 243a and the left optical system 252. The modulation element 247 is composed of, for example, a transmissive liquid crystal panel, and modulates the light emitted by the OLED panel 243a to generate image light L. The image light L transmitted through the modulation element 247 and modulated is guided to the left eye LE by the left light guide plate 28. The modulation elements 227 and 247 are connected to a liquid crystal driver circuit (not shown). This liquid crystal driver circuit (modulation device driving unit) is mounted on a substrate arranged in the vicinity of, for example, the modulation elements 227 and 247.

変形例の画像表示部によれば、右表示ユニット22および左表示ユニット24は、それぞれ、光源部としてのOLEDパネル223a、243aと、光源部が発する光を変調して複数の色光を含む画像光を出力する変調素子227、247と、を備える映像素子として構成される。なお、OLEDパネル223a、243aが発する光を変調する変調装置は、透過型液晶パネルが採用される構成に限定されない。例えば、透過型液晶パネルに代えて反射型液晶パネルを用いてもよいし、デジタル・マイクロミラー・デバイスを用いてもよいし、レーザー網膜投影型のHMD100としてもよい。 According to the image display unit of the modified example, the right display unit 22 and the left display unit 24 have the OLED panels 223a and 243a as the light source unit and the image light including a plurality of colored lights by modulating the light emitted by the light source unit, respectively. It is configured as a video element including a modulation element 227 and 247 that output the light source. The modulation device that modulates the light emitted by the OLED panels 223a and 243a is not limited to the configuration in which the transmissive liquid crystal panel is adopted. For example, a reflective liquid crystal panel may be used instead of the transmissive liquid crystal panel, a digital micromirror device may be used, or a laser retinal projection type HMD100 may be used.

上記実施形態では、眼鏡型の画像表示部20について説明したが、画像表示部20の態様は任意に変更することができる。例えば、画像表示部20を帽子のように装着する態様としてもよく、ヘルメット等の身体防護具に内蔵された態様としてもよい。また、画像表示部20を、自動車や飛行機等の車両、またはその他の交通手段に搭載されるHUD(Head Up Display)として構成してもよい。 In the above embodiment, the eyeglass-shaped image display unit 20 has been described, but the aspect of the image display unit 20 can be arbitrarily changed. For example, the image display unit 20 may be worn like a hat, or may be built into a body protective device such as a helmet. Further, the image display unit 20 may be configured as a HUD (Head Up Display) mounted on a vehicle such as an automobile or an airplane, or other means of transportation.

上記実施形態では、画像光を使用者の眼に導く光学系として、右導光板26および左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。しかし、この構成は任意に変更することができる。たとえば、右導光板26および左導光板28の全面(または大部分)を占める領域に虚像が形成されてもよい。この場合、画像の表示位置を変化させる動作によって画像を縮小してもよい。また、本発明の光学素子は、ハーフミラー261、281を有する右導光板26および左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品(例えば、回折格子、プリズム、ホログラフィー等)を用いる限り任意の態様を採用できる。 In the above embodiment, as an optical system that guides the image light to the eyes of the user, a configuration in which a virtual image is formed on a part of the right light guide plate 26 and the left light guide plate 28 by the half mirrors 261 and 281 is illustrated. However, this configuration can be changed arbitrarily. For example, a virtual image may be formed in a region that occupies the entire surface (or most) of the right light guide plate 26 and the left light guide plate 28. In this case, the image may be reduced by the operation of changing the display position of the image. Further, the optical element of the present invention is not limited to the right light guide plate 26 and the left light guide plate 28 having the half mirrors 261 and 281, and an optical component (for example, a diffraction grating, a prism, etc.) that allows image light to enter the user's eye. Any aspect can be adopted as long as holography or the like is used.

・変形例4:
上記実施形態では、入出力制御について例示した。しかし、入出力制御における処理内容は、本発明の要旨を逸脱しない範囲において任意に定めることが可能である。
-Modification example 4:
In the above embodiment, input / output control has been illustrated. However, the processing content in the input / output control can be arbitrarily determined without departing from the gist of the present invention.

上記実施形態では、選択されている候補の強調のために矩形の太枠で囲む形態を例示した。しかし、選択されている候補の強調は種々の態様で実施できる。例えば、選択されている候補(文字そのもの)について、選択されていない他の候補と比較して、表示を大きくする、表示の明るさを変化させる、表示位置を移動させる、表示形態を変化させる、等の手段を採用し得る。表示の明るさを変化させる場合、周囲の明るさに応じて、選択されている候補を明るくするか、暗くするかを変更してもよい。表示位置を移動させる場合、選択されている候補が十字表示の中央に移動し、選択されていない候補が十字表示の上下左右に移動するように、位置を変更してもよい。表示形態を変化させる場合、選択されている候補を黒抜き表示や白抜き表示にしてもよく、選択されている候補の書体を変化させてもよい。さらに、選択されている候補(文字そのもの)について、上述した強調表示と共に、または上述した強調表示に代えて、音声による報知を実施してもよい。そうすれば、使用者の視覚だけでなく、聴覚を用いて選択されている候補を強調することができる。 In the above embodiment, a form surrounded by a thick rectangular frame is illustrated to emphasize the selected candidate. However, emphasis on selected candidates can be performed in various ways. For example, for the selected candidate (character itself), the display is enlarged, the brightness of the display is changed, the display position is moved, and the display form is changed, as compared with other candidates that are not selected. Etc. can be adopted. When changing the brightness of the display, it may be possible to change whether the selected candidate is brightened or darkened according to the ambient brightness. When moving the display position, the position may be changed so that the selected candidate moves to the center of the cross display and the unselected candidate moves up, down, left, and right of the cross display. When changing the display form, the selected candidate may be displayed in black or white, or the typeface of the selected candidate may be changed. Further, the selected candidate (character itself) may be notified by voice together with the above-mentioned highlighting or in place of the above-mentioned highlighting. By doing so, it is possible to emphasize the selected candidates not only by the user's eyesight but also by hearing.

・変形例5:
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
-Modification example 5:
The present invention is not limited to the above-described embodiments, examples, and modifications, and can be realized with various configurations within a range not deviating from the gist thereof. For example, the technical features in the embodiments, examples, and modifications corresponding to the technical features in each embodiment described in the column of the outline of the invention may be used to solve some or all of the above-mentioned problems. , It is possible to replace or combine as appropriate in order to achieve some or all of the above effects. Further, if the technical feature is not described as essential in the present specification, it can be appropriately deleted.

10…制御装置、11…ボタン、12…LEDインジケーター、13、13a、13b…十字キー、13c…キー、14…トラックパッド、15…上下キー、16…切替スイッチ、18…電源スイッチ、19…バイブレーター、20…画像表示部、21…右保持部、22…右表示ユニット、23…左保持部、24…左表示ユニット、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、46…コネクター、61…カメラ、63…マイク、65…照度センサー、67…LEDインジケーター、110…操作部、111…6軸センサー、113…磁気センサー、117…通信部、118…メモリー、120…コントローラー基板、121…不揮発性記憶部、122…記憶部、123…設定データー、124…コンテンツデーター、130…電源部、132…バッテリー、134…電源制御回路、135…左ボタン、136…右ボタン、137…上ボタン、138…下ボタン、139…決定ボタン、140…メインプロセッサー、145…画像処理部、147…表示制御部、149…撮像制御部、150…制御部、151…入出力制御部、180…音声コーデック、182…音声インターフェイス、184…外部コネクター、186…外部メモリーインターフェイス、188…USBコネクター、192…センサーハブ、196…インターフェイス、210…表示ユニット基板、211…インターフェイス、213…受信部、215…EEPROM、217…温度センサー、221、221a…OLEDユニット、223、223a…OLEDパネル、225…OLED駆動回路、227…変調素子、230…表示ユニット基板、231…インターフェイス、233…受信部、235…6軸センサー、237…磁気センサー、239…温度センサー、241、241a…OLEDユニット、243、243a…OLEDパネル、245…OLED駆動回路、247…変調素子、251…右光学系、252…左光学系、261…ハーフミラー、281…ハーフミラー 10 ... Control device, 11 ... Button, 12 ... LED indicator, 13, 13a, 13b ... Cross key, 13c ... Key, 14 ... Track pad, 15 ... Up and down key, 16 ... Changeover switch, 18 ... Power switch, 19 ... Vibrator , 20 ... image display unit, 21 ... right holding unit, 22 ... right display unit, 23 ... left holding unit, 24 ... left display unit, 26 ... right light guide plate, 27 ... front frame, 28 ... left light guide plate, 30 ... headset, 32 ... right earphone, 34 ... left earphone, 40 ... connection cable, 46 ... connector, 61 ... camera, 63 ... microphone, 65 ... illuminance sensor, 67 ... LED indicator, 110 ... operation unit, 111 ... 6 axes Sensor, 113 ... Magnetic sensor, 117 ... Communication unit, 118 ... Memory, 120 ... Controller board, 121 ... Non-volatile storage unit, 122 ... Storage unit, 123 ... Setting data, 124 ... Content data, 130 ... Power supply unit, 132 ... Battery, 134 ... Power control circuit, 135 ... Left button, 136 ... Right button, 137 ... Up button, 138 ... Down button, 139 ... Enter button, 140 ... Main processor, 145 ... Image processing unit, 147 ... Display control unit, 149 ... Imaging control unit, 150 ... Control unit, 151 ... Input / output control unit, 180 ... Voice codec, 182 ... Voice interface, 184 ... External connector, 186 ... External memory interface, 188 ... USB connector, 192 ... Sensor hub, 196 ... Interface, 210 ... Display unit board, 211 ... Interface, 213 ... Receiver, 215 ... EEPROM, 217 ... Temperature sensor, 221 221a ... OLED unit, 223, 223a ... OLED panel, 225 ... OLED drive circuit, 227 ... Modulation Element, 230 ... Display unit board, 231 ... Interface, 233 ... Receiver, 235 ... 6-axis sensor, 237 ... Magnetic sensor, 239 ... Temperature sensor, 241, 241a ... OLED unit, 243, 243a ... OLED panel, 245 ... OLED Drive circuit, 247 ... Modulator, 251 ... Right optical system, 252 ... Left optical system, 261 ... Half mirror, 281 ... Half mirror

Claims (13)

入力装置であって、
個々に入力のオンオフが可能な2つ以上のボタンと、
前記入力装置を制御する制御部と、
を備え、
前記制御部は、前記各ボタンの検出結果が予め定められたパターンを含む場合はフリック入力に相当する出力を実行し、前記予め定められたパターンを含まない場合は前記各ボタンの検出結果をそのまま出力し、
前記予め定められたパターンは、前記2つ以上のボタンのうち、一つのボタンのオンオフを少なくとも1回以上検出した後、他のボタンのオンを検出したことであり、
前記2つ以上のボタンは、決定ボタンと、上下左右のそれぞれに対応した方向ボタンと、を含み、
前記予め定められたパターンは、
前記決定ボタンのオンオフを検出した後、前記方向ボタンのうちのいずれか1つのオンを検出したことである、入力装置。
It is an input device
Two or more buttons that can be turned on and off individually,
A control unit that controls the input device and
With
When the detection result of each button includes a predetermined pattern, the control unit executes an output corresponding to a flick input, and when the detection result of each button does not include the predetermined pattern, the detection result of each button is used as it is. Output and
Said predetermined pattern of said two or more buttons, after detecting at least one time on and off of one of the buttons state, and are the detection of the on-the other buttons,
The two or more buttons include a decision button and a direction button corresponding to each of the top, bottom, left, and right.
The predetermined pattern is
An input device that detects the on / off of any one of the direction buttons after detecting the on / off of the decision button .
請求項に記載の入力装置であって、
前記予め定められたパターンは、
前記決定ボタンのオンオフを検出した後、予め定められた第1の時間内に、前記方向ボタンのうちのいずれか1つのオンを検出したことである、入力装置。
The input device according to claim 1 .
The predetermined pattern is
An input device that detects the on / off of any one of the direction buttons within a predetermined first time after detecting the on / off of the decision button.
請求項に記載の入力装置であって、
前記予め定められたパターンは、
前記決定ボタンのオンを検出した後、予め定められた第2の時間の経過後に前記決定ボタンのオフを検出し、その後、前記方向ボタンのうちのいずれか1つのオンを検出したことである、入力装置。
The input device according to claim 1 .
The predetermined pattern is
After detecting the on of the decision button, the off of the decision button is detected after a lapse of a predetermined second time, and then the on of any one of the direction buttons is detected. Input device.
入力装置であって、
個々に入力のオンオフが可能な2つ以上のボタンと、
前記入力装置を制御する制御部と、
を備え、
前記制御部は、前記各ボタンの検出結果が予め定められたパターンを含む場合はフリック入力に相当する出力を実行し、前記予め定められたパターンを含まない場合は前記各ボタンの検出結果をそのまま出力し、
前記予め定められたパターンは、前記2つ以上のボタンのうち、一つのボタンのオンオフを少なくとも1回以上検出した後、他のボタンのオンを検出したことであり、
前記2つ以上のボタンは、決定ボタンと、上下左右のそれぞれに対応した方向ボタンと、を含み、
前記予め定められたパターンは、
前記決定ボタンのオンオフを2回検出した後、前記方向ボタンのうちのいずれか1つのオンを検出したことである、入力装置。
It is an input device
Two or more buttons that can be turned on and off individually,
A control unit that controls the input device and
With
When the detection result of each button includes a predetermined pattern, the control unit executes an output corresponding to a flick input, and when the detection result of each button does not include the predetermined pattern, the detection result of each button is used as it is. Output and
The predetermined pattern is that, of the two or more buttons, the on / off of one button is detected at least once, and then the on / off of the other button is detected.
The two or more buttons include a decision button and a direction button corresponding to each of the top, bottom, left, and right.
The predetermined pattern is
An input device that detects the on / off of the decision button twice and then detects the on / off of any one of the direction buttons.
請求項から請求項のいずれか一項に記載の入力装置であって、
前記2つ以上のボタンは、各前記方向ボタンが、前記決定ボタンを中心として上下左右方向にそれぞれ配置された十字キーである、入力装置。
The input apparatus according to any one of claims 1 to 4,
The two or more buttons are input devices in which each of the direction buttons is a cross key arranged in the up, down, left, and right directions about the decision button.
請求項1から請求項のいずれか一項に記載の入力装置であって、
各前記2つ以上のボタンは、機械接点式のボタン、または、静電容量式のボタンである、入力装置。
The input device according to any one of claims 1 to 5 .
Each of the two or more buttons is an input device, which is a mechanical contact type button or a capacitance type button.
請求項1から請求項のいずれか一項に記載の入力装置であって、さらに、
使用者の頭部に装着されることで前記使用者に虚像を視認させる画像表示部に接続するためのインターフェイスを備え、
前記制御部は、さらに、
画像光を生成し、生成した前記画像光を前記画像表示部へ出力する機能と、
種々のアプリケーションの実行を可能とするオペレーティングシステムと、を含み、
前記制御部は、前記フリック入力に相当する出力または前記検出結果を、前記アプリケーションと前記オペレーティングシステムとのうちの少なくとも一方へ出力する、入力装置。
The input device according to any one of claims 1 to 6 , and further
It is equipped with an interface for connecting to an image display unit that allows the user to visually recognize a virtual image by being attached to the user's head.
The control unit further
A function of generating image light and outputting the generated image light to the image display unit,
Including an operating system that allows the execution of various applications,
The control unit is an input device that outputs an output corresponding to the flick input or the detection result to at least one of the application and the operating system.
請求項1から請求項のいずれか一項に記載の入力装置であって、
前記制御部は、さらに、種々のアプリケーションの実行を可能とするオペレーティングシステムを含み、
前記制御部は、前記フリック入力に相当する出力または前記検出結果を、前記アプリケーションと前記オペレーティングシステムとのうちの少なくとも一方へ出力する、入力装置。
The input device according to any one of claims 1 to 6 .
The control unit further includes an operating system that enables execution of various applications.
The control unit is an input device that outputs an output corresponding to the flick input or the detection result to at least one of the application and the operating system.
請求項1から請求項のいずれか一項に記載の入力装置であって、さらに、
外部装置に接続するためのインターフェイスを備え、
前記制御部は、前記フリック入力に相当する出力または前記検出結果を、前記インターフェイスを介して前記外部装置へ出力する、入力装置。
The input device according to any one of claims 1 to 6 , and further
Equipped with an interface for connecting to an external device
The control unit is an input device that outputs an output corresponding to the flick input or the detection result to the external device via the interface.
個々に入力のオンオフが可能な2つ以上のボタンを用いた入力方法であって、
コンピューターが、前記各ボタンの検出結果が予め定められたパターンを含む場合はフリック入力に相当する出力を実行し、前記予め定められたパターンを含まない場合は前記各ボタンの検出結果をそのまま出力する工程を備え、
前記予め定められたパターンは、前記2つ以上のボタンのうち、一つのボタンのオンオフを少なくとも1回以上検出した後、他のボタンのオンを検出したことであり、
前記2つ以上のボタンは、決定ボタンと、上下左右のそれぞれに対応した方向ボタンと、を含み、
前記予め定められたパターンは、
前記決定ボタンのオンオフを検出した後、前記方向ボタンのうちのいずれか1つのオンを検出したことである、入力方法。
It is an input method using two or more buttons that can turn input on and off individually.
When the detection result of each button includes a predetermined pattern, the computer executes an output corresponding to a flick input, and when the detection result of each button does not include the predetermined pattern, the detection result of each button is output as it is. With a process,
Said predetermined pattern of said two or more buttons, after detecting at least one time on and off of one of the buttons state, and are the detection of the on-the other buttons,
The two or more buttons include a decision button and a direction button corresponding to each of the top, bottom, left, and right.
The predetermined pattern is
An input method for detecting the on / off of any one of the direction buttons after detecting the on / off of the enter button .
コンピュータープログラムであって、
個々に入力のオンオフが可能な2つ以上のボタンにおける、前記各ボタンの検出結果が予め定められたパターンを含む場合はフリック入力に相当する出力を実行し、前記予め定められたパターンを含まない場合は前記各ボタンの検出結果をそのまま出力する機能を備え、
前記予め定められたパターンは、前記2つ以上のボタンのうち、一つのボタンのオンオフを少なくとも1回以上検出した後、他のボタンのオンを検出したことであり、
前記2つ以上のボタンは、決定ボタンと、上下左右のそれぞれに対応した方向ボタンと、を含み、
前記予め定められたパターンは、
前記決定ボタンのオンオフを検出した後、前記方向ボタンのうちのいずれか1つのオンを検出したことである、コンピュータープログラム。
It ’s a computer program,
When the detection result of each button in two or more buttons whose inputs can be turned on and off individually includes a predetermined pattern, the output corresponding to the flick input is executed, and the predetermined pattern is not included. In the case, it has a function to output the detection result of each button as it is.
Said predetermined pattern of said two or more buttons, after detecting at least one time on and off of one of the buttons state, and are the detection of the on-the other buttons,
The two or more buttons include a decision button and a direction button corresponding to each of the top, bottom, left, and right.
The predetermined pattern is
A computer program that detects the on / off of any one of the direction buttons after detecting the on / off of the enter button .
個々に入力のオンオフが可能な2つ以上のボタンを用いた入力方法であって、It is an input method using two or more buttons that can turn input on and off individually.
コンピューターが、前記各ボタンの検出結果が予め定められたパターンを含む場合はフリック入力に相当する出力を実行し、前記予め定められたパターンを含まない場合は前記各ボタンの検出結果をそのまま出力する工程を備え、 When the detection result of each button includes a predetermined pattern, the computer executes an output corresponding to a flick input, and when the detection result of each button does not include the predetermined pattern, the detection result of each button is output as it is. With a process
前記予め定められたパターンは、前記2つ以上のボタンのうち、一つのボタンのオンオフを少なくとも1回以上検出した後、他のボタンのオンを検出したことであり、 The predetermined pattern is that, of the two or more buttons, the on / off of one button is detected at least once, and then the on / off of the other button is detected.
前記2つ以上のボタンは、決定ボタンと、上下左右のそれぞれに対応した方向ボタンと、を含み、 The two or more buttons include a decision button and a direction button corresponding to each of the top, bottom, left, and right.
前記予め定められたパターンは、 The predetermined pattern is
前記決定ボタンのオンオフを2回検出した後、前記方向ボタンのうちのいずれか1つのオンを検出したことである、入力方法。 An input method in which the on / off of the decision button is detected twice, and then the on / off of any one of the direction buttons is detected.
コンピュータープログラムであって、 It ’s a computer program,
個々に入力のオンオフが可能な2つ以上のボタンにおける、前記各ボタンの検出結果が予め定められたパターンを含む場合はフリック入力に相当する出力を実行し、前記予め定められたパターンを含まない場合は前記各ボタンの検出結果をそのまま出力する機能を備え、 When the detection result of each button in two or more buttons whose inputs can be turned on and off individually includes a predetermined pattern, the output corresponding to the flick input is executed, and the predetermined pattern is not included. In the case, it has a function to output the detection result of each button as it is.
前記予め定められたパターンは、前記2つ以上のボタンのうち、一つのボタンのオンオフを少なくとも1回以上検出した後、他のボタンのオンを検出したことであり、 The predetermined pattern is that, of the two or more buttons, the on / off of one button is detected at least once, and then the on / off of the other button is detected.
前記2つ以上のボタンは、決定ボタンと、上下左右のそれぞれに対応した方向ボタンと、を含み、 The two or more buttons include a decision button and a direction button corresponding to each of the top, bottom, left, and right.
前記予め定められたパターンは、 The predetermined pattern is
前記決定ボタンのオンオフを2回検出した後、前記方向ボタンのうちのいずれか1つのオンを検出したことである、コンピュータープログラム。 A computer program that detects the on / off of the decision button twice and then detects the on / off of any one of the direction buttons.
JP2016064894A 2016-03-29 2016-03-29 Input device, input method, computer program Active JP6776578B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016064894A JP6776578B2 (en) 2016-03-29 2016-03-29 Input device, input method, computer program
US15/466,250 US20170285765A1 (en) 2016-03-29 2017-03-22 Input apparatus, input method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016064894A JP6776578B2 (en) 2016-03-29 2016-03-29 Input device, input method, computer program

Publications (2)

Publication Number Publication Date
JP2017182228A JP2017182228A (en) 2017-10-05
JP6776578B2 true JP6776578B2 (en) 2020-10-28

Family

ID=60007399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016064894A Active JP6776578B2 (en) 2016-03-29 2016-03-29 Input device, input method, computer program

Country Status (1)

Country Link
JP (1) JP6776578B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6764385B2 (en) 2017-01-20 2020-09-30 株式会社ニフコ Fluid spraying device for vehicle cameras
JP6995650B2 (en) * 2018-01-30 2022-01-14 Dynabook株式会社 Wearable devices and their operation methods
JP2019133387A (en) * 2018-01-31 2019-08-08 Dynabook株式会社 Electronic apparatus, wearable apparatus, and character input control method
JP2020149269A (en) * 2019-03-13 2020-09-17 オムロン株式会社 Character inputting device, character inputting method, and character inputting program
JP2022177328A (en) * 2019-09-12 2022-12-01 Nodesk株式会社 Data input system and display unit

Also Published As

Publication number Publication date
JP2017182228A (en) 2017-10-05

Similar Documents

Publication Publication Date Title
US10643390B2 (en) Head mounted display, method for controlling head mounted display, and computer program
CN108508603B (en) Head-mounted display device, control method therefor, and recording medium
JP2018101019A (en) Display unit and method for controlling display unit
US10474226B2 (en) Head-mounted display device, computer program, and control method for head-mounted display device
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
JP6776578B2 (en) Input device, input method, computer program
US10296105B2 (en) Head-mounted display device, computer program, and control method for head-mounted display device
JP2018142857A (en) Head mounted display device, program, and control method of head mounted display device
US10261327B2 (en) Head mounted display and control method for head mounted display
JP2018151851A (en) Transmissive type display device, display control method, and computer program
JP2018082363A (en) Head-mounted display device and method for controlling the same, and computer program
JP2018124651A (en) Display system
US10296104B2 (en) Display device, method of controlling display device, and program
JP2019128693A (en) Head-mounted display, and method for controlling head-mounted display
JP2018137505A (en) Display device and control method thereof
JP2018084886A (en) Head mounted type display device, head mounted type display device control method, computer program
US10884498B2 (en) Display device and method for controlling display device
JP2018206080A (en) Head-mounted display device, program, and control method for head-mounted display device
JP6996115B2 (en) Head-mounted display device, program, and control method of head-mounted display device
JP6740613B2 (en) Display device, display device control method, and program
US20170285765A1 (en) Input apparatus, input method, and computer program
JP6932917B2 (en) Head-mounted display, program, and head-mounted display control method
JP2017182460A (en) Head-mounted type display device, method for controlling head-mounted type display device, and computer program
JP2019053644A (en) Head mounted display device and control method for head mounted display device
JP2017182413A (en) Head-mounted type display device, control method for the same, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200812

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200921

R150 Certificate of patent or registration of utility model

Ref document number: 6776578

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150