JP6439448B2 - Display system, program, and control method for display device - Google Patents

Display system, program, and control method for display device Download PDF

Info

Publication number
JP6439448B2
JP6439448B2 JP2015000750A JP2015000750A JP6439448B2 JP 6439448 B2 JP6439448 B2 JP 6439448B2 JP 2015000750 A JP2015000750 A JP 2015000750A JP 2015000750 A JP2015000750 A JP 2015000750A JP 6439448 B2 JP6439448 B2 JP 6439448B2
Authority
JP
Japan
Prior art keywords
display
unit
control unit
head
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015000750A
Other languages
Japanese (ja)
Other versions
JP2016126589A (en
Inventor
小林 伸一
伸一 小林
高野 正秀
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015000750A priority Critical patent/JP6439448B2/en
Priority to US14/976,761 priority patent/US20160196693A1/en
Priority to CN201511030028.0A priority patent/CN105759422B/en
Priority to EP16150303.2A priority patent/EP3043237A1/en
Publication of JP2016126589A publication Critical patent/JP2016126589A/en
Application granted granted Critical
Publication of JP6439448B2 publication Critical patent/JP6439448B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示装置を備える表示システム、プログラム、及び、表示装置の制御方法に関する。   The present invention relates to a display system including a display device, a program, and a control method for the display device.

従来、使用者が頭部に装着して使用するヘッドマウントディスプレイ(Head Mounted Display:HMD)等の表示装置に対する入力操作の方法として、手指に装置を装着し、この装置により手指の動きを検出する方法が提案された(例えば、特許文献1、2参照)。特許文献1には、指に装着される装置を利用してテキスト入力を行う構成が開示されている。また、特許文献2には、HMDと指に装着される発光体とを用いて、マウスと同等の操作を行う構成が開示されている。   2. Description of the Related Art Conventionally, as an input operation method for a display device such as a head mounted display (HMD) used by a user wearing on the head, the device is attached to a finger, and the movement of the finger is detected by this device. A method has been proposed (see, for example, Patent Documents 1 and 2). Patent Document 1 discloses a configuration for inputting text using a device worn on a finger. Patent Document 2 discloses a configuration in which an operation equivalent to that of a mouse is performed using an HMD and a light emitter that is worn on a finger.

特開2000−284886号公報JP 2000-284886 A 特開2000−29619号公報JP 2000-29619 A

HMDにおいてテキスト入力やマウスと同等の入力操作を行う場合、誤入力があると、使用者の意図に反した結果を招く。このため、使用者は、入力される文字、或いは、指示位置を示すカーソルを注視して、正確で誤りの無いように操作を行う。このため、使用者には、表示装置の表示に注視して慎重に操作することが求められ、より直感的な操作でHMDを制御できる方法が望まれていた。
本発明は上記事情に鑑みてなされたものであり、使用者の頭部に装着される表示装置を、より直感的な入力操作により制御できる表示システム、及び、表示装置の制御方法を提供することを目的とする。
When an input operation equivalent to a text input or a mouse is performed in the HMD, if there is an erroneous input, a result contrary to the user's intention is brought about. For this reason, the user pays attention to the input character or the cursor indicating the indicated position, and performs an operation so as to be accurate and error-free. For this reason, the user is required to pay careful attention to the display on the display device and carefully operate it, and a method capable of controlling the HMD with a more intuitive operation is desired.
The present invention has been made in view of the above circumstances, and provides a display system capable of controlling a display device mounted on a user's head by a more intuitive input operation, and a display device control method. With the goal.

上記目的を達成するために、本発明の表示システムは、使用者の頭部に装着され、外景を透過して前記使用者に視認させる透過型の表示部を有する表示装置と、前記表示部とは別体として構成される操作デバイスとを備え、前記操作デバイスは、前記使用者の操作を受け付ける操作部を備え、前記表示装置は、前記操作デバイスの操作に基づき、前記表示部を透過する前記外景に関連するAR表示を前記表示部によって行う制御部を備えること、を特徴とする。
本発明によれば、使用者の頭部に装着される表示装置が、外景に関連するAR表示を行う際に、表示装置とは別体の操作デバイスの操作を反映する。このため、直感的な入力操作によってAR表示を制御できる。
In order to achieve the above object, a display system according to the present invention includes a display device that is mounted on a user's head and has a transmissive display unit that allows the user to see through the outside scene, and the display unit. And an operation device configured as a separate body, the operation device includes an operation unit that receives an operation of the user, and the display device transmits the display unit based on an operation of the operation device. A control unit that performs AR display related to an outside scene by the display unit is provided.
According to the present invention, when the display device mounted on the user's head performs AR display related to the outside scene, the operation of the operation device separate from the display device is reflected. For this reason, the AR display can be controlled by an intuitive input operation.

本発明は、上記表示システムにおいて、前記表示装置の前記制御部は、前記操作デバイスの操作に基づき、前記操作部に対応付けられた態様で、前記表示部を透過する前記外景に関連するAR表示を前記表示部によって行うこと、を特徴とする。
本発明によれば、操作デバイスにおける操作を、表示装置において確実に検出できる。また、操作の検出に係る表示装置の負荷を軽減できる。
According to the present invention, in the display system, the control unit of the display device displays an AR display related to the outside scene that is transmitted through the display unit in a mode associated with the operation unit based on an operation of the operation device. Is performed by the display unit.
According to the present invention, the operation on the operation device can be reliably detected in the display device. Further, it is possible to reduce the load on the display device related to the operation detection.

本発明は、上記表示システムにおいて、前記制御部は、前記操作デバイスから送信されるデータに基づいて前記操作部の操作を検出し、検出した操作に対応して、前記表示部に表示中の前記AR表示を変更すること、を特徴とする。
本発明によれば、AR表示を行っている間に、操作デバイスを操作することにより、AR表示を変更させることができる。
According to the present invention, in the display system, the control unit detects an operation of the operation unit based on data transmitted from the operation device, and the display unit displays the operation corresponding to the detected operation. It is characterized by changing the AR display.
According to the present invention, the AR display can be changed by operating the operation device while the AR display is being performed.

本発明は、上記表示システムにおいて、前記制御部は、前記操作部に対する前記AR表示の割り当てを設定可能であってもよい。
この場合において、前記制御部は、前記操作部に対する前記AR表示の割り当てを更新する処理を実行可能であってもよい。
In the display system according to the present invention, the control unit may be capable of setting the allocation of the AR display to the operation unit.
In this case, the control unit may be capable of executing a process for updating the allocation of the AR display to the operation unit.

本発明は、上記表示システムにおいて、前記表示装置の前記制御部は、前記操作デバイスと前記表示装置との相対位置を求め、求めた相対位置に基づき前記表示部でAR表示を行うこと、を特徴とする。
本発明によれば、操作デバイスと表示装置との相対位置に対応して表示を制御できる。
In the display system according to the present invention, the control unit of the display device obtains a relative position between the operation device and the display device, and performs AR display on the display unit based on the obtained relative position. And
According to the present invention, display can be controlled corresponding to the relative position between the operation device and the display device.

本発明は、上記表示システムにおいて、前記操作部は接触操作を検出するタッチ操作部を備え、前記タッチ操作部は複数の操作領域を有し、前記制御部は、前記タッチ操作部で操作された操作領域に割り当てられた前記AR表示を、前記表示部によって表示すること、を特徴とする。
本発明によれば、操作デバイスでタッチ操作を行うことにより、AR表示に対する様々な操作が可能となる。
In the display system according to the aspect of the invention, the operation unit includes a touch operation unit that detects a contact operation, the touch operation unit includes a plurality of operation areas, and the control unit is operated by the touch operation unit. The AR display assigned to the operation area is displayed by the display unit.
According to the present invention, various operations for AR display can be performed by performing a touch operation with an operation device.

本発明は、上記表示システムにおいて、前記操作デバイスが有する前記操作部は、前記操作デバイスの動きを操作として検出すること、を特徴とする。
本発明によれば、操作デバイスを動かすことで表示装置に対する操作を行える。
The present invention is characterized in that, in the display system, the operation unit of the operation device detects a movement of the operation device as an operation.
According to the present invention, the display device can be operated by moving the operation device.

本発明は、上記表示システムにおいて、前記操作デバイスは撮像部を備え、前記撮像部の撮像画像を含むデータを前記通信部により前記表示装置に送信すること、を特徴とする。
本発明によれば、表示装置とは別体の操作デバイスで撮像を行い、撮像画像を表示装置で表示できる。
The present invention is characterized in that, in the display system, the operation device includes an imaging unit, and data including a captured image of the imaging unit is transmitted to the display device by the communication unit.
According to the present invention, it is possible to capture an image with an operation device separate from the display device and display the captured image on the display device.

また、上記目的を達成するために、本発明は、使用者の頭部に装着される表示部を有する表示装置を制御するコンピューターが実行可能なプログラムであって、前記表示部とは別体として構成される操作デバイスが前記使用者の操作を受け付けた場合に、前記操作デバイスの操作に基づき、前記表示部を透過する外景に関連するAR表示を前記表示部によって行うこと、を特徴とする。
本発明によれば、使用者の頭部に装着される表示装置が、外景に関連するAR表示を行う際に、表示装置とは別体の操作デバイスの操作を反映する。このため、直感的な入力操作によってAR表示を制御できる。
In order to achieve the above object, the present invention is a program executable by a computer for controlling a display device having a display unit mounted on a user's head, which is separate from the display unit. When a configured operation device accepts an operation of the user, the display unit performs AR display related to an outside scene that is transmitted through the display unit based on the operation of the operation device.
According to the present invention, when the display device mounted on the user's head performs AR display related to the outside scene, the operation of the operation device separate from the display device is reflected. For this reason, the AR display can be controlled by an intuitive input operation.

また、上記目的を達成するために、本発明の表示装置の制御方法は、使用者の頭部に装着される表示部を有する表示装置を、前記表示部とは別体として構成される操作デバイスを用いて制御する制御方法において、前記操作デバイスの操作部により前記使用者の操作を受け付け、前記表示装置により、前記操作デバイスの操作に基づき、前記表示部を透過する外景に関連するAR表示を前記表示部によって行うこと、を特徴とする。
本発明によれば、使用者の頭部に装着される表示装置が、外景に関連するAR表示を行う際に、表示装置とは別体の操作デバイスの操作を反映する。このため、直感的な入力操作によってAR表示を制御できる。
In order to achieve the above object, a method for controlling a display device according to the present invention includes a display device having a display unit mounted on a user's head as an operation device configured separately from the display unit. In the control method controlled by using the operation device, the operation unit of the operation device receives an operation of the user, and the display device displays an AR display related to an outside scene that is transmitted through the display unit based on the operation of the operation device. It is performed by the display unit.
According to the present invention, when the display device mounted on the user's head performs AR display related to the outside scene, the operation of the operation device separate from the display device is reflected. For this reason, the AR display can be controlled by an intuitive input operation.

本発明は、頭部装着型表示装置以外の種々の形態で実現することも可能である。例えば、頭部装着型表示装置の制御方法、頭部装着型表示装置を有する情報システム、頭部装着型表示装置の制御方法および前記情報システムを実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、および、コンピュータープログラムを配信するためのサーバー装置、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。   The present invention can also be realized in various forms other than the head-mounted display device. For example, a head-mounted display device control method, an information system having a head-mounted display device, a head-mounted display device control method, a computer program for realizing the information system, and the computer program recorded The present invention can be realized in the form of a recording medium, a server device for distributing a computer program, a data signal including the computer program and embodied in a carrier wave.

実施形態に係る表示システムの概略構成を示す説明図。Explanatory drawing which shows schematic structure of the display system which concerns on embodiment. 操作デバイスの構成を示す説明図。Explanatory drawing which shows the structure of an operation device. 操作デバイスの機能ブロック図。The functional block diagram of an operation device. 頭部装着型表示装置の機能ブロック図。The functional block diagram of a head mounted type display apparatus. 操作デバイスの動作を示すフローチャート。The flowchart which shows operation | movement of an operation device. 頭部装着型表示装置の動作を示すフローチャート。The flowchart which shows operation | movement of a head mounting | wearing type display apparatus. 設定用のAR表示の例を示す説明図。Explanatory drawing which shows the example of AR display for a setting. 操作デバイスの操作に応じて実行される処理の例を示す図。The figure which shows the example of the process performed according to operation of an operation device. 頭部装着型表示装置の動作を示すフローチャート。The flowchart which shows operation | movement of a head mounting | wearing type display apparatus. 頭部装着型表示装置の動作の別の例を示すフローチャート。The flowchart which shows another example of operation | movement of a head mounted type display apparatus.

[システム構成]
図1は、本発明を適用した実施形態に係る表示システム1の概略構成を示す図である。
表示システム1は、使用者の身体に装着される頭部装着型表示装置100及び操作デバイス3を備える。
頭部装着型表示装置100は、図1に示すように、使用者の頭部に装着される画像表示部20を有する。頭部装着型表示装置100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備えている。画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状のフレーム2(本体)を有する。また、制御装置10は、使用者が頭部装着型表示装置100を操作するコントローラーとしても機能する。制御装置10は、使用者の衣服のポケットに収容され、或いは、使用者の腰のベルトに取り付けられる。
また、操作デバイス3は、使用者の身体に装着可能な、いわゆるウェアラブルデバイスであり、本実施形態では使用者の腕に装着される腕時計状の形状とする。
[System configuration]
FIG. 1 is a diagram showing a schematic configuration of a display system 1 according to an embodiment to which the present invention is applied.
The display system 1 includes a head-mounted display device 100 and an operation device 3 that are worn on a user's body.
As shown in FIG. 1, the head-mounted display device 100 includes an image display unit 20 that is mounted on the user's head. The head-mounted display device 100 includes an image display unit 20 (display unit) that allows the user to visually recognize a virtual image while being mounted on the user's head, and a control device 10 that controls the image display unit 20. I have. The image display unit 20 is a mounting body to be mounted on the user's head, and has a glasses-shaped frame 2 (main body) in the present embodiment. The control device 10 also functions as a controller for the user to operate the head-mounted display device 100. The control device 10 is accommodated in the pocket of the user's clothes or attached to the belt on the user's waist.
The operation device 3 is a so-called wearable device that can be worn on the user's body. In the present embodiment, the operation device 3 has a watch-like shape that is worn on the user's arm.

[操作デバイスの構成]
図2は、操作デバイス3の構成を示す説明図であり、図2(A)は操作デバイス3の要部正面図であり、(B)及び(C)はLCD303の表示例を示す図である。また、図3は操作デバイス3の機能ブロック図である。これら図1〜図3を参照して操作デバイス3の構成を説明する。
[Operation device configuration]
FIG. 2 is an explanatory diagram showing a configuration of the operation device 3, FIG. 2A is a front view of a main part of the operation device 3, and FIGS. 2B and 2C are diagrams showing display examples on the LCD 303. . FIG. 3 is a functional block diagram of the operation device 3. The configuration of the operation device 3 will be described with reference to FIGS.

操作デバイス3は、腕時計のバンドと同様の形状であるバンド部300を有する。バンド部300は、図示しないバックル等の固定部を有し、例えば使用者の前腕部に巻き付けて固定できる。操作デバイス3のバンド部300には、時計の文字盤に相当する位置に、略円盤状の平面部300Aが形成される。平面部300Aには、ベゼル301、LCD303、ボタン305、リュウズ型操作子307、複数のボタン309、及び光学部310が設けられる。   The operation device 3 has a band portion 300 having a shape similar to that of a wristwatch band. The band part 300 has a fixing part such as a buckle (not shown), and can be wound and fixed around, for example, a user's forearm part. In the band portion 300 of the operation device 3, a substantially disc-shaped plane portion 300A is formed at a position corresponding to a dial of a watch. The plane portion 300A is provided with a bezel 301, an LCD 303, a button 305, a crown-type operation element 307, a plurality of buttons 309, and an optical unit 310.

ベゼル301は、リング形状の操作子であり、平面部300Aの周縁部に配置される。ベゼル301は、バンド部300に対して円周方向に回転可能に設けられる。操作デバイス3は、後述するように、ベゼル301の回転方向、及び回転量を検出する機構を備える。また、ベゼル301を回転可能にバンド部300に指示する機構は、回転に応じてさせる際にノッチ音を発生する記憶を備えてもよい。   The bezel 301 is a ring-shaped operation element, and is disposed on the peripheral portion of the flat surface portion 300A. The bezel 301 is provided so as to be rotatable in the circumferential direction with respect to the band unit 300. As will be described later, the operation device 3 includes a mechanism for detecting the rotation direction and the rotation amount of the bezel 301. The mechanism that instructs the band unit 300 to rotate the bezel 301 may include a memory that generates a notch sound when the bezel 301 is rotated.

LCD303は、文字や画像を表示するLCD(Liquid Crystal Display:液晶ディスプレイ)である。LCD303の表面には図3に示すタッチパネル304(タッチ操作部)が重畳して配置される。   The LCD 303 is an LCD (Liquid Crystal Display) that displays characters and images. A touch panel 304 (touch operation unit) shown in FIG.

ボタン305は、ベゼル301の外側に配置される押しボタン式スイッチである。ボタン305は、例えば図1、図2(A)に示すように、装着状態において、使用者から見てベゼル301の下方に位置する。ボタン305は、後述するリュウズ型操作子307やボタン309に比べて大型であり、手探りでも操作が可能である。   The button 305 is a push button type switch disposed outside the bezel 301. For example, as shown in FIGS. 1 and 2A, the button 305 is positioned below the bezel 301 when viewed from the user in the mounted state. The button 305 is larger than the crown-type operation element 307 and the button 309 described later, and can be operated by groping.

リュウズ型操作子307は、腕時計の竜頭を模した形状の操作子であり、図中矢印で示すように回転させることが可能である。操作デバイス3は、使用者がリュウズ型操作子307を回転させた場合に、リュウズ型操作子307の回転方向、及び回転量を検出する機構を備える。また、リュウズ型操作子307を回転可能にバンド部300に指示する機構は、回転に応じてさせる際にノッチ音を発生する記憶を備えてもよい。   The crown-type operation element 307 is an operation element having a shape imitating a crown of a wristwatch, and can be rotated as indicated by an arrow in the drawing. The operation device 3 includes a mechanism for detecting the rotation direction and the rotation amount of the crown-type operation element 307 when the user rotates the crown-type operation element 307. In addition, the mechanism that instructs the band unit 300 to rotate the crown-type operation element 307 may include a memory that generates a notch sound when the crown unit 307 is rotated.

ボタン309は、平面部300Aの外周部に設けられた押しボタン式のスイッチである。ボタン309の数について特に制限はなく、本実施形態では4つのボタン309を設けた例を示す。
ボタン309には異なる機能を割り当てることが可能であり、各々のボタン309に割り当てられた機能を、LCD303に表示できる。
The button 309 is a push button type switch provided on the outer peripheral portion of the plane portion 300A. The number of buttons 309 is not particularly limited, and in the present embodiment, an example in which four buttons 309 are provided is shown.
Different functions can be assigned to the buttons 309, and the functions assigned to the buttons 309 can be displayed on the LCD 303.

図2(B)は、LCD303に、ボタン309の機能を表示する例を示す。この例では、4つのボタン309に割り当てられた機能をそれぞれ示す機能表示331、332、333、334がLCD303に表示される。機能表示331、332、333、334の表示位置は、機能表示の対象のボタン309の位置に対応する。例えばLCD303の右上部に表示された機能表示331は、平面部300Aの右上に位置するボタン309に割り当てられた機能を示す。   FIG. 2B shows an example in which the function of the button 309 is displayed on the LCD 303. In this example, function displays 331, 332, 333, and 334 that indicate functions assigned to the four buttons 309 are displayed on the LCD 303. The display positions of the function displays 331, 332, 333, and 334 correspond to the position of the function display target button 309. For example, a function display 331 displayed on the upper right portion of the LCD 303 indicates a function assigned to the button 309 located on the upper right portion of the plane portion 300A.

さらに、LCD303には、ベゼル301を回転させることで選択可能な機能を表示できる。図2(C)は、LCD303にベゼル301の操作に割り当てられた機能を表示する例を示す。この例では、ベゼル301を回転させることで選択可能な4つの機能をそれぞれ示す機能表示341、342、343、344がLCD303に表示される。機能表示341、342、343、344の表示位置は、ベゼル301の回転位置に対応する。すなわち、ベゼル301を回転させると、機能表示341、342、343、及び344が、順に切り替えて選択される。例えば、ベゼル301を時計回り(CW)に回転させると、機能表示341、342、343、及び344が、順に切り替えて選択される。   Further, the LCD 303 can display selectable functions by rotating the bezel 301. FIG. 2C shows an example in which functions assigned to the operation of the bezel 301 are displayed on the LCD 303. In this example, function displays 341, 342, 343, and 344 indicating four functions that can be selected by rotating the bezel 301 are displayed on the LCD 303. The display positions of the function displays 341, 342, 343, and 344 correspond to the rotational position of the bezel 301. That is, when the bezel 301 is rotated, the function displays 341, 342, 343, and 344 are selected by switching in order. For example, when the bezel 301 is rotated clockwise (CW), the function displays 341, 342, 343, and 344 are sequentially switched and selected.

また、機能表示345はボタン305に割り当てられた機能を示し、図2(C)の例では「決定」機能である。ベゼル301の回転により、機能表示341、342、343、及び344のいずれかが選択された状態で、ボタン305が操作されると、機能表示341、342、343、及び344の選択が決定される。そして、ベゼル301の回転で選択された機能が実行される。   A function display 345 indicates a function assigned to the button 305, which is a “decision” function in the example of FIG. When the button 305 is operated in a state where any of the function displays 341, 342, 343, and 344 is selected by the rotation of the bezel 301, the selection of the function displays 341, 342, 343, and 344 is determined. . Then, the function selected by the rotation of the bezel 301 is executed.

ボタン309に割り当てられる機能、及び、ベゼル301の回転により選択される機能は、一通りに限定されず、より多数の機能を切り替えて割り当てることが可能である。この場合、操作デバイス3において、機能を切り替えることが可能な構成とすることができる。この場合、機能の切り替えに伴って、LCD303の機能表示331、332、333、334、或いは機能表示341、342、343、344が切り替わる構成としてもよい。   The function assigned to the button 309 and the function selected by the rotation of the bezel 301 are not limited to one, and more functions can be switched and assigned. In this case, the operation device 3 can be configured to be able to switch functions. In this case, the function display 331, 332, 333, 334 or the function display 341, 342, 343, 344 of the LCD 303 may be switched in accordance with the function switching.

光学部310は、2つのカメラ311(撮像部)、及び、LED313を備える。カメラ311は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。操作デバイス3が有する2つのカメラ311の撮像範囲は、それぞれ異なる範囲であってもよいし、同一の範囲であってもよい。本実施形態では、2つのカメラ311で、操作デバイス3を装着た利用者の両眼を撮像し、撮像画像に基づき使用者の目線を検出可能である。従って、2つのカメラ311の一方は、平面部300Aを正面視する使用者の右眼を撮像し、他方は左眼を撮像できる構成である。
LED(Light Emitting Diode)313は、赤外光を発する赤外LEDである。LED313は、カメラ311で撮像をする場合の照明として利用される。また、操作デバイス3は、LED313を点灯あるいは点滅させることで、光信号を送信できる。
The optical unit 310 includes two cameras 311 (imaging unit) and an LED 313. The camera 311 is a digital camera that includes an imaging element such as a CCD or CMOS, an imaging lens, and the like. The imaging ranges of the two cameras 311 included in the operation device 3 may be different ranges or the same range. In the present embodiment, the two cameras 311 can capture both eyes of the user wearing the operation device 3, and can detect the user's line of sight based on the captured image. Therefore, one of the two cameras 311 is configured to capture the right eye of the user who views the plane portion 300A from the front, and the other can capture the left eye.
An LED (Light Emitting Diode) 313 is an infrared LED that emits infrared light. The LED 313 is used as illumination when the camera 311 captures an image. The operation device 3 can transmit an optical signal by turning on or blinking the LED 313.

図3には操作デバイス3の制御系の構成を示す。
操作デバイス3は、操作デバイス3の各部を制御する制御部350を備える。制御部350は、図示しないCPU、ROM、RAM等を備え、ROMに記憶したプログラムを実行することにより、操作デバイス3の機能を実現する。
制御部350には、通信用の機能部として、無線通信部361(通信部)及びNFC(Near Field Communication)部362を備える。無線通信部361は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。NFC部362は、NFC規格に準拠した近距離無線通信を実行する。
FIG. 3 shows the configuration of the control system of the operation device 3.
The operation device 3 includes a control unit 350 that controls each unit of the operation device 3. The control unit 350 includes a CPU, ROM, RAM, and the like (not shown), and realizes the function of the operation device 3 by executing a program stored in the ROM.
The control unit 350 includes a wireless communication unit 361 (communication unit) and an NFC (Near Field Communication) unit 362 as functional units for communication. The wireless communication unit 361 performs wireless data communication conforming to a standard such as a wireless LAN (WiFi (registered trademark)), Miracast (registered trademark), Bluetooth (registered trademark), or the like. The NFC unit 362 performs short-range wireless communication based on the NFC standard.

制御部350には、LCD303、タッチパネル304、2つのカメラ311、及びLED313が接続される。制御部350は、LCD303を制御して画像や文字を表示させる。また、タッチパネル304は、LCD303の表面に重畳して配置され、LCD303の表面における接触操作を検出する。タッチパネル304は、例えば、静電容量式または感圧式のセンサーを用いることができる。制御部350は、タッチパネル304により接触操作を検出し、操作位置を特定する。タッチパネル304は、1点の接触操作を検出してもよいし、複数の点における操作を同時に検出可能な、いわゆるマルチタッチ操作に対応してもよい。
制御部350は、2つのカメラ311をそれぞれ制御して、撮像を実行させて撮像画像データを生成する。また、制御部350は、LED313に流れる電流をON/OFFして、LED313を任意のタイミングで点灯、或いは点滅させる。
The control unit 350 is connected to the LCD 303, the touch panel 304, the two cameras 311, and the LED 313. The control unit 350 controls the LCD 303 to display images and characters. The touch panel 304 is arranged so as to overlap the surface of the LCD 303 and detects a touch operation on the surface of the LCD 303. For the touch panel 304, for example, a capacitance type sensor or a pressure sensitive sensor can be used. The control unit 350 detects a contact operation using the touch panel 304 and specifies an operation position. The touch panel 304 may detect a single contact operation or may correspond to a so-called multi-touch operation that can simultaneously detect operations at a plurality of points.
The control unit 350 controls each of the two cameras 311 to execute imaging and generate captured image data. Further, the control unit 350 turns on / off the current flowing through the LED 313, and turns on or blinks the LED 313 at an arbitrary timing.

制御部350には、マイク365、ボタン操作部366、回転検出部367、9軸センサー368、バイブレーター369、及び、スピーカー370が接続される。マイク365は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。マイク365が指向性を有する場合、マイク365は、例えば平面部300A(図2)またはその近傍で、平面部300Aの正面方向の音を集音する。また、マイク365は、使用者の身体に接触する骨伝導型のマイクであってもよい。制御部350は、マイク365が集音した音声のアナログ音声信号を取得してディジタル音声データを生成する。   A microphone 365, a button operation unit 366, a rotation detection unit 367, a 9-axis sensor 368, a vibrator 369, and a speaker 370 are connected to the control unit 350. The microphone 365 may be, for example, a monaural microphone or a stereo microphone, may be a directional microphone, or may be an omnidirectional microphone. When the microphone 365 has directivity, the microphone 365 collects sound in the front direction of the plane portion 300A, for example, at or near the plane portion 300A (FIG. 2). The microphone 365 may be a bone conduction microphone that contacts the user's body. The control unit 350 acquires an analog audio signal of the audio collected by the microphone 365 and generates digital audio data.

ボタン操作部366は、ボタン305、及び、ボタン309の操作を検出し、操作されたボタンに対応する操作信号を制御部350に出力する。回転検出部367は、ベゼル301の回転、及び、リュウズ型操作子307の回転を検出する。回転検出部367は、ベゼル301の回転方向と回転量を示す信号を制御部350に出力し、リュウズ型操作子307についても同様に回転方向と回転量を示す信号を制御部350に出力する。ここで、回転検出部367は、ベゼル301が所定量回転する毎に、回転方向を示す信号を出力してもよい。この場合、回転検出部367の出力信号を制御部350がカウントすることで、制御部350が回転量を取得でき、回転検出部367が回転量を積算する必要がない。リュウズ型操作子307の回転操作についても同様に、リュウズ型操作子307が所定量回転する毎に、回転検出部367が回転方向を示す信号を出力してもよい。   The button operation unit 366 detects the operation of the buttons 305 and 309 and outputs an operation signal corresponding to the operated button to the control unit 350. The rotation detection unit 367 detects the rotation of the bezel 301 and the rotation of the crown type manipulator 307. The rotation detection unit 367 outputs a signal indicating the rotation direction and the rotation amount of the bezel 301 to the control unit 350, and similarly outputs a signal indicating the rotation direction and the rotation amount to the control unit 350 for the crown-shaped operation element 307. Here, the rotation detection unit 367 may output a signal indicating the rotation direction every time the bezel 301 rotates by a predetermined amount. In this case, since the control unit 350 counts the output signal of the rotation detection unit 367, the control unit 350 can acquire the rotation amount, and the rotation detection unit 367 does not need to integrate the rotation amount. Similarly, for the rotation operation of the crown-type operation element 307, the rotation detection unit 367 may output a signal indicating the rotation direction every time the crown-type operation element 307 rotates by a predetermined amount.

9軸センサー368は、慣性センサーを備えたユニットであり、本実施形態では、3軸の加速度センサー、3軸の角速度センサー、及び、3軸の磁気センサーを具備する。9軸センサー368が検出を行う軸は、例えば、平面部300Aを含む平面内における上下方向、左右方向、及び平面部300Aを含む平面に直交する方向に沿って設定できる。
バイブレーター369は、制御部350の制御に従って回転するモーター(図示略)を備える。このモーターの回転軸には錘が偏心して取り付けられ、モーターの回転に伴い操作デバイス3を振動させる。スピーカー370は、制御部350が出力する音声信号に基づき音声を出力する。
The 9-axis sensor 368 is a unit including an inertial sensor, and in this embodiment, includes a 3-axis acceleration sensor, a 3-axis angular velocity sensor, and a 3-axis magnetic sensor. The axis on which the nine-axis sensor 368 detects can be set, for example, in the vertical direction, the horizontal direction, and the direction orthogonal to the plane including the plane portion 300A in the plane including the plane portion 300A.
Vibrator 369 includes a motor (not shown) that rotates under the control of control unit 350. A weight is eccentrically attached to the rotation shaft of the motor, and the operation device 3 is vibrated as the motor rotates. The speaker 370 outputs audio based on the audio signal output from the control unit 350.

制御部350を含む操作デバイス3の各部には、一次電池または二次電池を有する電源部360から電源が供給される。電源部360は、二次電池とともに、二次電池への充電を制御する回路を備えてもよい。   Power is supplied to each unit of the operation device 3 including the control unit 350 from a power supply unit 360 having a primary battery or a secondary battery. The power supply unit 360 may include a circuit that controls charging of the secondary battery together with the secondary battery.

制御部350は、プログラムを実行することにより、操作検出部351、出力制御部352、撮像制御部353、通信制御部354、及び音声処理部355の各部の機能を実現する。
操作検出部351は、ボタン操作部366及び回転検出部367から入力される信号に基づき、操作デバイス3が備える操作子の操作を検出し、操作内容を特定する。具体的には、操作検出部351は、ボタン305、リュウズ型操作子307、及びボタン309の操作を検出する。また、操作検出部351は、9軸センサー368から入力される信号に基づいて、操作デバイス3を振る、動かす等の操作を検出する。さらに、操作検出部351は、タッチパネル304から入力される信号に基づき、LCD303に対する接触操作を検出し、操作位置を特定する。ここで、操作検出部351は、操作位置においてLCD303が表示する画像を特定することにより、操作位置に割り当てられる機能を特定することも可能である。
The control unit 350 realizes the functions of the operation detection unit 351, the output control unit 352, the imaging control unit 353, the communication control unit 354, and the sound processing unit 355 by executing a program.
The operation detection unit 351 detects the operation of the operator included in the operation device 3 based on the signals input from the button operation unit 366 and the rotation detection unit 367, and specifies the operation content. Specifically, the operation detection unit 351 detects the operation of the button 305, the crown type operation element 307, and the button 309. Further, the operation detection unit 351 detects an operation such as shaking or moving the operation device 3 based on a signal input from the 9-axis sensor 368. Further, the operation detection unit 351 detects a touch operation on the LCD 303 based on a signal input from the touch panel 304 and specifies an operation position. Here, the operation detection unit 351 can specify the function assigned to the operation position by specifying the image displayed on the LCD 303 at the operation position.

出力制御部352は、通信制御部354が無線通信部361やNFC部362により受信するデータ、又は、操作検出部351が検出する操作に対応して、出力を実行する。出力制御部352は、LCD303に文字や画像を表示する。また、出力制御部352は、バイブレーター369のモーターを動作させて操作デバイス3を振動させる。
撮像制御部353は、カメラ311を制御して撮像を実行させ、撮像画像データを取得する。
通信制御部354は、無線通信部361またはNFC部362により、外部の機器とデータを送受信する。通信制御部354は、無線通信部361により頭部装着型表示装置100とデータ通信を実行できる。また、通信制御部354は、NFC部362により、近接通信が可能な機器を検出した場合に、この機器とデータを送受信する。また、通信制御部354は、LED313を点滅させて、光信号によりデータを送信できる。この場合、通信制御部354は、カメラ311により光信号を検出して受信する構成としてもよい。
The output control unit 352 executes output in response to data received by the communication control unit 354 by the wireless communication unit 361 or the NFC unit 362 or an operation detected by the operation detection unit 351. The output control unit 352 displays characters and images on the LCD 303. The output control unit 352 operates the motor of the vibrator 369 to vibrate the operation device 3.
The imaging control unit 353 controls the camera 311 to execute imaging, and acquires captured image data.
The communication control unit 354 transmits / receives data to / from an external device through the wireless communication unit 361 or the NFC unit 362. The communication control unit 354 can execute data communication with the head-mounted display device 100 through the wireless communication unit 361. Further, when the NFC unit 362 detects a device capable of near field communication, the communication control unit 354 transmits and receives data to and from this device. Further, the communication control unit 354 can transmit data using an optical signal by blinking the LED 313. In this case, the communication control unit 354 may be configured to detect and receive an optical signal with the camera 311.

音声処理部355は、マイク365が集音した音声のディジタル音声データを生成して、必要に応じて解析を行う。例えば、音声処理部355は、マイク365が集音した使用者の音声を解析し、操作を指示する音声を検出した場合に、操作検出部351に対して操作の指示を出力してもよい。この場合、使用者は操作デバイス3を音声により操作できる。また、音声処理部355は、スピーカー370に音声信号を出力して音声を出力させる。   The sound processing unit 355 generates digital sound data of the sound collected by the microphone 365 and performs analysis as necessary. For example, the voice processing unit 355 may analyze the user's voice collected by the microphone 365 and output an operation instruction to the operation detection unit 351 when detecting a voice instructing the operation. In this case, the user can operate the operation device 3 by voice. In addition, the audio processing unit 355 outputs an audio signal to the speaker 370 to output audio.

制御部350は、操作デバイス3の動作モードとして、時計モードと、UIモードとを含む複数の動作モードを実行でこる。時計モードは、制御部350により現在時刻を計時し、LCD303に現在時刻を表示する動作モードである。時計モードは操作デバイス3を時計として動作させるので、消費電力が小さいという利点がある。UIモードは、操作デバイス3を、頭部装着型表示装置100を操作するユーザーインターフェイス(UI)として機能させる動作モードである。UIモードでは、操作デバイス3に対する操作に基づき、操作デバイス3が頭部装着型表示装置100にデータを送信し、このデータに従って頭部装着型表示装置100が動作する。時計モードからUIモードへの切り替え、及び、UIモードから時計モードへの切り替えは、後述するように、制御部350の制御により行われる。   The control unit 350 can execute a plurality of operation modes including a clock mode and a UI mode as operation modes of the operation device 3. The clock mode is an operation mode in which the control unit 350 measures the current time and displays the current time on the LCD 303. The clock mode has an advantage that the power consumption is small because the operation device 3 is operated as a clock. The UI mode is an operation mode in which the operation device 3 functions as a user interface (UI) for operating the head-mounted display device 100. In the UI mode, the operation device 3 transmits data to the head-mounted display device 100 based on an operation on the operation device 3, and the head-mounted display device 100 operates according to this data. Switching from the clock mode to the UI mode and switching from the UI mode to the clock mode are performed under the control of the control unit 350, as will be described later.

[頭部装着型表示装置の構成]
頭部装着型表示装置100において、画像表示部20のフレーム2は、右保持部21及び左保持部23を有する。右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21は使用者の頭部において右耳またはその近傍に当接し、左保持部23は使用者の左耳またはその近傍に当接して、使用者の頭部に画像表示部20を保持する。
[Configuration of head-mounted display device]
In the head-mounted display device 100, the frame 2 of the image display unit 20 includes a right holding unit 21 and a left holding unit 23. The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 contacts the right ear or the vicinity thereof on the user's head, and the left holding unit 23 contacts the user's left ear or the vicinity thereof and holds the image display unit 20 on the user's head. To do.

フレーム2には、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61(撮像部)と、マイク63とが設けられる。
右光学像表示部26及び左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右及び左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに連結されている。
The frame 2 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a camera 61 ( An imaging unit) and a microphone 63 are provided.
The right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20.

右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21及び左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。   The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses.

右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、右表示駆動部22及び左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26及び左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。   The right display drive unit 22 and the left display drive unit 24 are disposed on the side facing the user's head when the user wears the image display unit 20. The right display drive unit 22 and the left display drive unit 24 are collectively referred to simply as “display drive unit”, and the right optical image display unit 26 and the left optical image display unit 28 are simply referred to as “optical image display unit”. Also called.

表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」と呼ぶ)、投写光学系251,252等を含む。
右光学像表示部26及び左光学像表示部28は、導光板261,262(図2)と、調光板20Aとを備える。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24が出力する画像光を、使用者の眼に導く。調光板20Aは、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置される。調光板20Aは、光透過性がほぼ無いもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰又は反射するもの等、種々のものを用いることができる。調光板20Aの光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部26及び左光学像表示部28に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、頭部装着型表示装置100を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板20Aを用いる場合について説明する。調光板20Aは、右導光板261及び左導光板262を保護し、右導光板261及び左導光板262の損傷や汚れの付着等を抑制する。
調光板20Aは、右光学像表示部26及び左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板20Aを交換して装着可能としてもよいし、省略してもよい。
そして、頭部装着型表示装置100は、内部で処理する画像の画像光と外光とを重ねて使用者の眼に入射させ、使用者にとっては、調光板20Aを透かして外景が見え、この外景に重ねて、画像光による画像が視認される。このように、頭部装着型表示装置100は、シースルー型の表示装置として機能する。
The display driving units 22 and 24 include liquid crystal displays 241 and 242 (Liquid Crystal Display, hereinafter referred to as “LCDs 241 and 242”), projection optical systems 251 and 252, and the like.
The right optical image display unit 26 and the left optical image display unit 28 include light guide plates 261 and 262 (FIG. 2) and a light control plate 20A. The light guide plates 261 and 262 are formed of a light transmissive resin or the like, and guide the image light output from the display driving units 22 and 24 to the user's eyes. The light control plate 20A is a thin plate-like optical element, and is disposed so as to cover the front side of the image display unit 20 which is the side opposite to the user's eye side. As the light control plate 20A, various materials such as a material that has almost no light transmission, a material that is nearly transparent, a material that attenuates the amount of light and transmits light, and a material that attenuates or reflects light of a specific wavelength may be used. it can. By appropriately selecting the optical characteristics (light transmittance, etc.) of the light control plate 20A, the external light amount incident on the right optical image display unit 26 and the left optical image display unit 28 from the outside is adjusted to visually recognize the virtual image. You can adjust the ease. In the present embodiment, a case will be described in which at least a light control plate 20A having such a light transmittance that a user wearing the head-mounted display device 100 can visually recognize an outside scene is used. The light control plate 20A protects the right light guide plate 261 and the left light guide plate 262, and suppresses damage to the right light guide plate 261 and the left light guide plate 262, adhesion of dirt, and the like.
The dimming plate 20A may be detachable from the right optical image display unit 26 and the left optical image display unit 28, or may be mounted by replacing a plurality of types of dimming plates 20A, or may be omitted. .
Then, the head-mounted display device 100 causes the image light of the image to be processed inside and the external light to overlap and enter the user's eyes, and the user can see the outside scene through the dimming plate 20A, An image of image light is visually recognized over the outside scene. Thus, the head-mounted display device 100 functions as a see-through display device.

カメラ61は、右光学像表示部26と左光学像表示部28との境目部分に配置される。使用者が画像表示部20を装着した状態で、カメラ61の位置は、水平方向においては使用者の両眼のほぼ中間であり、鉛直方向においては使用者の両眼より上である。カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。
カメラ61は、頭部装着型表示装置100の表側方向、換言すれば、頭部装着型表示装置100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。カメラ61の画角の広さは適宜設定可能であるが、カメラ61の撮像範囲が、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含む範囲であることが好ましい。さらに、調光板20Aを通した使用者の視界の全体を撮像できるようにカメラ61の撮像範囲が設定されているとより好ましい。
カメラ61は、制御部140(図4)の制御に従って撮像を実行し、撮像画像データを制御部140に出力する。
The camera 61 is disposed at the boundary between the right optical image display unit 26 and the left optical image display unit 28. In a state where the user wears the image display unit 20, the position of the camera 61 is substantially in the middle of both eyes of the user in the horizontal direction and above the eyes of the user in the vertical direction. The camera 61 is a digital camera that includes an imaging element such as a CCD or CMOS, an imaging lens, and the like, and may be a monocular camera or a stereo camera.
The camera 61 images at least a part of the outside view in the front side direction of the head-mounted display device 100, in other words, the user's view direction when the head-mounted display device 100 is mounted. The width of the angle of view of the camera 61 can be set as appropriate, but the imaging range of the camera 61 is a range that includes the outside world visually recognized by the user through the right optical image display unit 26 and the left optical image display unit 28. preferable. Furthermore, it is more preferable that the imaging range of the camera 61 is set so that the entire field of view of the user through the light control plate 20A can be imaged.
The camera 61 executes imaging under the control of the control unit 140 (FIG. 4), and outputs captured image data to the control unit 140.

画像表示部20は、制御装置10に接続部40を介して接続する。接続部40は、制御装置10に接続される本体コード48、右コード42、左コード44、及び、連結部材46を備える。右コード42及び左コード44は、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続される。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続される。   The image display unit 20 is connected to the control device 10 via the connection unit 40. The connection unit 40 includes a main body cord 48, a right cord 42, a left cord 44, and a connecting member 46 that are connected to the control device 10. The right cord 42 and the left cord 44 are codes in which the main body cord 48 is branched into two. The right cord 42 is inserted into the housing of the right holding unit 21 from the distal end AP in the extending direction of the right holding unit 21 and is connected to the right display driving unit 22. Similarly, the left cord 44 is inserted into the housing of the left holding unit 23 from the distal end AP in the extending direction of the left holding unit 23 and connected to the left display driving unit 24.

連結部材46は、本体コード48と、右コード42及び左コード44との分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有する。イヤホンプラグ30からは、右イヤホン32及び左イヤホン34が延伸する。イヤホンプラグ30の近傍にはマイク63が設けられる。イヤホンプラグ30からマイク63までは一本のコードにまとめられ、マイク63からコードが分岐して、右イヤホン32と左イヤホン34のそれぞれに繋がる。   The connecting member 46 is provided at a branch point between the main body cord 48, the right cord 42 and the left cord 44, and has a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30. A microphone 63 is provided in the vicinity of the earphone plug 30. The earphone plug 30 to the microphone 63 are combined into one cord, and the cord branches from the microphone 63 and is connected to each of the right earphone 32 and the left earphone 34.

マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声処理部187(図3)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。   For example, as shown in FIG. 1, the microphone 63 is arranged so that the sound collection unit of the microphone 63 faces the user's line of sight, collects sound, and sends the sound signal to the sound processing unit 187 (FIG. 3). Output. For example, the microphone 63 may be a monaural microphone or a stereo microphone, may be a directional microphone, or may be an omnidirectional microphone.

右コード42、左コード44、及び、本体コード48は、デジタルデータを伝送可能なものであればよく、例えば金属ケーブルや光ファイバーで構成できる。また、右コード42と左コード44とを一本のコードにまとめた構成としてもよい。   The right cord 42, the left cord 44, and the main body cord 48 only need to be capable of transmitting digital data, and can be constituted by, for example, a metal cable or an optical fiber. Further, the right cord 42 and the left cord 44 may be combined into a single cord.

画像表示部20と制御装置10とは、接続部40を介して各種信号を伝送する。本体コード48の連結部材46とは反対側の端部、及び、制御装置10には、互いに嵌合するコネクター(図示略)が設けられる。本体コード48のコネクターと制御装置10のコネクターとを嵌合し、或いは、この嵌合を外すことで、制御装置10と画像表示部20とを接離できる。   The image display unit 20 and the control device 10 transmit various signals via the connection unit 40. The end of the main body cord 48 opposite to the connecting member 46 and the control device 10 are provided with connectors (not shown) that fit together. By fitting the connector of the main body cord 48 and the connector of the control device 10 or removing this fitting, the control device 10 and the image display unit 20 can be contacted and separated.

制御装置10は、頭部装着型表示装置100を制御する。制御装置10は、決定キー11、点灯部12、表示切替キー13、輝度切替キー15、方向キー16、メニューキー17、及び電源スイッチ18を含むスイッチ類を備える。また、制御装置10は、使用者が手指で操作するトラックパッド14を備える。   The control device 10 controls the head-mounted display device 100. The control device 10 includes switches including an enter key 11, a lighting unit 12, a display switching key 13, a luminance switching key 15, a direction key 16, a menu key 17, and a power switch 18. In addition, the control device 10 includes a track pad 14 that is operated by a user with fingers.

決定キー11は、押下操作を検出して、制御装置10で操作された内容を決定する信号を出力する。点灯部12は、LED等の光源を備え、光源の点灯状態により、頭部装着型表示装置100の動作状態(例えば、電源のON/OFF)を通知する。表示切替キー13は、押下操作に応じて、例えば、画像の表示モードの切り替えを指示する信号を出力する。   The determination key 11 detects a pressing operation and outputs a signal for determining the content operated by the control device 10. The lighting unit 12 includes a light source such as an LED, and notifies the operating state (for example, power ON / OFF) of the head-mounted display device 100 according to the lighting state of the light source. The display switching key 13 outputs, for example, a signal instructing switching of the image display mode in response to the pressing operation.

トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。輝度切替キー15は、押下操作に応じて画像表示部20の輝度の増減を指示する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作に応じて操作信号を出力する。電源スイッチ18は、頭部装着型表示装置100の電源ON/OFFを切り替えるスイッチである。   The track pad 14 has an operation surface for detecting a contact operation, and outputs an operation signal according to an operation on the operation surface. The detection method on the operation surface is not limited, and an electrostatic method, a pressure detection method, an optical method, or the like can be adopted. The luminance switching key 15 outputs a signal instructing increase / decrease of the luminance of the image display unit 20 in response to the pressing operation. The direction key 16 outputs an operation signal in response to a pressing operation on a key corresponding to the up / down / left / right direction. The power switch 18 is a switch for switching on / off the power of the head-mounted display device 100.

図4は、頭部装着型表示装置100を構成する各部の機能ブロック図である。
頭部装着型表示装置100は、コンテンツの供給元となる種々の外部機器OAを接続するインターフェイス125を備える。インターフェイス125は、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができ、無線通信インターフェイスで構成してもよい。外部機器OAは、頭部装着型表示装置100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。
FIG. 4 is a functional block diagram of each part constituting the head-mounted display device 100.
The head-mounted display device 100 includes an interface 125 for connecting various external devices OA that are content supply sources. As the interface 125, for example, an interface corresponding to wired connection such as a USB interface, a micro USB interface, a memory card interface, or the like may be used, and the interface 125 may be configured by a wireless communication interface. The external device OA is an image supply device that supplies an image to the head-mounted display device 100, and a personal computer (PC), a mobile phone terminal, a portable game machine, or the like is used.

制御装置10は、制御部140、入力情報取得部110、記憶部120、送信部(Tx)51及び送信部(Tx)52を有する。
入力情報取得部110は、操作部111に接続される。操作部111は、制御装置10の各操作子に接続され、これら各操作子の操作を検出し、検出した操作子に対応する操作信号を入力情報取得部110に出力する。入力情報取得部110は、操作部111から入力される信号に基づき、制御装置10の操作により入力される入力内容を取得する。
The control device 10 includes a control unit 140, an input information acquisition unit 110, a storage unit 120, a transmission unit (Tx) 51, and a transmission unit (Tx) 52.
The input information acquisition unit 110 is connected to the operation unit 111. The operation unit 111 is connected to each operation element of the control device 10, detects an operation of each operation element, and outputs an operation signal corresponding to the detected operation element to the input information acquisition unit 110. The input information acquisition unit 110 acquires the input content input by the operation of the control device 10 based on the signal input from the operation unit 111.

記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラム、および、これらのプログラムに係るデータを記憶する。また、記憶部120は、画像表示部20に表示する静止画像や動画像のデータを記憶しても良い。
制御装置10は、一次電池や二次電池を有する電源部130を備え、制御装置10及び画像表示部20の各部に電源部130から電源を供給する。
The storage unit 120 is a nonvolatile storage device, and stores various computer programs and data related to these programs. The storage unit 120 may store still image data or moving image data to be displayed on the image display unit 20.
The control device 10 includes a power supply unit 130 including a primary battery and a secondary battery, and supplies power from the power supply unit 130 to each unit of the control device 10 and the image display unit 20.

制御部140には、3軸センサー113、音声認識部114、GPS115、及び通信部117が接続される。3軸センサー113は3軸の加速度センサーであり、制御部140は3軸センサー113の検出値を取得する。GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を算出する。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部140が計時する時刻を修正させる機能を備えていてもよい。   A three-axis sensor 113, a voice recognition unit 114, a GPS 115, and a communication unit 117 are connected to the control unit 140. The triaxial sensor 113 is a triaxial acceleration sensor, and the control unit 140 acquires the detection value of the triaxial sensor 113. The GPS 115 includes an antenna (not shown), receives a GPS (Global Positioning System) signal, and calculates the current position of the control device 10. The GPS 115 outputs the current position and the current time obtained based on the GPS signal to the control unit 140. The GPS 115 may have a function of acquiring the current time based on information included in the GPS signal and correcting the time counted by the control unit 140.

通信部117は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
外部機器OAが、通信部117に無線接続された場合、制御部140は、コンテンツデータを通信部117より取得して、画像表示部20に画像を表示させる。一方、外部機器OAが、インターフェイス125に有線接続された場合、制御部140は、コンテンツデータをインターフェイス125より取得して、画像表示部20に画像を表示させる。通信部117及びインターフェイス125は、外部機器OAからコンテンツデータを取得するデータ取得部DAとして機能する。
The communication unit 117 executes wireless data communication conforming to a standard such as a wireless LAN (WiFi (registered trademark)), Miracast (registered trademark), or Bluetooth (registered trademark).
When the external device OA is wirelessly connected to the communication unit 117, the control unit 140 acquires content data from the communication unit 117 and causes the image display unit 20 to display an image. On the other hand, when the external device OA is wired to the interface 125, the control unit 140 acquires content data from the interface 125 and causes the image display unit 20 to display an image. The communication unit 117 and the interface 125 function as a data acquisition unit DA that acquires content data from the external device OA.

制御部140は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を有する。制御部140は、CPUにより制御プログラムを実行することで、頭部装着型表示装置100の各部を制御する。また、制御部140は、記憶部120が記憶するコンピュータープログラムを読み出して実行し、制御部140の各種機能を実現する。すなわち、オペレーティングシステム(OS)150、画像処理部160、表示制御部170、撮像処理部181、デバイス制御部183、AR表示制御部185、及び、音声処理部187として機能する。   The control unit 140 stores a CPU (not shown) for executing a program, a RAM (not shown) for temporarily storing a program and data executed by the CPU, and a basic control program and data executed by the CPU in a nonvolatile manner. ROM (not shown). The control unit 140 controls each unit of the head-mounted display device 100 by executing a control program by the CPU. In addition, the control unit 140 reads out and executes the computer program stored in the storage unit 120 and realizes various functions of the control unit 140. That is, they function as an operating system (OS) 150, an image processing unit 160, a display control unit 170, an imaging processing unit 181, a device control unit 183, an AR display control unit 185, and an audio processing unit 187.

画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示略)を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに、制御部140のRAMに格納する。この画像データは、例えばRGBデータである。
なお、画像処理部160は、必要に応じて、画像データの解像度を右表示駆動部22及び左表示駆動部24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部160は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。
The image processing unit 160 acquires an image signal included in the content. The image processing unit 160 separates synchronization signals such as the vertical synchronization signal VSync and the horizontal synchronization signal HSync from the acquired image signal. Further, the image processing unit 160 generates a clock signal PCLK using a PLL (Phase Locked Loop) circuit or the like (not shown) according to the period of the separated vertical synchronization signal VSync and horizontal synchronization signal HSync. The image processing unit 160 converts the analog image signal from which the synchronization signal is separated into a digital image signal using an A / D conversion circuit or the like (not shown). The image processing unit 160 stores the converted digital image signal in the RAM of the control unit 140 for each frame as image data of the target image (Data in the figure). This image data is, for example, RGB data.
Note that the image processing unit 160 may perform a resolution conversion process for converting the resolution of the image data into a resolution suitable for the right display driving unit 22 and the left display driving unit 24 as necessary. The image processing unit 160 also performs image adjustment processing for adjusting the brightness and saturation of image data, 2D image data is created from 3D image data, or 2D / 3D conversion processing is performed to generate 3D image data from 2D image data. May be executed.

画像処理部160は、クロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、RAMに格納された画像データDataのそれぞれを、送信部51、52を介して送信する。送信部51、52は、トランシーバーとして機能し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」と呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」と呼ぶ。   The image processing unit 160 transmits the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the image data Data stored in the RAM via the transmission units 51 and 52, respectively. The transmission units 51 and 52 function as a transceiver and execute serial transmission between the control device 10 and the image display unit 20. The image data Data transmitted via the transmission unit 51 is referred to as “right eye image data”, and the image data Data transmitted via the transmission unit 52 is referred to as “left eye image data”.

表示制御部170は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成し、この制御信号により、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成及び射出を制御する。具体的には、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを制御する。また、表示制御部170は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを制御する。   The display control unit 170 generates a control signal for controlling the right display drive unit 22 and the left display drive unit 24, and generates and generates image light by each of the right display drive unit 22 and the left display drive unit 24 based on the control signal. Control injection. Specifically, the right LCD 241 is controlled to be turned on / off by the right LCD control unit 211, and the right backlight 221 is turned on / off by the right backlight control unit 201. In addition, the display control unit 170 controls the driving of the left LCD 242 by the left LCD control unit 212 and the driving of the left backlight 222 by the left backlight control unit 202.

音声処理部187は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32および左イヤホン34に出力する。また、音声処理部187は、マイク63により集音される音声を取得してディジタル音声データに変換する。音声処理部187は、ディジタル音声データに対して予め設定された処理を行ってもよい。   The audio processing unit 187 acquires an audio signal included in the content, amplifies the acquired audio signal, and outputs the amplified audio signal to the right earphone 32 and the left earphone 34. In addition, the sound processing unit 187 acquires sound collected by the microphone 63 and converts it into digital sound data. The voice processing unit 187 may perform a preset process on the digital voice data.

画像表示部20は、インターフェイス25と、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、振動センサー65と、9軸センサー66とを備えている。   The image display unit 20 includes an interface 25, a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, and a left light guide plate 262 as a left optical image display unit 28. A camera 61, a vibration sensor 65, and a nine-axis sensor 66.

振動センサー65は、加速度センサーを利用して構成され、例えば図1に示すように、右保持部21において右光学像表示部26の端部ERの近傍に内蔵される。振動センサー65は、使用者が端部ERを叩く操作(ノック操作)を行った場合に、この操作による振動を検出して、検出結果を制御部140に出力する。この振動センサー65の検出結果により、制御部140は、使用者によるノック操作を検出する。   The vibration sensor 65 is configured using an acceleration sensor, and is built in the vicinity of the end ER of the right optical image display unit 26 in the right holding unit 21 as shown in FIG. When the user performs an operation of hitting the end ER (knock operation), the vibration sensor 65 detects vibration caused by this operation and outputs the detection result to the control unit 140. Based on the detection result of the vibration sensor 65, the control unit 140 detects a knocking operation by the user.

9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。制御部140は、画像表示部20が使用者の頭部に装着されているとき、9軸センサー66の検出値に基づいて使用者の頭部の動きを検出できる。例えば、制御部140は、9軸センサー66の検出値に基づき、画像表示部20の傾きの大きさと傾きの向きを推定できる。
9軸センサー66が内蔵する加速度センサー及び角速度センサーの検出軸は、例えば、図1に示すX,Y,Zの3軸とすることができる。この例では、画像表示部20を装着する使用者の頭部に対し左右方向をX軸、前後方向をY軸、上下方向をZ軸とする。より詳細には、頭部装着型表示装置100の装着状態において、画像表示部20は左右の眼に対し、使用者が知覚する水平な位置にある。頭部装着型表示装置100の標準的な装着位置において、9軸センサー66の検出軸(X軸、Y軸、Z軸)が、使用者が知覚する左右、前後、及び上下に一致する構成である。9軸センサー66の加速度センサーは、X軸方向、Y軸方向、及びZ軸方向の加速度を検出する。また、9軸センサー66が備える角速度センサーは、X軸まわりの回転(ピッチ)、Y軸回りの回転(ヨー)、及びZ軸まわりの回転(ロール)を検出する。
The 9-axis sensor 66 is a motion sensor that detects acceleration (3 axes), angular velocity (3 axes), and geomagnetism (3 axes). When the image display unit 20 is mounted on the user's head, the control unit 140 can detect the movement of the user's head based on the detection value of the 9-axis sensor 66. For example, the control unit 140 can estimate the magnitude of the tilt and the tilt direction of the image display unit 20 based on the detection value of the 9-axis sensor 66.
The detection axes of the acceleration sensor and the angular velocity sensor built in the nine-axis sensor 66 can be, for example, three axes of X, Y, and Z shown in FIG. In this example, the left-right direction is the X axis, the front-rear direction is the Y-axis, and the vertical direction is the Z-axis with respect to the head of the user wearing the image display unit 20. More specifically, when the head-mounted display device 100 is worn, the image display unit 20 is in a horizontal position that is perceived by the user with respect to the left and right eyes. In a standard mounting position of the head-mounted display device 100, the detection axis (X axis, Y axis, Z axis) of the 9-axis sensor 66 is aligned with the left, right, front, back, and top perceived by the user. is there. The acceleration sensor of the 9-axis sensor 66 detects acceleration in the X-axis direction, the Y-axis direction, and the Z-axis direction. The angular velocity sensor included in the nine-axis sensor 66 detects rotation (pitch) around the X axis, rotation (yaw) around the Y axis, and rotation (roll) around the Z axis.

インターフェイス25は、右コード42と左コード44とが接続されるコネクターを備える。インターフェイス25は、送信部51から送信されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを、対応する受信部(Rx)53、54に出力する。また、インターフェイス25は、表示制御部170から送信される制御信号を、対応する受信部53、54、右バックライト制御部201又は左バックライト制御部202に出力する。
また、インターフェイス25は、カメラ61、振動センサー65及び9軸センサー66を接続するインターフェイスである。振動センサー65による振動の検出結果や、9軸センサー66による加速度(3軸)、角速度(3軸)、地磁気(3軸)の検出結果は、インターフェイス25を介して制御部140に送られる。
The interface 25 includes a connector to which the right cord 42 and the left cord 44 are connected. The interface 25 outputs the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the image data Data transmitted from the transmission unit 51 to the corresponding reception units (Rx) 53 and 54. Further, the interface 25 outputs a control signal transmitted from the display control unit 170 to the corresponding reception units 53 and 54, the right backlight control unit 201, or the left backlight control unit 202.
The interface 25 is an interface for connecting the camera 61, the vibration sensor 65, and the 9-axis sensor 66. The detection result of vibration by the vibration sensor 65 and the detection result of acceleration (three axes), angular velocity (three axes), and geomagnetism (three axes) by the nine-axis sensor 66 are sent to the control unit 140 via the interface 25.

右表示駆動部22は、上述した右バックライト221、右LCD241、及び右投写光学系251を備える。また、右表示駆動部22は、受信部53、右バックライト(BL)221を制御する右バックライト(BL)制御部201、及び、右LCD241を駆動する右LCD制御部211を備える。   The right display drive unit 22 includes the right backlight 221, the right LCD 241, and the right projection optical system 251 described above. The right display driving unit 22 includes a receiving unit 53, a right backlight (BL) control unit 201 that controls the right backlight (BL) 221, and a right LCD control unit 211 that drives the right LCD 241.

受信部53は、送信部51に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、右LCD241を駆動する。   The reception unit 53 operates as a receiver corresponding to the transmission unit 51 and executes serial transmission between the control device 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right eye image data Data input via the reception unit 53. .

左表示駆動部24は、右表示駆動部22と同様の構成を有する。左表示駆動部24は、上述した左バックライト222、左LCD242、及び左投写光学系252を備える。また、左表示駆動部24は、受信部54、左バックライト222を駆動する左バックライト制御部202、及び、左LCD242を駆動する左LCD制御部212を備える。   The left display drive unit 24 has the same configuration as the right display drive unit 22. The left display driving unit 24 includes the left backlight 222, the left LCD 242 and the left projection optical system 252 described above. The left display driving unit 24 includes a receiving unit 54, a left backlight control unit 202 that drives the left backlight 222, and a left LCD control unit 212 that drives the left LCD 242.

受信部54は、送信部52に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。左バックライト制御部202は、入力された制御信号に基づいて、左バックライト222を駆動する。左LCD制御部212は、受信部54を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、左LCD242を駆動する。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して、左の「画像光生成部」とも呼ぶ。   The reception unit 54 operates as a receiver corresponding to the transmission unit 52 and executes serial transmission between the control device 10 and the image display unit 20. The left backlight control unit 202 drives the left backlight 222 based on the input control signal. The left LCD control unit 212 drives the left LCD 242 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right-eye image data Data input via the reception unit 54. . The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are collectively referred to as a right “image light generation unit”. Similarly, the left backlight control unit 202, the left LCD control unit 212, the left backlight 222, and the left LCD 242 are collectively referred to as a left “image light generation unit”.

撮像処理部181は、カメラ61を制御して撮像を実行させ、撮像画像データを取得する。
デバイス制御部183は、通信部117を制御して操作デバイス3との間でデータ通信を行い、操作デバイス3から受信するデータを解析する。また、デバイス制御部183は、カメラ61の撮像画像データに基づき、操作デバイス3が備えるLED313の点滅パターンが特定のパターンに該当する場合に、このパターンを復号化して、データを受信する。
The imaging processing unit 181 controls the camera 61 to execute imaging, and acquires captured image data.
The device control unit 183 controls the communication unit 117 to perform data communication with the operation device 3 and analyzes data received from the operation device 3. Further, when the blinking pattern of the LED 313 provided in the operation device 3 corresponds to a specific pattern based on the captured image data of the camera 61, the device control unit 183 decodes this pattern and receives data.

AR表示制御部185は、ARコンテンツのデータに基づき、画像処理部160及び表示制御部170を制御して、AR表示用の画像を画像表示部20により表示させる。ARコンテンツのデータは、例えば、記憶部120が記憶する。また、AR表示制御部185は、コンテンツデータ123が音声データを含む場合、音声処理部187を制御して、右イヤホン32、左イヤホン34からコンテンツの音声を出力させる。   The AR display control unit 185 controls the image processing unit 160 and the display control unit 170 based on the AR content data, and causes the image display unit 20 to display an image for AR display. For example, the storage unit 120 stores the AR content data. In addition, when the content data 123 includes audio data, the AR display control unit 185 controls the audio processing unit 187 to output the audio of the content from the right earphone 32 and the left earphone 34.

AR表示制御部185は、使用者が画像表示部20越しに対象物を見ている状態でARコンテンツを表示する。AR表示制御部185は、対象物に対応する位置に画像や文字等を表示するAR表示を行うことで、対象物に関する情報を提供し、或いは、画像表示部20越しに見える対象物の姿の見え方を変える。ARコンテンツは、対象物に対応する位置に表示される画像や文字のデータを含む。また、ARコンテンツに、対象物を特定するデータ、及び、画像や文字の表示位置に関するデータ等を含んでもよい。ARコンテンツの表示位置は対象物に重なる位置であっても対象物の周囲であってもよい。対象物は物体であればよく、建物等の不動産であってもよいし、自動車や電車などの移動体であってもよく、人間や動物などの生物であってもよい。AR表示制御部185は、撮像処理部181が取得する撮像画像データから、使用者の視界に位置する対象物を検出する。そして、AR表示制御部185は、検出した対象物に対応するARコンテンツの表示位置を決定し、ARコンテンツを表示する。   The AR display control unit 185 displays the AR content while the user is looking at the object through the image display unit 20. The AR display control unit 185 provides information about the object by performing AR display that displays an image, characters, or the like at a position corresponding to the object, or the shape of the object seen through the image display unit 20 Change how it looks. The AR content includes image and character data displayed at a position corresponding to the object. In addition, the AR content may include data for specifying an object and data regarding the display position of an image or a character. The display position of the AR content may be a position overlapping the target object or may be around the target object. The object may be an object, may be a real estate such as a building, may be a moving body such as an automobile or a train, or may be a living organism such as a human being or an animal. The AR display control unit 185 detects an object located in the user's field of view from the captured image data acquired by the imaging processing unit 181. Then, the AR display control unit 185 determines the display position of the AR content corresponding to the detected object, and displays the AR content.

ARコンテンツは、使用者が対象物を視認する位置に重なるように、或いは、対象物を視認する位置に合わせて、表示することが望ましい。このため、AR表示制御部185は、撮像処理部181の撮像画像データから対象物の画像を検出し、検出した対象物の画像と撮像画像全体との位置関係に基づき、カメラ61の撮像範囲における対象物の位置を特定する。AR表示制御部185は、カメラ61の撮像範囲と、画像表示部20の表示領域との位置関係に基づき、対象物の位置に対応するARコンテンツの表示位置を決定する。   It is desirable to display the AR content so as to overlap the position where the user visually recognizes the target object or according to the position where the user visually recognizes the target object. For this reason, the AR display control unit 185 detects the image of the target object from the captured image data of the imaging processing unit 181, and in the imaging range of the camera 61 based on the positional relationship between the detected target image and the entire captured image. Identify the position of the object. The AR display control unit 185 determines the display position of the AR content corresponding to the position of the object based on the positional relationship between the imaging range of the camera 61 and the display area of the image display unit 20.

音声処理部187は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32および左イヤホン34に出力する。また、音声処理部187は、マイク63により集音される音声を取得してディジタル音声データに変換する。音声処理部187は、ディジタル音声データに対して予め設定された処理を行ってもよい。   The audio processing unit 187 acquires an audio signal included in the content, amplifies the acquired audio signal, and outputs the amplified audio signal to the right earphone 32 and the left earphone 34. In addition, the sound processing unit 187 acquires sound collected by the microphone 63 and converts it into digital sound data. The voice processing unit 187 may perform a preset process on the digital voice data.

[表示システムの動作]
図5は、表示システム1の動作を示すフローチャートであり、特に、操作デバイス3の動作を示す。
操作デバイス3は、表示システム1の操作を行わない間は、時計モードで動作する(ステップS11)。時計モードにおいて、UIモードへの移行を指示する操作が行われると(ステップS12)、操作デバイス3の制御部350は、カメラ311、311により撮像を実行して使用者の視線を検出する(ステップS13)。制御部350は、視線を検出するまで撮像および撮像画像の解析を行う(ステップS13;NO)。
[Display system operation]
FIG. 5 is a flowchart showing the operation of the display system 1, and particularly shows the operation of the operation device 3.
The operation device 3 operates in the clock mode while the display system 1 is not operated (step S11). When an operation for instructing the transition to the UI mode is performed in the timepiece mode (step S12), the control unit 350 of the operation device 3 performs imaging with the cameras 311 and 311 to detect the user's line of sight (step S12). S13). The control unit 350 performs imaging and analysis of the captured image until a line of sight is detected (step S13; NO).

制御部350は、視線を検出した場合(ステップS13;YES)、頭部装着型表示装置100がONになっているか否かを判定する(ステップS14)。ステップS14では、例えば、無線通信部361により頭部装着型表示装置100の通信部117と通信を行い、頭部装着型表示装置100の動作状態を検出することで、判定を行う。また、例えば、撮像制御部353の制御によりカメラ311で撮像を実行し、撮像画像に基づき頭部装着型表示装置100の動作状態を判定してもよい。例えば、画像表示部20が表示する画像が調光板20Aを透過して撮像画像に写った場合に、頭部装着型表示装置100がONであると判定してもよい。また、画像表示部20に、動作状態に応じて発光する発光部を設け、撮像画像から発光部の発光状態を特定して、動作状態を判定してもよい。   When detecting the line of sight (step S13; YES), the controller 350 determines whether or not the head-mounted display device 100 is ON (step S14). In step S <b> 14, for example, the wireless communication unit 361 communicates with the communication unit 117 of the head-mounted display device 100 to detect the operating state of the head-mounted display device 100, thereby performing the determination. Further, for example, the camera 311 may perform imaging under the control of the imaging control unit 353, and the operation state of the head-mounted display device 100 may be determined based on the captured image. For example, when the image displayed by the image display unit 20 passes through the light control plate 20A and appears in the captured image, it may be determined that the head-mounted display device 100 is ON. In addition, the image display unit 20 may be provided with a light emitting unit that emits light according to the operating state, and the operating state may be determined by specifying the light emitting state of the light emitting unit from the captured image.

頭部装着型表示装置100がONでないと判定した場合(ステップS14;NO)、制御部350は、無線通信部361により通信を実行し、頭部装着型表示装置100に対して起動を指示するデータを送信する(ステップS15)。制御部350は、頭部装着型表示装置100から起動したことを示す制御データを受信し、ステップS17に移行する。また、頭部装着型表示装置100がONであると判定した場合(ステップS14;YES)、制御部350はステップS17に移行する。   When it is determined that the head-mounted display device 100 is not ON (step S14; NO), the control unit 350 performs communication by the wireless communication unit 361 and instructs the head-mounted display device 100 to start. Data is transmitted (step S15). The control unit 350 receives control data indicating activation from the head-mounted display device 100, and proceeds to step S17. When it is determined that the head-mounted display device 100 is ON (step S14; YES), the control unit 350 proceeds to step S17.

ステップS17で、制御部350は、頭部装着型表示装置100の認証が済んでいるか否かを判定する。制御部350は、頭部装着型表示装置100と組み合わせて使用される場合に、頭部装着型表示装置100の認証を行い、認証に成功した頭部装着型表示装置100のユーザーインターフェイスとして動作する。認証が済んでいないと判定した場合(ステップS17;NO)、制御部350は、ステップS14でONになっているか否かを判定した頭部装着型表示装置100と、認証用のデータを送受信して認証する(ステップS18)。認証に必要なデータを送受信した場合、イヤホンプラグ30は、頭部装着型表示装置100とペアリング、即ちユーザーインターフェイスとして動作する1対1の対応付けを行い(ステップS19)、ステップS20に移行する。この対応付けは1対多であってもよい。また、頭部装着型表示装置100の認証が済んだ場合は(ステップS17;YES)、制御部350はステップS20に移行する。   In step S17, control unit 350 determines whether or not authentication of head-mounted display device 100 has been completed. When used in combination with the head-mounted display device 100, the control unit 350 authenticates the head-mounted display device 100 and operates as a user interface of the head-mounted display device 100 that has been successfully authenticated. . If it is determined that the authentication has not been completed (step S17; NO), the control unit 350 transmits / receives authentication data to / from the head-mounted display device 100 that has determined whether or not the authentication is ON in step S14. To authenticate (step S18). When data necessary for authentication is transmitted / received, the earphone plug 30 performs pairing with the head-mounted display device 100, that is, one-to-one association that operates as a user interface (step S19), and proceeds to step S20. . This association may be one-to-many. When the head-mounted display device 100 has been authenticated (step S17; YES), the control unit 350 proceeds to step S20.

ステップS20で、制御部350は、LCD303に操作用の画面を表示し、操作に対して待機する。操作用の画面は、例えば、図2(B)や図2(C)に例示した画面である。
制御部350は、操作を待機し、操作検出部351により操作を検出すると(ステップS21)、検出した操作を示す操作データを頭部装着型表示装置100に送信する(ステップS22)。
In step S20, control unit 350 displays an operation screen on LCD 303 and stands by for the operation. The operation screen is, for example, the screen illustrated in FIG. 2B or 2C.
Control unit 350 waits for an operation, and when operation is detected by operation detection unit 351 (step S21), operation data indicating the detected operation is transmitted to head-mounted display device 100 (step S22).

その後、制御部350は、終了条件が成立したか否かを判定する(ステップS23)。終了条件が成立している場合(ステップS23;YES)、制御部350は時計モードに移行して(ステップS24)、本処理を終了する。また、終了条件が成立していない場合は(ステップS23;NO)、ステップS21に戻る。
終了条件は、例えば、タッチパネル304、ボタン305、リュウズ型操作子307、或いはボタン309によりUIモードの終了を指示する操作が行われたこと、頭部装着型表示装置100から終了を指示する制御データを受信したこと、等である。
Thereafter, the control unit 350 determines whether or not an end condition is satisfied (step S23). When the end condition is satisfied (step S23; YES), the control unit 350 shifts to the clock mode (step S24) and ends the process. If the end condition is not satisfied (step S23; NO), the process returns to step S21.
The end condition is, for example, that the operation for instructing the end of the UI mode is performed by the touch panel 304, the button 305, the crown-type operation element 307, or the button 309, and the control data for instructing the end from the head-mounted display device 100. , Etc.

表示システム1では、頭部装着型表示装置100が、操作デバイス3による操作に対応したAR画像を表示できる。
図6は、頭部装着型表示装置100の動作を示すフローチャートであり、特に、操作デバイス3に対応したAR表示を行う動作を示す。
制御部140は、デバイス制御部183により、操作デバイス3が送信する操作データを通信部117で受信して解析し(ステップS31)、操作の種別を特定する(ステップS32)。ステップS31で受信するデータは、操作デバイス3が操作に対応して送信する操作データ(図5のステップS22)である。デバイス制御部183は、操作データが示す操作に対応する指示が、操作デバイス3の操作の設定に関する指示であるか否かを判定する(ステップS33)。操作の設定以外の指示である場合(ステップS33;NO)、デバイス制御部183は、ステップS32で特定した操作に対応する処理を実行し(ステップS34)、本処理を終了する。ステップS34では、例えば、撮像開始を指示する操作データに従ってカメラ61の撮像を開始する処理や、AR表示の開始又は終了を指示する操作データに従って、AR表示制御部185でAR表示を開始/終了する。
In the display system 1, the head-mounted display device 100 can display an AR image corresponding to the operation by the operation device 3.
FIG. 6 is a flowchart showing the operation of the head-mounted display device 100, and particularly shows the operation of performing AR display corresponding to the operation device 3.
The control unit 140 causes the device control unit 183 to receive and analyze the operation data transmitted from the operation device 3 by the communication unit 117 (step S31), and specify the type of operation (step S32). The data received in step S31 is operation data (step S22 in FIG. 5) transmitted by the operation device 3 in response to the operation. The device control unit 183 determines whether or not the instruction corresponding to the operation indicated by the operation data is an instruction related to the operation setting of the operation device 3 (step S33). When the instruction is other than the operation setting (step S33; NO), the device control unit 183 executes a process corresponding to the operation specified in step S32 (step S34), and ends this process. In step S34, for example, the AR display control unit 185 starts / ends the AR display according to the process of starting the imaging of the camera 61 according to the operation data instructing the start of imaging or the operation data instructing the start or end of the AR display. .

一方、操作データが示す操作に対応する指示が、操作の設定に関する指示である場合(ステップS33;YES)、AR表示制御部185が、操作設定用のAR表示を行う(ステップS35)。ここで、デバイス制御部183は、AR表示中の操作デバイス3における操作に対応して操作デバイス3が操作データを送信すると、この操作データを受信して、受信した操作データに基づき、設定、及び設定の更新を行う。   On the other hand, when the instruction corresponding to the operation indicated by the operation data is an instruction related to operation setting (step S33; YES), the AR display control unit 185 performs AR display for operation setting (step S35). Here, when the operation device 3 transmits operation data in response to an operation on the operation device 3 during AR display, the device control unit 183 receives the operation data, and sets and sets the operation data based on the received operation data. Update the settings.

図7は、操作設定用のAR表示の例を示し、(A)はベゼル301の操作について設定を行うためのAR表示の例を示し、(B)はボタン309の操作について設定を行うためのAR表示の例を示す。
図7(A)の例では、使用者の視野VRに実物の操作デバイス3が視認され、この操作デバイス3に対応する位置に、ARコンテンツが画像表示部20により表示される。ARコンテンツは、割り当て候補表示A1、A2、A3、A4及び設定候補A11、A12、A13、A14である。割り当て候補表示A1、A2、A3、A4は、ベゼル301の回転に割り当てる機能の候補を示す画像であり、この例では、ベゼル301を回転させる操作で選択可能な機能の組合せを示すテキストを含む。割り当て候補表示A1は、「Home」、「戻る」、「メニュー」、「アプリ終了」の4つの文字列(テキスト)を含む。割り当て候補表示A2は、「進む」、「戻る」、「撮像」、「撮像終了」の4つの文字列を含む。操作デバイス3において、ベゼル301を回転する操作が行われると、割り当て候補A1〜A4のいずれかが順に選択できる。
7A and 7B show an example of AR display for operation setting, FIG. 7A shows an example of AR display for setting the operation of the bezel 301, and FIG. 7B shows the setting for operation of the button 309. An example of AR display is shown.
In the example of FIG. 7A, the actual operation device 3 is visually recognized in the user's visual field VR, and the AR content is displayed by the image display unit 20 at a position corresponding to the operation device 3. The AR contents are assignment candidate displays A1, A2, A3, A4 and setting candidates A11, A12, A13, A14. The assignment candidate displays A1, A2, A3, and A4 are images showing candidate functions to be assigned to the rotation of the bezel 301. In this example, the assignment candidate displays A1, A2, A3, and A4 include text indicating combinations of functions that can be selected by rotating the bezel 301. The assignment candidate display A1 includes four character strings (text) of “Home”, “Return”, “Menu”, and “App end”. The allocation candidate display A2 includes four character strings of “forward”, “return”, “imaging”, and “imaging end”. When the operation of rotating the bezel 301 is performed on the operation device 3, any of the allocation candidates A1 to A4 can be selected in order.

図7(A)の例では割り当て候補A2が選択されている。このため、視野VRの中央に見える操作デバイス3に重なるように、「進む」、「戻る」、「撮像」、「撮像終了」の4つの文字列が配置される。これらの文字列は、割り当てる機能の候補、すなわち、設定候補A11、A12、A13、A14である。ベゼル301の操作により、割り当て候補表示A2から、他の割り当て候補表示に切り替えられると、設定候補A11、A12、A13、A14の文字列が変更される。従って、使用者は、ベゼル301の回転操作に割り当てる機能を、割り当て候補表示A1、A2、A3、A4の中から選択して設定できる。操作デバイス3で、ボタン305が操作されると、ベゼル301の操作で選択された割り当て候補表示が確定され、設定が更新される。   In the example of FIG. 7A, the allocation candidate A2 is selected. For this reason, four character strings of “forward”, “return”, “imaging”, and “imaging end” are arranged so as to overlap the operation device 3 visible in the center of the visual field VR. These character strings are candidate functions to be assigned, that is, setting candidates A11, A12, A13, and A14. When the assignment candidate display A2 is switched to another assignment candidate display by operating the bezel 301, the character strings of the setting candidates A11, A12, A13, and A14 are changed. Therefore, the user can select and set the function assigned to the rotation operation of the bezel 301 from the assignment candidate displays A1, A2, A3, and A4. When the button 305 is operated on the operation device 3, the assignment candidate display selected by the operation of the bezel 301 is confirmed and the setting is updated.

図7(B)の例では、実物の操作デバイス3に対応する位置に、ARコンテンツとして、割り当て候補表示A21、A22、A23、A24及び設定候補A31、A32、A33、A34が表示される。割り当て候補表示A21、A22、A23、A24は、4個のボタン309に割り当てる機能の候補を示す画像であり、この例では、4つのボタン309のそれぞれが操作されたときに実行される機能を示すテキストを含む。割り当て候補表示A21は、「Home」、「戻る」、「メニュー」、「アプリ終了」の4つの文字列(テキスト)を含む。割り当て候補表示A22は、「進む」、「戻る」、「撮像」、「撮像終了」の4つの文字列を含む。操作デバイス3において、ベゼル301を回転する操作が行われると、割り当て候補A21〜A24のいずれかが順に選択できる。   In the example of FIG. 7B, assignment candidate displays A21, A22, A23, and A24 and setting candidates A31, A32, A33, and A34 are displayed as AR contents at positions corresponding to the actual operation device 3. The assignment candidate displays A21, A22, A23, and A24 are images showing function candidates to be assigned to the four buttons 309. In this example, the functions executed when each of the four buttons 309 are operated are shown. Contains text. The allocation candidate display A21 includes four character strings (text) of “Home”, “Return”, “Menu”, and “App end”. The allocation candidate display A22 includes four character strings of “forward”, “return”, “imaging”, and “imaging end”. When the operation of rotating the bezel 301 is performed on the operation device 3, any of the allocation candidates A21 to A24 can be selected in order.

図7(B)の例では割り当て候補A22が選択されている。このため、視野VRの中央に見える操作デバイス3に重なるように、「進む」、「戻る」、「撮像」、「撮像終了」の4つの文字列が配置される。これらの文字列は、割り当てる機能の候補、すなわち、設定候補A31、A32、A33、A34であり、機能を割り当てるボタン309に対応する位置に表示される。ベゼル301の操作により、割り当て候補表示A22から、他の割り当て候補表示に切り替えられると、設定候補A31、A32、A33、A34の文字列が変更される。従って、使用者は、ベゼル301の回転操作に割り当てる機能を、割り当て候補表示A21、A22、A23、A24の中から選択して設定できる。操作デバイス3で、ボタン305が操作されると、ベゼル301の操作で選択された割り当て候補表示が確定され、設定が更新される。   In the example of FIG. 7B, allocation candidate A22 is selected. For this reason, four character strings of “forward”, “return”, “imaging”, and “imaging end” are arranged so as to overlap the operation device 3 visible in the center of the visual field VR. These character strings are candidates for functions to be assigned, that is, setting candidates A31, A32, A33, and A34, and are displayed at positions corresponding to buttons 309 to which functions are assigned. When the assignment candidate display A22 is switched to another assignment candidate display by the operation of the bezel 301, the character strings of the setting candidates A31, A32, A33, and A34 are changed. Therefore, the user can select and set the function assigned to the rotation operation of the bezel 301 from the assignment candidate displays A21, A22, A23, and A24. When the button 305 is operated on the operation device 3, the assignment candidate display selected by the operation of the bezel 301 is confirmed and the setting is updated.

図7(A)、(B)の例は、操作デバイス3が送信する操作データに対応して頭部装着型表示装置100が実行する機能を設定する動作を示す。機能の割り当てを設定し、更新できるので、操作デバイス3により頭部装着型表示装置100の様々な機能について操作を行える。また、AR表示を利用することで、容易に設定を行うことができる。   The examples of FIGS. 7A and 7B show an operation of setting a function to be executed by the head-mounted display device 100 corresponding to the operation data transmitted by the operation device 3. Since the assignment of functions can be set and updated, various functions of the head-mounted display device 100 can be operated by the operation device 3. Moreover, the setting can be easily performed by using the AR display.

図8は、操作デバイス3の操作に応じて頭部装着型表示装置100が実行する動作の例を示す説明図である。図8には、AR表示制御部185の制御により画像表示部20が表示するAR表示の表示態様を、操作デバイス3の操作に応じて変化させる例を示す。図8(A)は画像表示部20によるAR表示の例を示し、(B)はAR表示の表示態様を変化させた例を示す。   FIG. 8 is an explanatory diagram illustrating an example of an operation performed by the head-mounted display device 100 in response to an operation of the operation device 3. FIG. 8 shows an example in which the display mode of the AR display displayed on the image display unit 20 is changed according to the operation of the operation device 3 under the control of the AR display control unit 185. FIG. 8A shows an example of AR display by the image display unit 20, and FIG. 8B shows an example in which the display mode of the AR display is changed.

図8(A)の例では、視野VRに、実際の外景として、ステージ、出演者、及び、客席が見えている。この例では、実際の外景に重なるように、舞台上で上演されている演目に関連する文字列A51が表示される。文字列A51は、例えば舞台の台詞を示すテキストであって、ステージに重なる位置にAR表示される。
頭部装着型表示装置100は、操作デバイス3の操作に応じて、文字列A51の表示サイズを変更し、例えば図8(B)に示すように、縮小して表示する。この動作は、操作デバイス3が送信する操作データを、デバイス制御部183が解析し、AR表示の縮小に相当する操作が行われたことをデバイス制御部183が検出すると、AR表示制御部185が表示サイズを変更する。
In the example of FIG. 8A, a stage, performers, and audience seats are visible as an actual outside scene in the visual field VR. In this example, the character string A51 related to the performance being performed on the stage is displayed so as to overlap the actual outside scene. The character string A51 is, for example, text indicating a dialogue of the stage, and AR is displayed at a position overlapping the stage.
The head-mounted display device 100 changes the display size of the character string A51 according to the operation of the operation device 3, and displays the reduced size as shown in FIG. 8B, for example. In this operation, the device control unit 183 analyzes the operation data transmitted by the operation device 3, and when the device control unit 183 detects that the operation corresponding to the reduction of the AR display has been performed, the AR display control unit 185 Change the display size.

頭部装着型表示装置100では、図6及び図7を参照して説明したように、操作デバイス3における操作に、頭部装着型表示装置100が実行する動作を対応付けることができる。この対応付けは、ボタン309の操作、及び、ベゼル301の回転操作に限定されない。例えば、ボタン305の押圧操作、及びリュウズ型操作子307を回転させる操作であってもよい。また、例えば、タッチパネル304に対し指で接触する操作を含んでもよい。   In the head-mounted display device 100, as described with reference to FIGS. 6 and 7, the operation performed by the head-mounted display device 100 can be associated with the operation on the operation device 3. This association is not limited to the operation of the button 309 and the rotation operation of the bezel 301. For example, an operation of pressing the button 305 and an operation of rotating the crown-type operation element 307 may be used. Further, for example, an operation of touching the touch panel 304 with a finger may be included.

具体的には、ベゼル301を右に回す操作に対応して表示画像を拡大し、ベゼル301を左に回す操作に対応して表示画像を縮小してもよい。また、タッチパネル304の中央部に対する指の接触を検出した場合に表示画像を拡大し、タッチパネル304の周縁部(例えば、左下枠近傍)への指の接触を検出した場合に表示画像を縮小してもよい。また、タッチパネル304に接触した指が、接触したまま右回し、左回し等の回転運動をした場合に、この回転に合わせて表示画像を回転させてもよい。
また、これらの操作に対応して、頭部装着型表示装置100は、画像表示部20で表示する画像(文字を含む)の拡大、縮小に限らず、回転、コピー、ページ送り等を行ってもよい。
Specifically, the display image may be enlarged in response to an operation of turning the bezel 301 to the right, and the display image may be reduced in response to an operation of turning the bezel 301 to the left. Further, the display image is enlarged when a finger contact with the center of the touch panel 304 is detected, and the display image is reduced when a finger contact with the peripheral edge of the touch panel 304 (for example, near the lower left frame) is detected. Also good. Further, when the finger touching the touch panel 304 rotates in a clockwise direction or in a counterclockwise direction while being in contact, the display image may be rotated in accordance with the rotation.
In response to these operations, the head-mounted display device 100 performs not only enlargement / reduction of an image (including characters) displayed on the image display unit 20, but also rotation, copying, page turning, and the like. Also good.

さらに、操作デバイス3は、9軸センサー368の検出値を頭部装着型表示装置100に送信することもできる。また、操作デバイス3がGPS検出部を備えた構成とし、GPS検出部で検出する現在位置を、頭部装着型表示装置100に送信してもよい。この場合、制御部140は、操作デバイス3から受信する検出値と3軸センサー113の検出値とに基づき、操作デバイス3と頭部装着型表示装置100との相対位置を検出できる。   Furthermore, the operation device 3 can transmit the detection value of the 9-axis sensor 368 to the head-mounted display device 100. Further, the operation device 3 may include a GPS detection unit, and the current position detected by the GPS detection unit may be transmitted to the head-mounted display device 100. In this case, the control unit 140 can detect the relative position between the operation device 3 and the head-mounted display device 100 based on the detection value received from the operation device 3 and the detection value of the three-axis sensor 113.

そして、制御部140は、操作デバイス3の動き、或いは、操作デバイス3と頭部装着型表示装置100との相対位置の変化に対応して、表示画像の拡大、縮小、回転など表示の変更を行っても良く、画像のフェードイン表示、フェードアウト表示を行ってもよい。この場合、操作デバイス3を頭部装着型表示装置100に近づけたり、遠ざけたりする操作により、表示を変更できる。   Then, the control unit 140 changes display such as enlargement, reduction, and rotation of the display image in response to the movement of the operation device 3 or the change in the relative position between the operation device 3 and the head-mounted display device 100. You may perform, and you may perform fade-in display and fade-out display of an image. In this case, the display can be changed by an operation of bringing the operation device 3 close to or away from the head-mounted display device 100.

表示システム1の動作は上記の例に限定されず、例えば、次のような動作を実行できる。
操作デバイス3においてベゼル301を回転させる操作により、複数の候補を、順に切り替えて選択する操作を実現できる。この操作によれば、例えば、ファイルやフォルダーを選択する場合、仮想キーボードにおいて仮想キーを選択する場合に、ベゼル301を回転させればよい。ベゼル301は、直感的に操作が可能であり、操作デバイス3の平面部300Aの外周部に位置するため、手探りによる操作が可能である。このため、使用者は、画像表示部20により表示されるAR表示に注目しながらベゼル301を操作できる。さらに、平面部300Aとは離れた位置に設けられ、他のスイッチ式の操作子よりも大型のボタン305により、選択を確定できるので、より容易に操作を行える。ボタン305は、位置及びサイズが、ボタン309やリュウズ型操作子307とは異なるので、ベゼル301と同様に、手探りによる操作が容易である。このため、画像表示部20が表示する画像を見ながら、直感的で確実な操作を行える。
Operation | movement of the display system 1 is not limited to said example, For example, the following operations can be performed.
By the operation of rotating the bezel 301 in the operation device 3, it is possible to realize an operation of sequentially switching and selecting a plurality of candidates. According to this operation, for example, when selecting a file or folder, or when selecting a virtual key on the virtual keyboard, the bezel 301 may be rotated. The bezel 301 can be operated intuitively and is located on the outer peripheral portion of the flat surface portion 300A of the operation device 3, so that it can be operated by groping. Therefore, the user can operate the bezel 301 while paying attention to the AR display displayed by the image display unit 20. Furthermore, since the selection can be confirmed by a button 305 which is provided at a position apart from the plane portion 300A and is larger than other switch type operation elements, the operation can be performed more easily. Since the position and size of the button 305 are different from those of the button 309 and the crown-type operation element 307, the operation by groping is easy like the bezel 301. Therefore, an intuitive and reliable operation can be performed while viewing the image displayed by the image display unit 20.

また、ベゼル301を回転させる操作に応じて、制御部140は、画像表示部20が表示する画面を遷移させる動作を行ってもよい。頭部装着型表示装置100のオペレーティングシステム150は、iOS(登録商標)やAndroid(登録商標)のように、複数の画面を切り替え、遷移させる構成とすることが考えられる。この場合、ベゼル301を回転させる操作に応じて、画面を遷移させることで、ベゼル301の操作をより効果的に使用できる。   Further, the control unit 140 may perform an operation of changing a screen displayed by the image display unit 20 in accordance with an operation of rotating the bezel 301. It is conceivable that the operating system 150 of the head-mounted display device 100 has a configuration in which a plurality of screens are switched and changed like iOS (registered trademark) or Android (registered trademark). In this case, the operation of the bezel 301 can be used more effectively by changing the screen according to the operation of rotating the bezel 301.

複数の候補から一つの候補を選択する操作では、ベゼル301の操作に代えて、音声による選択が可能な構成としてもよい。この場合、候補に付された固有の名称、番号、符号等を音声で指定すると、この音声を操作デバイス3がマイク365で検出し、検出した音声のデータを頭部装着型表示装置100に送信し、制御部140が設定を行ってもよい。   In the operation of selecting one candidate from a plurality of candidates, instead of the operation of the bezel 301, it may be possible to select by voice. In this case, when a unique name, number, code, or the like assigned to the candidate is designated by voice, the operation device 3 detects this voice with the microphone 365 and transmits the detected voice data to the head-mounted display device 100. Then, the control unit 140 may perform the setting.

また、頭部装着型表示装置100が操作デバイス3に制御データを送信して、操作デバイス3を動作させることも可能である。例えば、制御部140のデバイス制御部183は、タッチパネル304、及び9軸センサー368の検出開始や、不検出状態への移行を指示する制御データを送信してもよい。この場合、操作デバイス3におけるセンシングの実行/不実行を頭部装着型表示装置100が制御でき、誤操作を防止し、電源部360の消耗を防止できる。また、デバイス制御部183は、カメラ311の撮像開始および撮像停止を指示する制御データを送信してもよい。また、デバイス制御部183は、LCD303の点灯、消灯、点滅を制御する制御データを送信してもよい。   It is also possible for the head-mounted display device 100 to operate the operation device 3 by transmitting control data to the operation device 3. For example, the device control unit 183 of the control unit 140 may transmit control data instructing to start detection of the touch panel 304 and the 9-axis sensor 368 or to shift to a non-detection state. In this case, execution / non-execution of sensing in the operation device 3 can be controlled by the head-mounted display device 100, so that an erroneous operation can be prevented and consumption of the power supply unit 360 can be prevented. In addition, the device control unit 183 may transmit control data instructing to start and stop imaging of the camera 311. In addition, the device control unit 183 may transmit control data for controlling lighting, extinguishing, and blinking of the LCD 303.

また、操作デバイス3は、頭部装着型表示装置100が送信するデータに基づく出力を行うこともできる。例えば、デバイス制御部183が、通信部117によりテキストデータや画像データを送信し、操作デバイス3が、頭部装着型表示装置100から受信するテキストデータや画像データをLCD303に表示してもよい。この場合、頭部装着型表示装置100の動作状態(ステータス)を、LCD303に表示させて、使用者が頭部装着型表示装置100の動作状態を容易に把握できる。例えば、頭部装着型表示装置100を装着していない状態で、使用者が、頭部装着型表示装置100の動作状態を知りたい場合に、有用である。また、操作デバイス3が、頭部装着型表示装置100から受信するデータに従ってスピーカー370から音声を出力してもよいし、バイブレーター369を動かして振動を発生してもよい。   The operation device 3 can also perform output based on data transmitted from the head-mounted display device 100. For example, the device control unit 183 may transmit text data and image data through the communication unit 117, and the operation device 3 may display text data and image data received from the head-mounted display device 100 on the LCD 303. In this case, the operation state (status) of the head-mounted display device 100 is displayed on the LCD 303 so that the user can easily grasp the operation state of the head-mounted display device 100. For example, it is useful when the user wants to know the operating state of the head-mounted display device 100 without wearing the head-mounted display device 100. The operation device 3 may output sound from the speaker 370 according to data received from the head-mounted display device 100, or may generate vibration by moving the vibrator 369.

さらに、デバイス制御部183が操作デバイス3に対し、撮像実行と撮像画像データの送信を指示する制御データを送信し、操作デバイス3が撮像を行って、撮像画像データを画像表示部20に表示することもできる。この場合、頭部装着型表示装置100が備えるカメラ61では撮像できない角度から撮像を行い、撮像画像を画像表示部20に表示できる。また、この撮像画像データを制御部140が解析してもよい。   Further, the device control unit 183 transmits control data instructing execution of imaging and transmission of captured image data to the operation device 3, and the operation device 3 performs imaging and displays the captured image data on the image display unit 20. You can also In this case, imaging can be performed from an angle that cannot be captured by the camera 61 included in the head-mounted display device 100, and the captured image can be displayed on the image display unit 20. Further, the control unit 140 may analyze the captured image data.

また、表示システム1では、操作デバイス3のNFC部362により、非接触型ICカードや、RFIDタグに記録されたデータを読み取り、読み取ったデータを無線通信部361から通信部117に送信してもよい。この場合、ICカード型電子マネーの残高等を画像表示部20により表示できる。   In the display system 1, even if the NFC unit 362 of the operation device 3 reads data recorded on a non-contact type IC card or an RFID tag, the read data is transmitted from the wireless communication unit 361 to the communication unit 117. Good. In this case, the balance or the like of the IC card type electronic money can be displayed by the image display unit 20.

このように、表示システム1では、シースルー方式の頭部装着型表示装置100と、時計型の操作デバイス3とを組み合わせ、操作デバイス3の操作により頭部装着型表示装置100を動作させる。これにより、操作時以外はハンズフリーを実現し、操作時でも自然な動きで操作できる。また、操作デバイス3は、時計モードで動作することにより腕時計として使用できる。この操作デバイス3を、操作用のユーザーインターフェイスとして使うことで、操作時以外はハンズフリーを実現し、操作時でも自然な動きで操作することを可能とする。また、画像表示部20の表示により、操作デバイス3に関する情報を見ることもでき、LCD303を直視する必要がなくなるので、LCD303の表示を見るために手を使う必要がないという利点もある。   Thus, in the display system 1, the see-through head-mounted display device 100 and the clock-type operation device 3 are combined, and the head-mounted display device 100 is operated by operating the operation device 3. As a result, hands-free operation is realized except during operation, and operation can be performed with natural movement even during operation. The operation device 3 can be used as a wristwatch by operating in the clock mode. By using the operation device 3 as a user interface for operation, hands-free operation is realized except during operation, and operation can be performed with natural movement even during operation. In addition, the display on the image display unit 20 allows the user to see information related to the operation device 3, and it is not necessary to look directly at the LCD 303. Therefore, there is an advantage that it is not necessary to use a hand to view the display on the LCD 303.

また、タッチパネル304がいわゆるマルチタッチ操作に対応する場合、タッチパネル304に対する複数の操作点の間隔を拡大、或いは縮小させる操作等に対応して、頭部装着型表示装置100の表示画像を拡大、縮小、或いは回転させる動作を行ってもよい。   Further, when the touch panel 304 supports a so-called multi-touch operation, the display image of the head-mounted display device 100 is enlarged or reduced in response to an operation for expanding or reducing the interval between a plurality of operation points on the touch panel 304. Alternatively, a rotating operation may be performed.

また、表示システム1では、頭部装着型表示装置100が、操作デバイス3との相対位置を検出することが可能である。この位置検出には種々の方法を用いることが可能であるが、本実施形態では、頭部装着型表示装置100が操作デバイス3を含む範囲を撮像し、撮像画像データに基づき相対位置を特定する例を説明する。   In the display system 1, the head-mounted display device 100 can detect a relative position with the operation device 3. Although various methods can be used for this position detection, in the present embodiment, the head-mounted display device 100 images the range including the operation device 3 and specifies the relative position based on the captured image data. An example will be described.

図9は、頭部装着型表示装置100の動作を示すフローチャートであり、特に、頭部装着型表示装置100と操作デバイス3との相対位置を検出する位置検出処理を示す。
制御部140は、撮像処理部181によりカメラ61を制御して撮像を実行する(ステップS51)。制御部140は、カメラ61の撮像画像データを取得し、取得した撮像画像データを解析して、操作デバイス3の画像を検出する(ステップS52)。これにより、カメラ61の撮像画像において、操作デバイス3が写っている位置や操作デバイス3の画像の形状を検出できる。
FIG. 9 is a flowchart showing the operation of the head-mounted display device 100, and particularly shows position detection processing for detecting the relative position between the head-mounted display device 100 and the operation device 3.
The control unit 140 controls the camera 61 by the imaging processing unit 181 and executes imaging (step S51). The control unit 140 acquires captured image data of the camera 61, analyzes the acquired captured image data, and detects an image of the operation device 3 (step S52). Thereby, in the captured image of the camera 61, the position where the operation device 3 is reflected and the shape of the image of the operation device 3 can be detected.

続いて、制御部140は、撮像画像における操作デバイス3の画像の位置及びサイズに基づき、操作デバイス3とカメラ61との相対位置を算出する(ステップS53)。すなわち、制御部140は、操作デバイス3の画像の位置からカメラ61の画角の中心軸、例えばカメラ61の撮像レンズの光軸に対する操作デバイス3の位置を算出する。また、制御部140は、撮像画像における操作デバイス3の画像のサイズから、操作デバイス3とカメラ61の撮像面との距離を求める。ここで、制御部140は、カメラ61の撮像条件(ズーム倍率等)を用いて算出を行ってもよい。   Subsequently, the control unit 140 calculates the relative position between the operation device 3 and the camera 61 based on the position and size of the image of the operation device 3 in the captured image (step S53). That is, the control unit 140 calculates the position of the operation device 3 with respect to the central axis of the angle of view of the camera 61, for example, the optical axis of the imaging lens of the camera 61, from the image position of the operation device 3. In addition, the control unit 140 obtains the distance between the operation device 3 and the imaging surface of the camera 61 from the size of the image of the operation device 3 in the captured image. Here, the control unit 140 may perform the calculation using the imaging conditions (zoom magnification, etc.) of the camera 61.

ステップS53で、制御部140は、カメラ61と操作デバイス3との相対位置を求めた後、求めた相対位置を、頭部装着型表示装置100と操作デバイス3との相対位置に変換してもよい。
頭部装着型表示装置100及び操作デバイス3は、撮像画像における座標に比べて大きいため、基準点を設定することが現実的である。すなわち、頭部装着型表示装置100と操作デバイス3との相対位置は、頭部装着型表示装置100において設定される基準点と、操作デバイス3において設定される基準点との相対位置として求められる。頭部装着型表示装置100における基準点がカメラ61の撮像面において光軸に重なる点である場合、ステップS53で求めた相対位置は、そのまま、操作デバイス3と頭部装着型表示装置100との相対位置となる。頭部装着型表示装置100の基準点がカメラ61の撮像面とは異なる位置にある場合、制御部140は、上述した変換を行えばよい。また、操作デバイス3における基準点は、例えば、ベゼル301の中心とすればよい。
In step S53, after obtaining the relative position between the camera 61 and the operation device 3, the control unit 140 converts the obtained relative position into the relative position between the head-mounted display device 100 and the operation device 3. Good.
Since the head-mounted display device 100 and the operation device 3 are larger than the coordinates in the captured image, it is realistic to set a reference point. That is, the relative position between the head-mounted display device 100 and the operation device 3 is obtained as the relative position between the reference point set in the head-mounted display device 100 and the reference point set in the operation device 3. . When the reference point in the head-mounted display device 100 is a point that overlaps the optical axis on the imaging surface of the camera 61, the relative position obtained in step S53 remains as it is between the operation device 3 and the head-mounted display device 100. Relative position. When the reference point of the head-mounted display device 100 is at a position different from the imaging surface of the camera 61, the control unit 140 may perform the above-described conversion. The reference point in the operation device 3 may be the center of the bezel 301, for example.

制御部140は、撮像画像における操作デバイス3の画像の形状に基づき、操作デバイス3のLCD303の向きを特定する(ステップS54)。ステップS54で、制御部140は、撮像画像における操作デバイス3のベゼル301の形状、バンド部300を含む操作デバイス3の全体形状、或いは、LCD303の形状に基づいて向きを算出できる。また、例えば図2(A)に示したように、操作デバイス3がLCD303に矢印等の図形を表示している場合や、LCD303に時刻を表示している場合に、これらLCD303の表示画像に基づいて向きを求めてもよい。   The control unit 140 identifies the orientation of the LCD 303 of the operation device 3 based on the shape of the image of the operation device 3 in the captured image (step S54). In step S <b> 54, the control unit 140 can calculate the orientation based on the shape of the bezel 301 of the operation device 3 in the captured image, the entire shape of the operation device 3 including the band unit 300, or the shape of the LCD 303. Also, for example, as shown in FIG. 2A, when the operation device 3 displays a graphic such as an arrow on the LCD 303 or when the time is displayed on the LCD 303, the display image of the LCD 303 is used. You may ask for direction.

その後、制御部140は、ステップS53で算出した操作デバイス3と頭部装着型表示装置100との相対位置を示すデータ、及び、ステップS54で特定した頭部装着型表示装置100に対する操作デバイス3の向きを示すデータを生成する。制御部140は、生成したデータを含む相対位置データを、記憶部120に記憶する(ステップS55)。   Thereafter, the control unit 140 includes data indicating the relative position between the operation device 3 calculated in step S53 and the head-mounted display device 100, and the operation device 3 corresponding to the head-mounted display device 100 specified in step S54. Data indicating the direction is generated. The control unit 140 stores the relative position data including the generated data in the storage unit 120 (step S55).

例えば、図6のステップS35に示した動作で、AR表示制御部185は、頭部装着型表示装置100の使用者が画像表示部20越しに操作デバイス3を見ている状態で、操作デバイス3に重なって見えるように、ARコンテンツを表示する。ここで、AR表示制御部185は、図9に示した動作で検出した操作デバイス3と頭部装着型表示装置100との相対位置、及び、頭部装着型表示装置100に対する操作デバイス3の向きに基づき、ARコンテンツの表示位置を決定する。この処理で、AR表示制御部185は、カメラ61の撮像範囲と、画像表示部20の表示領域との位置関係に基づき、対象物の位置に対応するARコンテンツの表示位置を決定する。この位置関係は、記憶部120に記憶した相対位置データから求めることができる。
AR表示制御部185は、操作デバイス3と頭部装着型表示装置100との間の距離に対応して、ARコンテンツの表示サイズを調整してもよい。また、AR表示制御部185は、頭部装着型表示装置100に対する操作デバイス3のLCD303の向きに対応して、ARコンテンツの表示位置を調整してもよいし、ARコンテンツに含まれる画像を変形してもよい。
For example, in the operation shown in step S35 of FIG. 6, the AR display control unit 185 causes the operation device 3 to be displayed while the user of the head-mounted display device 100 is looking at the operation device 3 through the image display unit 20. AR content is displayed so that it appears to overlap. Here, the AR display control unit 185 determines the relative position between the operation device 3 and the head-mounted display device 100 detected by the operation shown in FIG. 9 and the direction of the operation device 3 with respect to the head-mounted display device 100. Based on the above, the display position of the AR content is determined. In this process, the AR display control unit 185 determines the display position of the AR content corresponding to the position of the object based on the positional relationship between the imaging range of the camera 61 and the display area of the image display unit 20. This positional relationship can be obtained from the relative position data stored in the storage unit 120.
The AR display control unit 185 may adjust the display size of the AR content according to the distance between the operation device 3 and the head-mounted display device 100. In addition, the AR display control unit 185 may adjust the display position of the AR content in accordance with the direction of the LCD 303 of the operation device 3 with respect to the head-mounted display device 100, or deform an image included in the AR content. May be.

頭部装着型表示装置100が操作デバイス3との相対位置を検出する方法は、図9に示した方法に限定されず、例えば、操作デバイス3と頭部装着型表示装置100とがデータ通信を行い、相互の検出結果を利用してもよい。この動作例を図10に示す。   The method for detecting the relative position of the head-mounted display device 100 with the operation device 3 is not limited to the method shown in FIG. 9. For example, the operation device 3 and the head-mounted display device 100 perform data communication. And mutual detection results may be used. An example of this operation is shown in FIG.

図10は、表示システム1の動作を示すフローチャートであり、(A)は操作デバイス3の動作を示し、(B)は頭部装着型表示装置100の動作を示す。
図10の動作は、例えば、操作デバイス3がUIモードである場合に実行する。
操作デバイス3の制御部350は、カメラ311、311により撮像を実行して使用者の視線を検出する(ステップS61)。制御部350は、視線を検出するまで撮像および撮像画像の解析を行う(ステップS61;NO)。
FIG. 10 is a flowchart showing the operation of the display system 1, (A) shows the operation of the operation device 3, and (B) shows the operation of the head-mounted display device 100.
The operation in FIG. 10 is executed when the operation device 3 is in the UI mode, for example.
The control unit 350 of the operation device 3 detects the user's line of sight by performing imaging with the cameras 311 and 311 (step S61). The control unit 350 performs imaging and analysis of the captured image until a line of sight is detected (step S61; NO).

制御部350は、視線を検出した場合(ステップS61;YES)、カメラ311、311による撮像を実行し(ステップS62)、撮像画像データを取得する(ステップS63)。制御部350は、撮像画像データを無線通信部361により送信する(ステップS64)。ステップS62では、カメラ311、311のいずれか一方のみを用いて撮像をしてもよいし、2つのカメラ311、311の両方で撮像を行い、両方の撮像画像データを取得して送信してもよい。   When the line of sight is detected (step S61; YES), the control unit 350 performs imaging with the cameras 311 and 311 (step S62), and acquires captured image data (step S63). The control unit 350 transmits the captured image data by the wireless communication unit 361 (step S64). In step S62, imaging may be performed using only one of the cameras 311 and 311. Alternatively, both of the two cameras 311 and 311 may be captured, and both captured image data may be acquired and transmitted. Good.

制御部140は、通信部117によって撮像画像データを操作デバイス3から受信し(ステップS71)、受信した撮像画像データを解析して、頭部装着型表示装置100の画像を検出する(ステップS72)。これにより、撮像画像において、頭部装着型表示装置100が写っている位置や頭部装着型表示装置100の画像の形状を検出できる。   The control unit 140 receives captured image data from the operation device 3 through the communication unit 117 (step S71), analyzes the received captured image data, and detects an image of the head-mounted display device 100 (step S72). . Thereby, in the captured image, the position where the head-mounted display device 100 is reflected and the shape of the image of the head-mounted display device 100 can be detected.

続いて、制御部140は、撮像画像における頭部装着型表示装置100の画像の位置及びサイズに基づき、操作デバイス3と頭部装着型表示装置100との相対位置を算出する(ステップS73)。例えば、制御部140は、頭部装着型表示装置100の画像の位置から、カメラ311、311の画角の中心軸に対する頭部装着型表示装置100の位置を算出する。また、制御部140は、撮像画像における頭部装着型表示装置100の画像のサイズから、頭部装着型表示装置100と操作デバイス3との距離を求める。ここで、制御部140は、カメラ311、311の撮像条件(ズーム倍率等)を用いて算出を行ってもよい。   Subsequently, the control unit 140 calculates the relative position between the operation device 3 and the head-mounted display device 100 based on the position and size of the image of the head-mounted display device 100 in the captured image (step S73). For example, the control unit 140 calculates the position of the head-mounted display device 100 with respect to the center axis of the angle of view of the cameras 311 and 311 from the position of the image of the head-mounted display device 100. In addition, the control unit 140 obtains the distance between the head-mounted display device 100 and the operation device 3 from the size of the image of the head-mounted display device 100 in the captured image. Here, the control unit 140 may perform the calculation using the imaging conditions (such as zoom magnification) of the cameras 311 and 311.

ステップS73で、制御部140は、複数のカメラ311、311の撮像画像を用いて、より高精度な検出を行ってもよい。例えば、これら複数の撮像画像の視差を算出し、この視差から、操作デバイス3と頭部装着型表示装置100との間の距離を求めてもよい。
その後、制御部140は、ステップS73で算出した操作デバイス3と頭部装着型表示装置100との相対位置を示すデータを生成する(ステップS74)。制御部140は、生成したデータを含む相対位置データを、記憶部120に記憶する。
In step S <b> 73, the control unit 140 may perform detection with higher accuracy using captured images of the plurality of cameras 311 and 311. For example, the parallax of the plurality of captured images may be calculated, and the distance between the operation device 3 and the head-mounted display device 100 may be obtained from the parallax.
Thereafter, the control unit 140 generates data indicating the relative position between the operation device 3 calculated in step S73 and the head-mounted display device 100 (step S74). The control unit 140 stores relative position data including the generated data in the storage unit 120.

このように、操作デバイス3と頭部装着型表示装置100とが連動して、操作デバイス3と頭部装着型表示装置100との相対位置を求める処理を行ってもよい。この図10の動作において、ステップS72〜S73の処理を、制御部350が実行し、制御部350が相対位置を示すデータを生成して、頭部装着型表示装置100に送信してもよい。   As described above, the operation device 3 and the head-mounted display device 100 may be linked to perform processing for obtaining a relative position between the operation device 3 and the head-mounted display device 100. In the operation of FIG. 10, the processing of steps S72 to S73 may be executed by the control unit 350, and the control unit 350 may generate data indicating the relative position and transmit the data to the head-mounted display device 100.

図9及び図10を参照して説明したように、頭部装着型表示装置100は、頭部装着型表示装置100に対する操作デバイス3の位置を検出できる。そして、頭部装着型表示装置100は、操作デバイス3の位置に対応してARコンテンツの表示を行うことができる。さらに、上記相対位置の検出を繰り返し実行することで、操作デバイス3を基準として、頭部装着型表示装置100の動きを求めることができる。また、操作デバイス3の位置や向きに対応して、例えば、画像表示部20に表示する画面を遷移させてもよい。この場合、操作デバイス3と頭部装着型表示装置100との相対位置を変化させることが、頭部装着型表示装置100に対する操作に相当する。   As described with reference to FIGS. 9 and 10, the head-mounted display device 100 can detect the position of the operation device 3 with respect to the head-mounted display device 100. The head-mounted display device 100 can display AR content corresponding to the position of the operation device 3. Furthermore, by repeatedly executing the detection of the relative position, the movement of the head-mounted display device 100 can be obtained with the operation device 3 as a reference. Further, for example, the screen displayed on the image display unit 20 may be changed in accordance with the position and orientation of the operation device 3. In this case, changing the relative position between the operation device 3 and the head-mounted display device 100 corresponds to an operation on the head-mounted display device 100.

例えば、図6のステップS35で、AR表示制御部185は、頭部装着型表示装置100の使用者が画像表示部20越しに操作デバイス3を見ている状態で、操作デバイス3に重なって見えるように、ARコンテンツを表示する。ここで、AR表示制御部185は、例えば操作デバイス3と頭部装着型表示装置100との相対位置、及び、頭部装着型表示装置100に対する操作デバイス3の向きに基づき、ARコンテンツの表示位置を決定する。この処理で、AR表示制御部185は、カメラ61の撮像範囲と、画像表示部20の表示領域との位置関係に基づき、対象物の位置に対応するARコンテンツの表示位置を決定する。この位置関係は、例えば記憶部120に記憶する相対位置データから求めることができる。
AR表示制御部185は、操作デバイス3と頭部装着型表示装置100との間の距離に対応して、ARコンテンツの表示サイズを調整してもよい。また、AR表示制御部185は、頭部装着型表示装置100に対する操作デバイス3のLCD303の向きに対応して、ARコンテンツの表示位置を調整してもよいし、ARコンテンツに含まれる画像を変形してもよい。
For example, in step S35 of FIG. 6, the AR display control unit 185 appears to overlap the operation device 3 while the user of the head-mounted display device 100 is looking at the operation device 3 through the image display unit 20. Thus, the AR content is displayed. Here, the AR display control unit 185 displays the AR content display position based on, for example, the relative position between the operation device 3 and the head-mounted display device 100 and the orientation of the operation device 3 with respect to the head-mounted display device 100. To decide. In this process, the AR display control unit 185 determines the display position of the AR content corresponding to the position of the object based on the positional relationship between the imaging range of the camera 61 and the display area of the image display unit 20. This positional relationship can be obtained from relative position data stored in the storage unit 120, for example.
The AR display control unit 185 may adjust the display size of the AR content according to the distance between the operation device 3 and the head-mounted display device 100. In addition, the AR display control unit 185 may adjust the display position of the AR content in accordance with the direction of the LCD 303 of the operation device 3 with respect to the head-mounted display device 100, or deform an image included in the AR content. May be.

また、制御部140は、図9または図10の動作で特定した操作デバイス3との相対位置及び向きに基づき、9軸センサー66の検出軸(図1のX,Y,Z軸)と、LCD303の向き(傾き)との対応付けを行ってもよい。これにより、頭部装着型表示装置100の傾きとLCD303の傾きとの双方に連動して、画像表示部20の表示画像や、LCD303における表示画像を変化させることができる。   Further, the control unit 140 determines the detection axes (X, Y, Z axes in FIG. 1) of the 9-axis sensor 66 and the LCD 303 based on the relative position and orientation with the operation device 3 specified by the operation of FIG. Correlation with the direction (inclination) may be performed. Thereby, the display image on the image display unit 20 and the display image on the LCD 303 can be changed in conjunction with both the tilt of the head-mounted display device 100 and the tilt of the LCD 303.

このほか、操作デバイス3と頭部装着型表示装置100とが連動して動作する例としては、例えば、制御部350の制御により、LCD303にマーカーを表示し、このマーカーを頭部装着型表示装置100が認識する態様が挙げられる。制御部140は、カメラ61の撮像画像からマーカーを検出する。LCD303が表示するマーカーが、バーコードや二次元コード等、情報を含めることが可能なマーカーである場合、制御部140は読取結果から情報を取得できる。制御部140は、取得した情報に基づき、通信部117により操作デバイス3との間の通信を確立する動作等を行える。また、複数の操作デバイス3がある場合に、これらの操作デバイス3を識別することも可能となる。この場合、特定の操作デバイス3と頭部装着型表示装置100との相対位置を検出する動作や、特定の操作デバイス3と通信を確立するといった動作が可能となる。   In addition, as an example in which the operation device 3 and the head-mounted display device 100 operate in conjunction with each other, for example, a marker is displayed on the LCD 303 under the control of the control unit 350, and this marker is displayed on the head-mounted display device. The aspect which 100 recognizes is mentioned. The control unit 140 detects a marker from the captured image of the camera 61. When the marker displayed on the LCD 303 is a marker that can include information such as a barcode or a two-dimensional code, the control unit 140 can acquire information from the reading result. The control unit 140 can perform an operation of establishing communication with the operation device 3 by the communication unit 117 based on the acquired information. Further, when there are a plurality of operation devices 3, it is possible to identify these operation devices 3. In this case, an operation for detecting the relative position between the specific operation device 3 and the head-mounted display device 100 and an operation for establishing communication with the specific operation device 3 are possible.

以上説明したように、本発明を適用した実施形態の表示システム1は、頭部装着型表示装置100と、画像表示部20とは別体として構成される操作デバイス3とを備える。頭部装着型表示装置100は、使用者の頭部に装着され、外景を透過して使用者に視認させる透過型の画像表示部20を有する。操作デバイス3は、使用者の操作を受け付ける操作部として、ベゼル301、タッチパネル304、ボタン305、リュウズ型操作子307、及び、ボタン309を備える。操作部に9軸センサー368を含んでもよいし、9軸センサー368を有するバンド部300を操作部としてもよい。頭部装着型表示装置100は、画像表示部20の表示を制御する制御部140を備える。制御部140は、操作デバイス3に対する操作に基づき、画像表示部20を透過する外景に関連するAR表示を画像表示部20によって行う。この構成によれば、頭部装着型表示装置100が外景に関連するAR表示を行う際に、頭部装着型表示装置100とは別体の操作デバイス3の操作を反映するので、直感的な入力操作によってAR表示を制御できる。   As described above, the display system 1 according to the embodiment to which the present invention is applied includes the head-mounted display device 100 and the operation device 3 configured separately from the image display unit 20. The head-mounted display device 100 includes a transmissive image display unit 20 that is mounted on the user's head and allows the user to visually recognize the outside scene. The operation device 3 includes a bezel 301, a touch panel 304, a button 305, a crown type operator 307, and a button 309 as an operation unit that receives a user's operation. The operation unit may include a 9-axis sensor 368, or the band unit 300 having the 9-axis sensor 368 may be used as the operation unit. The head-mounted display device 100 includes a control unit 140 that controls the display of the image display unit 20. Based on an operation on the operation device 3, the control unit 140 causes the image display unit 20 to perform an AR display related to an outside scene that passes through the image display unit 20. According to this configuration, when the head-mounted display device 100 performs AR display related to the outside scene, the operation of the operation device 3 separate from the head-mounted display device 100 is reflected, which is intuitive. The AR display can be controlled by an input operation.

例えば、操作デバイス3において、図7(A)に示した設定によりバンド部300の操作部に対して機能が割り当てられた後、操作部に接触する、指を動かす、等の操作デバイス3に対する操作を、頭部装着型表示装置100が検出してもよい。具体的には、カメラ61の撮像画像データにもとづき、操作デバイス3に対する操作を制御部140が検出してもよい。
また、操作デバイス3は、操作部が受け付けた操作を示すデータを頭部装着型表示装置100に送信する無線通信部361を備えてもよい。この場合、制御部140は、操作デバイス3から送信されるデータに基づき、操作部に対応付けられた態様で、画像表示部20を透過する外景に関連するAR表示を画像表示部20によって行う。
For example, in the operation device 3, after a function is assigned to the operation unit of the band unit 300 according to the setting illustrated in FIG. 7A, an operation on the operation device 3 such as touching the operation unit or moving a finger. May be detected by the head-mounted display device 100. Specifically, the control unit 140 may detect an operation on the operation device 3 based on the captured image data of the camera 61.
In addition, the operation device 3 may include a wireless communication unit 361 that transmits data indicating the operation received by the operation unit to the head-mounted display device 100. In this case, the control unit 140 causes the image display unit 20 to perform AR display related to the outside scene that is transmitted through the image display unit 20 in a manner associated with the operation unit based on the data transmitted from the operation device 3.

また、制御部140は、操作デバイス3から送信されるデータに基づいて操作部の操作を検出し、検出した操作に対応して、画像表示部20に表示中のAR表示を変更する。このため、AR表示を行っている間に、操作デバイス3を操作することにより、AR表示を変更させることができる。   Further, the control unit 140 detects the operation of the operation unit based on the data transmitted from the operation device 3, and changes the AR display being displayed on the image display unit 20 in accordance with the detected operation. For this reason, the AR display can be changed by operating the operation device 3 while performing the AR display.

制御部140は、操作部に対するAR表示の割り当てを設定可能であってもよい。
この場合において、制御部140は、操作部に対するAR表示の割り当てを更新する処理を実行可能であってもよい。
The control unit 140 may be capable of setting the allocation of AR display to the operation unit.
In this case, the control unit 140 may be able to execute processing for updating the allocation of the AR display to the operation unit.

また、操作部は接触操作を検出するタッチパネル304を備える。タッチパネル304は、複数の操作領域を有し、制御部140は、タッチパネル304で操作された操作領域に割り当てられたAR表示を、画像表示部20によって表示する。このため、操作デバイス3でタッチ操作を行うことにより、AR表示に対する様々な操作が可能となる。
また、操作デバイス3が有する制御部350は、操作デバイス3の動きを操作として検出してもよい。
操作デバイス3を動かすことで頭部装着型表示装置100に対する操作を行える。
In addition, the operation unit includes a touch panel 304 that detects a contact operation. The touch panel 304 has a plurality of operation areas, and the control unit 140 causes the image display unit 20 to display an AR display assigned to the operation area operated on the touch panel 304. For this reason, by performing a touch operation with the operation device 3, various operations for the AR display can be performed.
The control unit 350 included in the operation device 3 may detect the movement of the operation device 3 as an operation.
The head-mounted display device 100 can be operated by moving the operation device 3.

また、操作デバイス3はカメラ311を備え、カメラ311の撮像画像を含むデータを無線通信部361により頭部装着型表示装置100に送信してもよい。この場合、頭部装着型表示装置100とは別体の操作デバイス3で撮像した撮像画像を、頭部装着型表示装置100で表示できる。また、表示システム1では、操作デバイス3で、頭部装着型表示装置100の認証を行うことができる。   Further, the operation device 3 may include the camera 311, and data including a captured image of the camera 311 may be transmitted to the head-mounted display device 100 by the wireless communication unit 361. In this case, the captured image captured by the operation device 3 separate from the head-mounted display device 100 can be displayed by the head-mounted display device 100. In the display system 1, the head-mounted display device 100 can be authenticated by the operation device 3.

なお、この発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
本実施形態では、頭部装着型表示装置100のユーザーインターフェイスとして使用される操作デバイス3が、腕時計の形状を有する例を説明した。本発明はこれに限定されず、頭部装着型表示装置100を使用する使用者の身体に装着するのに適した形状であればよい。例えば、指輪型、ブローチ型、ペンダントまたはネックレス型、或いはペン型のデバイスとすることができる。また、使用者の頭部や耳に装着されるヘッドホン型、イヤホン型、ヘッドセット型のデバイスとしてもよい。この場合、音声を出力するヘッドホンやイヤホンに、本発明の操作デバイスとしての機能を実装してもよい。音声を出力するスピーカーと、使用者が発話する音声を集音するマイクとを備えたヘッドセットに、本発明の操作デバイスとしての機能を実装してもよい。この構成においてヘッドホン、イヤホン、スピーカーは骨伝導スピーカーであってもよく、マイクは骨伝導マイクであってもよい。この場合、デバイスは、少なくとも、接触操作または押圧操作を検出する操作子を備え、無線通信部361、LED313、カメラ311、及び9軸センサー368を備えた構成とすることが望ましい。これらの構成では、表示に係る動作を除き、上記実施形態と同様の効果を得ることができる。
In addition, this invention is not restricted to the structure of the said embodiment, In the range which does not deviate from the summary, it can be implemented in a various aspect.
In the present embodiment, the example in which the operation device 3 used as the user interface of the head-mounted display device 100 has the shape of a wristwatch has been described. The present invention is not limited to this, and any shape that is suitable for being worn on the body of a user who uses the head-mounted display device 100 may be used. For example, it can be a ring type, brooch type, pendant or necklace type, or pen type device. Moreover, it is good also as a headphone type | mold, earphone type | mold, or headset type device with which a user's head and ear | edge are mounted | worn. In this case, the function as the operation device of the present invention may be mounted on headphones or earphones that output sound. The function as the operation device of the present invention may be implemented in a headset including a speaker that outputs audio and a microphone that collects audio uttered by the user. In this configuration, the headphones, earphones, and speakers may be bone conduction speakers, and the microphone may be a bone conduction microphone. In this case, the device preferably includes at least an operation element that detects a contact operation or a pressing operation, and includes a wireless communication unit 361, an LED 313, a camera 311, and a 9-axis sensor 368. In these configurations, the same effects as those in the above-described embodiment can be obtained except for operations related to display.

また、上記実施形態の頭部装着型表示装置100は、バンド部300により使用者の身体に固定され保持される構成としたが、本発明の操作デバイスの構成は、これに限定されない。すなわち、操作デバイスは、バンド部300等により固定することは必須ではなく、使用者の身体に装着可能であればよい。従って、上述のようにペンダントまたはネックレス型、或いは他のアクセサリーを模した形状等であってもよく、帽子やヘルメットの形状としてもよく、その他の衣服の形態とすることもできる。
さらに、本発明の操作デバイスは、使用者の身体に直接装着され、或いは固定される態様に限定されない。例えば、使用者の身体に装着または固定される腕時計、アクセサリー、衣服、鞄、帽子、ヘルメットに、操作デバイスに相当する機器を固定してもよい。この場合の操作デバイスは、例えば、操作デバイス3からバンド部300を除いた構成とすることができる。
Moreover, although the head mounted display apparatus 100 of the said embodiment was set as the structure fixed to a user's body by the band part 300, the structure of the operation device of this invention is not limited to this. That is, it is not essential that the operation device is fixed by the band unit 300 or the like, as long as it can be attached to the user's body. Therefore, it may be a pendant or necklace shape as described above, or a shape imitating other accessories, may be a hat or helmet shape, or may be other clothing.
Furthermore, the operating device of the present invention is not limited to a mode in which it is directly attached to or fixed to the user's body. For example, an apparatus corresponding to an operation device may be fixed to a wristwatch, an accessory, clothes, a bag, a hat, or a helmet that is attached or fixed to the user's body. The operation device in this case can be configured, for example, by removing the band unit 300 from the operation device 3.

また、表示システム1は、複数の操作デバイスを備えた構成としてもよい。例えば操作デバイス3のように腕時計型の操作デバイスと、ペン型の操作デバイスなど、異なる形態の操作デバイスを含んでもよい。この場合、複数の操作デバイスにおける操作に基づき、頭部装着型表示装置100における表示画面を遷移させてもよい。複数の操作デバイスにおける操作を頭部装着型表示装置100が検出する方法は、複数の操作デバイスから操作を示すデータを送信する方法等が挙げられる。   The display system 1 may be configured to include a plurality of operation devices. For example, the operation device 3 may include a different type of operation device such as a wristwatch-type operation device and a pen-type operation device. In this case, the display screen of the head-mounted display device 100 may be changed based on operations on a plurality of operation devices. Examples of the method in which the head-mounted display device 100 detects operations on a plurality of operation devices include a method of transmitting data indicating operations from the plurality of operation devices.

さらに、操作デバイス3が慣性センサーである9軸センサー368の検出値を示すデータを頭部装着型表示装置100に送信することで、操作デバイス3の動きを操作として表示システム1が動作してもよい。
例えば、9軸センサー368の検出値と、頭部装着型表示装置100が備える9軸センサー66の検出値とを用いて、制御部140が、画像表示部20を透過して視認される外景と画像表示部20の表示領域との対応付けを行ってもよい。この場合、複数の装置が備えるセンサーの検出値を用いることで、より高精度で対応付けを行うことができる。この対応付けは、画像表示部20においてARコンテンツを表示する場合等に利用できる。
Further, the operation device 3 transmits data indicating the detection value of the nine-axis sensor 368 that is an inertial sensor to the head-mounted display device 100, so that even if the display system 1 operates using the movement of the operation device 3 as an operation. Good.
For example, using the detection value of the 9-axis sensor 368 and the detection value of the 9-axis sensor 66 included in the head-mounted display device 100, the control unit 140 transmits an external scene that can be viewed through the image display unit 20. You may perform matching with the display area of the image display part 20. FIG. In this case, association can be performed with higher accuracy by using detection values of sensors provided in a plurality of apparatuses. This association can be used when the AR content is displayed on the image display unit 20.

また、操作デバイス3は、使用者の心拍数を計測するセンサーを備えてもよい。具体的には、使用者の腕に光を照射して拍動を検出するセンサー等を用いることができる。この場合、操作デバイス3は、計測した心拍数に関するデータを頭部装着型表示装置100に送信し、頭部装着型表示装置100において心拍数に係るデータを表示してもよい。例えば、心拍数を統計的に処理した結果の表示や、心拍数のリアルタイム表示、心拍数と9軸センサー368の検出値とを処理し、使用者の活動量や体調管理に関するデータを表示してもよい。また、心拍数に基づき使用者の興奮度や疲労度を推定し、画像表示部20における表示色や表示する画像の内容を、使用者に快適性をもたらすように変更してもよい。   The operation device 3 may include a sensor that measures the heart rate of the user. Specifically, a sensor or the like that detects light by irradiating light on the user's arm can be used. In this case, the operation device 3 may transmit data relating to the measured heart rate to the head-mounted display device 100, and display data relating to the heart rate on the head-mounted display device 100. For example, display of the result of statistical processing of heart rate, real-time display of heart rate, heart rate and detection value of 9-axis sensor 368, and display data related to user activity and physical condition management Also good. Further, the user's excitement level and fatigue level may be estimated based on the heart rate, and the display color in the image display unit 20 and the content of the image to be displayed may be changed to bring comfort to the user.

また、上記実施形態では、操作デバイス3が電源部360により動作する電子機器である構成を例に挙げて説明したが、本発明はこれに限定されない。例えば、操作デバイス3のベゼル301、及び/又は、平面部300Aでベゼル301に隣接する位置に、ベゼル301の回転方向における位置を特定するためのマーカーを設けてもよい。この場合、デバイス制御部183が、カメラ61で撮像する撮像画像データに基づき、ベゼル301の回転方向と回転量を求めることができる。また、操作デバイス3が電源部360を備えている場合であっても、上記の動作により、頭部装着型表示装置100がベゼル301の回転方向と回転量とを求める構成としてもよい。この動作は、例えば、電源部360の消費を抑える省電力動作モードの動作として実現できる。電源部360の残容量が少ない場合に、操作デバイス3または頭部装着型表示装置100の制御で、表示システム1が省電力動作モードに移行する構成とすることができる。   In the above-described embodiment, the configuration in which the operation device 3 is an electronic device that is operated by the power supply unit 360 has been described as an example. However, the present invention is not limited to this. For example, a marker for specifying the position of the bezel 301 in the rotational direction may be provided at a position adjacent to the bezel 301 on the operation device 3 and / or the planar portion 300A. In this case, the device control unit 183 can determine the rotation direction and the rotation amount of the bezel 301 based on the captured image data captured by the camera 61. Even when the operation device 3 includes the power supply unit 360, the head-mounted display device 100 may obtain the rotation direction and the rotation amount of the bezel 301 by the above operation. This operation can be realized, for example, as a power saving operation mode operation that suppresses the consumption of the power supply unit 360. When the remaining capacity of the power supply unit 360 is small, the display system 1 can be shifted to the power saving operation mode under the control of the operation device 3 or the head-mounted display device 100.

また、上記実施形態の画像表示部20に代えて、例えば、帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。   Further, instead of the image display unit 20 of the above-described embodiment, for example, an image display unit of another method such as an image display unit worn like a hat may be adopted, corresponding to the left eye of the user. What is necessary is just to provide the display part which displays an image, and the display part which displays an image corresponding to a user's right eye. The display device of the present invention may be configured as a head mounted display mounted on a vehicle such as an automobile or an airplane. Further, for example, it may be configured as a head-mounted display built in a body protective device such as a helmet. In this case, the part for positioning the position with respect to the user's body and the part positioned with respect to the part can be used as the mounting portion.

さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続部40を介して接続された構成を例に挙げて説明した。本発明はこれに限定されず、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、制御装置10が画像表示部20と分離して構成され、制御装置10と画像表示部20との間で無線通信により各種信号を送受信する構成としてもよい。
Furthermore, in the above-described embodiment, the configuration in which the image display unit 20 and the control device 10 are separated and connected via the connection unit 40 has been described as an example. The present invention is not limited to this, and the control device 10 and the image display unit 20 may be configured integrally and mounted on the user's head.
As the control device 10, a notebook computer, a tablet computer, or a desktop computer may be used. The control device 10 may be a game machine, a portable phone, a portable electronic device including a smartphone or a portable media player, other dedicated devices, or the like. Further, the control device 10 may be configured separately from the image display unit 20, and various signals may be transmitted and received between the control device 10 and the image display unit 20 by wireless communication.

また、例えば、画像表示部20において画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。   For example, as a configuration for generating image light in the image display unit 20, a configuration including an organic EL (Organic Electro-Luminescence) display and an organic EL control unit may be used. Further, as a configuration for generating image light, LCOS (Liquid crystal on silicon, LCoS is a registered trademark), a digital micromirror device, or the like can be used.

また、画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学系を採用してもよい。また、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有するものであってもよい。
例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、光射出部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。
また、本発明を、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを光射出部として備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。
The optical system that guides the image light to the user's eyes may include an optical member that transmits external light that is incident on the apparatus from the outside and that is incident on the user's eyes together with the image light. Moreover, you may use the optical member which is located ahead of a user's eyes and overlaps a part or all of a user's visual field. Further, a scanning optical system that scans a laser beam or the like to obtain image light may be employed. Further, the optical member is not limited to guiding the image light inside the optical member, and may have only a function of guiding the image light by refracting and / or reflecting it toward the user's eyes.
For example, the present invention can also be applied to a laser retinal projection type head mounted display. That is, the light emitting unit includes a laser light source and an optical system that guides the laser light source to the user's eyes, and the laser light is incident on the user's eyes to scan the retina and form an image on the retina. A configuration that allows the user to visually recognize an image may be employed.
Further, the present invention can be applied to a display device that employs a scanning optical system using a MEMS mirror and uses MEMS display technology. That is, a light emitting unit includes a signal light forming unit, a scanning optical system having a MEMS mirror that scans light emitted from the signal light forming unit, and an optical member on which a virtual image is formed by light scanned by the scanning optical system. You may prepare. In this configuration, the light emitted from the signal light forming unit is reflected by the MEMS mirror, enters the optical member, is guided through the optical member, and reaches the virtual image forming surface. When the MEMS mirror scans the light, a virtual image is formed on the virtual image forming surface, and the user recognizes the virtual image with the eyes, thereby recognizing the image. The optical component in this case may be one that guides light through a plurality of reflections, such as the right light guide plate 261 and the left light guide plate 262 of the above embodiment, and may use a half mirror surface. .

また、図3及び図4に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよい。また、制御部140が実行するプログラムは、記憶部120または制御装置10内の記憶装置に記憶されてもよいし、外部の装置に記憶されたプログラムを通信部117又はインターフェイス125を介して取得して実行する構成としてもよい。
また、制御装置10に形成された構成のうち、操作部111のみが単独の使用者インターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、制御部140に相当する制御部が制御装置10と画像表示部20との両方に形成されていてもよい。また、制御装置10に形成された制御部140と画像表示部20に形成されたCPUとが行う機能が別々に分けられている構成としてもよい。
In addition, at least a part of the functional blocks illustrated in FIGS. 3 and 4 may be realized by hardware, or may be configured by cooperation of hardware and software. Further, the program executed by the control unit 140 may be stored in the storage unit 120 or the storage device in the control device 10, or the program stored in the external device is acquired via the communication unit 117 or the interface 125. It is good also as a structure to execute.
Moreover, only the operation part 111 among the structures formed in the control apparatus 10 may be formed as a single user interface (UI). Further, the configuration formed in the control device 10 may be formed in the image display unit 20 in an overlapping manner. For example, a control unit corresponding to the control unit 140 may be formed in both the control device 10 and the image display unit 20. Moreover, it is good also as a structure by which the function which the control part 140 formed in the control apparatus 10 and the CPU formed in the image display part 20 perform separately is divided | segmented.

また、本発明は、頭部装着型表示装置100以外の種々の形態で実現することも可能である。例えば、頭部装着型表示装置100の制御方法、頭部装着型表示装置100を有する情報システム、頭部装着型表示装置100の制御方法および前記情報システムを実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、および、コンピュータープログラムを配信するための、インターネット等の通信回線に接続されたサーバー装置、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。   In addition, the present invention can be realized in various forms other than the head-mounted display device 100. For example, a control method of the head-mounted display device 100, an information system having the head-mounted display device 100, a control method of the head-mounted display device 100, a computer program for realizing the information system, and the computer program Can be realized in the form of a recording medium on which the computer program is recorded, a server device connected to a communication line such as the Internet for distributing the computer program, a data signal including the computer program and embodied in a carrier wave.

1…表示システム、2…フレーム、3…操作デバイス、10…制御装置、20…画像表示部(表示部)、21…右保持部、22…右表示駆動部、23…左保持部、24…左表示駆動部、26…右光学像表示部、28…左光学像表示部、61…カメラ、66…9軸センサー、100…頭部装着型表示装置(表示装置)、117…通信部、120…記憶部、140…制御部、150…オペレーティングシステム、160…画像処理部、170…表示制御部、181…撮像処理部、183…デバイス制御部、185…AR表示制御部、187…音声処理部、300…バンド部、300A…平面部、301…ベゼル、303…LCD、304…タッチパネル(タッチ操作部)、305…ボタン、307…リュウズ型操作子、309…ボタン、310…光学部、311…カメラ(撮像部)、313…LED、331〜334、341〜345…機能表示、350…制御部、351…操作検出部、352…出力制御部、353…撮像制御部、354…通信制御部、355…音声処理部、360…電源部、361…無線通信部、362…NFC部、365…マイク、366…ボタン操作部、367…回転検出部、368…9軸センサー、369…バイブレーター、370…スピーカー。   DESCRIPTION OF SYMBOLS 1 ... Display system, 2 ... Frame, 3 ... Operation device, 10 ... Control apparatus, 20 ... Image display part (display part), 21 ... Right holding part, 22 ... Right display drive part, 23 ... Left holding part, 24 ... Left display drive unit, 26 ... right optical image display unit, 28 ... left optical image display unit, 61 ... camera, 66 ... 9-axis sensor, 100 ... head-mounted display device (display device), 117 ... communication unit, 120 ... Storage unit 140 ... Control unit 150 ... Operating system 160 ... Image processing unit 170 ... Display control unit 181 ... Imaging processing unit 183 ... Device control unit 185 ... AR display control unit 187 ... Audio processing unit , 300 ... Band part, 300 A ... Flat part, 301 ... Bezel, 303 ... LCD, 304 ... Touch panel (touch operation part), 305 ... Button, 307 ... Crown-type operation element, 309 ... Button, 310 ... Faculty, 311 ... Camera (imaging unit), 313 ... LED, 331-334, 341-345 ... Function display, 350 ... Control unit, 351 ... Operation detection unit, 352 ... Output control unit, 353 ... Imaging control unit, 354 ... Communication control unit, 355 ... voice processing unit, 360 ... power supply unit, 361 ... wireless communication unit, 362 ... NFC unit, 365 ... microphone, 366 ... button operation unit, 367 ... rotation detection unit, 368 ... 9-axis sensor, 369 ... Vibrator, 370 ... Speaker.

Claims (13)

使用者の頭部に装着され、外景を透過して前記使用者に視認させる透過型の表示部を有する表示装置と、前記表示部とは別体として構成される操作デバイスとを備え、
前記操作デバイスは、
操作子を有し、前記操作子に対する前記使用者の操作を受け付ける操作部と、
前記操作部が受け付けた操作を示すデータを前記表示部に送信する通信部と、を備え、
前記表示装置は、前記操作デバイスの操作に基づき、前記表示部を透過する前記外景に関連するAR表示を前記表示部によって行う制御部を備え、
前記制御部は、前記操作子の操作に対応して前記表示装置が実行する機能を割り当てる設定処理と、前記操作デバイスが送信するデータに基づいて前記操作子に対する操作に割り当てられた機能を実行する処理と、を実行可能であり、
前記設定処理で、前記表示部を透過する前記使用者の視野における前記操作デバイスに対応する位置に、前記操作子に割り当てられたAR表示を行うこと、
を特徴とする表示システム。
A display device that is mounted on the user's head and has a transmissive display unit that allows the user to see through the outside scene, and an operation device configured separately from the display unit;
The operating device is:
An operation unit having an operation element and receiving an operation of the user with respect to the operation element;
A communication unit that transmits data indicating the operation accepted by the operation unit to the display unit,
The display device includes a control unit that performs AR display related to the outside scene that is transmitted through the display unit by the display unit based on an operation of the operation device.
The control unit executes a setting process for assigning a function to be executed by the display device in response to an operation of the operator, and a function assigned to an operation on the operator based on data transmitted by the operation device. Processing, and
In the setting process, AR display assigned to the operation element is performed at a position corresponding to the operation device in the field of view of the user that passes through the display unit ,
A display system characterized by
前記表示装置の前記制御部は、前記操作デバイスの操作に基づき、前記操作部に対応付けられた態様で、前記表示部を透過する前記外景に関連するAR表示を前記表示部によって行うこと、
を特徴とする請求項1記載の表示システム。
The control unit of the display device performs an AR display related to the outside scene that is transmitted through the display unit by the display unit in a mode associated with the operation unit based on an operation of the operation device.
The display system according to claim 1.
前記制御部は、前記操作デバイスから送信されるデータに基づいて前記操作部の操作を検出し、検出した操作に対応して、前記表示部に表示中の前記AR表示を変更すること、
を特徴とする請求項1または2記載の表示システム。
The control unit detects an operation of the operation unit based on data transmitted from the operation device, and changes the AR display being displayed on the display unit in response to the detected operation;
The display system according to claim 1, wherein:
前記操作デバイスは、円周方向に回転可能な前記操作子を備え、前記操作子の回転方向を含む操作データを前記通信部によって送信し、The operation device includes the operation element rotatable in a circumferential direction, and transmits operation data including a rotation direction of the operation element by the communication unit,
前記表示装置の前記制御部は、前記設定処理で前記操作子に割り当てられる機能の候補をAR表示し、前記操作デバイスから送信される操作データが示す前記操作子の回転に従って前記機能の候補を選択すること、The control unit of the display device AR-displays function candidates assigned to the operation element in the setting process, and selects the function candidates according to the rotation of the operation element indicated by operation data transmitted from the operation device. To do,
を特徴とする請求項1から3のいずれかに記載の表示システム。The display system according to claim 1, wherein:
前記表示装置の前記制御部は、前記操作子に対する操作に割り当てられた機能を実行する処理として、前記操作デバイスから送信される操作データが示す前記操作子の回転に従って、前記表示部の表示を拡大、縮小、回転、コピー、及び、ページ送りする機能の少なくともいずれかを実行すること、The control unit of the display device enlarges the display of the display unit according to the rotation of the operation unit indicated by the operation data transmitted from the operation device as a process of executing a function assigned to the operation on the operation unit. Perform at least one of the following functions: reduction, rotation, copy, and page feed,
を特徴とする請求項4記載の表示システム。The display system according to claim 4.
前記制御部は、前記操作部に対する前記AR表示の割り当てを設定可能であること、
を特徴とする請求項1からのいずれかに記載の表示システム。
The control unit can set the allocation of the AR display to the operation unit;
Display system according to any one of claims 1 to 5, wherein.
前記制御部は、前記操作部に対する前記AR表示の割り当てを更新する処理を実行可能であること、
を特徴とする請求項記載の表示システム。
The control unit is capable of executing a process of updating the allocation of the AR display to the operation unit;
The display system according to claim 6 .
前記表示装置の前記制御部は、前記操作デバイスと前記表示装置との相対位置を求め、求めた相対位置に基づき前記表示部でAR表示を行うこと、
を特徴とする請求項1からのいずれかに記載の表示システム。
The control unit of the display device obtains a relative position between the operation device and the display device, and performs AR display on the display unit based on the obtained relative position;
Display system according to any one of claims 1 to 7, characterized in.
前記操作部は接触操作を検出するタッチ操作部を備え、
前記タッチ操作部は複数の操作領域を有し、
前記制御部は、前記タッチ操作部で操作された操作領域に割り当てられた前記AR表示を、前記表示部によって表示すること、
を特徴とする請求項1からのいずれかに記載の表示システム。
The operation unit includes a touch operation unit that detects a contact operation,
The touch operation unit has a plurality of operation areas,
The control unit displays the AR display assigned to the operation area operated by the touch operation unit by the display unit.
The display system according to claim 1 8, wherein.
前記操作デバイスは、前記使用者の身体に固定される装着部を有すること、
を特徴とする請求項1からのいずれかに記載の表示システム。
The operation device has a mounting portion fixed to the user's body;
Display system according to any one of claims 1 9, characterized in.
前記操作デバイスは撮像部を備え、前記撮像部の撮像画像を含むデータを前記通信部により前記表示装置に送信すること、
を特徴とする請求項1から10のいずれかに記載の表示システム。
The operation device includes an imaging unit, and transmits data including a captured image of the imaging unit to the display device by the communication unit;
Display system according to any one of claims 1 to 10, characterized in.
使用者の頭部に装着される表示部を有する表示装置を制御するコンピューターが実行可能なプログラムであって、
前記表示部とは別体として構成され、操作子を有する操作デバイスが前記操作子に対する前記使用者の操作を受け付けた場合に、前記操作デバイスの操作に基づき、前記表示部を透過する外景に関連するAR表示を前記表示部によって行い、
前記操作子の操作に対応して前記表示装置が実行する機能を割り当てる設定処理と、前記操作デバイスが送信するデータに基づいて前記操作子に対する操作に割り当てられた機能を実行する処理と、を実行し、
前記設定処理で、前記表示部を透過する前記使用者の視野における前記操作デバイスに対応する位置に、前記操作子に割り当てられたAR表示を行うこと、
を特徴とするプログラム。
A computer-executable program for controlling a display device having a display unit mounted on a user's head,
The said display unit is configured as a separate body, when the operating device that have a operator has accepted the operation of the user with respect to the operator, on the basis of the operation of the operating device, the outside scene transmitted through the display unit There line by the display unit of AR display associated with,
A setting process for assigning a function to be executed by the display device in response to an operation of the operator, and a process for executing a function assigned to an operation on the operator based on data transmitted by the operation device And
Wherein the setting process, the the position corresponding to the operation device in the user's field of view transmitted through the display unit, AR display the line Ukoto assigned to the operating element,
A program characterized by
使用者の頭部に装着される表示部を有する表示装置を、前記表示部とは別体として構成され、操作子を有する操作デバイスを用いて制御する制御方法において、
前記操作デバイスの操作部により前記操作子に対する前記使用者の操作を受け付け、
前記表示装置により、前記操作デバイスの操作に基づき、前記表示部を透過する外景に関連するAR表示を前記表示部によって行い、
前記操作子の操作に対応して前記表示装置が実行する機能を割り当てる設定処理と、前記操作デバイスが送信するデータに基づいて前記操作子に対する操作に割り当てられた機能を実行する処理と、を実行し、
前記設定処理で、前記表示部を透過する前記使用者の視野における前記操作デバイスに対応する位置に、前記操作子に割り当てられたAR表示を行うこと、
を特徴とする表示装置の制御方法。
A display device having a display unit mounted on the head of a user, and the display unit is configured as a separate body, in a control method of controlling by using the operation device that having a manipulator,
Receiving an operation of the user with respect to the operator by the operation unit of the operation device,
By the display device, based on the operation of the operating device, it has rows AR display associated with the outside scene by the display unit for transmitting said display unit,
A setting process for assigning a function to be executed by the display device in response to an operation of the operator, and a process for executing a function assigned to an operation on the operator based on data transmitted by the operation device And
Wherein the setting process, the the position corresponding to the operation device in the user's field of view transmitted through the display unit, AR display the line Ukoto assigned to the operating element,
A control method of a display device characterized by the above.
JP2015000750A 2015-01-06 2015-01-06 Display system, program, and control method for display device Active JP6439448B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015000750A JP6439448B2 (en) 2015-01-06 2015-01-06 Display system, program, and control method for display device
US14/976,761 US20160196693A1 (en) 2015-01-06 2015-12-21 Display system, control method for display device, and computer program
CN201511030028.0A CN105759422B (en) 2015-01-06 2015-12-31 Display system and control method of display device
EP16150303.2A EP3043237A1 (en) 2015-01-06 2016-01-06 Display system, control method for display device, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015000750A JP6439448B2 (en) 2015-01-06 2015-01-06 Display system, program, and control method for display device

Publications (2)

Publication Number Publication Date
JP2016126589A JP2016126589A (en) 2016-07-11
JP6439448B2 true JP6439448B2 (en) 2018-12-19

Family

ID=56359565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015000750A Active JP6439448B2 (en) 2015-01-06 2015-01-06 Display system, program, and control method for display device

Country Status (1)

Country Link
JP (1) JP6439448B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107615214B (en) 2015-05-21 2021-07-13 日本电气株式会社 Interface control system, interface control device, interface control method, and program
CN106547378A (en) * 2016-12-07 2017-03-29 歌尔科技有限公司 A kind of contactor control device and virtual reality system for VR equipment
WO2018173978A1 (en) * 2017-03-23 2018-09-27 シャープ株式会社 Electronic device
WO2018173976A1 (en) * 2017-03-23 2018-09-27 シャープ株式会社 Electronic device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090040308A1 (en) * 2007-01-15 2009-02-12 Igor Temovskiy Image orientation correction method and system
JP5803060B2 (en) * 2010-05-24 2015-11-04 株式会社ニコン Head mounted display
US20130093661A1 (en) * 2011-10-17 2013-04-18 Nokia Corporation Methods and apparatus for facilitating user interaction with a see-through display
US9323057B2 (en) * 2012-12-07 2016-04-26 Blackberry Limited Mobile device, system and method for controlling a heads-up display
US20140285520A1 (en) * 2013-03-22 2014-09-25 Industry-University Cooperation Foundation Hanyang University Wearable display device using augmented reality
CN105229720B (en) * 2013-05-21 2018-05-15 索尼公司 Display control unit, display control method and recording medium

Also Published As

Publication number Publication date
JP2016126589A (en) 2016-07-11

Similar Documents

Publication Publication Date Title
CN105759422B (en) Display system and control method of display device
US20200374508A1 (en) Display apparatus and method for controlling display apparatus
US10635182B2 (en) Head mounted display device and control method for head mounted display device
JP6740584B2 (en) Display system, display device control method, and program
JP2017016056A (en) Display system, display device, display device control method, and program
US10976836B2 (en) Head-mounted display apparatus and method of controlling head-mounted display apparatus
US10782531B2 (en) Head-mounted type display device and method of controlling head-mounted type display device
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
JP2018142857A (en) Head mounted display device, program, and control method of head mounted display device
JP2016004340A (en) Information distribution system, head-mounted type display device, control method of head-mounted type display device and computer program
JP6303274B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2018124721A (en) Head-mounted type display device and control method of head-mounted type display device
JP6439448B2 (en) Display system, program, and control method for display device
JP2018022426A (en) Display device, head-mounted display device, and method for controlling display device
JP6996115B2 (en) Head-mounted display device, program, and control method of head-mounted display device
JP2018055416A (en) Display device, head-mounted display device, method for controlling display device, and program
US20190086677A1 (en) Head mounted display device and control method for head mounted display device
JP6932917B2 (en) Head-mounted display, program, and head-mounted display control method
JP6459516B2 (en) Display system, program, server device, and display device control method
JP6638325B2 (en) Display device and display device control method
JP2016033763A (en) Display device, method for controlling display device, and program
JP2017182460A (en) Head-mounted type display device, method for controlling head-mounted type display device, and computer program
JP2017134630A (en) Display device, control method of display device, and program
JP2016085554A (en) Information processing apparatus, display device, and display system
JP2016116066A (en) Display device and control method of display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181105

R150 Certificate of patent or registration of utility model

Ref document number: 6439448

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150