JP2017134575A - Display device, control method of display device, and program - Google Patents

Display device, control method of display device, and program Download PDF

Info

Publication number
JP2017134575A
JP2017134575A JP2016013249A JP2016013249A JP2017134575A JP 2017134575 A JP2017134575 A JP 2017134575A JP 2016013249 A JP2016013249 A JP 2016013249A JP 2016013249 A JP2016013249 A JP 2016013249A JP 2017134575 A JP2017134575 A JP 2017134575A
Authority
JP
Japan
Prior art keywords
display
unit
item
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016013249A
Other languages
Japanese (ja)
Inventor
和夫 西沢
Kazuo Nishizawa
和夫 西沢
高野 正秀
Masahide Takano
正秀 高野
小嶋 輝人
Teruhito Kojima
輝人 小嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016013249A priority Critical patent/JP2017134575A/en
Priority to US15/130,281 priority patent/US10281976B2/en
Publication of JP2017134575A publication Critical patent/JP2017134575A/en
Priority to US16/256,257 priority patent/US10664044B2/en
Priority to US16/848,171 priority patent/US11073901B2/en
Priority to US17/356,763 priority patent/US11301034B2/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a display device capable of allowing a person who moves with respect to a place and/or object as a target to view a piece of information relevant to an operation.SOLUTION: An HMD 100 includes image display unit 20 that visibly displays images of outside scene in a penetrating manner. The HMD 100 includes: a position detection part 162 that recognizes an input; and a control unit 140 controls an image display unit 20 to display a piece of information and to change the image display unit 20 depending on the input recognized by the position detection part 162.SELECTED DRAWING: Figure 4

Description

本発明は、表示装置、表示装置の制御方法、及び、プログラムに関する。   The present invention relates to a display device, a display device control method, and a program.

従来、作業手順に関する情報を含むシナリオに従って、作業手順の実行を支援する方式が知られている(例えば、特許文献1参照)。特許文献1記載の方式では、作業手順の詳細に関するアクション・シーケンスを含むシナリオに従って作業一覧等を表示し、作業手順の実行を支援する。また、実行状態を画面に表示する。   Conventionally, a method for supporting execution of a work procedure according to a scenario including information on the work procedure is known (for example, see Patent Document 1). In the method described in Patent Document 1, a work list or the like is displayed according to a scenario including an action sequence related to details of a work procedure, and the execution of the work procedure is supported. The execution status is displayed on the screen.

特開2013−29985号公報JP 2013-29985 A

特許文献1に記載された方式では、作業を行う作業者は、作業一覧等が表示された画面を見て作業を行う。この場合、作業者は、作業の対象である場所や対象物と、画面との両方を見る必要があった。このように、場所や物体を対象として動作する人に対し、動作に関連する情報を見せるためには、対象となる人(例えば、作業者)は動作の対象である場所や物体と動作に関連する情報とを見るために視線の移動等をしなければならない。従って、場所や物体を対象として動作する際に、動作に関する情報を手軽に見せることが可能な手法が望まれていた。
本発明は上記事情に鑑みてなされたものであり、場所や物体を対象として動作する人に対して、動作に関する情報を手軽に見せられるようにすることを目的とする。
In the method described in Patent Document 1, a worker who performs work performs work by looking at a screen on which a work list or the like is displayed. In this case, the worker has to look at both the place and the target object for the work and the screen. As described above, in order to show information related to the operation to a person who operates with respect to the place or object, the target person (for example, the worker) You must move your line of sight to see what information you want to see. Therefore, there has been a demand for a method that can easily show information related to an operation when operating on a place or an object.
The present invention has been made in view of the above circumstances, and an object of the present invention is to make it possible to easily show information regarding an operation to a person who operates on a place or an object.

上記目的を達成するために、本発明の表示装置は、外景を透過して視認可能に画像を表示する表示部と、入力を認識する入力部と、前記表示部に情報を表示させ、前記入力部で認識した入力に応じて、前記表示部における表示を変化させる制御部と、を備えることを特徴とする。
本発明によれば、表示装置を見る人が、表示される情報を見て入力部により認識可能な入力を行うことにより、表示を変化させることができる。これにより、例えば、場所や物体を対象として動作する人が、動作の対象である場所や物体を、表示部を透過して視認し、この状態で動作に関する情報等を見ることができる。このように、視線を大きく移動するなどの負荷の大きい動きを行わなくても、外景である実空間に存在する対象と情報とを合わせて見ることができる。また、入力に応じて表示を変化させるので、例えば動作の進行に合わせて表示を変化させることで、逐次、新しい情報を提供できる。
In order to achieve the above object, a display device according to the present invention includes a display unit that displays an image so as to be visible through an outside scene, an input unit that recognizes input, and displays information on the display unit. And a control unit that changes the display on the display unit according to the input recognized by the unit.
According to the present invention, the display can be changed by a person who views the display device viewing the displayed information and performing an input that can be recognized by the input unit. Thereby, for example, a person who operates with respect to a place or an object can visually recognize the place or object that is the object of the operation through the display unit, and can view information about the operation in this state. As described above, the object and the information existing in the real space, which is the outside scene, can be seen together without performing a movement with a large load such as a large movement of the line of sight. In addition, since the display is changed according to the input, new information can be sequentially provided by changing the display according to the progress of the operation, for example.

また、本発明は、上記表示装置において、前記制御部は、項目を含む項目データに基づき、前記表示部に前記情報として記項目を表示させること、を特徴とする。
本発明によれば、様々な数、様々な種類の項目を表示できる。
Moreover, the present invention is characterized in that, in the display device, the control unit displays the item as the information on the display unit based on item data including the item.
According to the present invention, various numbers and various types of items can be displayed.

また、本発明は、上記表示装置において、前記項目データは、動作に対応する複数の前記項目を含み、それぞれの前記項目には前記動作の実行順に対応する前記項目の順序が設定されること、を特徴とする。
本発明によれば、表示装置を見る人に対し、項目の表示態様によって動作の実行順を知らせることができる。
In the display device according to the present invention, the item data includes a plurality of the items corresponding to operations, and the order of the items corresponding to the execution order of the operations is set in each of the items. It is characterized by.
According to the present invention, it is possible to notify the viewer of the display device of the execution order of the operations according to the display mode of the items.

また、本発明は、上記表示装置において、前記制御部は、複数の前記項目をリスト形式で配置して前記表示部に表示させ、前記項目は前記項目に設定された順序に従って配置されること、を特徴とする。
本発明によれば、表示装置を見る人に対し、表示される複数の項目の配置によって、動作の実行順を知らせることができる。
Further, in the display device according to the present invention, the control unit arranges a plurality of items in a list format to be displayed on the display unit, and the items are arranged according to an order set in the items. It is characterized by.
According to the present invention, it is possible to notify the viewer of the display device of the execution order of operations by arranging a plurality of items displayed.

また、本発明は、上記表示装置において、前記制御部は、前記項目に設定された順序で前記項目を順次表示させること、を特徴とする。
本発明によれば、表示装置を見る人に対し、項目の表示順によって動作の実行順を知らせることができる。
Further, the present invention is characterized in that, in the display device, the control unit sequentially displays the items in the order set for the items.
According to the present invention, it is possible to notify the viewer of the display device of the execution order of operations according to the display order of items.

また、本発明は、上記表示装置において、前記制御部は、前記項目に対応づけて前記項目に対応する前記動作の完了を示すチェックボックスを表示し、前記項目に設定された順序で前記項目を順次表示させた後、前記項目に対応する前記動作の完了を検出した場合に、前記チェックボックスの表示状態を、動作完了を示す状態に変更すること、を特徴とする。
本発明によれば、項目の表示順によって動作の実行順を知らせる場合に、完了した動作をわかりやすく知らせることができ、動作の進捗状況をわかりやすく示すことができる。
Further, according to the present invention, in the display device, the control unit displays a check box indicating the completion of the operation corresponding to the item in association with the item, and displays the item in the order set in the item. After completion of the display, when the completion of the operation corresponding to the item is detected, the display state of the check box is changed to a state indicating the completion of the operation.
According to the present invention, when the operation execution order is notified according to the display order of the items, the completed operation can be notified in an easy-to-understand manner, and the progress of the operation can be shown in an easy-to-understand manner.

また、本発明は、上記表示装置において、前記制御部は、前記項目データに含まれる前記項目に対応する動作の実行順に関する情報を含む順序データに基づき、画像を前記表示部に表示させること、を特徴とする。
本発明によれば、表示装置を見る人に対し、動作の実行順を画像によって知らせることができる。
In the display device according to the present invention, the control unit causes the display unit to display an image based on order data including information related to an execution order of operations corresponding to the items included in the item data. It is characterized by.
According to the present invention, it is possible to inform the viewer of the display device of the execution order of the operations with an image.

また、本発明は、上記表示装置において、前記項目データと前記順序データとを対応付けて記憶する順序データ記憶部を備えること、を特徴とする。
本発明によれば、動作に関する項目に関するデータ及び動作の実行順に関するデータを容易に読み出して利用できる。
The display device may further include an order data storage unit that stores the item data and the order data in association with each other.
According to the present invention, it is possible to easily read and use data relating to items relating to operations and data relating to the execution order of operations.

また、本発明は、上記表示装置において、前記制御部は、前記表示部に、前記表示部を透過して視認される実空間の物体から選択される対象に関連する前記情報を、前記対象に対応する表示態様で表示させること、を特徴とする。
本発明によれば、表示装置を見る人に、表示部を透過して視認される実空間の物体に関する情報を、実空間の物体に対応するように見せることができる。
In the display device according to the aspect of the invention, the control unit may cause the display unit to receive the information related to a target selected from an object in real space that is visible through the display unit. It is characterized by displaying in a corresponding display mode.
ADVANTAGE OF THE INVENTION According to this invention, the information regarding the object of the real space which permeate | transmits and visually recognizes through a display part can be shown to the person who looks at a display apparatus so that it may correspond to the object of a real space.

また、本発明は、上記表示装置において、前記制御部は、前記表示部を透過して視認される実空間において前記対象を強調する前記情報を前記対象に重ねて表示させること、を特徴とする。
本発明によれば、表示装置を見る人に、実空間の物体を強調して見せることができる。
Moreover, the present invention is characterized in that, in the above display device, the control unit displays the information for emphasizing the target superimposed on the target in a real space that is visible through the display unit. .
ADVANTAGE OF THE INVENTION According to this invention, the object of real space can be emphasized and shown to the person who looks at a display apparatus.

また、本発明は、上記表示装置において、前記制御部は、前記入力部で認識した入力に応じて、前記対象に対応する表示態様で表示させた前記情報を、異なる前記対象に対応する前記情報に切り替えて表示すること、を特徴とする。
本発明によれば、入力に応じて情報を表示する対象を変更し、情報を切り替えて表示できる。このため、異なる対象に対応する異なる情報を、順次表示できる。
Further, the present invention is the display device, wherein the control unit displays the information displayed in a display mode corresponding to the target according to the input recognized by the input unit, and the information corresponding to the different target. And switching to display.
ADVANTAGE OF THE INVENTION According to this invention, the object which displays information according to an input can be changed, and information can be switched and displayed. For this reason, different information corresponding to different objects can be sequentially displayed.

また、本発明は、上記表示装置において、前記入力部は、前記表示部を透過して視認される範囲の入力を検出して入力位置を特定し、前記制御部は、前記入力部で特定した入力位置に対応して前記表示部における表示を変化させること、を特徴とする。
本発明によれば、入力部が認識可能な入力が行われる場合に、入力位置に対応して表示を変化させることができる。
In the display device according to the aspect of the invention, the input unit may detect an input in a range that is visible through the display unit and specify an input position, and the control unit may be specified by the input unit. The display on the display unit is changed corresponding to the input position.
ADVANTAGE OF THE INVENTION According to this invention, when the input which a input part can recognize is performed, a display can be changed corresponding to an input position.

また、本発明は、上記表示装置において、前記制御部は、前記入力部で特定した入力位置に対応する位置に表示中の前記項目に指標を重ねて表示させること、を特徴とする。
本発明によれば、入力を行うことにより、表示される項目の表示態様を変化させることができる。
Further, the present invention is characterized in that, in the display device, the control unit displays an index on the item being displayed at a position corresponding to the input position specified by the input unit.
According to the present invention, it is possible to change the display mode of displayed items by performing input.

また、本発明は、上記表示装置において、前記外景の撮像画像または前記外景から集音される音声に基づき、前記項目に対応する動作の実行状態を検出する状態検出部を備え、前記制御部は、前記状態検出部が検出した実行状態に応じて、前記表示部によって表示中の前記項目の表示状態を変化させること、を特徴とする。
本発明によれば、動作の実行状態を検出し、検出した実行状態に対応して表示状態を変化させることができる。
The display device may further include a state detection unit that detects an execution state of an operation corresponding to the item based on a captured image of the outside scene or a sound collected from the outside scene, and the control unit includes: The display state of the item being displayed by the display unit is changed according to the execution state detected by the state detection unit.
According to the present invention, the execution state of an operation can be detected, and the display state can be changed corresponding to the detected execution state.

また、本発明は、上記表示装置において、前記動作の実行状態に係る情報を含む実行データを記憶する実行データ記憶部を備え、前記制御部は、前記項目データに含まれる前記項目に対応する動作の実行データを、前記項目データに対応付けて前記実行データ記憶部に記憶させ、前記実行データ記憶部から前記実行データを読み出した場合に、読み出した実行データに基づき、前記表示部によって表示する前記項目の表示状態を制御すること、を特徴とする。
本発明によれば、動作の実行状態に関するデータを記憶し、このデータを読み出して表示に反映することによって、実行状態に関する記録と、記録した実行状態の呼び出しを行える。
The display device may further include an execution data storage unit that stores execution data including information related to an execution state of the operation, and the control unit operates an operation corresponding to the item included in the item data. The execution data is stored in the execution data storage unit in association with the item data, and when the execution data is read from the execution data storage unit, the display unit displays the execution data based on the read execution data. The display state of the item is controlled.
According to the present invention, data relating to the execution state of the operation is stored, and by reading this data and reflecting it in the display, it is possible to record the execution state and call the recorded execution state.

また、本発明は、上記表示装置において、前記外景における対象を検出する対象検出部を備え、前記制御部は、前記対象検出部で検出された前記対象が前記表示部を透過して視認される位置に対応させて、前記項目データに含まれる項目を表示させること、を特徴とする。
本発明によれば、動作の対象の場所や物体と項目との両方を容易に視認できる。
The display device may further include a target detection unit that detects a target in the outside scene, and the control unit may visually recognize the target detected by the target detection unit through the display unit. The item included in the item data is displayed in correspondence with the position.
According to the present invention, it is possible to easily visually recognize both a place or an object and an item to be operated.

また、本発明は、上記表示装置において、外部の機器と通信する通信部を備え、前記通信部により前記外部の機器から前記項目データを受信して取得すること、を特徴とする。
本発明によれば、項目に関するデータを外部から取得できる。
According to the present invention, the display device includes a communication unit that communicates with an external device, and the item data is received and acquired from the external device by the communication unit.
According to the present invention, data relating to items can be acquired from the outside.

また、本発明は、上記表示装置において、前記通信部は近距離無線通信を実行すること、を特徴とする。
本発明によれば、近距離無線通信により項目に関するデータを外部から取得できる。また、近距離無線通信を行える距離が限られるため、場所に関連付けられたデータを取得できる。
In the display device according to the present invention, the communication unit performs short-range wireless communication.
According to the present invention, data related to items can be acquired from the outside by short-range wireless communication. In addition, since the distance at which short-range wireless communication can be performed is limited, data associated with a place can be acquired.

また、上記目的を達成するために、本発明は、外景を透過して視認可能に画像を表示する表示部を有する表示装置の制御方法であって、複数の項目を含むリストのデータを取得し、前記表示部を透過して視認される範囲の入力を検出して入力位置を特定し、項目を含む項目データに基づき、前記表示部に前記項目を表示させ、特定した入力位置に対応する位置に表示中の前記項目の表示状態を変化させること、を特徴とする。
本発明によれば、表示装置を見る人が、表示される項目を見て入力部により認識可能な入力を行うことにより、項目の表示を変化させることができる。これにより、例えば、場所や物体を対象として動作する人が、表示部により項目を見ることができ、動作の対象である場所や物体を、表示部を透過して視認できる。このように、視線を大きく移動するなどの負荷の大きい動きを行わなくても、外景である実空間に存在する対象と、項目とを見ることができ、表示を変化させることができる。
In order to achieve the above object, the present invention provides a control method for a display device having a display unit that displays an image so as to be visible through the outside scene, and obtains data of a list including a plurality of items. A position corresponding to the specified input position by detecting an input in a range that is visible through the display unit, specifying an input position, and displaying the item on the display unit based on item data including the item. The display state of the item being displayed is changed.
According to the present invention, a person viewing a display device can change the display of an item by viewing the displayed item and performing an input that can be recognized by the input unit. Thereby, for example, a person who operates with respect to a place or an object can see the items on the display unit, and the place or object that is the target of the operation can be seen through the display unit. As described above, the object and the item existing in the real space which is the outside scene can be seen and the display can be changed without performing a movement with a large load such as a large movement of the line of sight.

また、本発明は、外景を透過して視認可能に画像を表示する表示部を有する表示装置を制御するコンピューターが実行可能なプログラムとして構成できる。このプログラムは、前記コンピューターにより、前記表示部を透過して視認される範囲の入力を検出して入力位置を特定し、項目を含む項目データに基づき、前記表示部に前記項目を表示させ、特定した入力位置に対応する位置に表示中の前記項目の表示状態を変化させるプログラムである。また、本発明は、このプログラムを記憶した記憶媒体として構成してもよい。   In addition, the present invention can be configured as a program that can be executed by a computer that controls a display device having a display unit that displays an image so as to be visible through the outside scene. The program detects an input in a range that is visible through the display unit by the computer, specifies an input position, displays the item on the display unit based on item data including the item, and specifies This program changes the display state of the item being displayed at a position corresponding to the input position. Moreover, you may comprise this invention as a storage medium which memorize | stored this program.

第1実施形態のHMDの外観構成を示す説明図。Explanatory drawing which shows the external appearance structure of HMD of 1st Embodiment. 画像表示部の光学系の構成を示す図。The figure which shows the structure of the optical system of an image display part. 画像表示部の要部構成を示す図。The figure which shows the principal part structure of an image display part. HMDを構成する各部の機能ブロック図。The functional block diagram of each part which comprises HMD. 記憶部が記憶するデータの構成例を示す模式図であり、(A)はシナリオデータ及び履歴データの構成例を示し、(B)はシナリオデータ及び履歴データの別の構成例を示す。It is a schematic diagram which shows the structural example of the data which a memory | storage part memorize | stores, (A) shows the structural example of scenario data and historical data, (B) shows another structural example of scenario data and historical data. HMDの入力方法の説明図であり、(A)はバーチャルキーボードを使用する入力例を示し、(B)は位置入力の例を示す。It is explanatory drawing of the input method of HMD, (A) shows the example of input which uses a virtual keyboard, (B) shows the example of a position input. HMDの表示例を示す図。The figure which shows the example of a display of HMD. 記憶部が記憶するデータの別の構成例を示す模式図であり、(A)はシナリオデータの構成例を示し、(B)は表示設定データの構成例を示す。It is a schematic diagram which shows another structural example of the data which a memory | storage part memorize | stores, (A) shows the structural example of scenario data, (B) shows the structural example of display setting data. HMDの表示例を示す図。The figure which shows the example of a display of HMD. HMDの表示例を示す図。The figure which shows the example of a display of HMD. HMDの表示例を示す図。The figure which shows the example of a display of HMD. HMDの表示例を示す図。The figure which shows the example of a display of HMD. 第1実施形態のHMDの動作を示すフローチャート。The flowchart which shows operation | movement of HMD of 1st Embodiment. 第2実施形態のHMDの動作を示すフローチャート。The flowchart which shows operation | movement of HMD of 2nd Embodiment.

[第1実施形態]
図1は、本発明を適用した実施形態に係るHMD(ヘッドマウントディスプレイ,Head Mounted Display)100の外観構成を示す説明図である。
HMD100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御装置10と、を備える表示装置である。制御装置10は、使用者がHMD100を操作するコントローラーとしても機能する。
[First Embodiment]
FIG. 1 is an explanatory diagram showing an external configuration of an HMD (Head Mounted Display) 100 according to an embodiment to which the present invention is applied.
The HMD 100 is a display device that includes an image display unit 20 that allows a user to visually recognize a virtual image while being mounted on the user's head, and a control device 10 that controls the image display unit 20. The control device 10 also functions as a controller for the user to operate the HMD 100.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、右カメラ61(撮像部)と、左カメラ62(撮像部)と、マイク63とを備える。右光学像表示部26及び左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右及び左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに連結されている。   The image display unit 20 is a wearing body that is worn on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a right camera. 61 (imaging part), left camera 62 (imaging part), and microphone 63 are provided. The right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20.

右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21及び左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。   The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses.

右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、右表示駆動部22及び左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26及び左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。   The right display drive unit 22 and the left display drive unit 24 are disposed on the side facing the user's head when the user wears the image display unit 20. The right display drive unit 22 and the left display drive unit 24 are collectively referred to simply as “display drive unit”, and the right optical image display unit 26 and the left optical image display unit 28 are simply referred to as “optical image display unit”. Also called.

表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」と呼ぶ)、図2〜図4を参照して後述する投写光学系251,252等を含む。
右光学像表示部26及び左光学像表示部28は、導光板261,262(図2)と、調光板20Aとを備える。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24が出力する画像光を、使用者の眼に導く。調光板20Aは、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置される。調光板20Aは、光透過性がほぼ無いもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰又は反射するもの等、種々のものを用いることができる。調光板20Aの光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部26及び左光学像表示部28に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、HMD100を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板20Aを用いる場合について説明する。調光板20Aは、右導光板261及び左導光板262を保護し、右導光板261及び左導光板262の損傷や汚れの付着等を抑制する。
調光板20Aは、右光学像表示部26及び左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板20Aを交換して装着可能としてもよいし、省略してもよい。
The display driving units 22 and 24 include liquid crystal displays 241 and 242 (hereinafter referred to as “LCDs 241 and 242”), projection optical systems 251 and 252 described later with reference to FIGS.
The right optical image display unit 26 and the left optical image display unit 28 include light guide plates 261 and 262 (FIG. 2) and a light control plate 20A. The light guide plates 261 and 262 are formed of a light transmissive resin or the like, and guide the image light output from the display driving units 22 and 24 to the user's eyes. The light control plate 20A is a thin plate-like optical element, and is disposed so as to cover the front side of the image display unit 20 which is the side opposite to the user's eye side. As the light control plate 20A, various materials such as a material that has almost no light transmission, a material that is nearly transparent, a material that attenuates the amount of light and transmits light, and a material that attenuates or reflects light of a specific wavelength may be used. it can. By appropriately selecting the optical characteristics (light transmittance, etc.) of the light control plate 20A, the external light amount incident on the right optical image display unit 26 and the left optical image display unit 28 from the outside is adjusted to visually recognize the virtual image. You can adjust the ease. In the present embodiment, a case will be described in which at least a light control plate 20A having a light transmittance that allows a user wearing the HMD 100 to visually recognize an outside scene is described. The light control plate 20A protects the right light guide plate 261 and the left light guide plate 262, and suppresses damage to the right light guide plate 261 and the left light guide plate 262, adhesion of dirt, and the like.
The dimming plate 20A may be detachable from the right optical image display unit 26 and the left optical image display unit 28, or may be mounted by replacing a plurality of types of dimming plates 20A, or may be omitted. .

右カメラ61は、HMD100の前面において右保持部21側の端部に配置される。また、左カメラ62は、HMD100の前面において左保持部23側の端部に配置される。右カメラ61、左カメラ62は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。
右カメラ61及び左カメラ62は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。別の表現では、右カメラ61及び左カメラ62の少なくとも一方は、使用者の視界と重なる範囲または方向を撮像する。より詳細には、右カメラ61及び左カメラ62の少なくとも一方は、使用者が注視する方向を撮像する。右カメラ61及び左カメラ62の画角の広さは適宜設定可能であるが、本実施形態では、後述するように、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含む画角である。さらに、調光板20Aを通した使用者の視界の全体を撮像できるように右カメラ61、左カメラ62の撮像範囲が設定されているとより好ましい。
The right camera 61 is disposed at the end on the right holding unit 21 side on the front surface of the HMD 100. Further, the left camera 62 is disposed at the end on the left holding unit 23 side on the front surface of the HMD 100. The right camera 61 and the left camera 62 are digital cameras including an imaging element such as a CCD or a CMOS and an imaging lens, and may be a monocular camera or a stereo camera.
The right camera 61 and the left camera 62 capture at least a part of the outside scene in the front side direction of the HMD 100, in other words, in the user's viewing direction when the HMD 100 is worn. In another expression, at least one of the right camera 61 and the left camera 62 captures a range or direction that overlaps the user's field of view. More specifically, at least one of the right camera 61 and the left camera 62 images the direction in which the user gazes. The width of the angle of view of the right camera 61 and the left camera 62 can be set as appropriate, but in the present embodiment, as will be described later, the user visually recognizes through the right optical image display unit 26 and the left optical image display unit 28. An angle of view including the outside world. Furthermore, it is more preferable that the imaging ranges of the right camera 61 and the left camera 62 are set so that the entire field of view of the user through the light control plate 20A can be imaged.

右カメラ61及び左カメラ62は、制御部140が備える撮像制御部161(図4)の制御に従って撮像を実行し、撮像画像データを撮像制御部161に出力する。   The right camera 61 and the left camera 62 execute imaging according to the control of the imaging control unit 161 (FIG. 4) included in the control unit 140, and output captured image data to the imaging control unit 161.

ここで、HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する距離センサー(図示略)を備えてもよい。距離センサーは、例えば、右光学像表示部26と左光学像表示部28との境目部分に配置される。この場合、使用者が画像表示部20を装着した状態で、距離センサー64の位置は、水平方向においては使用者の両眼のほぼ中間であり、鉛直方向においては使用者の両眼より上である。距離センサー64の測定方向は、例えば、HMD100の表側方向で、右カメラ61及び左カメラ62の撮像方向と重複する方向とすることができる。
距離センサーは、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する構成とすることができる。距離センサーは、制御部140の制御に従い、三角測距処理や時間差に基づく測距処理を実行すればよい。また、距離センサーは、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサーは、制御部140の制御に従い、超音波の反射までの時間差に基づき測距処理を実行すればよい。
Here, the HMD 100 may include a distance sensor (not shown) that detects a distance to a measurement object positioned in a preset measurement direction. The distance sensor is disposed, for example, at the boundary between the right optical image display unit 26 and the left optical image display unit 28. In this case, when the user wears the image display unit 20, the position of the distance sensor 64 is substantially in the middle of both eyes of the user in the horizontal direction and above the eyes of the user in the vertical direction. is there. The measurement direction of the distance sensor 64 can be, for example, a direction overlapping the imaging direction of the right camera 61 and the left camera 62 in the front side direction of the HMD 100.
The distance sensor can be configured to include, for example, a light source such as an LED or a laser diode, and a light receiving unit that receives reflected light that is reflected from the light to be measured. The distance sensor may perform a triangulation process or a distance measurement process based on a time difference according to the control of the control unit 140. The distance sensor may be configured to include a sound source that emits ultrasonic waves and a detection unit that receives ultrasonic waves reflected by the measurement object. In this case, the distance sensor may perform the distance measurement process based on the time difference until the reflection of the ultrasonic wave according to the control of the control unit 140.

図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
左表示駆動部24は、LED等の光源と拡散板とを有する左バックライト222、左バックライト222の拡散板から発せられる光の光路上に配置される透過型の左LCD242、及び、左LCD242を透過した画像光Lを導くレンズ群等を備えた左投写光学系252を備える。左LCD242は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
FIG. 2 is a principal plan view showing the configuration of the optical system provided in the image display unit 20. FIG. 2 shows the user's left eye LE and right eye RE for explanation.
The left display driving unit 24 includes a left backlight 222 having a light source such as an LED and a diffusion plate, a transmissive left LCD 242 disposed on an optical path of light emitted from the diffusion plate of the left backlight 222, and a left LCD 242. A left projection optical system 252 including a lens group that guides the image light L that has passed through the lens. The left LCD 242 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

左投写光学系252は、左LCD242から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板262に入射される。左導光板262は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、左導光板262の内部において複数回の反射を経て左眼LE側に導かれる。左導光板262には、左眼LEの眼前に位置するハーフミラー262A(反射面)が形成される。
ハーフミラー262Aで反射した画像光Lは左眼LEに向けて左光学像表示部28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
The left projection optical system 252 includes a collimator lens that converts the image light L emitted from the left LCD 242 into a light beam in a parallel state. The image light L converted into a parallel light beam by the collimator lens is incident on the left light guide plate 262. The left light guide plate 262 is a prism formed with a plurality of reflecting surfaces that reflect the image light L, and the image light L is guided to the left eye LE side through a plurality of reflections inside the left light guide plate 262. The left light guide plate 262 is formed with a half mirror 262A (reflection surface) positioned in front of the left eye LE.
The image light L reflected by the half mirror 262A is emitted from the left optical image display unit 28 toward the left eye LE, and this image light L forms an image on the retina of the left eye LE so that the user can visually recognize the image.

右表示駆動部22は、左表示駆動部24と左右対称に構成される。右表示駆動部22は、LED等の光源と拡散板とを有する右バックライト221、右バックライト221の拡散板から発せられる光の光路上に配置される透過型の右LCD241、及び、右LCD241を透過した画像光Lを導くレンズ群等を備えた右投写光学系251を備える。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。   The right display driving unit 22 is configured to be symmetrical with the left display driving unit 24. The right display driving unit 22 includes a right backlight 221 having a light source such as an LED and a diffusion plate, a transmissive right LCD 241 disposed on an optical path of light emitted from the diffusion plate of the right backlight 221, and a right LCD 241. A right projection optical system 251 including a lens group that guides the image light L that has passed through the lens. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

右投写光学系251は、右LCD241から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板261に入射される。右導光板261は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、右導光板261の内部において複数回の反射を経て右眼RE側に導かれる。右導光板261には、右眼REの眼前に位置するハーフミラー261A(反射面)が形成される。
ハーフミラー261Aで反射した画像光Lは右眼REに向けて右光学像表示部26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
The right projection optical system 251 includes a collimator lens that converts the image light L emitted from the right LCD 241 into a light beam in a parallel state. The image light L converted into a parallel light beam by the collimator lens is incident on the right light guide plate 261. The right light guide plate 261 is a prism formed with a plurality of reflecting surfaces that reflect the image light L, and the image light L is guided to the right eye RE side through a plurality of reflections inside the right light guide plate 261. The right light guide plate 261 is formed with a half mirror 261A (reflection surface) located in front of the right eye RE.
The image light L reflected by the half mirror 261A is emitted from the right optical image display unit 26 toward the right eye RE, and this image light L forms an image on the retina of the right eye RE to make the user visually recognize the image.

使用者の右眼REには、ハーフミラー261Aで反射した画像光Lと、調光板20Aを透過した外光OLとが入射する。左眼LEには、ハーフミラー262Aで反射した画像光Lと、調光板20Aを透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、調光板20Aを透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。このように、HMD100は、シースルー型の表示装置として機能する。   The image light L reflected by the half mirror 261A and the external light OL transmitted through the light control plate 20A are incident on the right eye RE of the user. The image light L reflected by the half mirror 262A and the external light OL transmitted through the light control plate 20A are incident on the left eye LE. In this way, the HMD 100 superimposes the image light L of the internally processed image and the external light OL on the user's eyes and allows the user to see the external scene through the light control plate 20A. The image by the image light L is visually recognized. As described above, the HMD 100 functions as a see-through display device.

なお、左投写光学系252と左導光板262とを総称して「左導光部」とも呼び、右投写光学系251と右導光板261とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。   The left projection optical system 252 and the left light guide plate 262 are collectively referred to as “left light guide unit”, and the right projection optical system 251 and the right light guide plate 261 are collectively referred to as “right light guide unit”. The configuration of the right light guide and the left light guide is not limited to the above example, and any method can be used as long as a virtual image is formed in front of the user's eyes using image light. It may be used, or a semi-transmissive reflective film may be used.

画像表示部20は、制御装置10に接続部40を介して接続する。接続部40は、制御装置10に接続される本体コード48、右コード42、左コード44、及び、連結部材46を備える。右コード42及び左コード44は、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続される。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続される。   The image display unit 20 is connected to the control device 10 via the connection unit 40. The connection unit 40 includes a main body cord 48, a right cord 42, a left cord 44, and a connecting member 46 that are connected to the control device 10. The right cord 42 and the left cord 44 are codes in which the main body cord 48 is branched into two. The right cord 42 is inserted into the housing of the right holding unit 21 from the distal end AP in the extending direction of the right holding unit 21 and is connected to the right display driving unit 22. Similarly, the left cord 44 is inserted into the housing of the left holding unit 23 from the distal end AP in the extending direction of the left holding unit 23 and connected to the left display driving unit 24.

連結部材46は、本体コード48と、右コード42及び左コード44との分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有する。イヤホンプラグ30からは、右イヤホン32及び左イヤホン34が延伸する。イヤホンプラグ30の近傍にはマイク63が設けられる。イヤホンプラグ30からマイク63までは一本のコードにまとめられ、マイク63からコードが分岐して、右イヤホン32と左イヤホン34のそれぞれに繋がる。   The connecting member 46 is provided at a branch point between the main body cord 48, the right cord 42 and the left cord 44, and has a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30. A microphone 63 is provided in the vicinity of the earphone plug 30. The earphone plug 30 to the microphone 63 are combined into one cord, and the cord branches from the microphone 63 and is connected to each of the right earphone 32 and the left earphone 34.

マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声処理部187(図4)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。   For example, as shown in FIG. 1, the microphone 63 is arranged so that the sound collecting unit of the microphone 63 faces the user's line of sight, collects sound, and sends the sound signal to the sound processing unit 187 (FIG. 4). Output. For example, the microphone 63 may be a monaural microphone or a stereo microphone, may be a directional microphone, or may be an omnidirectional microphone.

右コード42、左コード44、及び、本体コード48は、デジタルデータを伝送可能なものであればよく、例えば金属ケーブルや光ファイバーで構成できる。また、右コード42と左コード44とを一本のコードにまとめた構成としてもよい。   The right cord 42, the left cord 44, and the main body cord 48 only need to be capable of transmitting digital data, and can be constituted by, for example, a metal cable or an optical fiber. Further, the right cord 42 and the left cord 44 may be combined into a single cord.

画像表示部20と制御装置10とは、接続部40を介して各種信号を伝送する。本体コード48の連結部材46とは反対側の端部、及び、制御装置10には、互いに嵌合するコネクター(図示略)が設けられる。本体コード48のコネクターと制御装置10のコネクターとを嵌合し、或いは、この嵌合を外すことで、制御装置10と画像表示部20とを接離できる。   The image display unit 20 and the control device 10 transmit various signals via the connection unit 40. The end of the main body cord 48 opposite to the connecting member 46 and the control device 10 are provided with connectors (not shown) that fit together. By fitting the connector of the main body cord 48 and the connector of the control device 10 or removing this fitting, the control device 10 and the image display unit 20 can be contacted and separated.

制御装置10は、HMD100を制御する。制御装置10は、決定キー11、点灯部12、表示切替キー13、輝度切替キー15、方向キー16、メニューキー17、及び電源スイッチ18を含むスイッチ類を備える。また、制御装置10は、使用者が手指で操作するトラックパッド14を備える。   The control device 10 controls the HMD 100. The control device 10 includes switches including an enter key 11, a lighting unit 12, a display switching key 13, a luminance switching key 15, a direction key 16, a menu key 17, and a power switch 18. In addition, the control device 10 includes a track pad 14 that is operated by a user with fingers.

決定キー11は、押下操作を検出して、制御装置10で操作された内容を決定する信号を出力する。点灯部12は、LED(Light Emitting Diode)等の光源を備え、光源の点灯状態により、HMD100の動作状態(例えば、電源のON/OFF)を通知する。表示切替キー13は、押下操作に応じて、例えば、画像の表示モードの切り替えを指示する信号を出力する。   The determination key 11 detects a pressing operation and outputs a signal for determining the content operated by the control device 10. The lighting unit 12 includes a light source such as an LED (Light Emitting Diode), and notifies the operation state (for example, power ON / OFF) of the HMD 100 according to the lighting state of the light source. The display switching key 13 outputs, for example, a signal instructing switching of the image display mode in response to the pressing operation.

トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。輝度切替キー15は、押下操作に応じて画像表示部20の輝度の増減を指示する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作に応じて操作信号を出力する。電源スイッチ18は、HMD100の電源オン/オフを切り替えるスイッチである。   The track pad 14 has an operation surface for detecting a contact operation, and outputs an operation signal according to an operation on the operation surface. The detection method on the operation surface is not limited, and an electrostatic method, a pressure detection method, an optical method, or the like can be adopted. The luminance switching key 15 outputs a signal instructing increase / decrease of the luminance of the image display unit 20 in response to the pressing operation. The direction key 16 outputs an operation signal in response to a pressing operation on a key corresponding to the up / down / left / right direction. The power switch 18 is a switch for switching on / off the power of the HMD 100.

図3は、画像表示部20の要部構成を示す図であり、図3(A)は画像表示部20を使用者の頭部側から見た要部斜視図、図3(B)は右カメラ61及び左カメラ62の画角の説明図である。なお、図3(A)では画像表示部20に繋がる右コード42、左コード44等の図示を省略する。   FIG. 3 is a diagram illustrating a configuration of a main part of the image display unit 20, FIG. 3A is a perspective view of main parts when the image display unit 20 is viewed from the user's head side, and FIG. It is explanatory drawing of the angle of view of the camera 61 and the left camera 62. FIG. In FIG. 3A, illustration of the right cord 42 and the left cord 44 connected to the image display unit 20 is omitted.

図3(A)は、画像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、右光学像表示部26及び左光学像表示部28の裏側が見えている。
この図3(A)では、使用者の右眼REに画像光を照射するハーフミラー261A、及び、左眼LEに画像光を照射するハーフミラー262Aが、略四角形の領域として見える。また、ハーフミラー261A、262Aを含む右光学像表示部26及び左光学像表示部28の全体が、上述したように外光を透過する。このため、使用者には、右光学像表示部26及び左光学像表示部28の全体を透過して外景が視認され、ハーフミラー261A、262Aの位置に矩形の表示画像が視認される。
FIG. 3A shows the side of the image display unit 20 in contact with the user's head, in other words, the side visible to the user's right eye RE and left eye LE. In other words, the back sides of the right optical image display unit 26 and the left optical image display unit 28 are visible.
In FIG. 3A, the half mirror 261A that irradiates the user's right eye RE with the image light and the half mirror 262A that irradiates the left eye LE with the image light appear as substantially rectangular areas. Further, the entire right optical image display unit 26 and left optical image display unit 28 including the half mirrors 261A and 262A transmit external light as described above. For this reason, the user sees the outside scene through the entire right optical image display unit 26 and left optical image display unit 28, and visually recognizes a rectangular display image at the positions of the half mirrors 261A and 262A.

右カメラ61は、上記のように右保持部21側の端部に、画像表示部20の前方を向いて配置され、左カメラ62は、左保持部23側の端部に配置される。
図3(B)は、右カメラ61、及び左カメラ62の位置を、使用者の右眼RE及び左眼LEとともに平面視で模式的に示す図である。右カメラ61の画角(撮像範囲)をCR、左カメラ62の画角(撮像範囲)をCLで示す。なお、図3(B)には水平方向の画角CR、CLを示すが、右カメラ61及び左カメラ62の実際の画角は、一般的なデジタルカメラと同様に上下方向に拡がる。
As described above, the right camera 61 is arranged at the end on the right holding unit 21 side so as to face the front of the image display unit 20, and the left camera 62 is arranged at the end on the left holding unit 23 side.
FIG. 3B is a diagram schematically showing the positions of the right camera 61 and the left camera 62 in plan view together with the right eye RE and the left eye LE of the user. The angle of view (imaging range) of the right camera 61 is indicated by CR, and the angle of view (imaging range) of the left camera 62 is indicated by CL. Note that FIG. 3B shows horizontal field angles CR and CL, but the actual field angles of the right camera 61 and the left camera 62 expand in the vertical direction as in a general digital camera.

画角CRと画角CLとは、画像表示部20の中央位置に対してほぼ左右対称であり、画角CRと画角CLは、いずれも画像表示部20の中央位置の真正面方向を含む。このため、画像表示部20の中央位置の正面で、画角CR、CLが重なる。
例えば、図3(B)に示すように、画像表示部20の正面方向に対象OBがある場合、対象OBは画角CR及び画角CLのどちらにも含まれる。このため、右カメラ61の撮像画像と、左カメラ62の撮像画像のいずれも、対象OBが写る。ここで、使用者が対象OBを注視すると、使用者の視線は、図中符号RD、LDに示すように対象OBに向けられる。一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。
従って、注視点が対象OBである場合、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野であり、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。
The angle of view CR and the angle of view CL are substantially bilaterally symmetric with respect to the center position of the image display unit 20, and both the field angle CR and the angle of view CL include the frontal direction of the center position of the image display unit 20. For this reason, the angles of view CR and CL overlap in front of the central position of the image display unit 20.
For example, as shown in FIG. 3B, when there is a target OB in the front direction of the image display unit 20, the target OB is included in both the view angle CR and the view angle CL. For this reason, the target OB is captured in both the captured image of the right camera 61 and the captured image of the left camera 62. Here, when the user gazes at the target OB, the user's line of sight is directed toward the target OB as indicated by reference signs RD and LD in the figure. In general, the viewing angle of a human is about 200 degrees in the horizontal direction and about 125 degrees in the vertical direction. Among them, the effective field of view with excellent information receiving ability is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction. Furthermore, the stable gaze field in which the gaze point that the human gazes at appears to be quickly and stably is about 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction.
Therefore, when the gazing point is the target OB, the effective visual field is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction around the lines of sight RD and LD, and 60 to 90 degrees in the horizontal direction and 45 degrees to the vertical direction. A stable visual field is about 70 degrees, and a viewing angle is about 200 degrees in the horizontal direction and about 125 degrees in the vertical direction.

また、HMD100を装着する使用者が画像表示部20を透過して右光学像表示部26及び左光学像表示部28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶ。図1及び図2に示す本実施形態の構成で、実視野は、右光学像表示部26及び左光学像表示部28を透過して使用者が視認する実際の視野に相当する。実視野は、図3(B)を参照して説明した視野角及び安定注視野より狭いが、有効視野より広い。   In addition, an actual field of view (FOV: Field Of View) is the actual field of view that the user wearing the HMD 100 sees through the image display unit 20 and the right optical image display unit 26 and the left optical image display unit 28. Call it. In the configuration of the present embodiment shown in FIGS. 1 and 2, the real field of view corresponds to an actual field of view that the user sees through the right optical image display unit 26 and the left optical image display unit 28. The real field of view is narrower than the viewing angle and stable focus field described with reference to FIG.

右カメラ61及び左カメラ62は、使用者の視野よりも広い範囲を撮像可能であることが好ましく、具体的には、画角CR、CLの全体が、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角CR、CLの全体が、使用者の実視野よりも広いことが、より好ましい。さらに好ましくは、画角CR、CLの全体が、使用者の安定注視野よりも広く、最も好ましくは、画角CR、CLの全体が使用者の視野角よりも広い。   The right camera 61 and the left camera 62 are preferably capable of imaging a wider range than the user's field of view. Specifically, the entire view angles CR and CL are at least wider than the effective field of view of the user. Is preferred. Further, it is more preferable that the entire angles of view CR and CL are wider than the actual field of view of the user. More preferably, the entire angle of view CR, CL is wider than the stable viewing field of the user, and most preferably, the entire angle of view CR, CL is wider than the viewing angle of the user.

このため、右カメラ61及び左カメラ62は、画角CRと画角CLとが、図3(B)に示すように画像表示部20の前方で重なるように配置される。また、右カメラ61及び左カメラ62を広角カメラで構成してもよい。すなわち、右カメラ61及び左カメラ62が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群を右カメラ61及び左カメラ62が備えてもよい。また、右カメラ61の画角CRと左カメラ62の画角CLとは同じ角度でなくてもよい。また、右カメラ61の撮像方向と左カメラ62の撮像方向とは、完全に平行である必要はない。右カメラ61の撮像画像と、左カメラ62の撮像画像とを重ね合わせた場合に、使用者の視野よりも広い範囲が撮像されていればよい。   For this reason, the right camera 61 and the left camera 62 are arranged such that the field angle CR and the field angle CL overlap each other in front of the image display unit 20 as illustrated in FIG. Further, the right camera 61 and the left camera 62 may be configured by wide angle cameras. That is, the right camera 61 and the left camera 62 may include a so-called wide-angle lens as an imaging lens and can capture a wide angle of view. The wide-angle lens may include a lens called a super-wide-angle lens or a quasi-wide-angle lens, and may be a single focus lens or a zoom lens. 62 may be provided. Further, the angle of view CR of the right camera 61 and the angle of view CL of the left camera 62 may not be the same angle. Further, the imaging direction of the right camera 61 and the imaging direction of the left camera 62 do not have to be completely parallel. When the captured image of the right camera 61 and the captured image of the left camera 62 are superimposed, it is only necessary to capture a range wider than the visual field of the user.

図4は、HMD100を構成する各部の機能ブロック図である。
HMD100は、コンテンツの供給元となる種々の外部機器OAを接続するインターフェイス125を備える。インターフェイス125は、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができ、無線通信インターフェイスで構成してもよい。外部機器OAは、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。
FIG. 4 is a functional block diagram of each part constituting the HMD 100.
The HMD 100 includes an interface 125 for connecting various external devices OA that are content supply sources. As the interface 125, for example, an interface corresponding to wired connection such as a USB interface, a micro USB interface, a memory card interface, or the like may be used, and the interface 125 may be configured by a wireless communication interface. The external device OA is an image supply device that supplies an image to the HMD 100, and a personal computer (PC), a mobile phone terminal, a portable game machine, or the like is used.

制御装置10は、制御部140、入力情報取得部110、記憶部120、送信部(Tx)51及び送信部(Tx)52を有する。
入力情報取得部110は、操作部135に接続される。操作部135は、上記のトラックパッド14、方向キー16、電源スイッチ18等を含み、入力情報取得部110は、操作部135から入力される信号に基づき、入力内容を取得する。また、制御装置10は、電源部(図示略)を備え、制御装置10及び画像表示部20の各部に電源を供給する。
The control device 10 includes a control unit 140, an input information acquisition unit 110, a storage unit 120, a transmission unit (Tx) 51, and a transmission unit (Tx) 52.
The input information acquisition unit 110 is connected to the operation unit 135. The operation unit 135 includes the track pad 14, the direction key 16, the power switch 18, and the like. The input information acquisition unit 110 acquires input contents based on a signal input from the operation unit 135. The control device 10 includes a power supply unit (not shown), and supplies power to each unit of the control device 10 and the image display unit 20.

記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラム、及び、これらのプログラムに係るデータを記憶する。また、記憶部120は、画像表示部20に表示する静止画像や動画像のデータを記憶しても良い。
記憶部120は、設定データ121を記憶する。設定データ121は、制御部140が使用する各種の設定値を含む。設定データ121が含む設定値は、予め操作部135の操作で入力された値であってもよいし、通信部117またはインターフェイス125を介して外部機器OAまたは他の装置(図示略)から設定値を受信して記憶してもよい。
また、記憶部120は、シナリオデータ123、及び、履歴データ124を記憶する。シナリオデータ123は、HMD100を装着する使用者に対して作業手順等を案内するために使用されるデータである。また、履歴データ124は、シナリオデータ123に関係する作業の進捗や実行履歴等に関する情報を含むデータである。シナリオデータ123及び履歴データ124については後述する。シナリオデータ123は、項目データ、及び、順序データを含む。また、記憶部120は、順序データ記憶部に相当する。また、記憶部120は履歴データ124(実行データ)を記憶するので、実行データ記憶部に相当する。
The storage unit 120 is a nonvolatile storage device, and stores various computer programs and data related to these programs. The storage unit 120 may store still image data or moving image data to be displayed on the image display unit 20.
The storage unit 120 stores setting data 121. The setting data 121 includes various setting values used by the control unit 140. The setting value included in the setting data 121 may be a value input in advance by operating the operation unit 135, or a setting value from an external device OA or another device (not shown) via the communication unit 117 or the interface 125. May be received and stored.
The storage unit 120 also stores scenario data 123 and history data 124. The scenario data 123 is data used to guide the work procedure and the like to the user wearing the HMD 100. The history data 124 is data including information related to the progress and execution history of work related to the scenario data 123. The scenario data 123 and the history data 124 will be described later. The scenario data 123 includes item data and order data. The storage unit 120 corresponds to an order data storage unit. The storage unit 120 stores history data 124 (execution data), and thus corresponds to an execution data storage unit.

制御部140には、3軸センサー113、GPS115、通信部117、近距離無線通信部119及び音声認識部114が接続される。3軸センサー113は3軸の加速度センサーであり、制御部140は3軸センサー113の検出値を取得する。3軸センサー113により、制御部140は、制御装置10の動きを検出することができ、例えば制御装置10を振る等の操作を検出できる。また、3軸センサー113は、3軸の加速度センサー、3軸の角速度センサー、及び3軸の地磁気センサーを備える9軸センサーに置き換えてもよい。この場合、制御部140は、3軸の加速度センサー、3軸の角速度センサー、及び3軸の地磁気センサーのそれぞれの検出値を取得し、例えば、制御装置10の姿勢、向き、動きを検出できる。
GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を算出する。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部140が計時する時刻を修正させる機能を備えていてもよい。
A three-axis sensor 113, a GPS 115, a communication unit 117, a short-range wireless communication unit 119, and a voice recognition unit 114 are connected to the control unit 140. The triaxial sensor 113 is a triaxial acceleration sensor, and the control unit 140 acquires the detection value of the triaxial sensor 113. With the three-axis sensor 113, the control unit 140 can detect the movement of the control device 10, and can detect an operation such as shaking the control device 10, for example. The triaxial sensor 113 may be replaced with a nine-axis sensor including a triaxial acceleration sensor, a triaxial angular velocity sensor, and a triaxial geomagnetic sensor. In this case, the control unit 140 acquires the detection values of the three-axis acceleration sensor, the three-axis angular velocity sensor, and the three-axis geomagnetic sensor, and can detect, for example, the attitude, orientation, and movement of the control device 10.
The GPS 115 includes an antenna (not shown), receives a GPS (Global Positioning System) signal, and calculates the current position of the control device 10. The GPS 115 outputs the current position and the current time obtained based on the GPS signal to the control unit 140. The GPS 115 may have a function of acquiring the current time based on information included in the GPS signal and correcting the time counted by the control unit 140.

通信部117は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
外部機器OAが、通信部117に無線接続された場合、制御部140は、コンテンツデータを通信部117より取得して、画像表示部20に画像を表示させる。一方、外部機器OAが、インターフェイス125に有線接続された場合、制御部140は、コンテンツデータをインターフェイス125より取得して、画像表示部20に画像を表示させる。通信部117及びインターフェイス125は、外部機器OAからコンテンツデータを取得するデータ取得部DAとして機能する。
The communication unit 117 executes wireless data communication conforming to a standard such as a wireless LAN (WiFi (registered trademark)), Miracast (registered trademark), or Bluetooth (registered trademark).
When the external device OA is wirelessly connected to the communication unit 117, the control unit 140 acquires content data from the communication unit 117 and causes the image display unit 20 to display an image. On the other hand, when the external device OA is wired to the interface 125, the control unit 140 acquires content data from the interface 125 and causes the image display unit 20 to display an image. The communication unit 117 and the interface 125 function as a data acquisition unit DA that acquires content data from the external device OA.

近距離無線通信部119は、制御部140の制御に従い、近距離無線データ通信を実行する通信部である。近距離無線通信部119は、図示しないアンテナ、RF回路、ベースバンド回路等を含む無線通信インターフェイスを具備する。近距離無線通信部119は、例えば、NFC(Near Field radio Communication)と呼ばれる無線通信を実行する。具体的には、FeliCa(登録商標)、ISO/IEC 14443、ISO/IEC 18092等の近距離無線通信を行う。また、近距離無線通信部119は、Bluetooth規格に準じた無線通信を実行する構成としてもよい。この場合、例えば、近距離無線通信部119がBluetoothクラス3(出力1mw)に対応したアンテナやRF回路(図示略)を備え、近距離の無線通信に適する構成とすることが好ましい。また、近距離無線通信部119は、いわゆるICタグリーダーとして構成され、外部のICタグ(図示略)と無線通信を実行して、ICタグからデータを取得してもよい。   The short-range wireless communication unit 119 is a communication unit that performs short-range wireless data communication under the control of the control unit 140. The short-range wireless communication unit 119 includes a wireless communication interface including an antenna, an RF circuit, a baseband circuit, and the like (not shown). The short-range wireless communication unit 119 performs wireless communication called NFC (Near Field radio Communication), for example. Specifically, short-range wireless communication such as FeliCa (registered trademark), ISO / IEC 14443, and ISO / IEC 18092 is performed. Further, the short-range wireless communication unit 119 may be configured to execute wireless communication conforming to the Bluetooth standard. In this case, for example, it is preferable that the short-range wireless communication unit 119 includes an antenna or an RF circuit (not shown) compatible with Bluetooth class 3 (output 1 mw) and is suitable for short-range wireless communication. The short-range wireless communication unit 119 may be configured as a so-called IC tag reader, and may acquire data from the IC tag by performing wireless communication with an external IC tag (not shown).

制御部140は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を備える。制御部140は、記憶部120が記憶するコンピュータープログラムを読み出して実行し、オペレーティングシステム(OS)150、画像処理部160、撮像制御部161、位置検出部162、AR表示制御部163、状態検出部164、通信制御部165、音声処理部187、及び、表示制御部190として機能する。   The control unit 140 stores a CPU (not shown) for executing a program, a RAM (not shown) for temporarily storing a program and data executed by the CPU, and a basic control program and data executed by the CPU in a nonvolatile manner. ROM (not shown). The control unit 140 reads and executes the computer program stored in the storage unit 120, and operates the operating system (OS) 150, the image processing unit 160, the imaging control unit 161, the position detection unit 162, the AR display control unit 163, and the state detection unit. 164, functioning as a communication control unit 165, an audio processing unit 187, and a display control unit 190.

画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示略)を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに、制御部140のRAMに格納する。この画像データは、例えばRGBデータである。
なお、画像処理部160は、必要に応じて、画像データの解像度を右表示駆動部22及び左表示駆動部24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部160は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。
The image processing unit 160 acquires an image signal included in the content. The image processing unit 160 separates synchronization signals such as the vertical synchronization signal VSync and the horizontal synchronization signal HSync from the acquired image signal. Further, the image processing unit 160 generates a clock signal PCLK using a PLL (Phase Locked Loop) circuit or the like (not shown) according to the period of the separated vertical synchronization signal VSync and horizontal synchronization signal HSync. The image processing unit 160 converts the analog image signal from which the synchronization signal is separated into a digital image signal using an A / D conversion circuit or the like (not shown). The image processing unit 160 stores the converted digital image signal in the RAM of the control unit 140 for each frame as image data of the target image (Data in the figure). This image data is, for example, RGB data.
Note that the image processing unit 160 may perform a resolution conversion process for converting the resolution of the image data into a resolution suitable for the right display driving unit 22 and the left display driving unit 24 as necessary. The image processing unit 160 also performs image adjustment processing for adjusting the brightness and saturation of image data, 2D image data is created from 3D image data, or 2D / 3D conversion processing is performed to generate 3D image data from 2D image data. May be executed.

画像処理部160は、クロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、RAMに格納された画像データDataのそれぞれを、送信部51、52を介して送信する。送信部51、52は、トランシーバーとして機能し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」と呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」と呼ぶ。   The image processing unit 160 transmits the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the image data Data stored in the RAM via the transmission units 51 and 52, respectively. The transmission units 51 and 52 function as a transceiver and execute serial transmission between the control device 10 and the image display unit 20. The image data Data transmitted via the transmission unit 51 is referred to as “right eye image data”, and the image data Data transmitted via the transmission unit 52 is referred to as “left eye image data”.

表示制御部190は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成し、この制御信号により、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成及び射出を制御する。具体的には、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを制御する。また、表示制御部190は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを制御する。   The display control unit 190 generates a control signal for controlling the right display drive unit 22 and the left display drive unit 24, and generates and generates image light by each of the right display drive unit 22 and the left display drive unit 24 based on the control signal. Control injection. Specifically, the right LCD 241 is controlled to be turned on / off by the right LCD control unit 211, and the right backlight 221 is turned on / off by the right backlight control unit 201. Further, the display control unit 190 controls the driving of the left LCD 242 by the left LCD control unit 212 and the driving of the left backlight 222 by the left backlight control unit 202.

音声処理部187は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32及び左イヤホン34に出力する。また、音声処理部187は、マイク63により集音される音声を取得してディジタル音声データに変換する。音声処理部187は、ディジタル音声データに対して予め設定された処理を行ってもよい。   The audio processing unit 187 acquires an audio signal included in the content, amplifies the acquired audio signal, and outputs the amplified audio signal to the right earphone 32 and the left earphone 34. In addition, the sound processing unit 187 acquires sound collected by the microphone 63 and converts it into digital sound data. The voice processing unit 187 may perform a preset process on the digital voice data.

画像表示部20は、上記の右カメラ61、及び左カメラ62を備える。また、画像表示部20は、インターフェイス25と、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、9軸センサー66とを備える。   The image display unit 20 includes the right camera 61 and the left camera 62 described above. The image display unit 20 includes an interface 25, a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, and a left guide as a left optical image display unit 28. An optical plate 262 and a nine-axis sensor 66 are provided.

9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。制御部140は、画像表示部20が使用者の頭部に装着されているとき、9軸センサー66の検出値に基づいて使用者の頭部の動きを検出できる。例えば、制御部140は、9軸センサー66の検出値に基づき、画像表示部20の傾きの大きさと傾きの向きを推定できる。   The 9-axis sensor 66 is a motion sensor that detects acceleration (3 axes), angular velocity (3 axes), and geomagnetism (3 axes). When the image display unit 20 is mounted on the user's head, the control unit 140 can detect the movement of the user's head based on the detection value of the 9-axis sensor 66. For example, the control unit 140 can estimate the magnitude of the tilt and the tilt direction of the image display unit 20 based on the detection value of the 9-axis sensor 66.

インターフェイス25は、右コード42と左コード44とが接続されるコネクターを備える。インターフェイス25は、送信部51から送信されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを、対応する受信部(Rx)53、54に出力する。また、インターフェイス25は、表示制御部190から送信される制御信号を、対応する受信部53、54、右バックライト制御部201又は左バックライト制御部202に出力する。
また、インターフェイス25は、右カメラ61、左カメラ62、及び、9軸センサー66を接続するインターフェイスである。右カメラ61、左カメラ62の撮像データ、9軸センサー66による加速度(3軸)、角速度(3軸)、及び、地磁気(3軸)の検出結果は、インターフェイス25を介して制御部140に送られる。
The interface 25 includes a connector to which the right cord 42 and the left cord 44 are connected. The interface 25 outputs the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the image data Data transmitted from the transmission unit 51 to the corresponding reception units (Rx) 53 and 54. Further, the interface 25 outputs a control signal transmitted from the display control unit 190 to the corresponding receiving units 53 and 54, the right backlight control unit 201, or the left backlight control unit 202.
The interface 25 is an interface for connecting the right camera 61, the left camera 62, and the 9-axis sensor 66. The imaging data of the right camera 61 and the left camera 62, the acceleration (three axes), angular velocity (three axes), and geomagnetism (three axes) detection results by the nine-axis sensor 66 are sent to the control unit 140 via the interface 25. It is done.

右表示駆動部22は、上述した右バックライト221、右LCD241、及び右投写光学系251を備える。また、右表示駆動部22は、受信部53、右バックライト(BL)221を制御する右バックライト(BL)制御部201、及び、右LCD241を駆動する右LCD制御部211を備える。   The right display drive unit 22 includes the right backlight 221, the right LCD 241, and the right projection optical system 251 described above. The right display driving unit 22 includes a receiving unit 53, a right backlight (BL) control unit 201 that controls the right backlight (BL) 221, and a right LCD control unit 211 that drives the right LCD 241.

受信部53は、送信部51に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、右LCD241を駆動する。   The reception unit 53 operates as a receiver corresponding to the transmission unit 51 and executes serial transmission between the control device 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right eye image data Data input via the reception unit 53. .

左表示駆動部24は、右表示駆動部22と同様の構成を有する。左表示駆動部24は、上述した左バックライト222、左LCD242、及び左投写光学系252を備える。また、左表示駆動部24は、受信部54、左バックライト222を駆動する左バックライト制御部202、及び、左LCD242を駆動する左LCD制御部212を備える。   The left display drive unit 24 has the same configuration as the right display drive unit 22. The left display driving unit 24 includes the left backlight 222, the left LCD 242 and the left projection optical system 252 described above. The left display driving unit 24 includes a receiving unit 54, a left backlight control unit 202 that drives the left backlight 222, and a left LCD control unit 212 that drives the left LCD 242.

受信部54は、送信部52に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。左バックライト制御部202は、入力された制御信号に基づいて、左バックライト222を駆動する。左LCD制御部212は、受信部54を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、左LCD242を駆動する。
なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して、左の「画像光生成部」とも呼ぶ。
The reception unit 54 operates as a receiver corresponding to the transmission unit 52 and executes serial transmission between the control device 10 and the image display unit 20. The left backlight control unit 202 drives the left backlight 222 based on the input control signal. The left LCD control unit 212 drives the left LCD 242 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right-eye image data Data input via the reception unit 54. .
The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are collectively referred to as a right “image light generation unit”. Similarly, the left backlight control unit 202, the left LCD control unit 212, the left backlight 222, and the left LCD 242 are collectively referred to as a left “image light generation unit”.

図3(A)に示したように、HMD100を装着する使用者が、ハーフミラー261A、262Aから照射される画像光を視認する範囲は、実視野より小さい。例えば、HMD100が、AR(Augmented Reality:拡張現実)効果を奏する画像(以下、AR画像という)を表示する場合、使用者が注視する対象OBに重なるようにAR画像を表示する。この場合、対象OBにAR画像が重なって見えることで、ARの効果が得られるが、AR画像が視認される領域はハーフミラー261A、262Aの大きさの制約を受ける。このため、実視野に対象OBが含まれる場合であっても、対象OBに重なる位置にAR画像を表示することが困難なケースも考えられる。また、AR画像以外の画像を表示する場合も、HMD100が画像を表示できる領域が、実視野に比べて小さいことが機能上の制約となる可能性がある。   As shown in FIG. 3A, the range in which the user wearing the HMD 100 visually recognizes the image light emitted from the half mirrors 261A and 262A is smaller than the real field of view. For example, when the HMD 100 displays an image that exhibits an AR (Augmented Reality) effect (hereinafter referred to as an AR image), the AR image is displayed so as to overlap the target OB that the user gazes at. In this case, the AR effect can be obtained by making the AR image appear to overlap the target OB, but the area where the AR image is visually recognized is restricted by the size of the half mirrors 261A and 262A. For this reason, even if the target OB is included in the real field of view, it may be difficult to display the AR image at a position overlapping the target OB. Also, when displaying an image other than the AR image, there is a possibility that the area where the HMD 100 can display the image is smaller than the actual visual field, which may be a functional limitation.

そこで、HMD100は、右カメラ61及び左カメラ62の撮像画像や、予め用意された画像など、使用者の実視野よりも広い範囲の外景の画像を利用して、使用者が注視する外景中の対象OBに対応するARコンテンツを表示するなど、外景に対応した表示を行う。   Therefore, the HMD 100 uses an outside scene image wider than the actual field of view of the user, such as a captured image of the right camera 61 and the left camera 62 or an image prepared in advance. Display corresponding to the outside scene is performed, for example, AR content corresponding to the target OB is displayed.

HMD100は、ハーフミラー261A、及び、ハーフミラー262Aが使用者の眼に画像光を反射することによって、表示領域を形成する。HMD100はハーフミラー261A、262Aにより画像光を反射して使用者の眼に、虚像を認識させる。このため、本実施形態では、表示領域はハーフミラー261A、262Aそのものではなく、ハーフミラー261A、262Aに反射した画像光を使用者が知覚する領域である。なお、画像表示部20が、ハーフミラー261A、262Aに画像を結像させる構成とした場合には、ハーフミラー261A、262Aが表示領域に相当する。
表示領域は、右LCD241及び左LCD242に対応し、これらLCD241、242に表示される画像を使用者が視認する領域である。例えば、右LCD241及び左LCD242の表示可能な領域(表示可能領域)の全体に画像を表示すると、使用者に、表示領域の全体のサイズの画像を視認させることができる。
表示領域は、例えば後述するように、使用者の視野のほぼ中央に位置し、視野と同じか、視野より小さい。
In the HMD 100, the half mirror 261A and the half mirror 262A reflect the image light to the user's eyes to form a display area. The HMD 100 reflects the image light by the half mirrors 261A and 262A and makes the user's eyes recognize the virtual image. For this reason, in this embodiment, the display area is not the half mirrors 261A and 262A itself, but an area where the user perceives the image light reflected by the half mirrors 261A and 262A. When the image display unit 20 is configured to form an image on the half mirrors 261A and 262A, the half mirrors 261A and 262A correspond to the display area.
The display area corresponds to the right LCD 241 and the left LCD 242, and is an area where the user can visually recognize images displayed on the LCDs 241 and 242. For example, when an image is displayed in the entire displayable area (displayable area) of the right LCD 241 and the left LCD 242, the user can visually recognize an image having the entire size of the display area.
As will be described later, for example, the display area is located approximately in the center of the user's visual field, and is the same as or smaller than the visual field.

撮像制御部161は、右カメラ61及び左カメラ62を制御して撮像を実行させ、撮像画像データを取得する。撮像制御部161は、右カメラ61及び左カメラ62のいずれか一方にのみ撮像を実行させてもよいし、両方に撮像を実行させてもよい。   The imaging control unit 161 controls the right camera 61 and the left camera 62 to execute imaging, and acquires captured image data. The imaging control unit 161 may cause only one of the right camera 61 and the left camera 62 to perform imaging, or may cause both to perform imaging.

位置検出部162(入力部、対象検出部)は、制御部140が外景画像から対象(対象物)を検出(認識)する機能を実行する。この機能では、位置検出部162は、例えば撮像制御部161が取得した撮像画像データを解析する。詳細には、位置検出部162は、右カメラ61及び/又は左カメラ62の撮像画像データに基づき、AR表示の対象の位置、及び、使用者による操作の操作位置を検出する。位置検出部162には、検出する対象として、AR表示を行う対象、及び、使用者が操作に使用する指示体が設定される。
AR表示の対象は、実空間の物体(建物等の固定されたものを含む)や景色など、画像表示部20を透過して使用者が視認する範囲(使用者の視野)の一部を構成する。AR表示の対象は、右カメラ61、左カメラ62の撮像画像データから検出され、制御部140は、検出した対象に合わせてARコンテンツを表示する。
The position detection unit 162 (input unit, target detection unit) executes a function for the control unit 140 to detect (recognize) a target (target object) from the outside scene image. In this function, the position detection unit 162 analyzes captured image data acquired by the imaging control unit 161, for example. Specifically, the position detection unit 162 detects the position of the AR display target and the operation position of the operation by the user based on the captured image data of the right camera 61 and / or the left camera 62. In the position detection unit 162, a target for AR display and a pointer used for an operation by the user are set as targets to be detected.
The target of AR display constitutes a part of the range (the user's field of view) that the user sees through the image display unit 20 such as an object in real space (including a fixed object such as a building) and a landscape. To do. The target of AR display is detected from the captured image data of the right camera 61 and the left camera 62, and the control unit 140 displays the AR content according to the detected target.

対象は、AR表示のコンテンツ毎に設定可能であり、例えば、AR表示のコンテンツ(以下、ARコンテンツと呼ぶ)のデータに、対象を検出する処理で用いるデータを含めてもよい。また、検出する対象に関するデータが設定データ121として記憶されてもよい。位置検出部162は、ARコンテンツまたは設定データ121から対象を検出するためのデータを取得し、このデータを用いて、外景画像に含まれる対象を認識する。対象を検出するためのデータとは、撮像画像から実空間に存在する物体である対象の画像を検出する処理に用いるデータであり、対象の画像の特徴量等である。例えば、対象物が物体である場合に、この物体を撮像した場合の撮像画像の色、形状、その他の特徴を示す特徴量が設定データに含まれる。この場合、位置検出部162は、外景画像の画像データから物体の画像を抽出する処理を行い、抽出した物体の画像の特徴量を算出し、算出した特徴量と、設定データ121に含まれる特徴量とを比較照合する。特徴量が近い値であり、或いは同一である場合は、外景画像から抽出した画像の物体を対象として認識できる。また、対象について複数の特徴量が設定データ121に含まれる場合、位置検出部162は複数の特徴量に基づき外景画像から対象を検出し、認識できる。位置検出部162は、外景画像において対象を認識できない場合、ステップS12で撮像制御部161が新たな外景画像を取得するまで待機し、新たな外景画像について対象を認識する処理を行う。   The target can be set for each AR display content. For example, data used in the process of detecting the target may be included in the AR display content (hereinafter referred to as AR content) data. Further, data related to the target to be detected may be stored as setting data 121. The position detection unit 162 acquires data for detecting the target from the AR content or the setting data 121, and recognizes the target included in the outside scene image using this data. The data for detecting a target is data used for processing for detecting a target image, which is an object existing in real space, from a captured image, and is a feature amount of the target image. For example, when the target object is an object, the setting data includes a feature amount indicating the color, shape, and other characteristics of the captured image when the object is imaged. In this case, the position detection unit 162 performs a process of extracting the object image from the image data of the outside scene image, calculates the feature amount of the extracted object image, and calculates the calculated feature amount and the feature included in the setting data 121. Compare with quantity. When the feature amounts are close or the same, the object of the image extracted from the outside scene image can be recognized as a target. Further, when a plurality of feature amounts for the target are included in the setting data 121, the position detection unit 162 can detect and recognize the target from the outside scene image based on the plurality of feature amounts. If the target cannot be recognized in the outside scene image, the position detection unit 162 waits until the imaging control unit 161 acquires a new outside scene image in step S12, and performs processing for recognizing the target for the new outside scene image.

制御部140は、使用者による入力を認識し、検出する機能を有し、この機能は入力部の機能として実現できる。入力部は、右カメラ61及び/又は左カメラ62の撮像画像から、使用者の手等の指示体の画像を検出し、この指示体の位置、方向、或いは動きを入力として検出し認識する。例えば、入力部は、指示体の位置を特定して位置入力を検出する。また、入力部は、例えば、指示体の動きが予め設定されたジェスチャーに相当すると判定した場合に、ジェスチャー入力を検出し認識してもよい。また、入力部は、入力情報取得部110から入力される信号に基づいて、操作部135に対する操作を検出する。また、入力部は、マイク63で集音された音声を音声処理部187が解析し、予め設定された音声コマンドであると判定された場合に、この音声コマンドの入力を検出し認識してもよい。また、位置検出部162は、画像表示部20が備える9軸センサー66の検出値のパターンが、画像表示部20をノックする操作に該当すると判定した場合に、画像表示部20に対するノック操作を入力として検出し認識してもよい。また、位置検出部162は、右カメラ61及び/又は左カメラ62の撮像画像から、二次元コードやバーコード等の入力用マーカーの画像を検出した場合に、マーカー読取入力を検出し認識してもよい。位置検出部162は、右カメラ61及び/または左カメラ62の撮像画像データから、指示体やマーカーを検出する場合に、視線センサー68により検出される使用者の視線方向に対応する指示体やマーカーを検出し認識してもよい。
また、HMD100が、使用者が足で操作するフットスイッチ(図示略)を備えた構成としてもよい。このフットスイッチは制御部140または操作部135に有線接続されてもよいし、Bluetooth(登録商標)等の無線通信により通信部117に接続されてもよい。この場合、入力部は、フットスイッチの操作を検出して入力として認識してもよい。また、筋電計(図示略)、脈拍測定装置(図示略)、血圧測定装置(図示略)、血中酸素濃度測定装置(図示略)等のバイタルセンサーをHMD100に設け、これらのバイタルセンサーの測定値、検出値に基づき、入力部が入力を検出し認識してもよい。
The control unit 140 has a function of recognizing and detecting an input by the user, and this function can be realized as a function of the input unit. The input unit detects an image of an indicator such as a user's hand from the captured image of the right camera 61 and / or the left camera 62, and detects and recognizes the position, direction, or movement of the indicator as an input. For example, the input unit detects the position input by specifying the position of the indicator. The input unit may detect and recognize a gesture input, for example, when it is determined that the movement of the indicator corresponds to a preset gesture. Further, the input unit detects an operation on the operation unit 135 based on a signal input from the input information acquisition unit 110. Further, the input unit may detect and recognize the input of the voice command when the voice processing unit 187 analyzes the voice collected by the microphone 63 and determines that the voice command is set in advance. Good. Further, the position detection unit 162 inputs a knock operation to the image display unit 20 when it is determined that the detection value pattern of the 9-axis sensor 66 included in the image display unit 20 corresponds to an operation of knocking the image display unit 20. May be detected and recognized. In addition, the position detection unit 162 detects and recognizes a marker reading input when detecting an image of an input marker such as a two-dimensional code or a barcode from a captured image of the right camera 61 and / or the left camera 62. Also good. The position detection unit 162 detects an indicator or marker from the captured image data of the right camera 61 and / or the left camera 62, and the indicator or marker corresponding to the user's line-of-sight direction detected by the line-of-sight sensor 68. May be detected and recognized.
Moreover, HMD100 is good also as a structure provided with the foot switch (not shown) which a user operates with a leg | foot. The foot switch may be wired to the control unit 140 or the operation unit 135, or may be connected to the communication unit 117 by wireless communication such as Bluetooth (registered trademark). In this case, the input unit may detect an operation of the foot switch and recognize it as an input. Further, vital sensors such as an electromyograph (not shown), a pulse measuring device (not shown), a blood pressure measuring device (not shown), a blood oxygen concentration measuring device (not shown) are provided in the HMD 100, and these vital sensors Based on the measured value and the detected value, the input unit may detect and recognize the input.

本実施形態では、位置検出部162が、入力部として動作する。位置検出部162は、右カメラ61及び左カメラ62の撮像画像データから、指示体の画像を検出し、指示体により指示された位置を検出する。指示体は、使用者が操作に使用する物体であり、使用者の手、指など身体の一部、または、使用者が操る物体である。この物体は棒状のもの、ペン型のもの等、形状は特に限定されない。また、指示体には、赤外光や可視光を発する発光部(図示略)を設けてもよいし、撮像画像データにおいて検出可能な柄やパターン等を含むマーキングが施されてもよい。この場合、位置検出部162が撮像画像データから指示体を検出する処理を高速に行える。位置検出部162は、撮像画像データから対象を検出する処理と同様に、予め記憶部120に記憶した特徴量のデータを用いて、指示体を撮像画像データから検出する。指示体の特徴量のデータは、例えば設定データ121に含まれる。   In the present embodiment, the position detection unit 162 operates as an input unit. The position detection unit 162 detects the image of the indicator from the captured image data of the right camera 61 and the left camera 62, and detects the position indicated by the indicator. The indicator is an object used by the user for operation, and is a part of the body such as the user's hand or finger, or an object operated by the user. The shape of the object is not particularly limited, such as a rod-shaped object or a pen-shaped object. The indicator may be provided with a light emitting unit (not shown) that emits infrared light or visible light, or may be marked with a pattern or pattern that can be detected in the captured image data. In this case, the position detection unit 162 can detect the indicator from the captured image data at high speed. The position detection unit 162 detects the indicator from the captured image data using the feature amount data stored in advance in the storage unit 120, as in the process of detecting the target from the captured image data. The feature amount data of the indicator is included in the setting data 121, for example.

位置検出部162は、撮像画像データから検出した対象の位置、及び、指示体の位置を特定する。さらに、位置検出部162は、検出した対象及び指示体と、使用者が視認する表示領域との相対位置を求める処理を行う。これにより、右表示駆動部22及び左表示駆動部24により表示する画像(文字、画像、記号等を含む)の位置と、実空間における対象及び指示体の位置との対応付けを行うことができる。つまり、右表示駆動部22及び左表示駆動部24が表示する画像を使用者が視認する位置と、画像表示部20を透過して使用者が対象や指示体を視認する位置とを対応づけることができる。従って、使用者が指示体により指示する位置を的確に検出できる。また、使用者が対象を視認する位置に対応する位置に、画像を表示できる。   The position detection unit 162 specifies the position of the target detected from the captured image data and the position of the indicator. Further, the position detection unit 162 performs a process of obtaining a relative position between the detected object and indicator and the display area visually recognized by the user. Thereby, it is possible to associate the positions of the images (including characters, images, symbols, and the like) displayed by the right display driving unit 22 and the left display driving unit 24 with the positions of the target and the indicator in the real space. . That is, the position where the user visually recognizes the image displayed by the right display driving unit 22 and the left display driving unit 24 is associated with the position where the user visually recognizes the target or the indicator through the image display unit 20. Can do. Therefore, it is possible to accurately detect the position indicated by the user using the indicator. In addition, an image can be displayed at a position corresponding to the position where the user visually recognizes the target.

なお、位置検出部162が指示体や、指示体以外の実空間の物体(対象を含む)を認識する方法は、上記のように画像の特徴量に基づき対象の画像を認識する方法に限定されない。例えば、使用者の指示により、外景画像に含まれる物体等から対象や指示体を選択してもよい。この場合、使用者の指示は、音声による指示であってもよく、マイク63で集音された音声を音声処理部187がテキスト変換することにより、位置検出部162が対象を認識し、特定するための情報を取得する。例えば、色や対象の形状など、撮像画像における対象の特徴を指定する音声がテキスト変換された場合に、位置検出部162は、指定された特徴に該当する画像を撮像画像から検出して、認識する。
対象に関する情報の入力方法は、トラックパッド14への操作であってもよいし、指等によるジェスチャー操作を制御部140が検出してもよい。この場合、右カメラ61、左カメラ62の撮像範囲において使用者が指等を動かしてジェスチャー操作を行い、このジェスチャー操作を制御部140が検出すれば良い。具体的には、使用者が対象を指さすことで、対象そのものを指定する方法を採用してもよい。また、使用者が対象の方向を手や指で指し示す、使用者が対象を視認する範囲を手や指で囲む等のジェスチャーを用いてもよい。
Note that the method of recognizing the indicator or an object in real space (including the target) other than the indicator by the position detection unit 162 is not limited to the method of recognizing the target image based on the feature amount of the image as described above. . For example, a target or indicator may be selected from an object included in the outside scene image according to a user instruction. In this case, the user's instruction may be an instruction by voice, and the voice processing unit 187 converts the voice collected by the microphone 63 into text, so that the position detection unit 162 recognizes and identifies the target. Get information for. For example, when a voice that specifies a feature of a target in a captured image, such as a color or a shape of the target, is converted into text, the position detection unit 162 detects an image corresponding to the specified feature from the captured image and recognizes it. To do.
The method of inputting information related to the object may be an operation on the track pad 14 or the control unit 140 may detect a gesture operation with a finger or the like. In this case, the user may perform a gesture operation by moving a finger or the like within the imaging range of the right camera 61 and the left camera 62, and the control unit 140 may detect this gesture operation. Specifically, a method may be employed in which the user points to the target and designates the target itself. Alternatively, a gesture may be used such that the user points the direction of the target with a hand or a finger, and the range in which the user visually recognizes the target is surrounded with the hand or the finger.

AR表示制御部163は、記憶部120が記憶するコンテンツデータ(図示略)を読み出し、画像処理部160及び表示制御部170を制御して、AR表示用の画像を画像表示部20により表示させる。また、AR表示制御部163は、コンテンツデータが音声データを含む場合、音声処理部187を制御して、右イヤホン32、左イヤホン34からコンテンツの音声を出力させる。   The AR display control unit 163 reads content data (not shown) stored in the storage unit 120, controls the image processing unit 160 and the display control unit 170, and causes the image display unit 20 to display an image for AR display. Further, when the content data includes audio data, the AR display control unit 163 controls the audio processing unit 187 to output the audio of the content from the right earphone 32 and the left earphone 34.

ここで、AR表示制御部163は、位置検出部162が検出する対象と表示領域との相対位置、及び、指示体と表示領域との相対位置に基づき、ARコンテンツの表示位置を制御する。すなわち、AR表示制御部163は、対象に対応する位置に画像や文字等を表示するAR表示を行う。ARコンテンツの表示位置は対象に重なる位置であっても対象の周囲であってもよい。これにより、HMD100は、対象に関する情報を提供し、或いは、画像表示部20越しに見える対象の姿の見え方を変える。ARコンテンツは、対象に対応する位置に表示される画像や文字のデータを含む。AR表示制御部163は、検出した対象に対応するARコンテンツの表示位置を決定し、ARコンテンツを表示する。   Here, the AR display control unit 163 controls the display position of the AR content based on the relative position between the target and the display area detected by the position detection unit 162 and the relative position between the indicator and the display area. That is, the AR display control unit 163 performs AR display that displays an image, a character, or the like at a position corresponding to the target. The display position of the AR content may be a position overlapping the target or the periphery of the target. As a result, the HMD 100 provides information about the object or changes the appearance of the object seen through the image display unit 20. The AR content includes image and character data displayed at a position corresponding to the target. The AR display control unit 163 determines the display position of the AR content corresponding to the detected target, and displays the AR content.

また、AR表示制御部163は、位置検出部162が検出する対象を使用者が視認する距離に応じて、AR表示の輻輳角を制御してもよい。輻輳角は、図3(B)に示す視線RD、LDがなす角度であり、画像表示部20(或いは使用者の眼RE、LE)から対象OBまでの距離が長いほど、角度が小さくなる。画像表示部20に表示されるAR画像を使用者が視認する場合、画像表示部20の表示領域におけるAR画像の表示位置によって、視線RD、LDの角度が決まり、この角度によって使用者がAR画像を知覚する距離が変わる。例えば、視線RD、LDがなす角度が大きくなるように、左右のAR画像の表示位置を設定すると、使用者には、AR画像が使用者から近い位置にあるように見える。AR表示制御部163は、使用者に知覚させたいAR画像までの距離に合わせて、画像表示部20の表示領域におけるAR画像の表示位置を調整してもよい。この調整に係る処理を、輻輳角制御と呼ぶことができる。
AR画像表示部163は、後述するように、使用者が、位置検出部162により検出される対象に対する作業(動作)を行う場合に、この対象ととともに視認できるように作業項目をAR表示する。この場合、AR画像表示部163は、AR画像を使用者が知覚する距離が、位置検出部162により検出される対象までの距離に適合するように、画像表示部20の表示領域におけるAR画像の表示位置を調整する。これにより、使用者は、対象とAR画像とを、同じ距離にある物を見るように、自然に見ることができ、使用者の負荷を軽減できる。
Further, the AR display control unit 163 may control the convergence angle of the AR display according to the distance at which the user visually recognizes the target detected by the position detection unit 162. The convergence angle is an angle formed by the lines of sight RD and LD shown in FIG. 3B, and the angle becomes smaller as the distance from the image display unit 20 (or the user's eyes RE and LE) to the target OB is longer. When the user visually recognizes the AR image displayed on the image display unit 20, the angles of the lines of sight RD and LD are determined by the display position of the AR image in the display area of the image display unit 20, and the user determines the AR image by this angle. The perceived distance changes. For example, when the display positions of the left and right AR images are set so that the angle formed by the lines of sight RD and LD becomes large, the AR image appears to be close to the user to the user. The AR display control unit 163 may adjust the display position of the AR image in the display area of the image display unit 20 according to the distance to the AR image that the user wants to perceive. The process related to this adjustment can be called convergence angle control.
As will be described later, when the user performs a work (operation) on the target detected by the position detection unit 162, the AR image display unit 163 displays the work item in an AR so that the work item can be visually recognized together with the target. In this case, the AR image display unit 163 displays the AR image in the display area of the image display unit 20 so that the distance at which the user perceives the AR image matches the distance to the target detected by the position detection unit 162. Adjust the display position. As a result, the user can naturally see the object and the AR image as if objects at the same distance are seen, and the load on the user can be reduced.

本実施形態で、AR表示制御部163は、記憶部120が記憶するシナリオデータ123に基づき、シナリオデータ123に含まれる項目のデータを表示する。つまり、シナリオデータ123を後述する所定の表示形式で表示する画像が、ARコンテンツに相当する。   In this embodiment, the AR display control unit 163 displays item data included in the scenario data 123 based on the scenario data 123 stored in the storage unit 120. That is, an image that displays the scenario data 123 in a predetermined display format described later corresponds to the AR content.

図5は、記憶部120が記憶するデータの構成例を示す模式図であり、図5(A)はシナリオデータ123及び履歴データ124の構成例を示し、図5(B)は履歴データ124の別の構成例を示す。   FIG. 5 is a schematic diagram illustrating a configuration example of data stored in the storage unit 120. FIG. 5A illustrates a configuration example of the scenario data 123 and the history data 124, and FIG. Another configuration example is shown.

シナリオデータ123は、項目を含み、項目には順序が対応づけられる。順序は項目間の相対的な順序であり、シナリオデータ123が含む項目が一つの場合は順序が対応づけられなくてもよい。
シナリオデータ123が含むそれぞれの項目は、動作に対応する。動作とは、使用者が行う行動または行為を指し、使用者の身体の動きであってもよいし思考や判断を含んでもよい。シナリオデータ123の一つの項目が一つの動作に対応する構成であってもよく、シナリオデータ123の一つの項目が、複数の動作を含むシーケンスに対応してもよい。
The scenario data 123 includes items, and an order is associated with the items. The order is a relative order between items, and when the scenario data 123 includes one item, the order may not be associated.
Each item included in the scenario data 123 corresponds to an operation. The action refers to an action or an action performed by the user, and may be a movement of the user's body, or may include thought or judgment. One item of the scenario data 123 may correspond to one operation, and one item of the scenario data 123 may correspond to a sequence including a plurality of operations.

図5(A)に例示するシナリオデータ123は、作業の手順に関するシナリオのデータであり、それぞれ作業に対応する複数の項目123aを含む。それぞれの項目123aは、「作業1」、「作業2」、「作業3」、…の名称が付される。また、それぞれの項目123aには各項目の内容(作業内容)が対応づけてシナリオデータ123に含まれる。   Scenario data 123 illustrated in FIG. 5A is scenario data related to a work procedure, and includes a plurality of items 123a corresponding to the work. Each item 123a is given the names “Work 1”, “Work 2”, “Work 3”,. Further, the contents (work contents) of each item are associated with each item 123a and are included in the scenario data 123.

図5(A)のシナリオデータ123は、履歴データ124を統合した形態となっている。履歴データ124は、シナリオデータ123に含まれる項目の実行の履歴に関するデータである。シナリオデータ123が作業のシナリオである場合、履歴データ124は、シナリオデータ123の項目に対応する作業の進捗履歴や実行履歴に関するデータである。図5(A)の例では、履歴データ124は、実行履歴データ124aと、実行詳細データ124bとを含む。実行履歴データ124aは、それぞれの項目123aに対応づけて記憶されるデータであり、項目123aに対応する作業の実行状態(実行状況、進捗状況、進行状況ともいえる)を示す。図5(A)の例では、項目123aに対応する作業が完了した場合に、実行履歴データ124aとして「完了」が設定される。このほか、未実行、未実行、等の実行履歴データ124aを設定できる。   The scenario data 123 in FIG. 5A has a form in which history data 124 is integrated. The history data 124 is data relating to the execution history of items included in the scenario data 123. When the scenario data 123 is a work scenario, the history data 124 is data related to a work progress history and an execution history corresponding to the items of the scenario data 123. In the example of FIG. 5A, the history data 124 includes execution history data 124a and execution detail data 124b. The execution history data 124a is data stored in association with each item 123a, and indicates an execution state (also referred to as an execution state, a progress state, or a progress state) of the work corresponding to the item 123a. In the example of FIG. 5A, when the work corresponding to the item 123a is completed, “completion” is set as the execution history data 124a. In addition, execution history data 124a such as non-executed and non-executed can be set.

実行詳細データ124bは、項目123aに対応する作業が実行された履歴に関して、より詳細なデータを含む。例えば、シナリオデータ123が含むそれぞれの項目123aの作業が実行された日時、進捗度、完了した日時等のデータを含む。また、実行詳細データ124bは項目123aに対応する作業が実行されたときに、右カメラ61及び/又は左カメラ62により撮像された撮像画像データを含んでもよい。この撮像画像データは静止画像データであっても動画像データであってもよく、撮像日時のデータを含んでもよい。   The execution detail data 124b includes more detailed data regarding the history of execution of the work corresponding to the item 123a. For example, it includes data such as the date and time when the work of each item 123a included in the scenario data 123 is executed, the degree of progress, and the date and time of completion. The execution detail data 124b may include captured image data captured by the right camera 61 and / or the left camera 62 when an operation corresponding to the item 123a is performed. The captured image data may be still image data or moving image data, and may include data on the imaging date and time.

また、シナリオデータ123は、項目123aに対応づけて画像データ123bを含んでもよい。画像データ123bは、静止画像であっても動画像データであってもよい。   The scenario data 123 may include image data 123b in association with the item 123a. The image data 123b may be a still image or moving image data.

図5(B)には、シナリオデータ123及び履歴データ124の別の構成例を示す。図5(B)は特に、項目123aの実行順序と、各項目123aに対応する作業の履歴とをタイムチャートして表示する例を示す。図5(B)のタイムチャートは、例えば、AR表示制御部163の制御によって画像表示部20に表示される。このタイムチャートは、項目123aに対応する作業1,2,3の実行順序と、現在の作業状況を示す矢印形状の指標(マーク)と、を含む。例えば、AR表示制御部163がシナリオデータ123に基づく作業を案内し、使用者が作業を実行するときに、図5(B)のタイムチャートを表示して、使用者に作業の実行状態を知らせることができる。   FIG. 5B shows another configuration example of the scenario data 123 and the history data 124. FIG. 5B particularly shows an example in which the execution order of the items 123a and the work history corresponding to each item 123a are displayed as a time chart. The time chart of FIG. 5B is displayed on the image display unit 20 under the control of the AR display control unit 163, for example. This time chart includes the execution order of operations 1, 2, and 3 corresponding to the item 123a, and an arrow-shaped index (mark) indicating the current operation status. For example, when the AR display control unit 163 guides the work based on the scenario data 123 and the user executes the work, the time chart of FIG. 5B is displayed to inform the user of the execution state of the work. be able to.

HMD100では、シナリオデータ123に基づき作業等に関する案内を行う場合に、使用者の入力操作によって、作業の実行状態等を入力できる。
ここで、HMD100における入力方法を説明する。
In the HMD 100, when performing guidance related to work based on the scenario data 123, an execution state of the work can be input by a user input operation.
Here, an input method in the HMD 100 will be described.

図6は、HMD100の入力方法の説明図であり、図6(A)はバーチャルキーボードを使用する入力例を示し、(B)は位置入力の例を示す。
図6(A)及び(B)では、VRは使用者の視野を示し、V1は、HMD100が画像を表示して使用者に視認させることが可能な領域、すなわち画像表示部20の表示領域を示す。
表示領域V1は、たとえば、使用者の視野VRのほぼ中央に位置し、視野VRよりも狭い。表示領域V1は視野VRと同じサイズであってもよく、サイズ及び位置は図6(A)及び図6(B)の例に限定されない。
6A and 6B are explanatory diagrams of an input method of the HMD 100. FIG. 6A shows an input example using a virtual keyboard, and FIG. 6B shows an example of position input.
6A and 6B, VR indicates a user's visual field, and V1 indicates an area in which the HMD 100 can display an image and allow the user to visually recognize it, that is, a display area of the image display unit 20. Show.
For example, the display area V1 is located approximately in the center of the user's visual field VR and is narrower than the visual field VR. The display area V1 may be the same size as the visual field VR, and the size and position are not limited to the examples in FIGS. 6A and 6B.

図6(A)の入力方法では、バーチャルキーボードV11が表示領域V1に表示された状態で、使用者の手を利用して入力が行われる。バーチャルキーボードV11の表示位置は、予め設定された位置とすることができる。バーチャルキーボードV11は、AR表示制御部163が、記憶部120に記憶されたバーチャルキーボードV11の画像データ(図示略)等に基づき表示する。位置検出部162は、視野VRにおける使用者の右手HR及び左手HLを検出し、指先の位置を算出する。位置検出部162が位置検出可能な領域は、右カメラ61及び左カメラ62の撮像範囲であり、表示領域V1の外であってもよい。AR表示制御部163は、位置検出部162が算出した指先の位置とバーチャルキーボードV11のキーの表示位置とが重なった場合に、バーチャルキーボードV11のキーへの操作を検出する。   In the input method of FIG. 6A, input is performed using the user's hand in a state where the virtual keyboard V11 is displayed in the display area V1. The display position of the virtual keyboard V11 can be a preset position. The AR display control unit 163 displays the virtual keyboard V11 based on the image data (not shown) of the virtual keyboard V11 stored in the storage unit 120. The position detection unit 162 detects the user's right hand HR and left hand HL in the visual field VR, and calculates the position of the fingertip. The region in which the position detection unit 162 can detect the position is the imaging range of the right camera 61 and the left camera 62, and may be outside the display region V1. The AR display control unit 163 detects an operation on the key of the virtual keyboard V11 when the position of the fingertip calculated by the position detection unit 162 overlaps the display position of the key of the virtual keyboard V11.

図6(B)は、表示領域V1に表示されない状態で、使用者の手により位置指示操作(位置入力操作)を行う入力方法を示す。この入力方法は表示領域V1に何も表示しなくても実行可能であり、例えば、画像表示部20を透過して見える外景の視認性に影響しないという利点がある。位置検出部162は、使用者の手(図中では右手HR)の指先を撮像画像データから検出し、指先Pの位置を算出する。AR表示制御部163は、位置検出部162が算出した指先Pの位置を、入力された位置として取得する。位置検出部162は、例えば、表示領域V1に対する指先Pの相対位置を示す座標を出力する構成としてよい。また、位置検出部162は、視野VRに対する指先Pの相対位置を示す座標を出力する構成としてもよい。   FIG. 6B shows an input method in which a position instruction operation (position input operation) is performed by the user's hand in a state where the display area V1 is not displayed. This input method can be executed without displaying anything in the display area V1, and has an advantage that, for example, the visibility of an outside scene seen through the image display unit 20 is not affected. The position detection unit 162 detects the fingertip of the user's hand (right hand HR in the drawing) from the captured image data, and calculates the position of the fingertip P. The AR display control unit 163 acquires the position of the fingertip P calculated by the position detection unit 162 as the input position. For example, the position detection unit 162 may be configured to output coordinates indicating the relative position of the fingertip P with respect to the display area V1. Further, the position detection unit 162 may be configured to output coordinates indicating the relative position of the fingertip P with respect to the visual field VR.

図7(A)、図7(B)、及び図7(C)は、HMD100における表示例を示す図であり、AR表示制御部163の制御によってシナリオデータ123の項目を表示する表示態様の例を示す。
図7(A)、図7(B)、図7(C)の例では、使用者の視野VRに対象OBが含まれ、使用者は画像表示部20を透過して対象OBを視認する。位置検出部162は、カメラ61の撮像画像からAR表示を行う対象である対象OBの位置を検出する。
FIGS. 7A, 7B, and 7C are diagrams showing display examples in the HMD 100, and examples of display modes for displaying items of the scenario data 123 under the control of the AR display control unit 163. FIG. Indicates.
In the example of FIGS. 7A, 7B, and 7C, the user's visual field VR includes the target OB, and the user views the target OB through the image display unit 20. The position detection unit 162 detects the position of the target OB that is the target for AR display from the captured image of the camera 61.

図7(A)の例では、AR表示制御部163は、シナリオデータ123の項目を一覧表示するリストSRを表示する。リストSRは、シナリオデータ123に含まれる項目の名称を、シナリオデータ123に設定される項目の順序に従って並べたリストである。リストSRには、項目の名称(タイトル)とともに、項目の内容を表示してもよい。
リストSRには、各項目の表示位置に対応づけて、チェックボックスCHが配置される。チェックボックスCHは、各項目に対応する動作が完了したことを示す。AR表示制御部163は、状態検出部164が動作の完了を検出した場合に、チェックボックスCHの表示状態を、動作完了を示す状態に変更する。この場合、AR表示制御部163の制御により、動作が完了してチェックボックスCHにチェックが付された項目について、動作が完了したことを示すように表示色を変更してもよいし、表示サイズを縮小してもよい。また、AR表示制御部163は、チェックが付された項目の次に実行される動作の項目を、他の項目と区別して視認できるように表示色を変えてもよい。また、AR表示制御部163は、項目についてチェックボックスCHへのチェックが付される際に、シナリオデータ123に、動作が完了した日時を示すタイムスタンプを設定してもよい。
シナリオデータ123が一つの項目を含む場合、リストSRは一つの項目について名称とチェックボックスCHとを含む構成となる。
In the example of FIG. 7A, the AR display control unit 163 displays a list SR that displays a list of items of the scenario data 123. The list SR is a list in which the names of items included in the scenario data 123 are arranged according to the order of items set in the scenario data 123. In the list SR, the content of the item may be displayed together with the name (title) of the item.
A check box CH is arranged in the list SR in association with the display position of each item. The check box CH indicates that the operation corresponding to each item has been completed. When the state detection unit 164 detects the completion of the operation, the AR display control unit 163 changes the display state of the check box CH to a state indicating the operation completion. In this case, under the control of the AR display control unit 163, the display color may be changed to indicate that the operation has been completed for the item for which the operation has been completed and the check box CH is checked, and the display size May be reduced. In addition, the AR display control unit 163 may change the display color so that the item of the operation to be executed next to the checked item can be distinguished from other items. The AR display control unit 163 may set a time stamp indicating the date and time when the operation is completed in the scenario data 123 when the check box CH is checked for the item.
When the scenario data 123 includes one item, the list SR includes a name and a check box CH for one item.

リストSRは、チェックボックスCHを有しない構成とすることもできる。この場合、AR表示制御部163は、状態検出部164により動作が完了したことが検出された項目を、リストSRから削除してもよい。また、リストSRにおける表示色や表示輝度を変化させてもよい。例えば、AR表示制御部163は、動作が完了した項目について、動作が完了したことを示すように表示色を変更してもよいし、表示サイズを縮小してもよい。また、AR表示制御部163は、終了した動作の次に実行される動作の項目を、他の項目と区別して視認できるように表示色を変えてもよい。
また、図7(B)に示すように、リストSRにおいて、動作が完了した項目に重なるようにマーカーM1を表示してもよい。さらに、動作が完了しなかった項目や、動作が行われず次の動作が開始された項目について、動作未完了を示すマーカーM2を表示してもよい。
The list SR may be configured without the check box CH. In this case, the AR display control unit 163 may delete, from the list SR, an item whose operation has been detected by the state detection unit 164. Further, the display color and display brightness in the list SR may be changed. For example, the AR display control unit 163 may change the display color or reduce the display size of the item for which the operation has been completed to indicate that the operation has been completed. Further, the AR display control unit 163 may change the display color so that the item of the operation to be executed next to the completed operation can be distinguished from the other items.
Further, as shown in FIG. 7B, the marker M1 may be displayed so as to overlap the item for which the operation has been completed in the list SR. Furthermore, a marker M2 indicating that the operation has not been completed may be displayed for an item for which the operation has not been completed or an item for which the next operation has not been performed.

図7(C)の例は、シナリオデータ123の項目を一つ、または予め設定された数ずつ表示する例である。この例では、表示領域V1に、シナリオデータ123の項目の名称、または名称と内容を、1つずつ、吹き出し形式の表示部Dに表示する。表示部Dの端部を、対象OBにおいて動作の対象となる位置を示す矢印形式としてもよい。また、表示部Dに表示された項目に対応する動作の対象位置に、マーカーM3を表示してもよい。図7(C)の例では、表示部Dに表示された項目に対応する動作が完了したことが状態検出部164により検出されると、AR表示制御部163は、シナリオデータ123に含まれる次の順序の項目を表示部Dに表示する。このように、表示部Dには、シナリオデータ123に含まれる項目が、項目の動作の実行順に従って、順次、表示される。   The example of FIG. 7C is an example in which one item or a preset number of items of the scenario data 123 are displayed. In this example, the name of the item of the scenario data 123, or the name and contents thereof are displayed one by one on the display unit D in a balloon format in the display area V1. The end of the display unit D may be in the form of an arrow that indicates the position to be operated in the target OB. Further, the marker M3 may be displayed at the target position of the operation corresponding to the item displayed on the display unit D. In the example of FIG. 7C, when the state detection unit 164 detects that the operation corresponding to the item displayed on the display unit D is completed, the AR display control unit 163 includes the next included in the scenario data 123. Are displayed on the display section D. As described above, the items included in the scenario data 123 are sequentially displayed on the display unit D according to the execution order of the operation of the items.

リストSRや表示部Dの表示位置、表示態様は、適宜に変更可能であり、例えば、リストSRや表示部Dを、シナリオデータ123の項目に対応する動作の対象OBに重なる位置に表示してもよい。また、対象OBに重ならない位置に表示すれば、動作の妨げにならず、項目を見ながら動作しやすくなるという利点がある。また、リストSRや表示部Dを3D(立体)表示してもよいし、2D(平面)画像として表示してもよい。さらに、リストSRや表示部Dを、右表示駆動部22と左表示駆動部24のいずれか一方にのみ表示してもよい。また、AR表示制御部163は、リストSRや表示部Dの表示について、表示順序や動作の重要度に応じて、或いは、特に間違いやすい動作としてシナリオデータ123に設定された動作を、より判り易く表示してもよい。具体的には、AR表示制御部163は、リストSRや表示部Dの表示について、表示順序や動作の重要度に応じて強調表示、拡大表示、表示色の変更等を行ってもよい。また、特に間違いやすい動作について強調表示、拡大表示、表示色の変更等を行ってもよい。AR表示制御部163は、画像表示部20を透過して視認される動作の対象の視認性を損なわないように、リストSRや表示部Dの表示位置を、対象の中心からずらしてもよい。さらに、AR表示制御部163は、特に細かな作業としてシナリオデータ123に設定された項目について、リストSRや表示部Dにおける項目や画像を拡大して表示してもよい。さらに、複雑な作業としてシナリオデータ123に設定された項目について、例えば使用者の入力に応じて、リストSRや表示部Dに動画像を表示してもよい。   The display position and display mode of the list SR and the display unit D can be changed as appropriate. For example, the list SR and the display unit D are displayed at a position overlapping the operation target OB corresponding to the item of the scenario data 123. Also good. In addition, if it is displayed at a position that does not overlap the target OB, there is an advantage that the operation is not hindered and the operation is facilitated while viewing the item. The list SR and the display unit D may be displayed in 3D (stereoscopic) or as a 2D (planar) image. Furthermore, the list SR and the display unit D may be displayed only on one of the right display drive unit 22 and the left display drive unit 24. In addition, the AR display control unit 163 makes it easier to understand the operation set in the scenario data 123 according to the display order and the importance of the operation for the display of the list SR and the display unit D, or as an operation that is particularly confusing. It may be displayed. Specifically, the AR display control unit 163 may perform highlight display, enlarged display, display color change, or the like on the display of the list SR or the display unit D according to the display order or the importance of the operation. Moreover, highlighting, enlarged display, display color change, and the like may be performed for operations that are particularly likely to be mistaken. The AR display control unit 163 may shift the display positions of the list SR and the display unit D from the center of the target so as not to impair the visibility of the target of the operation that is viewed through the image display unit 20. Further, the AR display control unit 163 may enlarge and display items and images in the list SR and the display unit D for items set in the scenario data 123 as a particularly fine work. Furthermore, for items set in the scenario data 123 as complicated work, for example, a moving image may be displayed on the list SR or the display unit D in accordance with a user input.

また、リストSRや表示部Dを表示する場合に、図5(B)に例示したタイムチャートを表示してもよい。この場合、複数の項目について、動作の実行順を把握しやすい表示を行うことができる。このタイムチャートの位置を指定する位置指示操作が行われた場合に、タイムチャートで指示された位置に対応する項目を表示してもよい。また、指示された位置に対応する項目について、シナリオデータ123に含まれる画像データを表示してもよい。   Further, when displaying the list SR and the display portion D, the time chart illustrated in FIG. 5B may be displayed. In this case, it is possible to display a plurality of items so that the execution order of the operations can be easily grasped. When a position indicating operation for specifying the position of the time chart is performed, an item corresponding to the position specified by the time chart may be displayed. Further, the image data included in the scenario data 123 may be displayed for the item corresponding to the designated position.

また、リストSRや表示部Dに項目を表示する場合に、図5(A)に例示したシナリオデータ123に含まれる画像データ123bに基づく画像を、併せて表示してもよい。また、リストSRや表示部Dと画像とを切り替えて表示してもよい。
これらのリストSRや表示部Dの表示によって、使用者が、複数の動作(作業)を含む一連の動作について、どこまで作業をしたのか確認したい、作業のトレーサビリティーを確保するための記録を作成したい、といったニーズに応えることができる。
Further, when items are displayed on the list SR or the display unit D, an image based on the image data 123b included in the scenario data 123 illustrated in FIG. 5A may be displayed together. Further, the list SR or the display unit D and the image may be switched and displayed.
By displaying the list SR and the display unit D, the user wants to check how far a series of operations including a plurality of operations (operations) has been performed, and to create a record for ensuring the traceability of the operations. It can meet the needs.

状態検出部164(図4)は、AR表示制御部163がシナリオデータ123に基づく表示を行う間に、シナリオデータ123の項目123aに対応する動作(作業)の実行状態を検出する。
状態検出部164が実行状態を検出する処理は、例えば、右カメラ61及び/又は左カメラ62の撮像画像データを解析して行われる。この場合、状態検出部164は撮像画像データから作業の対象や、作業に使用される器具、道具、使用者の身体等の少なくともいずれかを検出する。状態検出部164は、作業の対象、作業に使用される器具、道具、使用者の身体等の位置、サイズ、色、形状等に基づいて、作業の実行状態に関するデータを生成する。実行状態に関するデータは、例えば、未実行、実行中、実行完了等である。
The state detection unit 164 (FIG. 4) detects the execution state of the operation (work) corresponding to the item 123 a of the scenario data 123 while the AR display control unit 163 performs display based on the scenario data 123.
The process in which the state detection unit 164 detects the execution state is performed by analyzing captured image data of the right camera 61 and / or the left camera 62, for example. In this case, the state detection unit 164 detects at least one of a work target, an instrument used for the work, a tool, a user's body, and the like from the captured image data. The state detection unit 164 generates data related to the execution state of the work based on the position, size, color, shape, and the like of the target of the work, the tool used for the work, the tool, the user's body, and the like. The data relating to the execution state includes, for example, not executed, being executed, and execution completed.

また、状態検出部164は、シナリオデータ123の項目についてAR表示制御部163が表示する状態で、使用者の操作に基づき、項目に対応する動作の実行状態を検出してもよい。この場合、状態検出部164が検出する操作は、制御装置10のトラックパッド14等の操作部に対する操作としてもよい。また、図6(A)及び図6(B)を参照して説明した入力方法による入力を受け付けてもよい。   Further, the state detection unit 164 may detect the execution state of the operation corresponding to the item based on the user's operation in a state where the AR display control unit 163 displays the item of the scenario data 123. In this case, the operation detected by the state detection unit 164 may be an operation on the operation unit such as the track pad 14 of the control device 10. Moreover, you may receive the input by the input method demonstrated with reference to FIG. 6 (A) and FIG. 6 (B).

例えば、図7(A)に示す例では、状態検出部164は、図6(B)に示したように、使用者が指示体によりチェックボックスCHに重なる位置を指定する操作を行った場合に、動作が完了したことを検出してもよい。また、使用者が指示体により予め設定されたジェスチャーを行った場合に、動作が完了したことを検出してもよい。また、マイク63が集音した音声を音声処理部187で解析することで、動作が完了したことを使用者が音声により指示入力し、この指示入力に基づき動作が完了したことを検出してもよい。また、制御装置10が備える方向キー16やトラックパッド14等に対する操作に基づき、動作の完了を検出してもよい。   For example, in the example shown in FIG. 7A, the state detection unit 164 performs the operation of designating the position overlapping the check box CH by the indicator as shown in FIG. 6B. , It may be detected that the operation has been completed. Further, it may be detected that the operation is completed when the user performs a preset gesture with the indicator. Further, by analyzing the sound collected by the microphone 63 with the sound processing unit 187, the user inputs an instruction that the operation is completed by voice, and it is detected that the operation is completed based on the instruction input. Good. The completion of the operation may be detected based on an operation on the direction key 16 or the track pad 14 provided in the control device 10.

また、状態検出部164は、AR表示制御部163がシナリオデータ123に基づく表示を開始した後、右カメラ61、左カメラ62の撮像画像データを取得し、取得した撮像画像データを、動作の実行状態に関するデータとして保存してもよい。この場合、たとえばドライブレコーダーのように、動作中の動画像データを記憶部120に記憶させても良い。
また、状態検出部164は、検出した動作の実行状態を反映するタイムチャート(例えば、図5(B))を生成してもよい。また、このタイムチャートを、予め設定された標準時間(スタンダードタイム)との差を表す比較結果を付与した比較タイムチャートとしても良い。
In addition, after the AR display control unit 163 starts display based on the scenario data 123, the state detection unit 164 acquires the captured image data of the right camera 61 and the left camera 62, and performs the operation on the acquired captured image data. You may preserve | save as data regarding a state. In this case, moving image data during operation may be stored in the storage unit 120, for example, like a drive recorder.
In addition, the state detection unit 164 may generate a time chart (for example, FIG. 5B) reflecting the execution state of the detected operation. Further, this time chart may be a comparative time chart to which a comparison result indicating a difference from a preset standard time (standard time) is given.

通信制御部165は、通信部117、及び近距離無線通信部119を制御して、図示しない外部の機器やICタグ等と無線通信を実行させ、データを取得する。   The communication control unit 165 controls the communication unit 117 and the short-range wireless communication unit 119 to execute wireless communication with an external device, IC tag, or the like (not shown), and acquires data.

図8は、記憶部122が記憶するシナリオデータ123の別の構成例を示す模式図であり、図8(A)はシナリオデータ123eの構成例を示し、図8(B)は表示設定データ126の構成例を示す。
図8(A)のシナリオデータ123eは、シナリオデータ123(図5(A))に代えて利用される。シナリオデータ123eは、シナリオデータ123と同様に、項目を含み、項目には順序が対応づけられる。また、シナリオデータ123eが含むそれぞれの項目は、動作に対応する。シナリオデータ123eは、作業の手順に対応する複数の項目を含み、それぞれの項目には、「作業1」、「作業2」、「作業3」、…の名称が付される。図8(A)の例では作業1から作業5の5段階の作業手順のデータが含まれる。それぞれの項目には各項目の内容(作業内容)が対応づけられる。
8 is a schematic diagram illustrating another configuration example of the scenario data 123 stored in the storage unit 122, FIG. 8A illustrates a configuration example of the scenario data 123e, and FIG. 8B illustrates the display setting data 126. The example of a structure is shown.
The scenario data 123e in FIG. 8A is used in place of the scenario data 123 (FIG. 5A). Similar to the scenario data 123, the scenario data 123e includes items, and the items are associated with the order. Each item included in the scenario data 123e corresponds to an operation. The scenario data 123e includes a plurality of items corresponding to work procedures, and the names of “work 1”, “work 2”, “work 3”,. In the example of FIG. 8A, data of work procedures in five stages from work 1 to work 5 is included. Each item is associated with the content (work content) of each item.

この例ではベアリングのオーバーホールを行う作業に関する項目が含まれる。例えば、作業1には作業内容として「ベアリング洗浄」が対応付けられ、作業2には「オイルシール取り外し」が対応付けられる。また、各項目には対象が設定される。作業1の対象は「ベアリング」であり、作業2の対象は「オイルシール」である。
設定データ121には、シナリオデータ123eに含まれる対象を右カメラ61、左カメラ62の撮像画像データから検出するための特徴量のデータ等が含まれる。
また、シナリオデータ123と同様、シナリオデータ123eには、各項目に対応して、各項目の動作が完了したか否かを示すフラグを設定可能である。各項目に対応するフラグが設定された場合、HMD100は、シナリオデータ123eを、履歴データとして利用できる。
This example includes items related to the work of overhauling the bearing. For example, “Bearing cleaning” is associated with operation 1 as operation content, and “oil seal removal” is associated with operation 2. A target is set for each item. The target of operation 1 is “bearing”, and the target of operation 2 is “oil seal”.
The setting data 121 includes feature data for detecting a target included in the scenario data 123e from captured image data of the right camera 61 and the left camera 62.
Similarly to the scenario data 123, a flag indicating whether or not the operation of each item is completed can be set in the scenario data 123e corresponding to each item. When the flag corresponding to each item is set, the HMD 100 can use the scenario data 123e as history data.

図8(B)は、シナリオデータ123eに基づく表示を行うための表示設定データ126の構成例を示す。表示設定データ126は、シナリオデータ123eに沿って使用者の視野VRに表示を行う場合の表示態様を定義するデータであり、例えば記憶部120に記憶される。表示設定データ126は、シナリオデータ123eに含まれる項目に対応する対象に対し、使用者が視認しやすいように、情報を表示する場合の表示態様を定める。図8(B)の例で、表示設定データ126は、シナリオデータ123eに含まれる項目に対応する対象に重ねて色を表示する場合の、色と作業の進捗状況とを対応付ける。   FIG. 8B shows a configuration example of the display setting data 126 for performing display based on the scenario data 123e. The display setting data 126 is data defining a display mode when displaying in the user's visual field VR along the scenario data 123e, and is stored in the storage unit 120, for example. The display setting data 126 defines a display mode for displaying information so that the user can easily recognize the target corresponding to the item included in the scenario data 123e. In the example of FIG. 8B, the display setting data 126 associates the color with the progress of the work when displaying the color over the object corresponding to the item included in the scenario data 123e.

表示設定データ126は、作業の順序に対応する色分けを設定する。表示設定データ126は、色を指定する情報として、特定の色を指定する情報を含んでもよいし、色の透過率を指定する情報を含んでもよいし、輝度を指定する情報を含んでもよい。また、色が濃色、淡色等にグループ分けされた場合に、グループを指定する情報を含んでもよい。また、蛍光色などの強調表示を指定する情報を含んでもよい。
図8(B)の例では、作業前の項目に対応する対象には、低輝度の淡色を重ねて表示するよう設定される。低輝度かつ淡色のため、これから作業を行う対象が見やすいという利点がある。また、作業中の項目に対応する対象には、淡色を重ねて表示するよう設定される。淡色であるため、実行中の作業の妨げにならないという利点がある。また、特に重要な作業に対応する対象には、高輝度の濃色を重ねて表示するよう設定される。例えば、シナリオデータ123eにおいて、重要な作業であることを示すフラグを項目に対応付けて設定可能な構成とすれば、重要な作業の対象を、他の作業と色分けして表示できる。また、作業が完了した項目に対応する対象には、低輝度の濃色を重ねて表示するよう設定される。作業が完了した対象は、作業が終了したことが視認できればよいので、他の対象とは明瞭に、直感的に視覚により区別できるよう、低輝度の濃色とすると有利である。
The display setting data 126 sets color coding corresponding to the order of work. The display setting data 126 may include information for designating a specific color, information for designating color transmittance, or information for designating luminance as information for designating a color. In addition, when colors are grouped into dark colors, light colors, or the like, information for designating groups may be included. Moreover, information specifying highlighting such as a fluorescent color may be included.
In the example of FIG. 8B, the target corresponding to the item before work is set so that a low-brightness light color is superimposed and displayed. Since it has low brightness and light color, there is an advantage that it is easy to see the object to be worked on. In addition, the object corresponding to the item being worked on is set to be displayed with a light color superimposed. Since it is light in color, there is an advantage that it does not interfere with the work being performed. In addition, a target corresponding to a particularly important work is set to display a high-luminance dark color in an overlapping manner. For example, in the scenario data 123e, if a flag indicating an important work can be set in association with an item, the target of the important work can be displayed in a color-coded manner with other work. In addition, a target corresponding to an item for which work has been completed is set to display a low-luminance dark color in an overlapping manner. Since it is only necessary to visually recognize that the work has been completed, it is advantageous to use a dark color with a low luminance so that the object can be visually and clearly distinguished from other objects.

表示設定データ126を利用すれば、使用者がシナリオデータ123eに従って作業を行う場合に、作業順序に対応して色分けされた状態で、対象に色付け表示を行うことができる。この場合、使用者は、作業すべき対象を、作業の順序に対応する色で区別し、認識できるので、作業に不慣れな使用者であっても、手順を間違えずに作業を行える。   If the display setting data 126 is used, when the user performs work according to the scenario data 123e, the object can be colored and displayed in a color-coded state corresponding to the work order. In this case, the user can distinguish and recognize the object to be worked by the color corresponding to the work order, so that even a user who is unfamiliar with the work can work without making a mistake in the procedure.

ここで、シナリオデータ123e及び表示設定データ126を用いた表示例を説明する。以下の説明では、画像表示部20によって複数の色を表示可能であり、これらの色を図中ではハッチングで示す。なお、画像表示部20によって所定色のハッチングを対象に重ねて表示することも勿論可能である。   Here, a display example using the scenario data 123e and the display setting data 126 will be described. In the following description, a plurality of colors can be displayed by the image display unit 20, and these colors are indicated by hatching in the drawing. Of course, hatching of a predetermined color can be superimposed and displayed on the target by the image display unit 20.

図9(A)、図9(B)、図9(C)、及び図9(D)は、HMD100の表示例を示す図であり、シナリオデータ123e及び表示設定データ126を利用したAR表示を行う場合の表示例を示す。図9(A)、図9(B)、図9(C)、及び図9(D)は、ベアリング300のオーバーホールを行う場合の表示例を示し、視野VRには作業の対象であるベアリング300が視認される。301はベアリング300の外輪であり、302は内輪であり、303はボールであり、304はオイルシールである。   FIG. 9A, FIG. 9B, FIG. 9C, and FIG. 9D are diagrams showing display examples of the HMD 100. The AR display using the scenario data 123e and the display setting data 126 is shown. A display example in the case of performing is shown. FIG. 9A, FIG. 9B, FIG. 9C, and FIG. 9D show display examples when the bearing 300 is overhauled, and the bearing 300 that is a work target is shown in the visual field VR. Is visible. 301 is an outer ring of the bearing 300, 302 is an inner ring, 303 is a ball, and 304 is an oil seal.

図9(A)には作業前の状態を示す。使用者の視野VRにはベアリング300が視認される。AR表示制御部163は、シナリオデータ123e及び設定データ121に基づき、対象として、ベアリング300、ベアリング300のボール303、及びオイルシール304を検出する。さらに、AR表示制御部163は、視野VRにおけるベアリング300、ボール303及びオイルシール304の位置を特定し、これらの各位置と画像表示部20の表示領域との対応を特定する。   FIG. 9A shows a state before work. The bearing 300 is visually recognized in the visual field VR of the user. The AR display control unit 163 detects the bearing 300, the ball 303 of the bearing 300, and the oil seal 304 as targets based on the scenario data 123e and the setting data 121. Furthermore, the AR display control unit 163 specifies the positions of the bearing 300, the ball 303, and the oil seal 304 in the visual field VR, and specifies the correspondence between these positions and the display area of the image display unit 20.

図9(B)は、オイルシール304に重ねて所定の色が表示された状態を示す。オイルシール304に重なるように、シナリオデータ123eの順序および表示設定データ126で設定された態様で色のマーカーM11が表示される。AR表示制御部163は、AR表示の対象の形状に対応する枠を有するマーカーM11を形成し、マーカーM11が、表示設定データ126で設定された色で塗りつぶされた状態で、対象に重ねて表示される。マーカーM11、及び後述するマーカーM12の形状やサイズは、表示設定データ126やシナリオデータ123eにより決定されてもよい。例えば、次に実行する作業の対象がオイルシール304である場合、図9(B)に示すようにオイルシール304に重ねてマーカーM11が表示される。   FIG. 9B shows a state where a predetermined color is displayed over the oil seal 304. The color marker M11 is displayed in a manner set by the order of the scenario data 123e and the display setting data 126 so as to overlap the oil seal 304. The AR display control unit 163 forms a marker M11 having a frame corresponding to the shape of the target of AR display, and the marker M11 is displayed overlaid on the target in a state of being filled with the color set by the display setting data 126. Is done. The shape and size of the marker M11 and the marker M12 described later may be determined by the display setting data 126 and the scenario data 123e. For example, when the target of the work to be executed next is the oil seal 304, the marker M11 is displayed over the oil seal 304 as shown in FIG. 9B.

図9(C)はオイルシール304を取り外す作業が完了した後の状態を示す。オイルシール304と、オイルシール304が取り外されたベアリング300が視認される。
AR表示制御部163は、オイルシール304を取り外す作業の次に行われる、ボール303の周囲のグリースを除去する作業を案内するため、ボール303に重なる位置にマーカーM12をAR表示する。この状態を図9(D)に示す。
FIG. 9C shows a state after the operation of removing the oil seal 304 is completed. The oil seal 304 and the bearing 300 from which the oil seal 304 has been removed are visible.
The AR display control unit 163 displays the marker M12 in an AR position at a position overlapping the ball 303 in order to guide the operation for removing the grease around the ball 303, which is performed after the operation of removing the oil seal 304. This state is shown in FIG.

図9(D)では、ボール303に重なるようにリング状の枠を有するマーカーM12が表示される。マーカーM12は表示設定データ126で指定される色で塗りつぶされる。マーカーM12の色の透過率や輝度を調整することで、ボール303の視認性を適宜に調整できる。
このように、作業の手順や作業済みか否かに応じて、実空間に存在する物体である作業の対象に対し、ARによる色分け表示をすることで、使用者が、作業前か後かを色により容易に判別できる。
In FIG. 9D, a marker M12 having a ring-shaped frame so as to overlap the ball 303 is displayed. The marker M12 is filled with a color specified by the display setting data 126. The visibility of the ball 303 can be appropriately adjusted by adjusting the color transmittance and luminance of the marker M12.
In this way, according to the work procedure and whether or not the work has been completed, the user can determine whether the user is before or after the work by displaying the color-coded display by AR for the work target that is an object existing in the real space. Can be easily distinguished by color.

図10(A)、図10(B)、図10(C)、及び図10(D)は、HMD100の表示例を示す図であり、シナリオデータ123e及び表示設定データ126を利用したAR表示を行う場合の表示例を示す。この図10(A)、図10(B)、図10(C)、及び図10(D)は、それぞれ、図9(A)、図9(B)、図9(C)、及び図9(D)に示した例において、色分け表示に加えて作業を案内するテキスト等を表示する例を示す。   FIGS. 10A, 10B, 10C, and 10D are diagrams showing display examples of the HMD 100. The AR display using the scenario data 123e and the display setting data 126 is shown. A display example in the case of performing is shown. 10A, FIG. 10B, FIG. 10C, and FIG. 10D are respectively shown in FIG. 9A, FIG. 9B, FIG. 9C, and FIG. In the example shown in (D), an example of displaying text or the like for guiding the work in addition to the color-coded display is shown.

図10(A)は、シナリオデータ123e(図8(A))の作業1を行う前の状態を示す。AR表示制御部163は、シナリオデータ123eに従って、作業1を行う前の状態に対応し、作業1の内容を案内するテキストを含む説明ボックスTX1を表示する。また、AR表示制御部163は、ベアリング300はベアリングであることを案内するテキスト表示TX11を表示してもよい。   FIG. 10A shows a state before the work 1 of the scenario data 123e (FIG. 8A) is performed. In accordance with the scenario data 123e, the AR display control unit 163 displays an explanation box TX1 corresponding to the state before performing the work 1 and including text for guiding the contents of the work 1. The AR display control unit 163 may display a text display TX11 that guides that the bearing 300 is a bearing.

AR表示制御部163は、作業1が完了したことを示す入力の後、図10(B)に示すように、作業2に対応する説明ボックスTX2を表示する。ここで、図10(B)では、作業2の対象であるオイルシール304に対応するテキスト表示TX12が表示される。また、図9(B)で説明したように、マーカーM11がオイルシール304に重ねてAR表示される。   After the input indicating that the work 1 is completed, the AR display control unit 163 displays an explanation box TX2 corresponding to the work 2 as illustrated in FIG. Here, in FIG. 10B, a text display TX12 corresponding to the oil seal 304 that is the target of the work 2 is displayed. In addition, as described with reference to FIG. 9B, the marker M11 is displayed as an AR over the oil seal 304.

図10(C)はオイルシール304を取り外す作業が完了した後の状態を示す。オイルシール304と、オイルシール304が取り外されたベアリング300が視認される。
AR表示制御部163は、ボール303の周囲のグリースを除去する作業3に対応するマーカーの表示、及び、説明ボックスをAR表示する。この状態を図10(D)に示す。
FIG. 10C shows a state after the operation of removing the oil seal 304 is completed. The oil seal 304 and the bearing 300 from which the oil seal 304 has been removed are visible.
The AR display control unit 163 displays the marker corresponding to the work 3 for removing the grease around the ball 303 and the explanation box in the AR display. This state is shown in FIG.

図10(D)では、ボール303に重ねてマーカーM12が表示され、作業3の内容を説明し、案内する説明ボックスTX3が表示される。また、作業3の対象であるボール303に対し、テキスト表示TX13によりボール303の名称が表示される。   In FIG. 10D, a marker M12 is displayed over the ball 303, an explanation box TX3 for explaining the contents of the work 3 and guiding it is displayed. In addition, the name of the ball 303 is displayed by the text display TX13 for the ball 303 which is the target of the work 3.

説明ボックスTX1〜TX3及びテキスト表示TX11〜TX13として表示されるテキストの内容は、例えば、シナリオデータ123eに含めてもよいし、シナリオデータ123eの項目に対応付けて記憶部120に記憶してもよい。また、AR表示制御部163がマーカーとともにAR表示する内容は、テキストに限らず静止画像や動画像であってもよい。また、AR表示制御部163がマーカーとともにAR表示する内容の表示色や表示サイズは、AR表示制御部163が設定してもよいし、これらを指定するデータを、シナリオデータ123e等に含めて記憶してもよい。例えば、説明ボックスTX1〜TX3及びテキスト表示TX11〜TX13として表示されるテキストの表示色を、表示設定データ126でマーカーの表示態様として設定される内容に合わせてもよい。   The contents of the text displayed as the explanation boxes TX1 to TX3 and the text displays TX11 to TX13 may be included in the scenario data 123e, for example, or may be stored in the storage unit 120 in association with the items of the scenario data 123e. . Further, the content displayed by the AR display control unit 163 together with the marker is not limited to text but may be a still image or a moving image. The AR display control unit 163 may set the display color and display size of the content displayed by the AR together with the marker, and the AR display control unit 163 may set the display color and display data including the scenario data 123e. May be. For example, the display colors of the text displayed as the explanation boxes TX1 to TX3 and the text displays TX11 to TX13 may be matched with the contents set as the marker display mode in the display setting data 126.

図9〜図10に示す表示例において、マーカーM11〜M12は表示設定データ126で設定される色分け表示されるものとして説明したが、表示設定データ126で設定される表示態様は色に限定されない。例えば、ハッチングの形状を設定してもよく、点滅や太枠表示するなど、強調表示の有無や形態を設定してもよい。   In the display examples shown in FIGS. 9 to 10, the markers M <b> 11 to M <b> 12 have been described as being displayed in different colors set by the display setting data 126, but the display mode set by the display setting data 126 is not limited to colors. For example, the shape of hatching may be set, and the presence / absence and form of highlighting may be set, such as blinking or displaying a thick frame.

図11は、HMD100における表示例を示す図であり、シナリオデータ123eに基づくAR表示の別の例を示す図である。
視野VRに作業の対象である自転車320が視認される。自転車320においては、シナリオデータ123eにより、サドル321、ハブベアリング322、及び、タイヤ323が作業の対象として設定される。
FIG. 11 is a diagram illustrating a display example in the HMD 100, and is a diagram illustrating another example of AR display based on the scenario data 123e.
A bicycle 320 that is a work target is visually recognized in the visual field VR. In the bicycle 320, the saddle 321, the hub bearing 322, and the tire 323 are set as work targets by the scenario data 123e.

図11の表示例では、視野VRに、複数の作業の手順を案内するテキスト等を含む説明ボックスTX4が表示される。説明ボックスTX4は図7(A)に示したリストSRと同様に、実行する作業のリストということもできる。説明ボックスTX4は、リストに限定されない。例えば、実行されるそれぞれの作業の内容について、詳細に説明するテキスト等を含んでもよい。
説明ボックスTX4には、複数の作業と作業の順序とが対応付けて表示される。また。説明ボックスTX4には、それぞれの作業に対応するマーカーの表示色を示す色表示部TX31〜TX33が配置される。
In the display example of FIG. 11, an explanation box TX4 including text or the like for guiding a plurality of work procedures is displayed in the visual field VR. The explanation box TX4 can be said to be a list of work to be executed, similarly to the list SR shown in FIG. The explanation box TX4 is not limited to the list. For example, the contents of each operation to be executed may include text that explains in detail.
In the explanation box TX4, a plurality of works and the order of the works are displayed in association with each other. Also. In the explanation box TX4, color display portions TX31 to TX33 indicating the display colors of the markers corresponding to the respective operations are arranged.

視野VRでは、自転車320における作業の対象であるサドル321、ハブベアリング322、及び、タイヤ323のそれぞれに、表示領域A1、A2、A3が配置される。表示領域A1、A2、A3の位置は、AR表示制御部163が、各対象の位置に対応して決定する。また、表示領域A1、A2、A3のサイズは、シナリオデータ123e、表示設定データ126、或いは他のデータに含まれて記憶部120が記憶してもよい。また、AR表示制御部163が対象のサイズに合わせて設定してもよい。   In the field of view VR, display areas A1, A2, and A3 are arranged on the saddle 321, the hub bearing 322, and the tire 323, which are objects of work on the bicycle 320, respectively. The AR display control unit 163 determines the positions of the display areas A1, A2, and A3 corresponding to the positions of the objects. The sizes of the display areas A1, A2, and A3 may be stored in the storage unit 120 by being included in the scenario data 123e, the display setting data 126, or other data. Further, the AR display control unit 163 may set the size according to the target size.

表示領域A1、A2、A3は、それぞれ、作業に対応する表示色で塗りつぶされる。表示領域A1、A2、A3の色は、作業の手順毎に予め設定される。例えば、作業の実行順序と表示設定データ126の設定により設定されてもよいし、シナリオデータ123eにおいて予め指定されていてもよい。表示領域A1、A2、A3の色は、上述したマーカーM11〜M12と同様に、ハッチングであってもよいし、強調表示であってもよい。   The display areas A1, A2, and A3 are each filled with a display color corresponding to the work. The colors of the display areas A1, A2, and A3 are set in advance for each work procedure. For example, it may be set according to the work execution order and the setting of the display setting data 126, or may be specified in advance in the scenario data 123e. The colors of the display areas A1, A2, and A3 may be hatched or highlighted as in the case of the markers M11 to M12 described above.

図11において、説明ボックスTX4には、作業1に対応する色表示部TX31に、作業1の対象の色が表示される。そして、作業1の対象であるサドル321には、表示領域A1が重ねて配置され、この表示領域A1は色表示部TX31と同じ色で塗りつぶされる。作業2の対象であるハブベアリング322には、表示領域A2が重ねて配置され、表示領域A2は色表示部TX32と同じ色で塗りつぶされる。作業3の対象であるタイヤ323には、表示領域A3が重ねて配置され、表示領域A3は色表示部TX33と同じ色で塗りつぶされる。   In FIG. 11, in the explanation box TX4, the color of the target of the work 1 is displayed on the color display unit TX31 corresponding to the work 1. The saddle 321 that is the target of the work 1 is overlaid with the display area A1, and the display area A1 is filled with the same color as the color display unit TX31. The display area A2 is placed on the hub bearing 322 that is the target of the work 2, and the display area A2 is filled with the same color as the color display portion TX32. The display area A3 is placed on the tire 323 that is the target of the work 3, and the display area A3 is filled with the same color as the color display unit TX33.

このように、AR表示制御部163によって、視野VRに、作業の対象に対応する領域を設定し、作業の順序や作業が完了したか否かに応じて領域を色分けして表示することで、使用者に対し、作業の順序と作業対象とを明瞭に案内できる。
また、説明ボックスTX4により、実際の作業の詳細手順(シナリオガイダンス)を強調して表示することにより、作業手順に関して詳細な情報を提供できる。説明ボックスTX4には、例えば、作業1〜3の内容に関して、ベアリングのカバーの外し方、グリースとベアリング球を取り除く方法、洗浄方法等を案内する情報を含んでもよい。また、ベアリング表面の傷を確認する、新しいグリース塗布する場合のグリースの種類の指定等、ノウハウに相当し、順序付けられた項目に含まれない、より詳細な作業について、順序付けて表示してもよい。この場合、いわゆるノウハウと呼ばれる詳細情報、及び、コツと呼ばれる技術情報を情報提供できるという利点がある。例えば、AR表示制御部163は、使用者の操作に応じて、ポップアップ表示や音声により、ノウハウやコツに相当する情報を、提供をしても良い。この場合、使用者が作業に関して必要とする詳細な情報、或いは技術情報を、タイムリーに提供できる。
In this way, the AR display control unit 163 sets the area corresponding to the work target in the visual field VR, and displays the areas in different colors according to the order of the work or whether the work is completed. It is possible to clearly guide the order of work and the work target to the user.
Further, detailed information regarding the work procedure can be provided by highlighting and displaying the detailed procedure (scenario guidance) of the actual work by the explanation box TX4. For example, regarding the contents of operations 1 to 3, the explanation box TX <b> 4 may include information that guides how to remove a bearing cover, a method of removing grease and a bearing ball, a cleaning method, and the like. Also, more detailed operations that are not included in the ordered items, such as checking the bearing surface scratches and specifying the type of grease when applying new grease, may be displayed in order. . In this case, there is an advantage that detailed information called so-called know-how and technical information called tips can be provided. For example, the AR display control unit 163 may provide information corresponding to know-how or tips by pop-up display or voice according to the operation of the user. In this case, detailed information required by the user regarding the work or technical information can be provided in a timely manner.

図12(A)、図12(B)は、HMD100における表示例を示す図であり、シナリオデータ123eに基づくAR表示の別の例を示す図であり、図11の表示の変形例である。図12(A)、図12(B)に示す例では、作業の進捗に対応して、表示領域A1〜A3の表示を変化させる。   12A and 12B are diagrams showing display examples in the HMD 100, showing another example of AR display based on the scenario data 123e, and a modification of the display in FIG. In the example shown in FIGS. 12A and 12B, the display of the display areas A1 to A3 is changed in accordance with the progress of the work.

図12(A)の例では、図11と同様に、説明ボックスTX4が表示される。また、図12(A)では、次に実行される作業の対象であるサドル321に重なる表示領域A1が色表示され、他の表示領域A2、A3の色分け表示はされない。   In the example of FIG. 12A, an explanation box TX4 is displayed as in FIG. In FIG. 12A, the display area A1 that overlaps the saddle 321 that is the object of the work to be executed next is displayed in color, and the other display areas A2 and A3 are not displayed in different colors.

サドル321を対象とする作業が完了したことを示す入力に応じて、AR表示制御部163は、図12(B)に示すように、表示領域A1の色表示を停止し、次に実行される作業の対象であるハブベアリング322に重なる表示領域A2を色表示する。   In response to an input indicating that the work for the saddle 321 has been completed, the AR display control unit 163 stops the color display of the display area A1 and is executed next, as shown in FIG. The display area A2 overlapping the hub bearing 322 that is the work target is displayed in color.

図12(A)及び図12(B)に示すように、作業の進捗に対応して、表示領域A1〜A3の表示を変化させることによって、次に実行する作業の対象が明瞭に強調して表示される。このため、作業の順序に対応して、対象を強調して使用者に知覚させることができる。   As shown in FIG. 12A and FIG. 12B, by changing the display of the display areas A1 to A3 corresponding to the progress of the work, the target of the work to be executed next is clearly emphasized. Is displayed. For this reason, according to the order of work, a user can be made to emphasize and make a user perceive.

このように、作業の対象である物体や部品に重ねて、拡張現実感を有するAR表示により、色付け表示を行うことで、作業の具体的な対象を、わかりやすく使用者に知らせることができる。これによって、作業標準の言語情報と実物との対応付けが容易になるという効果がある。また、シナリオデータ123eの各項目に対応する作業が実行される前と後とで表示領域の色を変えることにより、これらの表示をチェックリストの代わりに使用できる。   As described above, the AR display having augmented reality is superimposed on the object or part that is the target of the work, and the colored display is performed, so that the user can easily be notified of the specific target of the work. This has the effect of facilitating the association between the work standard language information and the actual product. Further, by changing the color of the display area before and after the operation corresponding to each item of the scenario data 123e is executed, these displays can be used instead of the check list.

AR表示制御部163は、説明ボックスTX4に表示する各作業に対応する項目の表示状態を、作業が完了するごとに変更してもよい。例えば、完了した作業について、作業が完了したことを示すように表示色を変更してもよいし、表示サイズを縮小してもよい。また、AR表示制御部163は、完了した作業の次に実行される作業の項目を、他の項目と区別して視認できるように表示色を変えてもよい。また、AR表示制御部163は、作業が完了して表示色を変更する際に、シナリオデータ123に、作業が完了した日時を示すタイムスタンプを設定してもよい。   The AR display control unit 163 may change the display state of the item corresponding to each work displayed in the explanation box TX4 every time the work is completed. For example, for the completed work, the display color may be changed to indicate that the work has been completed, or the display size may be reduced. Further, the AR display control unit 163 may change the display color so that the item of the work executed next to the completed work can be distinguished from other items. The AR display control unit 163 may set a time stamp indicating the date and time when the work is completed in the scenario data 123 when the display color is changed after the work is completed.

AR表示制御部163は、説明ボックスTX4の表示について、表示順序や動作の重要度、或いは、特に間違いやすい動作としてシナリオデータ123に設定された動作について、より判り易く表示してもよい。具体的には、AR表示制御部163は、説明ボックスTX4の表示について、表示順序や動作の重要度に応じて強調表示、拡大表示、表示色の変更等を行ってもよい。また、特に間違いやすい動作について強調表示、拡大表示、表示色の変更等を行ってもよい。AR表示制御部163は、画像表示部20を透過して視認される動作の対象の視認性を損なわないように、説明ボックスTX4の表示位置を、対象の中心からずらしてもよい。さらに、AR表示制御部163は、特に細かな作業としてシナリオデータ123に設定された項目について、説明ボックスTX4における項目や画像を拡大して表示してもよい。さらに、複雑な作業としてシナリオデータ123に設定された項目について、例えば使用者の入力に応じて、説明ボックスTX4に動画像を表示してもよい。   The AR display control unit 163 may display the description box TX4 in a more easily understandable manner regarding the display order, the importance of the operation, or the operation set in the scenario data 123 as an operation that is particularly likely to be mistaken. Specifically, the AR display control unit 163 may perform highlight display, enlarged display, display color change, or the like on the display of the explanation box TX4 according to the display order or the importance of the operation. Moreover, highlighting, enlarged display, display color change, and the like may be performed for operations that are particularly likely to be mistaken. The AR display control unit 163 may shift the display position of the explanation box TX4 from the center of the target so as not to impair the visibility of the target of the operation viewed through the image display unit 20. Furthermore, the AR display control unit 163 may enlarge and display items and images in the explanation box TX4 for items set in the scenario data 123 as a particularly fine work. Furthermore, for items set in the scenario data 123 as complicated work, a moving image may be displayed in the explanation box TX4, for example, in accordance with a user input.

図13は、HMD100の動作を示すフローチャートである。
使用者がHMD100を装着し、操作部135の操作によりシナリオデータ123の表示が指示されると、制御部140は、表示に係る動作を開始する(ステップS11)。
制御部140は、記憶部120からシナリオデータ123を取得し(ステップS12)、シナリオデータ123の表示形式を選択する(ステップS13)。ステップS13で、制御部140は、予め設定された表示形式を選択してもよいし、使用者の入力により指定される表示形式を選択してもよい。表示形式は、例えば図7(A)、図7(B)、及び図7(C)に示した形式がある。
FIG. 13 is a flowchart showing the operation of the HMD 100.
When the user wears the HMD 100 and the display of the scenario data 123 is instructed by operating the operation unit 135, the control unit 140 starts an operation related to the display (step S11).
The control unit 140 acquires the scenario data 123 from the storage unit 120 (step S12), and selects the display format of the scenario data 123 (step S13). In step S13, the control unit 140 may select a preset display format, or may select a display format designated by a user input. Examples of the display format include the formats shown in FIGS. 7A, 7B, and 7C.

制御部140は、シナリオデータ123の表示に履歴データ124を利用(再生)するか否かを判定する(ステップS14)。事前の設定、または使用者の操作により、履歴データ124を再生しないと判定した場合(ステップS14;NO)、制御部140は、シナリオデータ123の項目を、ステップS13で選択した表示形式で画像表示部20に表示させる(ステップS15)。このステップS15では、項目の表示順序を、シナリオデータ123の項目に対応する動作の実行順序に適合するように制御する。   The control unit 140 determines whether to use (reproduce) the history data 124 for displaying the scenario data 123 (step S14). When it is determined that the history data 124 is not to be reproduced due to the prior setting or the user's operation (step S14; NO), the control unit 140 displays an image of the item of the scenario data 123 in the display format selected in step S13. It is displayed on the unit 20 (step S15). In step S15, the display order of the items is controlled so as to match the execution order of the operations corresponding to the items of the scenario data 123.

続いて、制御部140は、右カメラ61及び/又は左カメラ62の撮像画像データや使用者の入力操作に基づき、動作状態を検出する(ステップS16)。そして、制御部140は、検出した動作状態の記録を作成し(ステップS17)、一つの項目に対応する動作が完了したか否かを判定する(ステップS18)。動作が完了していない場合(ステップS18;NO)、制御部140はステップS16に戻る。
また、動作が完了した場合(ステップS18;YES)、制御部140は、画像表示部20に表示中の項目のうち、動作が完了したと判定した項目の表示状態を変更する(ステップS19)。制御部140は、ステップS17で作成した記録に基づき、履歴データ124を記憶部120に保存し、或いは記憶部120に保存した履歴データ124を更新する(ステップS20)。ここで、ステップS13で選択した表示形式が、項目を一つずつ或いは予め設定された数ずつ順次切り替えて表示する表示形式であって、表示中のすべての項目について動作が完了した場合、制御部140は、新たな項目を表示する。
Subsequently, the control unit 140 detects the operation state based on the captured image data of the right camera 61 and / or the left camera 62 and the user's input operation (step S16). Then, the control unit 140 creates a record of the detected operation state (step S17), and determines whether or not the operation corresponding to one item is completed (step S18). When the operation is not completed (step S18; NO), the control unit 140 returns to step S16.
Further, when the operation is completed (step S18; YES), the control unit 140 changes the display state of the item determined to have completed the operation among the items displayed on the image display unit 20 (step S19). The control unit 140 stores the history data 124 in the storage unit 120 or updates the history data 124 stored in the storage unit 120 based on the record created in step S17 (step S20). Here, if the display format selected in step S13 is a display format in which items are sequentially switched one by one or a preset number, and the operation is completed for all items being displayed, the control unit 140 displays a new item.

その後、制御部140は表示を完了するか否かを判定する(ステップS21)。シナリオデータ123に含まれるすべての項目について、対応する動作が完了した場合、或いは、使用者の操作により表示の終了が指示された場合、制御部140は表示を終了すると判定し(ステップS21;YES)、本処理を終了する。
表示を終了しないと判定した場合(ステップS21;NO)、制御部140はステップS16に戻る。
Thereafter, the control unit 140 determines whether or not the display is completed (step S21). When the corresponding operation is completed for all items included in the scenario data 123, or when the end of the display is instructed by the user's operation, the control unit 140 determines to end the display (step S21; YES) ), This process is terminated.
When it determines with not complete | finishing a display (step S21; NO), the control part 140 returns to step S16.

また、ステップS14で履歴データ124を再生すると判定した場合(ステップS14;YES)、制御部140は、履歴データ124を取得する(ステップS22)。制御部140は、シナリオデータ123に含まれる項目について、履歴データ124で動作が完了したと設定された項目の次の項目から表示し(ステップS23)、ステップS16に移行する。   When it is determined in step S14 that the history data 124 is to be reproduced (step S14; YES), the control unit 140 acquires the history data 124 (step S22). The control unit 140 displays the items included in the scenario data 123 from the item next to the item set as the operation completed in the history data 124 (step S23), and proceeds to step S16.

また、状態検出部164は、位置検出部162が認識し検出する入力に基づき、実行状態を検出してもよい。例えば、音声、指示体の位置、向、或いは動き、9軸センサー66の検出値、右カメラ61及び/又は左カメラ62の撮像画像から検出される入力用マーカーの画像、フットスイッチ(図示略)の操作に基づき、実行状態を検出してもよい。   Further, the state detection unit 164 may detect the execution state based on an input recognized and detected by the position detection unit 162. For example, voice, the position, direction, or movement of the indicator, the detected value of the 9-axis sensor 66, the image of the input marker detected from the captured image of the right camera 61 and / or the left camera 62, a foot switch (not shown) The execution state may be detected based on the operation.

以上説明したように、本発明を適用した第1実施形態に係るHMD100は、外景を透過して視認可能に画像を表示する画像表示部20と、画像表示部20を透過して視認される範囲の入力を検出して入力位置を特定する位置検出部162を有する。制御部140は、項目を含むシナリオデータ123に基づき、画像表示部20に項目を表示させ、位置検出部162で特定した入力位置に対応して、画像表示部20における表示を変化させる。
これにより、場所や物体を対象として動作(例えば、作業)をする人が、画像表示部20により項目を見ることができ、動作の対象である場所や物体を、画像表示部20を透過して視認できる。このため、表示される内容を見るために、視線を大きく移動するなどの負荷の大きい動きを行う必要がなく、手軽に情報を見ることができる。
As described above, the HMD 100 according to the first embodiment to which the present invention is applied includes the image display unit 20 that displays an image so as to be visible through the outside scene, and the range that is visible through the image display unit 20. And a position detection unit 162 that identifies the input position. Based on the scenario data 123 including the items, the control unit 140 displays the items on the image display unit 20 and changes the display on the image display unit 20 in accordance with the input position specified by the position detection unit 162.
Accordingly, a person who performs an operation (for example, work) on a place or an object can see the item on the image display unit 20, and the place or object that is the operation target is transmitted through the image display unit 20. Visible. For this reason, in order to view the displayed content, it is not necessary to perform a movement with a large load such as a large movement of the line of sight, and information can be easily viewed.

また、シナリオデータ123は、動作に対応する複数の項目を含み、それぞれの項目には動作の実行順に対応する項目の順序が設定される。これにより、HMD100の使用者が、項目の表示態様をもとに動作の実行順を知ることができる。   The scenario data 123 includes a plurality of items corresponding to operations, and the order of items corresponding to the execution order of operations is set for each item. Thereby, the user of HMD100 can know the execution order of operation | movement based on the display mode of an item.

制御部140のAR表示制御部163は、複数の項目をリスト形式で配置して画像表示部20に表示させてもよく、この場合、項目は項目に設定された順序に従って配置される。これにより、使用者は、表示される複数の項目の配置から、動作の実行順を知ることができる。
制御部140は、項目に設定された順序で項目を順次表示させてもよい。これにより、使用者は、項目の表示順から動作の実行順を知ることができる。
The AR display control unit 163 of the control unit 140 may arrange a plurality of items in a list format and display them on the image display unit 20. In this case, the items are arranged according to the order set for the items. Thereby, the user can know the execution order of the operation from the arrangement of the displayed items.
The control unit 140 may sequentially display the items in the order set for the items. Thereby, the user can know the execution order of the operation from the display order of the items.

シナリオデータ123は、シナリオデータ123に含まれる項目に対応する動作の実行順に関する情報を含むデータを含み、制御部140は、この実行順に基づき、リストSRや表示部D等の画像を画像表示部20に表示させる。これにより、動作の実行順を画像により視認させることができる。   The scenario data 123 includes data including information related to the execution order of operations corresponding to the items included in the scenario data 123, and the control unit 140 displays images such as the list SR and the display unit D based on the execution order. 20 is displayed. Thereby, the execution order of operation | movement can be visually recognized with an image.

また、AR表示制御部163は、項目に対応づけて、項目に対応する動作の完了を示すチェックボックスCHを表示する。この場合、AR表示制御部163は、項目に設定された順序で項目を順次表示させた後、項目に対応する動作の完了を検出した場合に、チェックボックスCHの表示状態を、動作完了を示す状態に変更する。これにより、動作の進捗状況をわかりやすく示すことができる。   In addition, the AR display control unit 163 displays a check box CH indicating the completion of the operation corresponding to the item in association with the item. In this case, when the AR display control unit 163 sequentially displays the items in the order set in the items and then detects the completion of the operation corresponding to the items, the display state of the check box CH indicates the operation completion. Change to state. Thereby, the progress of the operation can be shown in an easily understandable manner.

HMD100は、記憶部120に、シナリオデータ123と順序データとを対応付けて記憶するので、動作に関する項目に関するデータと動作の実行順とに関するデータとの対応関係、及び各データを容易に読み出して利用できる。   Since the HMD 100 stores the scenario data 123 and the order data in association with each other in the storage unit 120, the correspondence between the data related to the operation and the data related to the execution order of the operation, and each data can be easily read and used. it can.

制御部140は、位置検出部162で特定した入力位置に対応する位置に表示中の項目に、指標としてのマーカーを重ねて表示させてもよい。この場合、使用者が入力を行うことにより、表示される項目の表示態様を変化させることができる。
また、制御部140の状態検出部164は、右カメラ61、左カメラ62による外景の撮像画像または外景からマイク63により集音される音声に基づき、項目に対応する動作の実行状態を検出してもよい。AR表示制御部163は、検出した実行状態に応じて、画像表示部20によって表示中の項目の表示状態を変化させてもよい。この場合、動作の実行状態に対応して項目の表示状態を変化させることができる。
The control unit 140 may display a marker as an index in an overlapping manner on an item being displayed at a position corresponding to the input position specified by the position detection unit 162. In this case, the display mode of the displayed item can be changed by the user performing input.
Further, the state detection unit 164 of the control unit 140 detects the execution state of the operation corresponding to the item based on the captured image of the outside scene by the right camera 61 and the left camera 62 or the sound collected by the microphone 63 from the outside scene. Also good. The AR display control unit 163 may change the display state of the item being displayed by the image display unit 20 according to the detected execution state. In this case, the display state of the item can be changed corresponding to the execution state of the operation.

記憶部120は、動作の実行状態に係る情報を含む履歴データ124を記憶する。制御部140は、シナリオデータ123に含まれる項目に対応する動作の履歴データ124を、シナリオデータ123に対応付けて記憶部120に記憶させる。制御部140は、記憶部120から履歴データ124を読み出した場合に、読み出した履歴データ124に基づき、画像表示部20によって表示する項目の表示状態を制御する。この場合、動作の実行状態に関するデータを記憶し、このデータを読み出して表示に反映することによって、実行状態に関する記録と、記録した実行状態の呼び出しを行える。   The storage unit 120 stores history data 124 including information related to the execution state of the operation. The control unit 140 stores the operation history data 124 corresponding to the items included in the scenario data 123 in the storage unit 120 in association with the scenario data 123. When the history data 124 is read from the storage unit 120, the control unit 140 controls the display state of items displayed by the image display unit 20 based on the read history data 124. In this case, data relating to the execution state of the operation is stored, and by reading this data and reflecting it in the display, it is possible to record the execution state and call the recorded execution state.

また、制御部140は、位置検出部162により、外景における対象を検出する。AR表示制御部163は、位置検出部162で検出された対象が画像表示部20を透過して視認される位置に対応させて、シナリオデータ123に含まれる項目を表示させる。これにより、動作の対象の場所や物体と項目との両方を容易に視認できる。   In addition, the control unit 140 uses the position detection unit 162 to detect the object in the outside scene. The AR display control unit 163 displays the items included in the scenario data 123 in association with the position where the object detected by the position detection unit 162 is viewed through the image display unit 20. Thereby, it is possible to easily visually recognize both the place and the object and the item to be operated.

このように、HMD100は、人間が行う作業のチェック等を現実世界の物体または電子媒体の物体に重ねてAR表示することができる。この場合、表示の態様を、対象の位置に合わせることで、対象に対する相対位置を保持するスタビライズ表示を行い、項目を視認しやすい位置に保持できる。   As described above, the HMD 100 can display AR by superimposing a check of work performed by a human on an object in the real world or an object in an electronic medium. In this case, by adjusting the display mode to the position of the target, a stabilized display that holds the relative position with respect to the target can be performed, and the item can be held at a position where it can be easily viewed.

また、制御部140は、画像表示部20を透過して視認される実空間の物体から選択される対象に関連する情報を、対象に対応する表示態様で表示させる。例えば、AR表示制御部163は、図9〜図12に示したように、作業の対象としてのベアリング300、ボール303、オイルシール304、或いはサドル321、ハブベアリング322、タイヤ323などに対応するAR表示を行う。ここで、AR表示制御部163は、マーカーM11、M12や表示領域A1〜A3に、情報表示としての色分け表示を行う。これにより、HMD100を使用する使用者に、画像表示部20を透過して視認される実空間の物体に関する情報を、実空間の物体に対応するように見せることができる。   In addition, the control unit 140 displays information related to a target selected from an object in real space that is viewed through the image display unit 20 in a display mode corresponding to the target. For example, as shown in FIGS. 9 to 12, the AR display control unit 163 has an AR corresponding to the bearing 300, the ball 303, the oil seal 304, or the saddle 321, the hub bearing 322, the tire 323, and the like as work targets. Display. Here, the AR display control unit 163 performs color-coded display as information display on the markers M11 and M12 and the display areas A1 to A3. Thereby, it is possible to make the user who uses the HMD 100 see information related to an object in the real space that is visible through the image display unit 20 so as to correspond to the object in the real space.

また、制御部140は、画像表示部20を透過して視認される実空間において対象を強調する情報を、対象に重ねて表示させる。例えば、AR表示制御部163は、作業の対象であるボール303、オイルシール304に、マーカーM11,M12を重ねて表示して強調する。また、例えば、AR表示制御部163は、作業の対象としてのサドル321、ハブベアリング322、タイヤ323のそれぞれに重ねて表示領域A1〜A3を表示し、強調表示する。これにより、HMD100の使用者に、作業に関わる実空間の物体を強調して見せることができる。   In addition, the control unit 140 displays information that emphasizes the target in a real space that is visible through the image display unit 20 so as to overlap the target. For example, the AR display control unit 163 highlights the markers M11 and M12 superimposed on the ball 303 and the oil seal 304 that are the objects of work. Further, for example, the AR display control unit 163 displays and highlights the display areas A1 to A3 so as to overlap each of the saddle 321, the hub bearing 322, and the tire 323 as work targets. Thereby, it is possible to show the user of the HMD 100 with emphasis on the object in the real space related to the work.

また、制御部140は、入力に応じて、対象に対応する表示態様で表示させた情報を、異なる対象に対応する情報に切り替えて表示する。例えば、AR表示制御部163は、作業の対象であるサドル321に重ねて表示する表示領域A1に情報として色塗り表示を行う。AR表示制御部163は、作業が完了したことを示す入力に対応して、表示領域A1の表示を停止し、ハブベアリング322に重ねて表示する表示領域A2に色塗り表示を行う。このため、異なる対象に対応して、異なる情報を順次表示できる。   Moreover, the control part 140 switches and displays the information displayed with the display mode corresponding to object in the information corresponding to a different object according to input. For example, the AR display control unit 163 performs a color display as information on the display area A1 that is displayed so as to overlap the saddle 321 that is a work target. In response to the input indicating that the work is completed, the AR display control unit 163 stops the display of the display area A1 and performs a colored display on the display area A2 displayed over the hub bearing 322. For this reason, different information can be sequentially displayed corresponding to different objects.

上記実施形態で、画像表示部20により表示する項目の表示状態を、作業(動作)の進行状態に応じて変化させる方法は、リストSRにおいてチェックボックスCHの表示状態を、動作完了を示す状態に変更する方法に限定されない。例えば、動作が完了したことが検出された項目をリストSRから削除してもよいし、リストSRにおける表示色や表示輝度を変化させてもよい。例えば、項目の表示色を維持して、項目に重なる位置に、蛍光色など視認性を高める色の塗りつぶし表示を行ってもよい。また、項目の表示色を変化させる場合に、表示輝度を調整することで、項目に重なる位置の外景の透過度を変化させてもよい。また、項目の表示位置を変えてもよく、例えば、作業完了となった項目を違う行に移動してもよい。さらに、左光学像表示部28と右光学像表示部26のいずれか一方に項目を表示する構成とし、作業完了となった項目の表示位置を、左光学像表示部28から右光学像表示部26へ、或いはその逆方向に移動させてもよい。これにより、後から確認はできるものの、これからやらなくてはいけない手順が明確に判る表示であれば色々な「表示変化」形態とすることができる。   In the above embodiment, the method of changing the display state of the item displayed by the image display unit 20 according to the progress state of the work (operation) is to change the display state of the check box CH in the list SR to a state indicating the operation completion. It is not limited to the method of changing. For example, an item for which the operation has been detected may be deleted from the list SR, or the display color and display brightness in the list SR may be changed. For example, the display color of the item may be maintained, and a color such as a fluorescent color that enhances the visibility may be displayed in a position overlapping the item. Further, when changing the display color of the item, the transparency of the outside scene at the position overlapping the item may be changed by adjusting the display brightness. In addition, the display position of the item may be changed. For example, the item that has been completed may be moved to a different line. Further, the item is displayed on one of the left optical image display unit 28 and the right optical image display unit 26, and the display position of the item for which the operation is completed is changed from the left optical image display unit 28 to the right optical image display unit. 26 or in the opposite direction. In this way, although it can be confirmed later, if the display clearly shows the procedure that must be performed from now on, various “display change” forms can be realized.

第1実施形態のHMD100の適用例としては、以下のような例が挙げられる。
複数の行程を含む作業の作業標準書をシナリオデータ123により構成する場合、シナリオデータ123をチェックリストとして利用できる。この場合、作業の案内をする文書、静止画像、動画像を、シナリオデータ123に含めることができる。また、動画像に音声を含めてシナリオデータ123に含ませてもよい。
この作業標準書は、作業の工程毎に、作業対象の部品、機器、或いは部品や機器の部分を対象OBとしてAR表示制御部163により表示できる。
また、シナリオデータ123に基づく表示中における使用者の操作に基づき、シナリオデータ123を編集することが可能な構成としてもよい。この場合の入力方法は、図5を参照して説明した方法を採用できる。
この例では、使用者がHMD100を装着して実際に作業を行い、作業の変更や要点注釈の変更点等をリアルタイムにシナリオデータ123に反映できる。
また、作業中に右カメラ61及び左カメラ62によって撮像される動画像または静止画像や、マイク63で集音された音声を、シナリオデータ123に含めて保存できる構成としてもよい。
Examples of application of the HMD 100 according to the first embodiment include the following examples.
When a work standard document for work including a plurality of processes is configured by the scenario data 123, the scenario data 123 can be used as a check list. In this case, a document for guiding the work, a still image, and a moving image can be included in the scenario data 123. Further, the moving image may include voice in the scenario data 123.
This work standard document can be displayed by the AR display control unit 163 as a target OB for a part, equipment, or part or equipment part to be worked for each work process.
Moreover, it is good also as a structure which can edit the scenario data 123 based on a user's operation in the display based on the scenario data 123. FIG. The input method in this case can employ the method described with reference to FIG.
In this example, a user can actually work with the HMD 100 attached, and changes in work, changes in key annotations, and the like can be reflected in the scenario data 123 in real time.
Moreover, it is good also as a structure which can include the moving image or still image imaged with the right camera 61 and the left camera 62 during work, and the audio | voice collected with the microphone 63 by including in the scenario data 123, and can be preserve | saved.

作業は、例えば工場におけるライン作業、セル生産方式における作業があげられるが、商店等における作業の支援にも適用できる。また、シナリオデータ123を編集可能とすることで、作業をしながら標準作業と成りえる画像を標準作業として登録保存できる。
また、小さな商店等の棚商品の在庫管理の行程を、シナリオデータ123により行える。この場合、HMD100を装着した使用者が店内を巡回し、右カメラ61及び左カメラ62により商品を撮像することにより、位置検出部162で商品を検出できる。この場合、商品の個数、場所、時間等を記録して履歴データ124として保存できる。これにより、在庫管理業務、ピッキング業務等の作業支援システムとしても利用可能である。
Examples of the work include a line work in a factory and a work in a cell production method. Further, by enabling editing of the scenario data 123, an image that can be a standard work while working can be registered and stored as a standard work.
In addition, the scenario data 123 can be used to manage the inventory of shelves such as small shops. In this case, the user wearing the HMD 100 circulates in the store and picks up the product with the right camera 61 and the left camera 62 so that the position detection unit 162 can detect the product. In this case, the number, location, time, etc. of the product can be recorded and saved as history data 124. Thus, it can be used as a work support system for inventory management work, picking work, and the like.

また、病院や医院における診察業務において、診断フローをシナリオデータ123として作成し、活用できる。例えば、患者の問診における確認項目、及び、検査結果の項目を、シナリオデータ123の項目として含むことにより、シナリオデータ123に従って診断を行うことができる。この場合、シナリオデータ123に含まれる項目について使用者である医師等の医療関係者が入力するデータや、右カメラ61、左カメラ62の撮像画像データを、履歴データ124として記憶部120に記憶し保存すれば、履歴データ124を電子カルテの一部すなわち診断記録として活用できる。   Further, a diagnosis flow can be created as scenario data 123 and used in a medical examination operation at a hospital or clinic. For example, it is possible to make a diagnosis according to the scenario data 123 by including the confirmation item and the examination result item in the patient inquiry as items of the scenario data 123. In this case, data input by medical personnel such as a doctor who is a user for items included in the scenario data 123 and captured image data of the right camera 61 and the left camera 62 are stored in the storage unit 120 as history data 124. If saved, the history data 124 can be used as a part of the electronic medical record, that is, as a diagnostic record.

また、HMD100を装着する使用者が、外景として視認できる実空間の人や物の数を数える場合にも適用できる。この場合、ジェスチャー等の入力操作が行われる毎にカウント(計数)が進行し、カウントされた人や物に対し、カウント済みであることを示す画像やマーカーが重なるAR表示をすると、効果的である。この適用例では、二重のカウント(ダブルカウント)の防止、ハンズフリーでありながら漏らさずチェック(カウント)できる等の効果が得られる。例えば、イベント会場における人数のカウント、工場作業中における部品数のカウント、等に適用できる。   Further, the present invention can also be applied to a case where the user wearing the HMD 100 counts the number of people or objects in real space that can be visually recognized as an outside scene. In this case, each time an input operation such as a gesture is performed, counting (counting) progresses, and it is effective to display an AR display in which images and markers indicating that the counting has been completed are overlapped for the counted person or object. is there. In this application example, effects such as prevention of double counting (double counting) and checking (counting) without leakage while being hands-free can be obtained. For example, the present invention can be applied to counting the number of people at an event venue, counting the number of parts during factory work, and the like.

また、HMD100を装着する使用者が、球技の審判や記録係である場合にも本発明を適用できる。この場合、外景として視認できる実空間においてし合い(ゲーム)が行われる場合に、ゲーム中のプレーについてカウントを実行できる。具体的には、野球のゲームにおけるストライク、ボールカウント、イニング数、イニングの裏と表、得点等のカウントや表示を行うことで、間違いを防止できる。また、例えば、ゴルフ競技におけるラウンド数のカウント、スコアーの計算等にHMD100を利用して間違いを防止できる。また、プレイヤーがHMD100を装着してもよい。   The present invention can also be applied to a case where the user wearing the HMD 100 is a ball game umpire or recording staff. In this case, when a game (game) is performed in a real space that can be visually recognized as an outside scene, the play during the game can be counted. Specifically, mistakes can be prevented by counting and displaying strikes, ball counts, inning numbers, back and front of innings, scores, etc. in a baseball game. Further, for example, mistakes can be prevented by using the HMD 100 for counting the number of rounds in golf competitions, calculating scores, and the like. The player may wear the HMD 100.

このように、HMD100により本発明を適用することで、使用者の動作の確度を保証し、手順のチェック、点数の確認、製造現場における品質保証のためのトレーサビリティー(品質保証)のための確認、補償等を実現できる。例えば、人間の行動の不確実性や記憶の曖昧さ等に起因する間違い、トラブル等を、HMD100の機能により確実に防止できる。   In this way, by applying the present invention by the HMD 100, the accuracy of the operation of the user is guaranteed, the procedure is checked, the number is confirmed, and the traceability (quality assurance) for quality assurance at the manufacturing site is confirmed. Compensation can be realized. For example, errors and troubles caused by uncertainties in human behavior, ambiguity in memory, and the like can be reliably prevented by the function of the HMD 100.

また、シナリオデータ123は、例えば、プレゼンテーションソフトウェア(例えば、Microsoft(登録商標)社のPowerPoint(登録商標))の形式で作成されたプレゼンテーションプロジェクトファイルとすることができる。この場合、プレゼンテーションプロジェクトファイルを、シナリオデータ123として表示し、HMD100を装着する使用者は表示領域V1の表示を見ながらプレゼンテーションを行える。シナリオデータ123に、プレゼンテーションで発話する文章を項目の内容として含めることで、プレゼンテーションの原稿として利用できる。この場合、使用者が発話する音声をマイク63で集音し、音声処理部187で音声をテキスト変換してシナリオデータ123の内容と照合することで、シナリオデータ123において発話済みのテキスト(文字、文字列)を制御部140が特定できる。ここで、AR表示制御部163が、発話済みのテキストの表示態様を変化させれば、プレゼンテーションの進行状態を使用者に見せることができる。例えば、発話済みのテキストを表示領域V1から消去する態様が考えられる。この場合、画像やテキストの表示位置や表示輝度は、画像表示部20を透過して視認される外景の視認性を妨げない位置、輝度とすることが好ましい。これにより、例えば、プロジェクターにより表示されるプレゼンテーションのスライド画像を、使用者が視認しやすくなる。また、これから発話するテキスト等をハイライト等の強調表示をしてもよい。   The scenario data 123 may be a presentation project file created in the format of presentation software (for example, PowerPoint (registered trademark) of Microsoft (registered trademark)), for example. In this case, the presentation project file is displayed as scenario data 123, and the user wearing the HMD 100 can make a presentation while viewing the display in the display area V1. The scenario data 123 can be used as a presentation manuscript by including a sentence uttered in the presentation as the content of the item. In this case, the voice uttered by the user is collected by the microphone 63, and the voice processing unit 187 converts the voice into text and collates it with the contents of the scenario data 123, thereby uttering the text (character, Character string) can be specified by the control unit 140. Here, if the AR display control unit 163 changes the display mode of the uttered text, the progress of the presentation can be shown to the user. For example, a mode in which the uttered text is erased from the display area V1 can be considered. In this case, it is preferable that the display position and display brightness of the image and text are set to a position and brightness that do not hinder the visibility of the outside scene viewed through the image display unit 20. Thereby, for example, it becomes easy for the user to visually recognize the slide image of the presentation displayed by the projector. Further, the text to be uttered from now on may be highlighted such as highlighted.

従来、作業の手順のマニュアル等を見ながら作業を行う場合、作業をどこまで実行したかの確認をすること、及び、作業が正しい手順で実行されたかを確認することは、作業者の記憶に頼っていた。同様に、プレゼンテーションを実行する場合に、どこまでプレゼンテーションが進行したかを記録することは容易ではなく、プレゼンテーションを実行する人の記憶に頼って管理されていた。本実施形態のHMD100を利用すれば、HMD100を装着する使用者は、作業内容をチェックリストにより自身で確認することができる。また、撮像画像データに基づき動作を検出する構成では、シナリオデータ123に含まれる項目に対応する作業等の動作について、実施済みか否かの確認、進行状態の確認等を、使用者の記憶のみに頼る場合に比べ、容易にかつ確実に行うことができる。また、動作の実行漏れ、動作の実行順序の間違い等を防止できる。シナリオデータ123に含まれる一連の動作を順次実行する間に、他の動作を行っても、AR表示制御部163が表示するリストSRや表示部Dにより、中断した動作に関する情報を得ることができる。これにより、複数の工程を含む作業やプレゼンテーション等の確度を高め、スピード、正確性、時間の管理の各種の面において、向上を図ることが可能となる。   Conventionally, when performing a work while looking at the manual of the work procedure, etc., it is dependent on the worker's memory to confirm how far the work has been performed and to confirm whether the work has been performed in the correct procedure. It was. Similarly, when a presentation is performed, it is not easy to record how far the presentation has progressed, and it is managed depending on the memory of the person who performs the presentation. If the HMD 100 of this embodiment is used, the user who wears the HMD 100 can confirm the work content by himself / herself using a check list. In addition, in the configuration in which the operation is detected based on the captured image data, only the user's memory is used to check whether the operation corresponding to the item included in the scenario data 123 has been performed, whether the progress state has been checked, or the like. This can be done easily and reliably compared to the case of relying on. In addition, it is possible to prevent omission of execution of operations, mistakes in the execution order of operations, and the like. Even if other operations are performed while the series of operations included in the scenario data 123 are sequentially performed, information about the suspended operation can be obtained from the list SR and the display unit D displayed by the AR display control unit 163. . Thereby, it is possible to improve accuracy in various aspects of speed, accuracy, and time management by improving the accuracy of work including multiple processes, presentations, and the like.

[第2実施形態]
図14は、第2実施形態におけるHMD100の動作を示すフローチャートである。
第2実施形態のHMD100の構成は、上記第1実施形態で図1〜図4を参照して説明した構成と共通であるため、図示及び説明を省略する。
第2実施形態で、HMD100は、近距離無線通信部119によりシナリオデータ123を取得する。また、シナリオデータ123とともに履歴データ124を取得してもよい。
[Second Embodiment]
FIG. 14 is a flowchart showing the operation of the HMD 100 in the second embodiment.
Since the configuration of the HMD 100 of the second embodiment is the same as the configuration described with reference to FIGS. 1 to 4 in the first embodiment, illustration and description thereof are omitted.
In the second embodiment, the HMD 100 acquires the scenario data 123 by the short-range wireless communication unit 119. Further, the history data 124 may be acquired together with the scenario data 123.

図14のフローチャートにおいて、図13で説明した動作と共通する処理には、同じステップ番号を付す。
図14の動作では、通信制御部165の制御により、近距離無線通信部119が通信を待機する(ステップS31)。ステップS31で、近距離無線通信部119は、外部の機器に対して通信を試行する。具体的には、外部の機器の検索を行う無線信号の送信、外部の機器から送信される無線信号の受信等を試行する。外部の機器は、例えば、BluetoothやNFCで通信する機器、ICタグ等である。通信制御部165は、近距離無線通信部119が外部の機器との無線通信を開始できる状態になるまでの間、通信の試行を継続する(ステップS31;NO)。近距離無線通信部119による通信が可能な状態になった場合(ステップS31;YES)、通信制御部165は、外部の機器との無線通信を実行させ、シナリオデータ123を取得する(ステップS32)。ステップS32では、履歴データ124を取得してもよい。通信制御部165が取得したシナリオデータ123、または、シナリオデータ123と履歴データ124は、記憶部120に記憶される。
In the flowchart of FIG. 14, the same step numbers are assigned to the processes common to the operations described in FIG.
In the operation of FIG. 14, the short-range wireless communication unit 119 waits for communication under the control of the communication control unit 165 (step S31). In step S31, the short-range wireless communication unit 119 tries communication with an external device. Specifically, transmission of a wireless signal for searching for an external device, reception of a wireless signal transmitted from the external device, and the like are tried. The external device is, for example, a device that communicates with Bluetooth or NFC, an IC tag, or the like. The communication control unit 165 continues the communication attempt until the short-range wireless communication unit 119 becomes ready to start wireless communication with an external device (step S31; NO). When communication by the short-range wireless communication unit 119 becomes possible (step S31; YES), the communication control unit 165 executes wireless communication with an external device and acquires the scenario data 123 (step S32). . In step S32, the history data 124 may be acquired. The scenario data 123 acquired by the communication control unit 165 or the scenario data 123 and the history data 124 is stored in the storage unit 120.

AR表示制御部163は、通信制御部165が取得し記憶部120に記憶されたシナリオデータ123を読み出して、シナリオデータ123に含まれる項目を表示する(ステップS33)。項目の表示については図13のステップS14、S15、S23と同様の処理が行われる。制御部140は、ステップS16〜S21の動作を実行する。   The AR display control unit 163 reads the scenario data 123 acquired by the communication control unit 165 and stored in the storage unit 120, and displays items included in the scenario data 123 (step S33). For the item display, the same processing as in steps S14, S15, and S23 of FIG. 13 is performed. The control unit 140 executes the operations of steps S16 to S21.

近距離無線通信部119は、上述したように近距離無線通信を実行するので、近距離無線通信部119が通信可能な範囲に外部の機器が存在しない場合は、シナリオデータ123を取得しない。そして、近距離無線通信部119の通信可能範囲に外部の機器が現れた場合に、この機器からシナリオデータ123を取得して表示する。
例えば、HMD100の制御装置10を、シナリオデータ123を保持する機器に接近させると、ステップS31で無線通信が発生し(ステップS31;YES)、当該機器から取得するシナリオデータ123に含まれる項目が画像表示部20により表示される。
Since the short-range wireless communication unit 119 performs short-range wireless communication as described above, the scenario data 123 is not acquired when there is no external device in a range in which the short-range wireless communication unit 119 can communicate. When an external device appears in the communicable range of the short-range wireless communication unit 119, the scenario data 123 is acquired from this device and displayed.
For example, when the control device 10 of the HMD 100 is brought close to a device that holds the scenario data 123, wireless communication occurs in step S31 (step S31; YES), and the items included in the scenario data 123 acquired from the device are images. Displayed by the display unit 20.

第2実施形態のHMD100は、シナリオデータ123を保持する機器に接近した場合に、接近した機器が保持するシナリオデータ123に基づく表示を行うので、シナリオデータ123を保持する機器が複数存在する場所で、近接した機器が保持するシナリオデータ123に基づく表示を行う。この場合、HMD100は、場所に対応するシナリオデータ123を取得して表示を行うことができる。   When the HMD 100 according to the second embodiment approaches a device that holds the scenario data 123, the HMD 100 performs display based on the scenario data 123 held by the approached device. And display based on the scenario data 123 held by the adjacent devices. In this case, the HMD 100 can acquire and display the scenario data 123 corresponding to the place.

具体的な例としては、建物内の机等の家具や什器・設備、冷蔵庫等の家電製品、工場内の機械、複数の機械で構成される生産ライン、自動車等の場所に、HMD100と無線通信可能かつシナリオデータ123を有する機器を配置する。この場合、HMD100を装着した使用者が、シナリオデータ123を有する機器に接近すると、このシナリオデータ123に基づく表示が行われる。従って、使用者に対し、使用者がいる場所に対応したシナリオデータ123を提供できる。また、シナリオデータ123を、使用者の操作により改変可能な構成とすれば、随時、シナリオデータ123を改変できる。改変したシナリオデータ123を、外部の機器に対して送信する構成であってもよい。   Specific examples include furniture such as desks in a building, furniture and equipment, household electrical appliances such as refrigerators, machines in factories, production lines composed of multiple machines, and places such as automobiles and wireless communication with the HMD 100. A device that is capable and has scenario data 123 is arranged. In this case, when the user wearing the HMD 100 approaches a device having the scenario data 123, display based on the scenario data 123 is performed. Therefore, the scenario data 123 corresponding to the place where the user is present can be provided to the user. Further, if the scenario data 123 has a configuration that can be modified by a user operation, the scenario data 123 can be modified at any time. The modified scenario data 123 may be transmitted to an external device.

このように、HMD100は、外部の機器と通信する通信部117、近距離無線通信部119を備え、外部の機器からシナリオデータ123を受信して取得してもよい。この場合、項目に関するデータを外部から取得できる。また、近距離無線通信部119は、近距離無線通信を実行して、シナリオデータ123を取得してもよい。この場合、近距離無線通信を行える距離が限られるため、場所に関連付けられたデータを取得できる。   As described above, the HMD 100 may include the communication unit 117 and the short-range wireless communication unit 119 that communicate with an external device, and may receive and acquire the scenario data 123 from the external device. In this case, the data regarding the item can be acquired from the outside. The short-range wireless communication unit 119 may acquire the scenario data 123 by executing short-range wireless communication. In this case, since the distance at which short-range wireless communication can be performed is limited, data associated with the place can be acquired.

[変形例]
第1、第2実施形態で説明したHMD100を複数含むシステムとして構成することも可能である。この場合、動作を管理する管理者と、動作を実行する実行者が、それぞれHMD100を装着する形態が挙げられる。
この構成では、管理者のHMD100と実行者のHMD100との間でシナリオデータ123及び履歴データ124を送受信することで、シナリオデータ123及び履歴データ124を共有できる。すなわち、実行者のHMD100から管理者のHMD100に対して、シナリオデータ123及び履歴データ124を送信し、管理者のHMD100が受信したシナリオデータ123及び履歴データ124に基づく表示を行う。これにより、管理者は、実行者の動作の実行状態を知ることができる。
[Modification]
It is also possible to configure as a system including a plurality of HMDs 100 described in the first and second embodiments. In this case, a mode in which an administrator who manages the operation and an executor who executes the operation wear the HMD 100, respectively.
In this configuration, the scenario data 123 and the history data 124 can be shared by transmitting and receiving the scenario data 123 and the history data 124 between the administrator's HMD 100 and the executor's HMD 100. That is, the scenario data 123 and the history data 124 are transmitted from the executing person's HMD 100 to the administrator's HMD 100, and display is performed based on the scenario data 123 and the history data 124 received by the administrator's HMD 100. Thereby, the administrator can know the execution state of the performer's operation.

また、管理者のHMD100においてシナリオデータ123を編集し、編集後のシナリオデータ123を実行者のHMD100に送信し、実行者のHMD100が編集後のシナリオデータ123に基づく表示を行う構成としてもよい。この場合、管理者が、実行者の動作の実行を補助するようにシナリオデータ123を編集することで、管理者が実行者に対して支援を行える。この構成では、管理者は、情報提供側すなわち情報提供者ということができ、実行者は情報受信者ということができる。   Alternatively, the scenario data 123 may be edited by the administrator's HMD 100, the edited scenario data 123 may be transmitted to the executor's HMD 100, and the executor's HMD 100 may perform display based on the edited scenario data 123. In this case, the administrator can assist the executor by editing the scenario data 123 so as to assist the execution of the executor's action. In this configuration, the administrator can be referred to as the information provider, that is, the information provider, and the executor can be referred to as the information receiver.

また、異なる複数のシナリオデータ123を、対応づける構成としてもよい。例えば、管理者用のシナリオデータ123と、実行者用のシナリオデータ123とを対応づけることができる。管理者用のシナリオデータ123と実行者用のシナリオデータ123とは異なるデータであってもよい。管理者が確認する項目と、実行者が確認する項目とが異なる場合に、管理者用のシナリオデータ123と実行者用のシナリオデータ123とは異なる項目を含み、それぞれの項目に対応する履歴データ124をHMD100が保持する構成とすればよい。   A plurality of different scenario data 123 may be associated with each other. For example, the scenario data 123 for the manager and the scenario data 123 for the performer can be associated with each other. The scenario data 123 for the administrator and the scenario data 123 for the executor may be different data. When the items confirmed by the administrator and the items confirmed by the executor are different, the scenario data 123 for the administrator and the scenario data 123 for the executor include different items, and history data corresponding to each item 124 may be configured to be held by the HMD 100.

この場合、実行者が実行する作業について、管理者と実行者のそれぞれが装着するHMD100で、動作の実行状態を確認し、履歴データ124を生成できる。これにより、動作の実行に関してダブルチェックを行うことができ、動作の実行精度の向上を図ることができる。   In this case, for the work performed by the performer, the execution state of the operation can be confirmed and the history data 124 can be generated by the HMD 100 worn by the administrator and the performer. Thereby, it is possible to perform a double check regarding the execution of the operation, and to improve the execution accuracy of the operation.

なお、この発明は上記各実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。   In addition, this invention is not restricted to the structure of said each embodiment, In the range which does not deviate from the summary, it can be implemented in a various aspect.

上記各実施形態において、使用者が表示部を透過して外景を視認する構成は、右光学像表示部26及び左光学像表示部28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、右カメラ61及び/又は左カメラ62の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、本発明を適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。また、AR表示、MR表示、或いはVR表示といった処理を行わず、外部から入力される映像データまたはアナログ映像信号を表示する表示装置も、本発明の適用対象として勿論含まれる。   In the above embodiments, the configuration in which the user visually recognizes the outside scene through the display unit is not limited to the configuration in which the right optical image display unit 26 and the left optical image display unit 28 transmit external light. For example, the present invention can be applied to a display device that displays an image in a state where an outside scene cannot be visually recognized. Specifically, a captured image of the right camera 61 and / or the left camera 62, an image or CG generated based on the captured image, a video based on video data stored in advance or video data input from the outside, and the like are displayed. The present invention can be applied to a display device. This type of display device can include a so-called closed display device in which an outside scene cannot be visually recognized. Of course, a display device that displays video data or an analog video signal input from the outside without performing processing such as AR display, MR display, or VR display is also included as an application target of the present invention.

また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。   Further, for example, instead of the image display unit 20, another type of image display unit such as an image display unit worn like a hat may be adopted, and an image is displayed corresponding to the left eye of the user. And a display unit that displays an image corresponding to the right eye of the user. The display device of the present invention may be configured as a head mounted display mounted on a vehicle such as an automobile or an airplane. Further, for example, it may be configured as a head-mounted display built in a body protective device such as a helmet. In this case, the part for positioning the position with respect to the user's body and the part positioned with respect to the part can be used as the mounting portion.

さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続部40を介して接続された構成を例に挙げて説明したが、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、制御装置10が画像表示部20と分離して構成され、制御装置10と画像表示部20との間で無線通信により各種信号を送受信する構成としてもよい。
Furthermore, in the above embodiment, the image display unit 20 and the control device 10 are separated and connected by way of the connection unit 40, but the control device 10 and the image display unit 20 are integrated. It is also possible to be configured to be mounted on the user's head.
As the control device 10, a notebook computer, a tablet computer, or a desktop computer may be used. The control device 10 may be a game machine, a portable phone, a portable electronic device including a smartphone or a portable media player, other dedicated devices, or the like. Further, the control device 10 may be configured separately from the image display unit 20, and various signals may be transmitted and received between the control device 10 and the image display unit 20 by wireless communication.

また、例えば、画像表示部20において画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。   For example, as a configuration for generating image light in the image display unit 20, a configuration including an organic EL (Organic Electro-Luminescence) display and an organic EL control unit may be used. Further, as a configuration for generating image light, LCOS (Liquid crystal on silicon, LCoS is a registered trademark), a digital micromirror device, or the like can be used.

本発明でいう「表示部」は、画像光を出射する構成に相当し、以下の説明ではHMD100が画像光を出射することを、「表示する」と呼ぶ。
上記各実施形態では、図4を参照して説明した左右の画像光生成部により画像光を生成し、図2に示す右光学像表示部26及び左光学像表示部28によって、使用者の右眼と左眼のそれぞれに向けて画像光を照射し、使用者の右眼と左眼のそれぞれに画像光を入射させる構成を例示する。「表示部」の構成はこれに限定されない。すなわち、画像光を照射するものであれば、図2及び図4の構成に限定されない。例えば本実施形態の構成では、ハーフミラー261A、262Aを有する「右導光部」及び「左導光部」によって、使用者の眼に向けて画像光を出射する。また、画像光を生成する構成として、右バックライト221及び左バックライト222と、右LCD241及び左LCD242とを備える。「表示部」はこれらの構成を必須としない。
The “display unit” referred to in the present invention corresponds to a configuration that emits image light, and in the following description, the fact that the HMD 100 emits image light is referred to as “display”.
In each of the above embodiments, image light is generated by the left and right image light generation units described with reference to FIG. 4, and the right optical image display unit 26 and the left optical image display unit 28 shown in FIG. A configuration in which image light is irradiated toward each of the eyes and the left eye and the image light is incident on each of the right eye and the left eye of the user is illustrated. The configuration of the “display unit” is not limited to this. That is, as long as it emits image light, it is not limited to the structure of FIG.2 and FIG.4. For example, in the configuration of the present embodiment, image light is emitted toward the user's eyes by the “right light guide” and “left light guide” having the half mirrors 261A and 262A. Further, as a configuration for generating image light, a right backlight 221 and a left backlight 222, and a right LCD 241 and a left LCD 242 are provided. The “display unit” does not require these configurations.

例えば、画像表示部20の右表示駆動部22及び左表示駆動部24のいずれか、又は両方に内蔵する機構によって生成される画像光を、画像表示部20の使用者側すなわち使用者の眼を向く側に設けられる反射機構により反射して、使用者の眼に出射してもよい。ここで、反射機構は、例えばMEMS(Micro Electro Mechanical Systems)ミラーを用いた走査光学系を採用することもできる。すなわち、画像光生成部が射出する光を走査するMEMSミラーを有する走査光学系を備え、この走査光学系で走査される光が使用者の眼に直接入射する構成としてもよい。また、走査光学系により走査される光によって虚像が形成される光学部材を、画像表示部20に設けてもよい。この光学部材はMEMSミラーが走査する走査光による虚像を形成する。この場合、MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が視認(認識)される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。   For example, image light generated by a mechanism built in either or both of the right display driving unit 22 and the left display driving unit 24 of the image display unit 20 is transmitted to the user side of the image display unit 20, that is, the user's eyes. The light may be reflected by a reflection mechanism provided on the facing side and emitted to the user's eyes. Here, as the reflection mechanism, for example, a scanning optical system using a MEMS (Micro Electro Mechanical Systems) mirror can be adopted. In other words, a scanning optical system having a MEMS mirror that scans the light emitted from the image light generation unit may be provided, and the light scanned by the scanning optical system may be directly incident on the user's eyes. Further, an optical member on which a virtual image is formed by light scanned by the scanning optical system may be provided in the image display unit 20. This optical member forms a virtual image by scanning light scanned by the MEMS mirror. In this case, when the MEMS mirror scans light, a virtual image is formed on the virtual image forming surface, and the image is visually recognized (recognized) when the user catches the virtual image with eyes. The optical component in this case may be one that guides light through a plurality of reflections, such as the right light guide plate 261 and the left light guide plate 262 of the above embodiment, and may use a half mirror surface. .

また、走査光学系はMEMSミラーを備えた構成に限定されない。画像光を生成する機構も、レーザー光を発するレーザー光源であってもよい。例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、光射出部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。
また、走査される光を受ける虚像形成面に代えて、回折格子を用いて使用者の眼に画像光を導く構成であってもよい。つまり、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/又は反射させて導く機能のみを有するものであってもよい。
Further, the scanning optical system is not limited to the configuration including the MEMS mirror. The mechanism that generates the image light may also be a laser light source that emits laser light. For example, the present invention can also be applied to a laser retinal projection type head mounted display. That is, the light emitting unit includes a laser light source and an optical system that guides the laser light source to the user's eyes, and the laser light is incident on the user's eyes to scan the retina and form an image on the retina. A configuration that allows the user to visually recognize an image may be employed.
Moreover, it may replace with the virtual image formation surface which receives the light scanned, and the structure which guides image light to a user's eyes using a diffraction grating may be sufficient. That is, the optical member is not limited to guiding the image light inside the optical member, and may have only a function of guiding the image light by refracting and / or reflecting it toward the user's eyes.

MEMS等を有する走査光学系を備えた構成では、画像表示部20における走査光学系の取り付け角度を変更することで、使用者が画像を視認する位置、すなわち画像の表示位置を変更できる。従って、上記各実施形態で表示位置を変更する処理において、右LCD241、左LCD242における画像の表示位置を変更する動作に代えて、走査光学系の角度を変更する動作を行ってもよい。   In the configuration including the scanning optical system having MEMS or the like, the position where the user visually recognizes the image, that is, the display position of the image can be changed by changing the mounting angle of the scanning optical system in the image display unit 20. Therefore, in the process of changing the display position in each of the above embodiments, an operation of changing the angle of the scanning optical system may be performed instead of the operation of changing the display position of the image on the right LCD 241 and the left LCD 242.

また、画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。   The optical system that guides the image light to the user's eyes may include an optical member that transmits external light that is incident on the apparatus from the outside and that is incident on the user's eyes together with the image light. Moreover, you may use the optical member which is located ahead of a user's eyes and overlaps a part or all of a user's visual field.

また、上記各実施形態では使用者の眼前に位置する右光学像表示部26及び左光学像表示部28の一部に、ハーフミラー261A、262Aにより虚像が形成される構成を例示した。本発明はこれに限定されず、右光学像表示部26及び左光学像表示部28の全面または大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。   Further, in each of the above embodiments, a configuration in which virtual images are formed by the half mirrors 261A and 262A on a part of the right optical image display unit 26 and the left optical image display unit 28 positioned in front of the user's eyes is illustrated. The present invention is not limited to this, and an image may be displayed on a display area having an area that occupies the entire surface or most of the right optical image display unit 26 and the left optical image display unit 28. In this case, a process of reducing the image may be included in the operation of changing the display position of the image.

さらに、本発明の光学素子は、ハーフミラー261A、262Aを有する右導光板261、左導光板262に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。   Furthermore, the optical element of the present invention is not limited to the right light guide plate 261 and the left light guide plate 262 having the half mirrors 261A and 262A, and may be any optical component that allows image light to enter the user's eyes. A diffraction grating, a prism, or a holographic display unit may be used.

また、図4に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図4に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120または制御装置10内の記憶装置に記憶されてもよいし、外部の装置に記憶されたプログラムを通信部117、近距離無線通信部119又はインターフェイス125を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部135のみが単独の使用者インターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図4に示す制御部140が制御装置10と画像表示部20との両方に形成されていてもよいし、制御装置10に形成された制御部140と画像表示部20に形成されたCPUとが行う機能が別々に分けられている構成としてもよい。   Also, at least a part of each functional block shown in FIG. 4 may be realized by hardware, or may be realized by cooperation of hardware and software, as shown in FIG. It is not limited to a configuration in which independent hardware resources are arranged. The program executed by the control unit 140 may be stored in the storage unit 120 or the storage device in the control device 10, or the program stored in the external device may be stored in the communication unit 117, the short-range wireless communication unit 119, or The configuration may be such that it is acquired through the interface 125 and executed. Of the components formed in the control device 10, only the operation unit 135 may be formed as a single user interface (UI). Further, the configuration formed in the control device 10 may be formed in the image display unit 20 in an overlapping manner. For example, the control unit 140 illustrated in FIG. 4 may be formed in both the control device 10 and the image display unit 20, or the control unit 140 formed in the control device 10 and the CPU formed in the image display unit 20. The functions performed by and may be configured separately.

10…制御装置、20…画像表示部(表示部)、21…右保持部、22…右表示駆動部、23…左保持部、24…左表示駆動部、25…インターフェイス、26…右光学像表示部、28…左光学像表示部、61…右カメラ、62…左カメラ、100…頭部装着型表示装置(表示装置)、117…通信部、119…近距離無線通信部(通信部)、120…記憶部(順序データ記憶部、実行データ記憶部)、123、123e…シナリオデータ、125…インターフェイス、126…表示設定データ、140…制御部、150…オペレーティングシステム、160…画像処理部、161…撮像制御部、162…位置検出部(入力部、対象検出部)、163…AR表示制御部、164…状態検出部、165…通信制御部、187…音声処理部、190…表示制御部、201…右バックライト制御部、202…左バックライト制御部、211…右LCD制御部、212…左LCD制御部、221…右バックライト、222…左バックライト、241…右LCD、242…左LCD、251…右投写光学系、252…左投写光学系、261…右導光板、262…左導光板、261A、262A…ハーフミラー。   DESCRIPTION OF SYMBOLS 10 ... Control apparatus, 20 ... Image display part (display part), 21 ... Right holding part, 22 ... Right display drive part, 23 ... Left holding part, 24 ... Left display drive part, 25 ... Interface, 26 ... Right optical image Display unit 28 ... Left optical image display unit 61 ... Right camera 62 ... Left camera 100 ... Head-mounted display device (display device) 117 ... Communication unit 119 ... Short-range wireless communication unit (communication unit) 120, storage unit (order data storage unit, execution data storage unit), 123, 123e, scenario data, 125, interface, 126, display setting data, 140, control unit, 150, operating system, 160, image processing unit, 161 ... Imaging control unit, 162 ... Position detection unit (input unit, target detection unit), 163 ... AR display control unit, 164 ... State detection unit, 165 ... Communication control unit, 187 ... Audio processing unit, 19 Display control unit 201 ... Right backlight control unit 202 ... Left backlight control unit 211 ... Right LCD control unit 212 ... Left LCD control unit 221 ... Right backlight 222 ... Left backlight 241 ... Right LCD, 242 ... Left LCD, 251 ... Right projection optical system, 252 ... Left projection optical system, 261 ... Right light guide plate, 262 ... Left light guide plate, 261A, 262A ... Half mirror.

Claims (20)

外景を透過して視認可能に画像を表示する表示部と、
入力を認識する入力部と、
前記表示部に情報を表示させ、前記入力部で認識した入力に応じて、前記表示部における表示を変化させる制御部と、
を備えることを特徴とする表示装置。
A display unit that displays an image that is visible through the outside scene;
An input unit for recognizing input;
A control unit that displays information on the display unit and changes the display on the display unit in accordance with the input recognized by the input unit;
A display device comprising:
前記制御部は、項目を含む項目データに基づき、前記表示部に前記情報として項目を表示させること、を特徴とする請求項1記載の表示装置。   The display device according to claim 1, wherein the control unit causes the display unit to display an item as the information based on item data including the item. 前記項目データは、動作に対応する複数の前記項目を含み、それぞれの前記項目には前記動作の実行順に対応する前記項目の順序が設定されること、
を特徴とする請求項2記載の表示装置。
The item data includes a plurality of the items corresponding to operations, and the order of the items corresponding to the execution order of the operations is set for each of the items.
The display device according to claim 2.
前記制御部は、複数の前記項目をリスト形式で配置して前記表示部に表示させ、前記項目は前記項目に設定された順序に従って配置されること、
を特徴とする請求項3記載の表示装置。
The control unit arranges a plurality of the items in a list format to be displayed on the display unit, and the items are arranged according to an order set in the items.
The display device according to claim 3.
前記制御部は、前記項目に設定された順序で前記項目を順次表示させること、
を特徴とする請求項3記載の表示装置。
The controller sequentially displays the items in the order set in the items;
The display device according to claim 3.
前記制御部は、前記項目に対応づけて前記項目に対応する前記動作の完了を示すチェックボックスを表示し、
前記項目に設定された順序で前記項目を順次表示させた後、前記項目に対応する前記動作の完了を検出した場合に、前記チェックボックスの表示状態を、動作完了を示す状態に変更すること、
を特徴とする請求項5記載の表示装置。
The control unit displays a check box indicating the completion of the operation corresponding to the item in association with the item,
After sequentially displaying the items in the order set in the items, when the completion of the operation corresponding to the items is detected, the display state of the check box is changed to a state indicating the operation completion;
The display device according to claim 5.
前記制御部は、前記項目データに含まれる前記項目に対応する動作の実行順に関する情報を含む順序データに基づき、画像を前記表示部に表示させること、
を特徴とする請求項3から6のいずれかに記載の表示装置。
The control unit causes the display unit to display an image based on order data including information related to an execution order of operations corresponding to the items included in the item data;
The display device according to claim 3, wherein:
前記項目データと前記順序データとを対応付けて記憶する順序データ記憶部を備えること、
を特徴とする請求項7記載の表示装置。
An order data storage unit for storing the item data and the order data in association with each other;
The display device according to claim 7.
前記制御部は、前記表示部に、前記表示部を透過して視認される実空間の物体から選択される対象に関連する前記情報を、前記対象に対応する表示態様で表示させること、
を特徴とする請求項1記載の表示装置。
The control unit causes the display unit to display the information related to a target selected from an object in real space that is viewed through the display unit in a display mode corresponding to the target.
The display device according to claim 1.
前記制御部は、前記表示部を透過して視認される実空間において前記対象を強調する前記情報を前記対象に重ねて表示させること、
を特徴とする請求項9記載の表示装置。
The control unit displays the information for emphasizing the target in a real space that is visible through the display unit, overlaid on the target;
The display device according to claim 9.
前記制御部は、前記入力部で認識した入力に応じて、前記対象に対応する表示態様で表示させた前記情報を、異なる前記対象に対応する前記情報に切り替えて表示すること、
を特徴とする請求項9または11記載の表示装置。
The control unit displays the information displayed in the display mode corresponding to the target in accordance with the input recognized by the input unit, by switching to the information corresponding to the different target,
The display device according to claim 9, wherein:
前記入力部は、前記表示部を透過して視認される範囲の入力を検出して入力位置を特定し、
前記制御部は、前記入力部で特定した入力位置に対応して前記表示部における表示を変化させること、
を特徴とする請求項1から11のいずれかに記載の表示装置。
The input unit detects an input in a range that is visible through the display unit and identifies an input position;
The control unit changes the display on the display unit corresponding to the input position specified by the input unit,
The display device according to claim 1, wherein:
前記制御部は、前記入力部で特定した入力位置に対応する位置に表示中の前記項目に指標を重ねて表示させること、
を特徴とする請求項12記載の表示装置。
The control unit displays an index on the item being displayed at a position corresponding to the input position specified by the input unit,
The display device according to claim 12.
前記外景の撮像画像または前記外景から集音される音声に基づき、前記項目に対応する動作の実行状態を検出する状態検出部を備え
前記制御部は、前記状態検出部が検出した実行状態に応じて、前記表示部によって表示中の前記項目の表示状態を変化させること、
を特徴とする請求項1から13のいずれかに記載の表示装置。
A state detection unit that detects an execution state of an operation corresponding to the item based on a captured image of the outside scene or a sound collected from the outside scene, wherein the control unit is configured according to the execution state detected by the state detection unit; Changing the display state of the item being displayed by the display unit,
The display device according to claim 1, wherein:
前記動作の実行状態に係る情報を含む実行データを記憶する実行データ記憶部を備え、
前記制御部は、前記項目データに含まれる前記項目に対応する動作の実行データを、前記項目データに対応付けて前記実行データ記憶部に記憶させ、前記実行データ記憶部から前記実行データを読み出した場合に、読み出した実行データに基づき、前記表示部によって表示する前記項目の表示状態を制御すること、
を特徴とする請求項14記載の表示装置。
An execution data storage unit for storing execution data including information relating to the execution state of the operation;
The control unit stores execution data of an operation corresponding to the item included in the item data in the execution data storage unit in association with the item data, and reads the execution data from the execution data storage unit In this case, based on the read execution data, controlling the display state of the item displayed by the display unit,
The display device according to claim 14.
前記外景における対象を検出する対象検出部を備え、
前記制御部は、前記対象検出部で検出された前記対象が前記表示部を透過して視認される位置に対応させて、前記項目データに含まれる項目を表示させること、
を特徴とする請求項1から15のいずれかに記載の表示装置。
An object detection unit for detecting an object in the outside scene;
The control unit displays an item included in the item data in association with a position where the target detected by the target detection unit is viewed through the display unit;
The display device according to claim 1, wherein:
外部の機器と通信する通信部を備え、
前記通信部により前記外部の機器から前記項目データを受信して取得すること、
を特徴とする請求項1から16のいずれかに記載の表示装置。
A communication unit that communicates with external devices
Receiving and acquiring the item data from the external device by the communication unit;
The display device according to claim 1, wherein:
前記通信部は近距離無線通信を実行すること、
を特徴とする請求項17記載の表示装置。
The communication unit performs short-range wireless communication;
The display device according to claim 17.
外景を透過して視認可能に画像を表示する表示部を有する表示装置の制御方法であって、
前記表示部を透過して視認される範囲の入力を検出して入力位置を特定し、
項目を含む項目データに基づき、前記表示部に前記項目を表示させ、特定した入力位置に対応する位置に表示中の前記項目の表示状態を変化させること、
を特徴とする表示装置の制御方法。
A control method for a display device having a display unit that displays an image so as to be visible through an outside scene,
Detecting the input of a range that is visible through the display unit to identify the input position,
Displaying the item on the display unit based on item data including the item, and changing the display state of the item being displayed to a position corresponding to the specified input position;
A control method of a display device characterized by the above.
外景を透過して視認可能に画像を表示する表示部を有する表示装置を制御するコンピューターが実行可能なプログラムであって、
前記コンピューターにより、
前記表示部を透過して視認される範囲の入力を検出して入力位置を特定し、
項目を含む項目データに基づき、前記表示部に前記項目を表示させ、特定した入力位置に対応する位置に表示中の前記項目の表示状態を変化させる、プログラム。
A computer-executable program for controlling a display device having a display unit that displays an image so as to be visible through the outside scene,
By the computer
Detecting the input of a range that is visible through the display unit to identify the input position,
A program for displaying the item on the display unit based on item data including the item and changing a display state of the item being displayed at a position corresponding to the specified input position.
JP2016013249A 2015-07-07 2016-01-27 Display device, control method of display device, and program Pending JP2017134575A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016013249A JP2017134575A (en) 2016-01-27 2016-01-27 Display device, control method of display device, and program
US15/130,281 US10281976B2 (en) 2015-07-07 2016-04-15 Display device, control method for display device, and computer program
US16/256,257 US10664044B2 (en) 2015-07-07 2019-01-24 Display device, control method for display device, and computer program
US16/848,171 US11073901B2 (en) 2015-07-07 2020-04-14 Display device, control method for display device, and computer program
US17/356,763 US11301034B2 (en) 2015-07-07 2021-06-24 Display device, control method for display device, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016013249A JP2017134575A (en) 2016-01-27 2016-01-27 Display device, control method of display device, and program

Publications (1)

Publication Number Publication Date
JP2017134575A true JP2017134575A (en) 2017-08-03

Family

ID=59504875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016013249A Pending JP2017134575A (en) 2015-07-07 2016-01-27 Display device, control method of display device, and program

Country Status (1)

Country Link
JP (1) JP2017134575A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019059044A1 (en) * 2017-09-20 2019-03-28 日本電気株式会社 Information processing device, control method, and program
WO2019111465A1 (en) * 2017-12-04 2019-06-13 ソニー株式会社 Information processing device, information processing method, and recording medium
JP2020149141A (en) * 2019-03-11 2020-09-17 株式会社Nttファシリティーズ Work support system, work support method, and program
JP2020197412A (en) * 2019-05-31 2020-12-10 株式会社鴻池組 Device and method for inspecting structure and program
JP2023047367A (en) * 2021-09-27 2023-04-06 株式会社 日立産業制御ソリューションズ Work support device, work support system and work support program
JP7433126B2 (en) 2020-04-21 2024-02-19 三菱電機株式会社 Image display system, image display device, server, image display method and program

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000215301A (en) * 1999-01-22 2000-08-04 Ricoh Co Ltd Image processor, image processing method and computer readable recording medium recording program for making computer execute the method
JP2010164814A (en) * 2009-01-16 2010-07-29 Brother Ind Ltd Head mounted display
JP2011118683A (en) * 2009-12-03 2011-06-16 Toshiba Tec Corp Cooking assisting terminal and program
JP2012212991A (en) * 2011-03-30 2012-11-01 Brother Ind Ltd Head-mounted display
JP2013016020A (en) * 2011-07-04 2013-01-24 Nec Corp Work support system, apparatus, method, and program
JP2013084257A (en) * 2011-10-07 2013-05-09 Square Enix Co Ltd Database visualization system
JP2014119786A (en) * 2012-12-13 2014-06-30 Seiko Epson Corp Head mounting type display device, control method of head mounting type display device, and work supporting system
JP2014145734A (en) * 2013-01-30 2014-08-14 Nikon Corp Information input/output device, and information input/output method
US20140267010A1 (en) * 2013-03-15 2014-09-18 Research In Motion Limited System and Method for Indicating a Presence of Supplemental Information in Augmented Reality
JP2015222519A (en) * 2014-05-23 2015-12-10 富士通株式会社 Information processing device, information processing system, and information processing method
JP2016004340A (en) * 2014-06-16 2016-01-12 セイコーエプソン株式会社 Information distribution system, head-mounted type display device, control method of head-mounted type display device and computer program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000215301A (en) * 1999-01-22 2000-08-04 Ricoh Co Ltd Image processor, image processing method and computer readable recording medium recording program for making computer execute the method
JP2010164814A (en) * 2009-01-16 2010-07-29 Brother Ind Ltd Head mounted display
JP2011118683A (en) * 2009-12-03 2011-06-16 Toshiba Tec Corp Cooking assisting terminal and program
JP2012212991A (en) * 2011-03-30 2012-11-01 Brother Ind Ltd Head-mounted display
JP2013016020A (en) * 2011-07-04 2013-01-24 Nec Corp Work support system, apparatus, method, and program
JP2013084257A (en) * 2011-10-07 2013-05-09 Square Enix Co Ltd Database visualization system
JP2014119786A (en) * 2012-12-13 2014-06-30 Seiko Epson Corp Head mounting type display device, control method of head mounting type display device, and work supporting system
JP2014145734A (en) * 2013-01-30 2014-08-14 Nikon Corp Information input/output device, and information input/output method
US20140267010A1 (en) * 2013-03-15 2014-09-18 Research In Motion Limited System and Method for Indicating a Presence of Supplemental Information in Augmented Reality
JP2015222519A (en) * 2014-05-23 2015-12-10 富士通株式会社 Information processing device, information processing system, and information processing method
JP2016004340A (en) * 2014-06-16 2016-01-12 セイコーエプソン株式会社 Information distribution system, head-mounted type display device, control method of head-mounted type display device and computer program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019059044A1 (en) * 2017-09-20 2019-03-28 日本電気株式会社 Information processing device, control method, and program
JPWO2019059044A1 (en) * 2017-09-20 2020-10-15 日本電気株式会社 Information processing equipment, control methods, and programs
US11199946B2 (en) 2017-09-20 2021-12-14 Nec Corporation Information processing apparatus, control method, and program
JP7020490B2 (en) 2017-09-20 2022-02-16 日本電気株式会社 Information processing equipment, control methods, and programs
WO2019111465A1 (en) * 2017-12-04 2019-06-13 ソニー株式会社 Information processing device, information processing method, and recording medium
JPWO2019111465A1 (en) * 2017-12-04 2020-12-24 ソニー株式会社 Information processing equipment, information processing methods, and recording media
JP2020149141A (en) * 2019-03-11 2020-09-17 株式会社Nttファシリティーズ Work support system, work support method, and program
JP2020197412A (en) * 2019-05-31 2020-12-10 株式会社鴻池組 Device and method for inspecting structure and program
JP7433126B2 (en) 2020-04-21 2024-02-19 三菱電機株式会社 Image display system, image display device, server, image display method and program
JP2023047367A (en) * 2021-09-27 2023-04-06 株式会社 日立産業制御ソリューションズ Work support device, work support system and work support program

Similar Documents

Publication Publication Date Title
US11301034B2 (en) Display device, control method for display device, and computer program
JP6693060B2 (en) Display system, display device, display device control method, and program
JP6554948B2 (en) Display device, display device control method, and program
JP6387825B2 (en) Display system and information display method
JP2017134575A (en) Display device, control method of display device, and program
CN108376029B (en) Display system
CN103995352A (en) Head mounted display and control method for head mounted display
US10567730B2 (en) Display device and control method therefor
JP2018142168A (en) Head mounted type display device, program, and control method for head mounted type display device
JP2018142857A (en) Head mounted display device, program, and control method of head mounted display device
JP6590050B2 (en) Display device, display system, display device control method, and program
JP2018148257A (en) Head mounted display device and control method for the same
JP2018124721A (en) Head-mounted type display device and control method of head-mounted type display device
JP2016024208A (en) Display device, method for controlling display device, and program
JP2018084886A (en) Head mounted type display device, head mounted type display device control method, computer program
JP2017182228A (en) Input device, input method, and computer program
JP2017120488A (en) Display device, display system, control method of display device, and program
JP6740613B2 (en) Display device, display device control method, and program
JP6540426B2 (en) Display system, display device, information display method, and program
JP6733401B2 (en) Display system, display device, information display method, and program
JP2019053644A (en) Head mounted display device and control method for head mounted display device
JP2018042004A (en) Display device, head-mounted type display device, and method for controlling display device
JP2017134630A (en) Display device, control method of display device, and program
JP2017055233A (en) Display device, display system, and control method of display device
JP2017182460A (en) Head-mounted type display device, method for controlling head-mounted type display device, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190927

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200128