JP2018206080A - Head-mounted display device, program, and control method for head-mounted display device - Google Patents

Head-mounted display device, program, and control method for head-mounted display device Download PDF

Info

Publication number
JP2018206080A
JP2018206080A JP2017111052A JP2017111052A JP2018206080A JP 2018206080 A JP2018206080 A JP 2018206080A JP 2017111052 A JP2017111052 A JP 2017111052A JP 2017111052 A JP2017111052 A JP 2017111052A JP 2018206080 A JP2018206080 A JP 2018206080A
Authority
JP
Japan
Prior art keywords
user
indicator
unit
detection
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017111052A
Other languages
Japanese (ja)
Inventor
由貴 藤巻
Yuki Fujimaki
由貴 藤巻
高野 正秀
Masahide Takano
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2017111052A priority Critical patent/JP2018206080A/en
Priority to US15/801,916 priority patent/US10296105B2/en
Publication of JP2018206080A publication Critical patent/JP2018206080A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

To provide a head-mounted display device, a program, and a control method for a head-mounted display device, which increase the accuracy of inputs made by an indication body to improve the usability of a user.SOLUTION: The head-mounted display device includes an image display unit for displaying an image in a display area so as to be transparent to the outside scene and visible together with the outside scene; a camera and imaging control unit 147 for detecting an indication body associated with a motion of a user in an area including at least a range transmitting through the image display unit; and a display control unit 153 for displaying an image showing the detected state of the indication body by the camera and imaging control unit 147 in the display area, and displaying candidates of input contents corresponding to at least one of the motion, shape, and position of the indication body detected by the camera and imaging control unit 147.SELECTED DRAWING: Figure 5

Description

本発明は、頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法に関する。   The present invention relates to a head-mounted display device, a program, and a control method for the head-mounted display device.

従来、指示体の動き等を検出して、検出した指示体の動き等に対応した処理を実行する装置が知られている(例えば、特許文献1参照)。
特許文献1は、手話者の指文字を撮像して、撮像した画像データを処理して手話者の指文字を認識する手話認識装置を開示する。
2. Description of the Related Art Conventionally, there has been known an apparatus that detects a movement or the like of a pointer and executes processing corresponding to the detected movement or the like of the pointer (see, for example, Patent Document 1).
Patent Document 1 discloses a sign language recognition device that captures a finger character of a signer and processes the captured image data to recognize the finger character of the signer.

特開2012−252581号公報JP 2012-252581 A

ところで、使用者の頭部に装着され、外景に重ねて画像を視認させる頭部装着型表示装置は、表示される画像によって外景の視認性が低下する場合があるため、頭部装着型表示装置の操作部を操作し難い場合があった。このため、入力の精度が高く、使い勝手のよい入力方法が求められていた。
本発明は、指示体による入力の精度を向上させ、使用者の使い勝手を向上させることを目的とする。
By the way, a head-mounted display device that is mounted on the user's head and visually recognizes an image superimposed on the outside scene may deteriorate the visibility of the outside scene depending on the displayed image. In some cases, it was difficult to operate the operation unit. For this reason, an input method with high input accuracy and ease of use has been demanded.
An object of the present invention is to improve the accuracy of input by an indicator and improve the usability of a user.

上記課題を解決するため、本発明は、使用者の頭部に装着される頭部装着型表示装置であって、外景を透過し、前記外景とともに視認できるように画像を表示領域に表示する表示部と、少なくとも前記表示部を透過する範囲を含む領域において、前記使用者の動作に対応付けられた指示体を検出する検出部と、前記検出部が前記指示体を検出する検出状態を示す画像を前記表示領域に表示させ、前記検出部が検出する前記指示体の動き、形状及び位置の少なくともいずれかに対応する入力内容の候補を表示させる表示制御部と、を備える。
本発明によれば、検出部による指示体の検出状態を示す画像が表示領域に表示される。このため、検出部による指示体の検出状態の確認が容易になる。また、検出部が検出した指示体の動き、形状及び位置のいずれかに対応する入力内容の候補が、検出エリアを示す画像に対応する位置に表示される。このため、指示体による入力精度を高め、使用者の使い勝手を向上させることができる。
In order to solve the above-described problems, the present invention is a head-mounted display device mounted on a user's head, which displays an image in a display area so that the image can be seen through the outside scene and visible together with the outside scene. And an image showing a detection state in which the detection unit detects the indicator in a region including at least a range that passes through the display unit, and a detection unit that detects the indicator associated with the user's action And a display control unit that displays input content candidates corresponding to at least one of the movement, shape, and position of the indicator detected by the detection unit.
According to the present invention, the image indicating the detection state of the indicator by the detection unit is displayed in the display area. For this reason, it is easy to confirm the detection state of the indicator by the detection unit. In addition, candidates for input content corresponding to any of the movement, shape, and position of the indicator detected by the detection unit are displayed at positions corresponding to images indicating the detection areas. For this reason, the input precision by a pointer can be improved and a user's usability can be improved.

また、本発明は、前記表示制御部は、前記検出部の検出状態を示す画像を、前記外景において前記指示体が視認される位置に対応させて表示させる。
本発明によれば、検出部の検出状態を示す画像が、指示体が視認される位置に対応させて表示されるので、使用者は指示体を操作しながら検出状態の確認ができる。
Further, according to the present invention, the display control unit displays an image indicating a detection state of the detection unit corresponding to a position where the indicator is visually recognized in the outside scene.
According to the present invention, since the image indicating the detection state of the detection unit is displayed in correspondence with the position where the indicator is visually recognized, the user can check the detection state while operating the indicator.

また、本発明は、前記表示制御部は、前記検出部が検出する前記指示体の動き、形状及び位置の少なくともいずれかに対応する前記候補を、前記検出部の検出状態を示す画像に対応する位置に表示させる。
本発明によれば、検出部が検出する指示体の動き、形状及び位置の少なくともいずれかに対応する候補が検出部の検出状態を示す画像に対応する位置に表示されるので、使用者は指示体を操作しながら検出部の検出状態の確認ができる。
Further, according to the present invention, the display control unit corresponds to the candidate corresponding to at least one of the movement, shape, and position of the indicator detected by the detection unit as an image indicating a detection state of the detection unit. Display in position.
According to the present invention, the candidate corresponding to at least one of the movement, shape, and position of the indicator detected by the detection unit is displayed at a position corresponding to the image indicating the detection state of the detection unit. The detection state of the detection unit can be confirmed while operating the body.

また、本発明は、前記表示制御部は、前記検出部の検出状態を示す画像として、前記検出部が前記指示体を検出する検出エリアを示す画像を前記表示領域に表示させ、前記検出部が検出する前記指示体の動き、形状及び位置の少なくともいずれかに対応する前記候補を、前記表示領域において前記検出エリアを示す前記画像に対応する位置に表示させる。
本発明によれば、検出部の検出状態を示す画像として、検出部が指示体を検出する検出エリアを示す画像が表示されるので、指示体が検出される検出エリアの確認が容易になり、操作性を高めることができる。また、検出部が検出する指示体の動き、形状及び位置の少なくともいずれかに対応する候補が検出エリアを示す画像に対応する位置に表示されるので、使用者は指示体を操作しながら検出部の検出状態の確認ができる。
Further, according to the present invention, the display control unit displays, in the display area, an image indicating a detection area where the detection unit detects the indicator as an image indicating a detection state of the detection unit. The candidate corresponding to at least one of the movement, shape and position of the indicator to be detected is displayed at a position corresponding to the image indicating the detection area in the display area.
According to the present invention, since an image indicating a detection area in which the detection unit detects the indicator is displayed as an image indicating the detection state of the detection unit, it is easy to confirm the detection area in which the indicator is detected, Operability can be improved. In addition, since a candidate corresponding to at least one of the movement, shape, and position of the indicator detected by the detector is displayed at a position corresponding to the image indicating the detection area, the user operates the indicator while operating the indicator. You can check the detection status.

また、本発明は、前記表示制御部は、前記候補を前記表示領域の候補表示エリアに表示させ、前記候補表示エリアを、前記検出エリアを示す前記画像に対応する位置、又は前記検出エリアにおいて検出された前記指示体に対応する位置に表示させる。
本発明によれば、候補表示エリアを示す画像が、検出エリアを示す画像に対応する位置、又は検出エリアにおいて検出された指示体に対応する位置に表示される。このため、候補表示エリアに表示された候補を選択する操作が簡易になる。
Further, according to the present invention, the display control unit displays the candidate in a candidate display area of the display area, and detects the candidate display area in a position corresponding to the image indicating the detection area or in the detection area. It is displayed at a position corresponding to the indicated indicator.
According to the present invention, the image indicating the candidate display area is displayed at a position corresponding to the image indicating the detection area or a position corresponding to the indicator detected in the detection area. This simplifies the operation of selecting candidates displayed in the candidate display area.

また、本発明は、前記表示制御部は、前記検出部が前記候補表示エリアに対応する位置で前記指示体を検出した場合に、検出された前記指示体の動き、形状及び位置の少なくともいずれかに基づき、前記候補表示エリアに表示された複数の前記候補のいずれかを選択する。
本発明によれば、指示体の動き、形状及び位置の少なくともいずれかにより、複数の候補のいずれかを選択することができる。
In the present invention, the display control unit may detect at least one of the detected movement, shape, and position of the indicator when the detection unit detects the indicator at a position corresponding to the candidate display area. Based on the above, one of the plurality of candidates displayed in the candidate display area is selected.
According to the present invention, one of a plurality of candidates can be selected based on at least one of the movement, shape, and position of the indicator.

また、本発明は、前記表示制御部は、前記検出部が前記表示領域に表示される前記候補の文字に対応する位置で前記指示体を検出した場合に、検出された前記指示体の動き、形状及び位置の少なくともいずれかに基づき、前記候補表示エリアに表示された複数の前記候補の文字のいずれかを選択する。
本発明によれば、候補の文字に対応する位置に移動させた指示体の動き、形状及び位置に基づいて、複数の候補の文字のいずれかを選択することができる。
In the present invention, the display control unit detects the movement of the indicator when the detection unit detects the indicator at a position corresponding to the candidate character displayed in the display area. Based on at least one of shape and position, one of the plurality of candidate characters displayed in the candidate display area is selected.
According to the present invention, one of a plurality of candidate characters can be selected based on the movement, shape, and position of the indicator moved to the position corresponding to the candidate character.

また、本発明は、前記表示制御部は、複数の前記候補を表示させ、前記検出部により検出された前記指示体の移動方向が前記候補を表示させたいずれかの方向に対応する場合に、対応する前記候補を選択する。
本発明によれば、選択したい候補が表示された方向に指示体を移動させることで、選択したい候補を選択することができる。
Further, in the present invention, when the display control unit displays a plurality of candidates, and the moving direction of the indicator detected by the detection unit corresponds to any direction in which the candidates are displayed, The corresponding candidate is selected.
According to the present invention, a candidate to be selected can be selected by moving the indicator in a direction in which the candidate to be selected is displayed.

また、本発明は、前記表示制御部は、前記検出部により検出された前記指示体の形状が、予め設定された時間以上同一の形状である場合に、前記候補を表示させる。
本発明によれば、指示体の形状を予め設定された時間以上同一の形状とすることで、候補を表示させることができる。このため、簡易な操作により候補を表示させることができる。
Further, according to the present invention, the display control unit displays the candidate when the shape of the indicator detected by the detection unit is the same shape for a preset time.
According to the present invention, candidates can be displayed by making the shape of the indicator the same shape for a preset time. For this reason, a candidate can be displayed by simple operation.

また、本発明は、前記表示制御部は、前記検出部により検出された前記指示体の位置が、予め設定された位置に重なる場合に、前記候補を表示させる。
本発明によれば、指示体が、予め設定された位置に重なることで候補が表示される。このため、指示体による簡易な操作で候補を表示させることができる。
In the present invention, the display control unit displays the candidate when the position of the indicator detected by the detection unit overlaps a preset position.
According to the present invention, the candidate is displayed when the indicator overlaps a preset position. For this reason, a candidate can be displayed by simple operation with a pointer.

また、本発明は、前記表示制御部は、前記検出部により検出された前記指示体が、予め設定された条件に該当する場合に、前記候補を表示させる。
本発明によれば、指示体の形状を、予め設定された条件に該当する形状とすることで候補が表示される。このため、簡易な操作で候補を表示させることができる。
In the present invention, the display control unit displays the candidate when the indicator detected by the detection unit satisfies a preset condition.
According to the present invention, candidates are displayed by setting the shape of the indicator to a shape corresponding to a preset condition. For this reason, a candidate can be displayed by simple operation.

また、本発明は、前記表示制御部は、前記検出エリアを示す画像として、前記使用者の左手を含む指示体を検出する検出エリアを示す画像と、前記使用者の右手を含む指示体を検出する検出エリアを示す画像とを表示させる。
本発明によれば、使用者の左手を含む指示体の検出エリアを示す画像と、右手を含む指示体の検出エリアを示す画像とがそれぞれに表示される。このため、検出部が検出した指示体が左手を含む指示体であるのか、右手を含む指示体であるのかを判定する必要がなくなり、候補を表示する時間を短縮し、使用者の意図する候補が表示される確率を高めることができる。
Further, according to the present invention, the display control unit detects, as an image indicating the detection area, an image indicating a detection area for detecting an indicator including the user's left hand and an indicator including the user's right hand. And an image showing a detection area to be displayed.
According to the present invention, an image indicating the detection area of the indicator including the left hand of the user and an image indicating the detection area of the indicator including the right hand are respectively displayed. For this reason, it is not necessary to determine whether the indicator detected by the detection unit is an indicator including the left hand or an indicator including the right hand, reducing the time for displaying the candidate, and the candidate intended by the user Can increase the probability of being displayed.

また、本発明は、前記検出部は、前記使用者の左手を含む第1指示体、及び、前記使用者の右手を含む第2指示体を前記指示体として検出し、前記表示制御部は、前記検出部が検出する前記第1指示体の操作の対象とされる第1操作画像と、前記第2指示体の操作の対象とされる第2操作画像とを前記表示領域に表示させる。
本発明によれば、使用者の左手を含む第1指示体により操作される第1操作画像と、使用者の右手を含む第2指示体により操作される第2操作画像とを表示させることができる。このため、第1指示体による第1操作画像の操作と、第2指示体による第2操作画像の操作とが可能となる。
In the present invention, the detection unit detects a first indicator including the left hand of the user and a second indicator including the right hand of the user as the indicator, and the display control unit includes: A first operation image that is an operation target of the first indicator detected by the detection unit and a second operation image that is an operation target of the second indicator are displayed on the display area.
According to the present invention, it is possible to display the first operation image operated by the first indicator including the user's left hand and the second operation image operated by the second indicator including the user's right hand. it can. For this reason, the operation of the first operation image by the first indicator and the operation of the second operation image by the second indicator can be performed.

また、本発明は、前記検出部が検出する前記指示体の動き、形状及び位置の少なくともいずれかに対応して外部の機器に制御情報を出力する制御情報出力部を備える。
本発明によれば、指示体の動き、形状及び位置の少なくともいずれかに対応した制御情報が外部の機器に出力される。このため、指示体の動き、形状及び位置の少なくともいずれかにより外部の機器を操作することができる。
The present invention further includes a control information output unit that outputs control information to an external device in response to at least one of the movement, shape, and position of the indicator detected by the detection unit.
According to the present invention, control information corresponding to at least one of the movement, shape, and position of the indicator is output to an external device. Therefore, an external device can be operated by at least one of the movement, shape, and position of the indicator.

また、本発明は、前記検出部が検出する前記指示体の動き、形状及び位置の少なくともいずれかに対応して外部の機器に制御情報を出力する制御情報出力部を備え、前記検出部は、前記使用者の左手を含む第1指示体、及び、前記使用者の右手を含む第2指示体を前記指示体として検出し、前記制御情報出力部は、前記検出部が検出する前記第1指示体の操作に対応する第1情報と、前記検出部が検出する前記第2指示体の操作に対応する第2情報との少なくとも一方を含む前記制御情報を出力する。
本発明によれば、検出部により検出される第1指示体の操作に対応する第1情報検と、第2指示体の操作に対応する第2情報との少なくとも一方を含む制御情報が制御情報出力部により出力される。このため、第1指示体の操作、又は第2指示体の操作により外部の機器を操作することが可能となる。
The present invention further includes a control information output unit that outputs control information to an external device in response to at least one of the movement, shape, and position of the indicator detected by the detection unit, A first indicator including the user's left hand and a second indicator including the user's right hand are detected as the indicator, and the control information output unit is configured to detect the first instruction detected by the detection unit. The control information including at least one of first information corresponding to the operation of the body and second information corresponding to the operation of the second indicator detected by the detection unit is output.
According to the present invention, the control information including at least one of the first information detection corresponding to the operation of the first indicator detected by the detection unit and the second information corresponding to the operation of the second indicator is the control information. Output by the output unit. For this reason, it becomes possible to operate an external apparatus by operation of a 1st indicator, or operation of a 2nd indicator.

また、本発明は、音声を入力する音声入力部を備え、前記検出部は、前記音声入力部が予め設定された音声を入力した場合に、前記指示体を検出する。
本発明によれば、予め設定された音声により、頭部装着型表示装置に、指示体の検出を開始させることができる。
The present invention further includes a voice input unit for inputting voice, and the detection unit detects the indicator when the voice input unit inputs a preset voice.
According to the present invention, it is possible to cause the head-mounted display device to start detecting an indicator by using a preset voice.

また、本発明は、操作を検出する操作検出部を備え、前記検出部は、前記操作検出部によって予め設定された操作を検出した場合に、前記指示体を検出する状態に移行する。
本発明によれば、予め設定された操作を行うことで、頭部装着型表示装置を、指示体を検出する状態に移行させることができる。
The present invention further includes an operation detection unit that detects an operation, and the detection unit shifts to a state in which the indicator is detected when an operation preset by the operation detection unit is detected.
According to the present invention, the head-mounted display device can be shifted to a state in which the indicator is detected by performing a preset operation.

また、本発明は、前記指示体としての前記使用者の手指の予め設定された動きの軌跡を示すジェスチャーと、前記候補とを対応付けたジェスチャー登録辞書と、前記手指の予め設定された形状を示すハンドサインと、前記候補とを対応付けたハンドサイン登録辞書との少なくとも一方を記憶する記憶部を備え、前記表示制御部は、前記検出部が検出する前記手指の動き又は形状と、前記ジェスチャー登録辞書又は前記ハンドサイン登録辞書とのマッチングにより前記ジェスチャー又は前記ハンドサインを選択し、選択した前記ジェスチャー又は前記ハンドサインに対応する前記候補を表示させる。
本発明によれば、使用者の手指の動き又は形状に基づいてジェスチャー又ハンドサインを特定し、特定したジェスチャー又はハンドサインに対応する候補を表示させることができる。
Further, the present invention provides a gesture registration dictionary in which a gesture indicating a preset movement trajectory of the user's finger as the indicator, the candidate is associated, and a preset shape of the finger. A storage unit that stores at least one of a hand sign shown and a hand sign registration dictionary in which the candidate is associated, and the display control unit includes the movement or shape of the finger detected by the detection unit, and the gesture The gesture or the handsign is selected by matching with a registration dictionary or the handsign registration dictionary, and the candidate corresponding to the selected gesture or the handsign is displayed.
ADVANTAGE OF THE INVENTION According to this invention, a gesture or a hand sign can be specified based on a user's finger movement or shape, and the candidate corresponding to the specified gesture or hand sign can be displayed.

また、本発明は、他の使用者の動作に対応付けられた前記指示体を、前記使用者の動作に対応付けられた前記指示体の検出方向とは異なる方向から検出し、異なる方向から検出される前記他の使用者の動作に対応付けられた前記指示体の動き、形状及び位置の少なくともいずれかに対応する候補を表示するための外部辞書情報を記憶した記憶部を備え、前記表示制御部は、前記外部辞書情報に基づいて、前記他の使用者の動作に対応付けられた前記指示体の動き、形状及び位置の少なくともいずれかに対応する前記候補を特定し、特定した前記候補を表示させる。
本発明によれば、使用者の動作に対応付けられた指示体の検出方向とは異なる方向から、他の使用者の動作に対応付けられた指示体の動き、形状及び位置の少なくともいずれかを検出することができる。また、他の使用者の動作に対応付けられた指示体の動き、形状及び位置の少なくともいずれかを検出して、検出した指示体の動き、形状及び位置の少なくともいずれかに対応する候補を特定して表示することができる。従って、他の使用者の動作に対応付けられた指示体の動きや、形状、位置を検出するために、使用者の動作に対応付けられた指示体の検出方向から検出する必要がなくなる。このため、他の使用者の動作に対応付けられた指示体の動きや、形状、位置を検出するために、検出部の検出方向を変更する必要がなく、使用者の手間を軽減することができる。
Further, the present invention detects the indicator associated with the action of another user from a direction different from the detection direction of the indicator associated with the action of the user, and detects from the different direction. A storage unit that stores external dictionary information for displaying candidates corresponding to at least one of the movement, shape, and position of the indicator associated with the movement of the other user, and the display control The unit specifies the candidate corresponding to at least one of the movement, shape, and position of the indicator associated with the movement of the other user based on the external dictionary information, and determines the specified candidate Display.
According to the present invention, at least one of the movement, shape, and position of the pointer associated with the other user's motion from a direction different from the detection direction of the pointer associated with the user's motion. Can be detected. In addition, by detecting at least one of the movement, shape and position of the indicator associated with the movement of another user, the candidate corresponding to at least one of the detected movement, shape and position of the indicator is specified. Can be displayed. Therefore, in order to detect the movement, shape, and position of the pointer associated with the movement of another user, it is not necessary to detect from the detection direction of the pointer associated with the movement of the user. For this reason, it is not necessary to change the detection direction of the detection unit in order to detect the movement, shape, and position of the indicator associated with the movement of another user, and the user's effort can be reduced. it can.

また、本発明は、外部の頭部装着型表示装置と通信する通信部を備え、前記通信部により前記外部辞書情報を前記外部の頭部装着型表示装置に送信する。
本発明によれば、外部辞書情報を有してない外部の頭部装着型表示装置に、外部辞書情報を送信することができる。従って、外部の頭部装着型表示装置において指示体の動き、形状及び位置の少なくともいずれかを検出して、検出結果に対応する候補を表示させることができる。
The present invention further includes a communication unit that communicates with an external head-mounted display device, and the communication unit transmits the external dictionary information to the external head-mounted display device.
According to the present invention, external dictionary information can be transmitted to an external head-mounted display device that does not have external dictionary information. Accordingly, at least one of the movement, shape, and position of the indicator can be detected by an external head-mounted display device, and a candidate corresponding to the detection result can be displayed.

また、本発明は、前記検出部は、前記他の使用者を光学的に検出し、前記表示制御部は、前記検出部の検出結果に基づいて、前記他の使用者の動作に対応づけられた前記指示体の動き、形状及び位置の少なくともいずれかを光学的に検出する第1検出エリアを前記表示領域に表示させ、前記第1検出エリアを除く前記表示領域に、前記使用者の動作に対応づけられた前記指示体の動き、形状及び位置の少なくともいずれかを光学的に検出する第1検出エリアを表示させる。
本発明によれば、使用者の動作に対応付けられた指示体を検出するための第1検出エリアと、他の使用者の動作に対応付けられた指示体を検出するための第2検出エリアとが表示される。このため、検出した指示体が、使用者の動きに対応した指示体であるのか、他の使用者の動きに対応した指示体であるのかを判定する必要がない。このため、指示体の認識処理にかかる時間を短縮し、指示体の動き、形状及び位置を誤認識する確率を低減することができる。
Further, according to the present invention, the detection unit optically detects the other user, and the display control unit is associated with the operation of the other user based on a detection result of the detection unit. In addition, a first detection area for optically detecting at least one of the movement, shape, and position of the indicator is displayed on the display area, and the display area excluding the first detection area is used for the operation of the user. A first detection area for optically detecting at least one of the movement, shape and position of the associated indicator is displayed.
According to the present invention, the first detection area for detecting the indicator associated with the user's action and the second detection area for detecting the indicator associated with the action of the other user. Is displayed. For this reason, it is not necessary to determine whether the detected indicator is an indicator corresponding to the movement of the user or an indicator corresponding to the movement of another user. For this reason, the time required for the recognition process of the indicator can be shortened, and the probability of erroneously recognizing the movement, shape and position of the indicator can be reduced.

また、本発明は、前記表示制御部は、前記第1検出エリアにおいて、前記検出部により検出される前記指示体の動き、形状及び位置の少なくともいずれかに対応する前記候補を前記外部辞書情報に基づいて特定し、前記第2検出エリアにおいて、前記検出部により検出される前記指示体の動き、形状及び位置の少なくともいずれかに対応する前記候補を前記辞書情報に基づいて特定する。
本発明によれば、指示体の動き、形状及び位置を検出した検出方向に対応した辞書を用いて、指示体の動き、形状又は位置に対応した候補を特定することができる。
In the present invention, the display control unit uses the candidate corresponding to at least one of the movement, shape, and position of the indicator detected by the detection unit in the first detection area as the external dictionary information. Based on the dictionary information, the candidate corresponding to at least one of the movement, shape, and position of the indicator detected by the detection unit in the second detection area is specified.
According to the present invention, a candidate corresponding to the movement, shape, or position of an indicator can be specified using a dictionary corresponding to the detection direction in which the movement, shape, and position of the indicator are detected.

上記課題を解決するため、本発明は、外景を透過し、前記外景とともに視認できるように画像を表示領域に表示する表示部と、少なくとも前記表示部を透過する範囲を含む領域において、使用者の動作に対応付けられた指示体を検出する検出部とを備え、前記使用者の頭部に装着される頭部装着型表示装置に搭載されたコンピューターが実行するプログラムであって、コンピューターに、前記検出部が前記指示体を検出する検出状態を示す画像を前記表示領域に表示させる手順と、前記検出部が検出する前記指示体の動き、形状及び位置の少なくともいずれかに対応する入力内容の候補を表示させる手順と、を実行させる。   In order to solve the above problems, the present invention provides a display unit that displays an image on a display area so that the image can be seen through the outside scene and the outside scene, and at least an area that includes a range that passes through the display unit. A program that is executed by a computer mounted on a head-mounted display device mounted on the user's head, the detection unit detecting a pointer associated with an action, A procedure for displaying an image indicating a detection state in which the detection unit detects the indicator in the display area, and input content candidates corresponding to at least one of the movement, shape, and position of the indicator detected by the detection unit And a procedure for displaying.

上記課題を解決するため、本発明は、外景を透過し、前記外景とともに視認できるように画像を表示領域に表示する表示部と、少なくとも前記表示部を透過する範囲を含む領域において、使用者の動作に対応付けられた指示体を検出する検出部とを備え、前記使用者の頭部に装着される頭部装着型表示装置の制御方法であって、前記検出部が前記指示体を検出する検出状態を示す画像を前記表示領域に表示させるステップと、前記検出部が検出する前記指示体の動き、形状及び位置の少なくともいずれかに対応する入力内容の候補を表示させるステップと、を有することを特徴とする。   In order to solve the above problems, the present invention provides a display unit that displays an image on a display area so that the image can be seen through the outside scene and the outside scene, and at least an area that includes a range that passes through the display unit. A detection unit that detects a pointer associated with the movement, and a method for controlling a head-mounted display device that is mounted on the user's head, wherein the detection unit detects the pointer. Displaying an image indicating a detection state in the display area; and displaying a candidate of input content corresponding to at least one of the movement, shape, and position of the indicator detected by the detection unit. It is characterized by.

HMDの外観図。FIG. HMDの光学系の構成を示す要部平面図。The principal part top view which shows the structure of the optical system of HMD. 画像表示部の構成を示す斜視図。The perspective view which shows the structure of an image display part. HMDのブロック図。The block diagram of HMD. 制御装置の機能ブロック図。The functional block diagram of a control apparatus. 制御部の動作を示すフローチャート。The flowchart which shows operation | movement of a control part. HMDを装着した使用者の視界を示す図。The figure which shows the visual field of the user who mounted | wore with HMD. 左右の検出範囲画像内に使用者の手指が表示された状態を示す図。The figure which shows the state by which a user's finger was displayed in the detection range image of right and left. 候補表示領域の表示例を示す図。The figure which shows the example of a display of a candidate display area. 制御部の動作を示すフローチャート。The flowchart which shows operation | movement of a control part. 候補表示領域の他の表示例を示す図。The figure which shows the other example of a display of a candidate display area. 候補表示領域の他の表示例を示す図。The figure which shows the other example of a display of a candidate display area. 表示領域に表示されたソフトウェアキーボード及び文字入力欄を示す図。The figure which shows the software keyboard and character input column which were displayed on the display area. HMDの機能をハンドサインやジェスチャーにより操作する場合に、表示される表示画像を示す図。The figure which shows the display image displayed when operating the function of HMD by a hand sign or a gesture. 外部機器をハンドサインやジェスチャーにより操作する場合に、表示される表示画像を示す図。The figure which shows the display image displayed when operating an external apparatus by a hand sign or a gesture. 第2実施形態におけるHMDの使用状態を示す図。The figure which shows the use condition of HMD in 2nd Embodiment. 表示領域に表示された第1検出範囲画像及び第2検出範囲画像を示す図。The figure which shows the 1st detection range image and the 2nd detection range image which were displayed on the display area. 第2実施形態の制御部及び記憶部の構成を示す図。The figure which shows the structure of the control part of 2nd Embodiment, and a memory | storage part. 表示領域に表示される表示画面を示す図。The figure which shows the display screen displayed on a display area.

[第1実施形態]
図1は、本発明を適用したHMD(Head Mounted Display:頭部装着型表示装置)100の外観構成を示す外観図である。
HMD100は、使用者の頭部に装着され、使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備える表示装置である。画像表示部20を頭部に装着した者を使用者という。
[First Embodiment]
FIG. 1 is an external view showing an external configuration of an HMD (Head Mounted Display) 100 to which the present invention is applied.
The HMD 100 is a display device that is mounted on the user's head and includes an image display unit 20 (display unit) that allows the user to visually recognize a virtual image, and a control device 10 that controls the image display unit 20. A person wearing the image display unit 20 on the head is called a user.

制御装置10は、図1に示すように平たい箱形のケース10A(筐体又は本体ともいえる)を備える。ケース10Aは、ボタン11、LEDインジケーター12、トラックパッド14、上下キー15、切替スイッチ16及び電源スイッチ18の各部を備える。ボタン11、トラックパッド14、上下キー15、切替スイッチ16及び電源スイッチ18は、使用者により操作される被操作部である。また、LEDインジケーター12は、例えばHMD100の動作状態を示す副表示部として機能する。使用者は、被操作部を操作することにより、HMD100を操作できる。制御装置10は、HMD100のコントローラーとして機能する。   The control device 10 includes a flat box-shaped case 10A (also referred to as a housing or a main body) as shown in FIG. Case 10 </ b> A includes buttons 11, LED indicator 12, track pad 14, up / down key 15, changeover switch 16, and power switch 18. The button 11, the track pad 14, the up / down key 15, the changeover switch 16 and the power switch 18 are operated parts operated by the user. In addition, the LED indicator 12 functions as a sub display unit that indicates an operation state of the HMD 100, for example. The user can operate the HMD 100 by operating the operated part. The control device 10 functions as a controller of the HMD 100.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22、左表示ユニット24、右導光板26及び左導光板28を備える。
右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20の装着状態において使用者の右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、画像表示部20の装着状態において使用者の左側頭部に対応する位置まで延伸して設けられる。
The image display unit 20 is a wearing body that is worn on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right display unit 22, a left display unit 24, a right light guide plate 26, and a left light guide plate 28 in a main body having a right holding unit 21, a left holding unit 23, and a front frame 27.
Each of the right holding unit 21 and the left holding unit 23 extends rearward from both ends of the front frame 27, and holds the image display unit 20 on the user's head like a temple of glasses. Here, of both ends of the front frame 27, an end located on the right side of the user in the mounted state of the image display unit 20 is defined as an end ER, and an end located on the left side of the user is defined as an end EL. To do. The right holding unit 21 extends from the end ER of the front frame 27 to a position corresponding to the right side of the user when the image display unit 20 is mounted. The left holding unit 23 is provided to extend from the end EL to a position corresponding to the left side of the user when the image display unit 20 is mounted.

右導光板26及び左導光板28は、前部フレーム27に設けられる。右導光板26は、画像表示部20の装着状態において使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態において使用者の左眼の眼前に位置し、左眼に画像を視認させる。   The right light guide plate 26 and the left light guide plate 28 are provided on the front frame 27. The right light guide plate 26 is positioned in front of the right eye of the user when the image display unit 20 is mounted, and causes the right eye to visually recognize the image. The left light guide plate 28 is positioned in front of the left eye of the user when the image display unit 20 is mounted, and causes the left eye to visually recognize the image.

前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、使用者が画像表示部20を装着する装着状態で、使用者の眉間に対応する。前部フレーム27は、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態で使用者の鼻に当接する鼻当て部を設けてもよい。この場合、鼻当て部と、右保持部21及び左保持部23とにより画像表示部20を使用者の頭部に保持できる。また、右保持部21及び左保持部23に、画像表示部20の装着状態において使用者の後頭部に接するベルト(図示略)を連結してもよく、この場合、ベルトによって画像表示部20を使用者の頭部に保持できる。   The front frame 27 has a shape in which one end of the right light guide plate 26 and one end of the left light guide plate 28 are connected to each other, and this connection position is in a wearing state in which the user wears the image display unit 20. Corresponding to the eyebrows. The front frame 27 may be provided with a nose pad portion that comes into contact with the user's nose when the image display unit 20 is mounted at a connection position between the right light guide plate 26 and the left light guide plate 28. In this case, the image display unit 20 can be held on the user's head by the nose pad, the right holding unit 21 and the left holding unit 23. Further, a belt (not shown) that contacts the back of the user when the image display unit 20 is mounted may be connected to the right holding unit 21 and the left holding unit 23. In this case, the image display unit 20 is used by the belt. Can be held on the person's head.

右表示ユニット22は、右導光板26による画像の表示を実現する。右表示ユニット22は、右保持部21に設けられ、装着状態において使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示を実現する。左表示ユニット24は、左保持部23に設けられ、装着状態において使用者の左側頭部の近傍に位置する。   The right display unit 22 realizes image display by the right light guide plate 26. The right display unit 22 is provided in the right holding unit 21 and is located in the vicinity of the right side of the user in the mounted state. The left display unit 24 realizes image display by the left light guide plate 28. The left display unit 24 is provided in the left holding part 23 and is located in the vicinity of the left side of the user in the wearing state.

本実施形態の右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部であり、例えばプリズムであり、右表示ユニット22及び左表示ユニット24が出力する画像光を、使用者の眼に導く。
右導光板26及び左導光板28の表面に、調光板(図示略)を設けてもよい。調光板は、光の波長域により透過率が異なる薄板上の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、使用者の眼の側と反対の側である前部フレーム27の表側を覆うように配置される。この調光板の光学特性を適宜選択することにより、可視光、赤外光及び紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26及び左導光板28に入射し、右導光板26及び左導光板28を透過する外光の光量を調整できる。
The right light guide plate 26 and the left light guide plate 28 of the present embodiment are optical units formed of a light-transmitting resin or the like, and are, for example, prisms, and output image light output from the right display unit 22 and the left display unit 24. Lead to the eyes of the user.
A light control plate (not shown) may be provided on the surfaces of the right light guide plate 26 and the left light guide plate 28. The light control plate is an optical element on a thin plate having different transmittance depending on the wavelength region of light, and functions as a so-called wavelength filter. For example, the light control plate is disposed so as to cover the front side of the front frame 27 which is the side opposite to the eye side of the user. By appropriately selecting the optical characteristics of the light control plate, the transmittance of light in an arbitrary wavelength region such as visible light, infrared light, and ultraviolet light can be adjusted. The amount of external light incident on the light plate 28 and transmitted through the right light guide plate 26 and the left light guide plate 28 can be adjusted.

画像表示部20は、右表示ユニット22及び左表示ユニット24がそれぞれ生成する画像光を、右導光板26及び左導光板28に導く。右導光板26及び左導光板28に導かれた画像光は使用者の右眼と左眼に入射して、使用者に虚像を視認させる。これにより、画像表示部20は画像を表示する。   The image display unit 20 guides the image light generated by the right display unit 22 and the left display unit 24 to the right light guide plate 26 and the left light guide plate 28, respectively. The image light guided to the right light guide plate 26 and the left light guide plate 28 enters the right eye and the left eye of the user and makes the user visually recognize a virtual image. Thereby, the image display unit 20 displays an image.

使用者の前方から、右導光板26及び左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、虚像を構成する画像光及び外光が入射することとなり、虚像の視認性が外光の強さに影響される。このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択又は調整することによって、虚像の視認のしやすさを調整できる。典型的な例では、HMD100を装着した使用者が少なくとも外の景色を視認できる程度の光透過性を有する調光板を用いることができる。また、調光板を用いると、右導光板26及び左導光板28を保護し、右導光板26及び左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、又は、右導光板26及び左導光板28のそれぞれに対し着脱可能としてもよく、複数種類の調光板を交換して装着可能としてもよく、調光板を省略してもよい。   When the external light enters the user's eyes through the right light guide plate 26 and the left light guide plate 28 from the front of the user, the image light and the external light constituting the virtual image enter the user's eyes. In other words, the visibility of the virtual image is affected by the intensity of external light. For this reason, for example, by attaching a light control plate to the front frame 27 and appropriately selecting or adjusting the optical characteristics of the light control plate, the ease of visual recognition of the virtual image can be adjusted. In a typical example, it is possible to use a light control plate having a light transmittance that allows a user wearing the HMD 100 to visually recognize at least the outside scenery. In addition, when the dimming plate is used, it is possible to protect the right light guide plate 26 and the left light guide plate 28 and to suppress the damage to the right light guide plate 26 and the left light guide plate 28, the adhesion of dirt, and the like. The light control plate may be detachable with respect to the front frame 27 or each of the right light guide plate 26 and the left light guide plate 28, or may be mounted by replacing a plurality of types of light control plates. May be omitted.

カメラ61は、画像表示部20の前部フレーム27に配設される。カメラ61の構成及び配置は、使用者が画像表示部20を装着した状態で視認する外景方向を撮像するように決められる。例えば、カメラ61は、前部フレーム27の前面において、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61は、前部フレーム27の端部ER側に配置されるが、カメラ61を端部EL側に配置してもよく、また、右導光板26と左導光板28との連結部に配置してもよい。カメラ61は、本発明の「検出部」に相当する。また、カメラ61の撮像範囲である、使用者が画像表示部20を装着した状態で視認する外景の範囲は、本発明の「少なくとも表示部を透過する範囲を含む領域」に相当する。カメラ61は、指示体又は使用者を光学的に検出する。   The camera 61 is disposed on the front frame 27 of the image display unit 20. The configuration and arrangement of the camera 61 are determined so as to capture an outside scene direction visually recognized by the user while wearing the image display unit 20. For example, the camera 61 is provided on the front surface of the front frame 27 at a position that does not block external light that passes through the right light guide plate 26 and the left light guide plate 28. In the example of FIG. 1, the camera 61 is disposed on the end ER side of the front frame 27, but the camera 61 may be disposed on the end EL side, and the right light guide plate 26 and the left light guide plate 28. You may arrange | position in the connection part. The camera 61 corresponds to the “detection unit” of the present invention. Further, the range of the outside scene that is visually recognized by the user wearing the image display unit 20 as the imaging range of the camera 61 corresponds to the “region including at least the range that transmits the display unit” of the present invention. The camera 61 optically detects the indicator or the user.

カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。本実施形態のカメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景(実空間)を撮像する。別の表現では、カメラ61は、使用者の視界と重なる範囲又は方向を撮像し、使用者が注視する方向を撮像する。カメラ61の画角の方向及び広さは適宜設定可能である。本実施形態では、後述するように、カメラ61の画角が、使用者が右導光板26及び左導光板28を通して視認する外界を含む。より好ましくは、カメラ61の画角は、右導光板26及び左導光板28を透過して視認可能な使用者の視界の全体を撮像できるように設定される。
カメラ61は、制御部150(図5)が備える撮像制御部147の制御に従って撮像を実行する。カメラ61は、撮像画像データを、後述するインターフェイス211を介して制御部150に出力する。
The camera 61 is a digital camera that includes an imaging element such as a CCD or CMOS, an imaging lens, and the like. The camera 61 of this embodiment is a monocular camera, but may be a stereo camera. The camera 61 images at least a part of the outside scene (real space) in the front side direction of the HMD 100, in other words, the user's viewing direction when the HMD 100 is worn. In another expression, the camera 61 captures a range or direction that overlaps the user's field of view, and captures a direction in which the user gazes. The direction and width of the angle of view of the camera 61 can be set as appropriate. In the present embodiment, as will be described later, the angle of view of the camera 61 includes the outside world visually recognized by the user through the right light guide plate 26 and the left light guide plate 28. More preferably, the angle of view of the camera 61 is set so that the entire field of view of the user who can see through the right light guide plate 26 and the left light guide plate 28 can be imaged.
The camera 61 performs imaging according to the control of the imaging control unit 147 included in the control unit 150 (FIG. 5). The camera 61 outputs captured image data to the control unit 150 via an interface 211 described later.

HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する距離センサー(図示略)を備えてもよい。距離センサーは、例えば、前部フレーム27において右導光板26と左導光板28との連結部分に配置できる。この場合、画像表示部20の装着状態において、距離センサーの位置は、水平方向では使用者の両眼のほぼ中間であり、鉛直方向では使用者の両眼より上である。距離センサーの測定方向は、例えば、前部フレーム27の表側方向とすることができ、言い換えればカメラ61の撮像方向と重複する方向である。距離センサーは、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する構成とすることができる。距離センサーは、制御部150の制御に従い、三角測距処理や時間差に基づく測距処理を実行すればよい。また、距離センサーは、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサーは、制御部150の制御に従い、超音波の反射までの時間差に基づき測距処理を実行すればよい。   The HMD 100 may include a distance sensor (not shown) that detects a distance to a measurement object positioned in a preset measurement direction. The distance sensor can be disposed, for example, at a connection portion between the right light guide plate 26 and the left light guide plate 28 in the front frame 27. In this case, when the image display unit 20 is mounted, the position of the distance sensor is substantially in the middle between the user's eyes in the horizontal direction and above the user's eyes in the vertical direction. The measurement direction of the distance sensor can be, for example, the front side direction of the front frame 27, in other words, the direction overlapping the imaging direction of the camera 61. The distance sensor can be configured to include, for example, a light source such as an LED or a laser diode, and a light receiving unit that receives reflected light that is reflected from the light to be measured. The distance sensor may perform a triangulation process or a distance measurement process based on a time difference in accordance with the control of the control unit 150. The distance sensor may be configured to include a sound source that emits ultrasonic waves and a detection unit that receives ultrasonic waves reflected by the measurement object. In this case, the distance sensor may perform the distance measurement process based on the time difference until the reflection of the ultrasonic wave according to the control of the control unit 150.

図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
図2に示すように、右表示ユニット22及び左表示ユニット24は、左右対称に構成される。右表示ユニット22は、使用者の右眼REに画像を視認させる構成として、画像光を発するOLED(Organic Light Emitting Diode)ユニット221と、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251とを備える。画像光Lは、右光学系251により右導光板26に導かれる。
FIG. 2 is a principal plan view showing the configuration of the optical system provided in the image display unit 20. FIG. 2 shows the user's left eye LE and right eye RE for explanation.
As shown in FIG. 2, the right display unit 22 and the left display unit 24 are configured symmetrically. The right display unit 22 includes an OLED (Organic Light Emitting Diode) unit 221 that emits image light and a lens group that guides the image light L emitted from the OLED unit 221 as a configuration that allows the user's right eye RE to visually recognize an image. Right optical system 251. The image light L is guided to the right light guide plate 26 by the right optical system 251.

OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光してR(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。OLED駆動回路225は、制御部150(図5)の制御に従って、OLEDパネル223が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル223の発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板(図示略)に実装されてもよい。この基板には温度センサー217が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
The OLED unit 221 includes an OLED panel 223 and an OLED drive circuit 225 that drives the OLED panel 223. The OLED panel 223 is a self-luminous display panel configured by arranging, in a matrix, light emitting elements that emit light of R (red), G (green), and B (blue) by emitting light by organic electroluminescence. It is. The OLED panel 223 includes a plurality of pixels, each of which includes one R, G, and B element, and forms an image with pixels arranged in a matrix. The OLED drive circuit 225 selects a light emitting element included in the OLED panel 223 and energizes the light emitting element under the control of the control unit 150 (FIG. 5), and causes the light emitting element of the OLED panel 223 to emit light. The OLED drive circuit 225 is fixed to the back surface of the OLED panel 223, that is, the back surface of the light emitting surface by bonding or the like. The OLED drive circuit 225 may be formed of a semiconductor device that drives the OLED panel 223, for example, and may be mounted on a substrate (not shown) fixed to the back surface of the OLED panel 223. A temperature sensor 217 is mounted on this substrate.
Note that the OLED panel 223 may have a configuration in which light emitting elements that emit white light are arranged in a matrix, and color filters corresponding to R, G, and B colors are stacked. Further, an OLED panel 223 having a WRGB configuration provided with a light emitting element that emits W (white) light in addition to the light emitting elements that respectively emit R, G, and B color light may be used.

右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射して右眼REに向けて右導光板26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。   The right optical system 251 includes a collimator lens that converts the image light L emitted from the OLED panel 223 into a parallel light flux. The image light L converted into a parallel light beam by the collimator lens enters the right light guide plate 26. A plurality of reflecting surfaces that reflect the image light L are formed in an optical path that guides light inside the right light guide plate 26. The image light L is guided to the right eye RE side through a plurality of reflections inside the right light guide plate 26. A half mirror 261 (reflection surface) located in front of the right eye RE is formed on the right light guide plate 26. The image light L is reflected by the half mirror 261 and emitted from the right light guide plate 26 toward the right eye RE. The image light L forms an image on the retina of the right eye RE, and allows the user to visually recognize the image.

また、左表示ユニット24は、使用者の左眼LEに画像を視認させる構成として、画像光を発するOLEDユニット241と、OLEDユニット241が発する画像光Lを導くレンズ群等を備えた左光学系252とを備える。画像光Lは、左光学系252により左導光板28に導かれる。   In addition, the left display unit 24 has a left optical system including an OLED unit 241 that emits image light and a lens group that guides the image light L emitted from the OLED unit 241 as a configuration that allows the user's left eye LE to visually recognize an image. 252. The image light L is guided to the left light guide plate 28 by the left optical system 252.

OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245とを有する。OLEDパネル243は、OLEDパネル223と同様に構成される自発光型の表示パネルである。OLED駆動回路245は、制御部150(図5)の制御に従って、OLEDパネル243が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル243の発光素子を発光させる。OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される基板(図示略)に実装されてもよい。この基板には、温度センサー239が実装される。   The OLED unit 241 includes an OLED panel 243 and an OLED drive circuit 245 that drives the OLED panel 243. The OLED panel 243 is a self-luminous display panel configured similarly to the OLED panel 223. The OLED driving circuit 245 causes the light emitting elements of the OLED panel 243 to emit light by selecting a light emitting element included in the OLED panel 243 and energizing the light emitting element according to the control of the control unit 150 (FIG. 5). The OLED drive circuit 245 is fixed to the back surface of the OLED panel 243, that is, the back surface of the light emitting surface by bonding or the like. The OLED drive circuit 245 may be configured by a semiconductor device that drives the OLED panel 243, for example, and may be mounted on a substrate (not shown) fixed to the back surface of the OLED panel 243. A temperature sensor 239 is mounted on this substrate.

左光学系252は、OLEDパネル243から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板28に入射する。左導光板28は、画像光Lを反射する複数の反射面が形成された光学素子であり、例えばプリズムである。画像光Lは、左導光板28の内部で複数回の反射を経て左眼LE側に導かれる。左導光板28には、左眼LEの眼前に位置するハーフミラー281(反射面)が形成される。画像光Lは、ハーフミラー281で反射して左眼LEに向けて左導光板28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。   The left optical system 252 includes a collimating lens that converts the image light L emitted from the OLED panel 243 into a light beam in a parallel state. The image light L converted into a parallel light beam by the collimator lens enters the left light guide plate 28. The left light guide plate 28 is an optical element formed with a plurality of reflecting surfaces that reflect the image light L, and is, for example, a prism. The image light L is guided to the left eye LE side through a plurality of reflections inside the left light guide plate 28. The left light guide plate 28 is formed with a half mirror 281 (reflection surface) located in front of the left eye LE. The image light L is reflected by the half mirror 281 and emitted from the left light guide plate 28 toward the left eye LE. The image light L forms an image on the retina of the left eye LE, and allows the user to visually recognize the image.

この構成によれば、HMD100は、シースルー型の表示装置として機能する。すなわち、使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。また、左眼LEには、ハーフミラー281で反射した画像光Lと、ハーフミラー281を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。
ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
According to this configuration, the HMD 100 functions as a see-through display device. That is, the image light L reflected by the half mirror 261 and the external light OL transmitted through the right light guide plate 26 are incident on the user's right eye RE. Further, the image light L reflected by the half mirror 281 and the external light OL transmitted through the half mirror 281 are incident on the left eye LE. In this way, the HMD 100 superimposes the image light L of the internally processed image and the external light OL so as to enter the user's eyes, and for the user, the outside light is transmitted through the right light guide plate 26 and the left light guide plate 28. The image by the image light L is visually recognized over the outside scene.
The half mirrors 261 and 281 are image extraction units that extract image by reflecting image light output from the right display unit 22 and the left display unit 24, respectively, and can be called display units.

なお、左光学系252と左導光板28とを総称して「左導光部」とも呼び、右光学系251と右導光板26とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。   The left optical system 252 and the left light guide plate 28 are collectively referred to as a “left light guide”, and the right optical system 251 and the right light guide plate 26 are collectively referred to as a “right light guide”. The configuration of the right light guide and the left light guide is not limited to the above example, and any method can be used as long as a virtual image is formed in front of the user's eyes using image light. It may be used, or a semi-transmissive reflective film may be used.

図1に戻り、制御装置10及び画像表示部20は、接続ケーブル40により接続される。接続ケーブル40は、ケース10Aの下部に設けられるコネクター(図示略)に着脱可能に接続され、左保持部23の先端から、画像表示部20の内部に設けられる各種回路に接続する。接続ケーブル40は、デジタルデータを伝送するメタルケーブル又は光ファイバーケーブルを有し、アナログ信号を伝送するメタルケーブルを有していてもよい。接続ケーブル40の途中には、コネクター46が設けられる。コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46及び制御装置10は、例えばアナログ音声信号を伝送するラインで接続される。図1に示す構成例では、ステレオヘッドホンを構成する右イヤホン32と左イヤホン34、及びマイク63を有するヘッドセット30が、コネクター46に接続される。
制御装置10と画像表示部20とを無線接続してもよい。例えば、Bluetooth(登録商標)、無線LAN(Wi−Fi(登録商標)を含む)等の規格に準拠した無線通信により、制御装置10と画像表示部20とが制御信号やデータを相互に送受信する構成としてもよい。
Returning to FIG. 1, the control device 10 and the image display unit 20 are connected by a connection cable 40. The connection cable 40 is detachably connected to a connector (not shown) provided at the lower part of the case 10 </ b> A, and is connected to various circuits provided in the image display unit 20 from the tip of the left holding unit 23. The connection cable 40 includes a metal cable that transmits digital data or an optical fiber cable, and may include a metal cable that transmits an analog signal. A connector 46 is provided in the middle of the connection cable 40. The connector 46 is a jack for connecting a stereo mini plug, and the connector 46 and the control device 10 are connected by a line for transmitting an analog audio signal, for example. In the configuration example shown in FIG. 1, a headset 30 having a right earphone 32 and a left earphone 34 and a microphone 63 constituting a stereo headphone is connected to a connector 46.
The control device 10 and the image display unit 20 may be wirelessly connected. For example, the control device 10 and the image display unit 20 mutually transmit and receive control signals and data by wireless communication complying with standards such as Bluetooth (registered trademark) and wireless LAN (including Wi-Fi (registered trademark)). It is good also as a structure.

マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声インターフェイス182(図4)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。マイク63は、本発明の「音声入力部」に相当する。   For example, as shown in FIG. 1, the microphone 63 is arranged so that the sound collection unit of the microphone 63 faces the user's line of sight, collects sound, and outputs a sound signal to the sound interface 182 (FIG. 4). To do. For example, the microphone 63 may be a monaural microphone or a stereo microphone, may be a directional microphone, or may be an omnidirectional microphone. The microphone 63 corresponds to the “voice input unit” of the present invention.

制御装置10は、使用者により操作される被操作部として、ボタン11、LEDインジケーター12、トラックパッド14、上下キー15、切替スイッチ16、及び電源スイッチ18を備える。これらの被操作部はケース10Aの表面に配置される。   The control device 10 includes a button 11, an LED indicator 12, a track pad 14, an up / down key 15, a changeover switch 16, and a power switch 18 as operated parts operated by a user. These operated parts are arranged on the surface of the case 10A.

ボタン11は、制御装置10を操作するためのキーやスイッチを備え、これらのキーやスイッチは押圧操作により変位する。例えば、ボタン11は、制御装置10が実行するオペレーティングシステム143(図5参照)等に関する操作を行うためのメニューキー、ホームキー、「戻る」キーを含む。
LEDインジケーター12は、HMD100の動作状態に対応して点灯し、又は点滅する。上下キー15は、右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。切替スイッチ16は、上下キー15の操作に対応する入力を切り替えるスイッチである。電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチであり、例えばスライドスイッチである。
The button 11 includes keys and switches for operating the control device 10, and these keys and switches are displaced by a pressing operation. For example, the button 11 includes a menu key, a home key, and a “return” key for performing operations related to the operating system 143 (see FIG. 5) executed by the control device 10.
The LED indicator 12 lights up or blinks in accordance with the operating state of the HMD 100. The up / down key 15 is used to input an instruction to increase / decrease the volume output from the right earphone 32 and the left earphone 34 and to input an instruction to increase / decrease the display brightness of the image display unit 20. The changeover switch 16 is a switch for changing an input corresponding to the operation of the up / down key 15. The power switch 18 is a switch that switches on / off the power of the HMD 100, and is, for example, a slide switch.

トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式或いは他の方式を採用できる。トラックパッド14への接触(タッチ操作)は、タッチセンサー(図示略)により検出される。トラックパッド14にはLED表示部17が設置される。LED表示部17は複数のLEDを備え、それぞれのLEDの光はトラックパッド14を透過して、操作用のアイコン等を表示する。このアイコン等はソフトウェアボタンとして機能する。   The track pad 14 has an operation surface for detecting a contact operation, and outputs an operation signal according to an operation on the operation surface. The detection method on the operation surface is not limited, and an electrostatic method, a pressure detection method, an optical method, or other methods can be adopted. Contact (touch operation) to the track pad 14 is detected by a touch sensor (not shown). An LED display unit 17 is installed on the track pad 14. The LED display unit 17 includes a plurality of LEDs, and light of each LED is transmitted through the track pad 14 to display an operation icon or the like. This icon or the like functions as a software button.

図3は、画像表示部20の構成を示す斜視図であり、画像表示部20を使用者の頭部側から見た要部構成を示す。この図3は、画像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、右導光板26及び左導光板28の裏側が見えている。
図3では、使用者の右眼REに画像光を照射するハーフミラー261、及び左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
FIG. 3 is a perspective view showing a configuration of the image display unit 20 and shows a main configuration of the image display unit 20 as viewed from the user's head side. FIG. 3 shows the side of the image display unit 20 that contacts the user's head, in other words, the side that can be seen by the user's right eye RE and left eye LE. In other words, the back sides of the right light guide plate 26 and the left light guide plate 28 are visible.
In FIG. 3, the half mirror 261 that irradiates the user's right eye RE with the image light and the half mirror 281 that irradiates the left eye LE with the image light appear as substantially rectangular areas. Further, the entire right light guide plate 26 and left light guide plate 28 including the half mirrors 261 and 281 transmit external light as described above. For this reason, the user sees the outside scene through the entire right light guide plate 26 and the left light guide plate 28, and sees a rectangular display image at the positions of the half mirrors 261 and 281.

カメラ61は、画像表示部20において右側の端部に配置され、使用者の両眼が向く方向、すなわち使用者にとって前方を撮像する。カメラ61の光軸は、右眼RE及び左眼LEの視線方向を含む方向とされる。使用者がHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば、使用者が両眼で、使用者の前方に位置する対象物を注視する場合、使用者から対象物までの距離は、30cm〜10m程度であることが多く、1m〜4m程度であることが、より多い。そこで、HMD100について、通常使用時における使用者から対象物までの距離の上限、及び下限の目安を定めてもよい。この目安は調査や実験により求めてもよいし使用者が設定してもよい。カメラ61の光軸、及び画角は、通常使用時における対象物までの距離が、設定された上限の目安に相当する場合、及び下限の目安に相当する場合に、この対象物が画角に含まれるように設定されることが好ましい。   The camera 61 is disposed at the right end of the image display unit 20 and images the direction in which both eyes of the user face, that is, the front for the user. The optical axis of the camera 61 is a direction including the line-of-sight directions of the right eye RE and the left eye LE. The outside scene that the user can visually recognize in a state where the HMD 100 is worn is not always at infinity. For example, when a user looks at an object located in front of the user with both eyes, the distance from the user to the object is often about 30 cm to 10 m, and is about 1 m to 4 m. But more. Therefore, for the HMD 100, an upper limit and a lower limit of the distance from the user to the object during normal use may be determined. This standard may be obtained by investigation or experiment, or may be set by the user. The optical axis and the angle of view of the camera 61 are set to the angle of view when the distance to the object during normal use corresponds to the set upper limit guide and the lower limit guide. It is preferable to be set so as to be included.

一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。注視点が使用者の前方に位置する対象物であるとき、使用者の視野において、右眼RE及び左眼LEのそれぞれの視線を中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。さらに、使用者が右導光板26及び左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶことができる。図1及び図2に示す本実施形態の構成で、実視野は、右導光板26及び左導光板28を透過して使用者が視認する実際の視野に相当する。実視野は、視野角及び安定注視野より狭いが、有効視野より広い。   In general, the viewing angle of a human is about 200 degrees in the horizontal direction and about 125 degrees in the vertical direction. Among them, the effective field of view with excellent information receiving ability is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction. Furthermore, the stable gaze field in which the gaze point that the human gazes at appears to be quickly and stably is about 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction. When the gazing point is an object located in front of the user, in the user's field of view, about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction are effective around the line of sight of the right eye RE and the left eye LE. It is a field of view. Further, the stable viewing field is about 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction, and the viewing angle is about 200 degrees in the horizontal direction and about 125 degrees in the vertical direction. Furthermore, the actual visual field that the user sees through the right light guide plate 26 and the left light guide plate 28 can be referred to as a real field of view (FOV: Field Of View). In the configuration of the present embodiment shown in FIGS. 1 and 2, the actual visual field corresponds to an actual visual field that is transmitted through the right light guide plate 26 and the left light guide plate 28 and visually recognized by the user. The real field of view is narrower than the viewing angle and stable field of view, but wider than the effective field of view.

カメラ61の画角は、使用者の視野よりも広い範囲を撮像可能であることが好ましく、具体的には、画角が、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角が、使用者の実視野よりも広いことがより好ましい。さらに好ましくは、画角が、使用者の安定注視野よりも広く、最も好ましくは、画角が使用者の両眼の視野角よりも広いことがより好ましい。   The field angle of the camera 61 is preferably capable of capturing an image in a wider range than the user's field of view, and specifically, the field angle is preferably at least wider than the user's effective field of view. Further, it is more preferable that the angle of view is wider than the actual field of view of the user. More preferably, the angle of view is wider than the stable viewing field of the user, and most preferably, the angle of view is wider than the viewing angle of both eyes of the user.

カメラ61が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群をカメラ61が備える構成であってもよい。   The camera 61 may include a so-called wide-angle lens as an imaging lens so that a wide angle of view can be captured. The wide-angle lens may include a lens called a super-wide-angle lens or a quasi-wide-angle lens, may be a single focus lens or a zoom lens, and the camera 61 includes a lens group including a plurality of lenses. There may be.

図4は、HMD100を構成する各部の構成を示すブロック図である。
制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140を備える。メインプロセッサー140には、メモリー118及び不揮発性記憶部121が接続される。また、メインプロセッサー140には、入力装置としてトラックパッド14及び操作部110が接続される。また、メインプロセッサー140には、センサー類として、6軸センサー111、磁気センサー113が接続される。また、メインプロセッサー140には、GPS受信部115、通信部117、ビーコン受信部119、音声コーデック180、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192及びFPGA194が接続される。これらは外部とのインターフェイスとして機能する。通信部117は、本発明の「制御情報出力部」に相当する。
FIG. 4 is a block diagram illustrating a configuration of each unit included in the HMD 100.
The control device 10 includes a main processor 140 that executes a program and controls the HMD 100. A memory 118 and a non-volatile storage unit 121 are connected to the main processor 140. The main processor 140 is connected to the track pad 14 and the operation unit 110 as input devices. In addition, a 6-axis sensor 111 and a magnetic sensor 113 are connected to the main processor 140 as sensors. The main processor 140 is connected to a GPS receiver 115, a communication unit 117, a beacon receiver 119, an audio codec 180, an external connector 184, an external memory interface 186, a USB connector 188, a sensor hub 192, and an FPGA 194. These function as an interface with the outside. The communication unit 117 corresponds to the “control information output unit” of the present invention.

メインプロセッサー140は、制御装置10が内蔵するコントローラー基板120に実装される。コントローラー基板120には、メインプロセッサー140に加えて、メモリー118、不揮発性記憶部121等が実装されてもよい。本実施形態では、6軸センサー111、磁気センサー113、GPS受信部115、通信部117、メモリー118、不揮発性記憶部121、音声コーデック180等がコントローラー基板120に実装される。また、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、FPGA194、及びインターフェイス196をコントローラー基板120に実装した構成であってもよい。   The main processor 140 is mounted on the controller board 120 built in the control device 10. In addition to the main processor 140, a memory 118, a nonvolatile storage unit 121, and the like may be mounted on the controller board 120. In the present embodiment, a six-axis sensor 111, a magnetic sensor 113, a GPS receiver 115, a communication unit 117, a memory 118, a nonvolatile storage unit 121, an audio codec 180, and the like are mounted on the controller board 120. Further, the external connector 184, the external memory interface 186, the USB connector 188, the sensor hub 192, the FPGA 194, and the interface 196 may be mounted on the controller board 120.

メモリー118は、メインプロセッサー140がプログラムを実行する場合に、実行されるプログラム、及び処理されるデータを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するプログラムや、メインプロセッサー140がプログラムを実行して処理する各種データを記憶する。   The memory 118 constitutes a work area that temporarily stores a program to be executed and data to be processed when the main processor 140 executes the program. The non-volatile storage unit 121 is configured by a flash memory or an eMMC (embedded Multi Media Card). The nonvolatile storage unit 121 stores a program executed by the main processor 140 and various data processed by the main processor 140 executing the program.

メインプロセッサー140は、トラックパッド14から入力される操作信号に基づいて、トラックパッド14の操作面に対する接触操作を検出し、操作位置を取得する。
操作部110は、ボタン11及びLED表示部17を含む。操作部110は、ボタン11が有するボタンやスイッチ等の操作子が操作された場合に、操作された操作子に対応する操作信号をメインプロセッサー140に出力する。
The main processor 140 detects a touch operation on the operation surface of the track pad 14 based on an operation signal input from the track pad 14 and acquires an operation position.
The operation unit 110 includes a button 11 and an LED display unit 17. The operation unit 110 outputs an operation signal corresponding to the operated operation element to the main processor 140 when an operation element such as a button or a switch included in the button 11 is operated.

LED表示部17は、メインプロセッサー140の制御に従って、LEDインジケーター12の点灯、及び消灯を制御する。また、LED表示部17は、トラックパッド14の直下に配置されるLED(図示略)、及びこのLEDを点灯させる駆動回路を含む構成であってもよい。この場合、LED表示部17は、メインプロセッサー140の制御に従って、LEDを点灯、点滅、消灯させる。   The LED display unit 17 controls the turning on and off of the LED indicator 12 according to the control of the main processor 140. The LED display unit 17 may include an LED (not shown) disposed immediately below the track pad 14 and a drive circuit that lights the LED. In this case, the LED display unit 17 turns on, blinks, and turns off the LED according to the control of the main processor 140.

6軸センサー111は、3軸加速度センサー及び3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー111は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー113は、例えば、3軸の地磁気センサーである。
6軸センサー111及び磁気センサー113は、検出値を、予め指定されたサンプリング周期に従ってメインプロセッサー140に出力する。また、6軸センサー111及び磁気センサー113は、メインプロセッサー140の要求に応じて、メインプロセッサー140により指定されたタイミングで、検出値をメインプロセッサー140に出力する。
The 6-axis sensor 111 is a motion sensor (inertial sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 111 may employ an IMU (Internal Measurement Unit) in which the above sensors are modularized.
The magnetic sensor 113 is, for example, a triaxial geomagnetic sensor.
The 6-axis sensor 111 and the magnetic sensor 113 output the detection value to the main processor 140 according to a sampling period specified in advance. The 6-axis sensor 111 and the magnetic sensor 113 output detection values to the main processor 140 at a timing designated by the main processor 140 in response to a request from the main processor 140.

GPS受信部115は、図示しないGPSアンテナを備え、GPS衛星から送信されるGPS信号を受信する。GPS受信部115は、受信したGPS信号をメインプロセッサー140に出力する。また、GPS受信部115は、受信したGPS信号の信号強度を計測し、メインプロセッサー140に出力する。信号強度には、例えば、受信信号強度(RSSI:Received Signal Strength Indication)、電界強度、磁界強度、信号雑音比(SNR: Signal to Noise ratio)等の情報を用いることができる。   The GPS receiving unit 115 includes a GPS antenna (not shown) and receives a GPS signal transmitted from a GPS satellite. The GPS receiving unit 115 outputs the received GPS signal to the main processor 140. Further, the GPS receiving unit 115 measures the signal strength of the received GPS signal and outputs it to the main processor 140. Information such as received signal strength (RSSI: Received Signal Strength Indication), electric field strength, magnetic field strength, signal to noise ratio (SNR) can be used as the signal strength.

通信部117は、外部の機器との間で無線通信を実行する。通信部117は、アンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、又はこれらが統合されたデバイスで構成される。通信部117は、例えば、Bluetooth、無線LAN(Wi−Fiを含む)等の規格に準拠した無線通信を行う。   The communication unit 117 performs wireless communication with an external device. The communication unit 117 includes an antenna, an RF circuit, a baseband circuit, a communication control circuit, and the like, or a device in which these are integrated. The communication unit 117 performs wireless communication complying with standards such as Bluetooth and wireless LAN (including Wi-Fi), for example.

音声インターフェイス182は、音声信号を入出力するインターフェイスである。本実施形態では、音声インターフェイス182は、接続ケーブル40に設けられたコネクター46(図1)を含む。コネクター46はヘッドセット30に接続される。音声インターフェイス182が出力する音声信号は右イヤホン32、及び左イヤホン34に入力され、これにより右イヤホン32及び左イヤホン34が音声を出力する。また、ヘッドセット30が備えるマイク63は、音声を集音して、音声信号を音声インターフェイス182に出力する。マイク63から音声インターフェイス182に入力される音声信号は、外部コネクター184に入力される。   The audio interface 182 is an interface for inputting and outputting audio signals. In the present embodiment, the audio interface 182 includes a connector 46 (FIG. 1) provided on the connection cable 40. The connector 46 is connected to the headset 30. The audio signal output from the audio interface 182 is input to the right earphone 32 and the left earphone 34, whereby the right earphone 32 and the left earphone 34 output audio. Further, the microphone 63 provided in the headset 30 collects sound and outputs a sound signal to the sound interface 182. An audio signal input from the microphone 63 to the audio interface 182 is input to the external connector 184.

音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード及びデコードを行う。音声コーデック180はアナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、及びその逆の変換を行うD/Aコンバーターを備えてもよい。例えば、本実施形態のHMD100は、音声を右イヤホン32及び左イヤホン34により出力し、マイク63で集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換して、音声インターフェイス182を介して出力する。また、音声コーデック180は、音声インターフェイス182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。   The audio codec 180 is connected to the audio interface 182 and encodes and decodes an audio signal input / output via the audio interface 182. The audio codec 180 may include an A / D converter that converts analog audio signals to digital audio data, and a D / A converter that performs the reverse conversion. For example, the HMD 100 according to the present embodiment outputs sound by the right earphone 32 and the left earphone 34 and collects sound by the microphone 63. The audio codec 180 converts the digital audio data output from the main processor 140 into an analog audio signal and outputs the analog audio signal via the audio interface 182. The audio codec 180 converts an analog audio signal input to the audio interface 182 into digital audio data and outputs the digital audio data to the main processor 140.

外部コネクター184は、メインプロセッサー140と通信する外部の装置を接続するコネクターである。外部コネクター184は、例えば、外部の装置をメインプロセッサー140に接続して、メインプロセッサー140が実行するプログラムのデバッグや、HMD100の動作のログの収集を行う場合に、この外部の装置を接続するインターフェイスである。   The external connector 184 is a connector that connects an external device that communicates with the main processor 140. The external connector 184 is an interface for connecting an external device when, for example, an external device is connected to the main processor 140 to debug a program executed by the main processor 140 or collect a log of the operation of the HMD 100. It is.

外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。この場合のカード型記録媒体のサイズ、形状、規格は制限されず、適宜に変更可能である。
USB(Universal Serial Bus)コネクター188は、USB規格に準拠したコネクターとインターフェイス回路とを備える。USBコネクター188は、USBメモリーデバイス、スマートフォン、コンピューター等を接続できる。USBコネクター188のサイズや形状、適合するUSB規格のバージョンは適宜に選択、変更可能である。
The external memory interface 186 is an interface to which a portable memory device can be connected. For example, the external memory interface 186 includes a memory card slot in which a card type recording medium is mounted and data can be read and an interface circuit. In this case, the size, shape and standard of the card type recording medium are not limited and can be changed as appropriate.
The USB (Universal Serial Bus) connector 188 includes a connector conforming to the USB standard and an interface circuit. The USB connector 188 can connect a USB memory device, a smartphone, a computer, or the like. The size and shape of the USB connector 188 and the compatible USB standard version can be appropriately selected and changed.

センサーハブ192及びFPGA194は、インターフェイス(I/F)196を介して、画像表示部20を接続される。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得してメインプロセッサー140に出力する。また、FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信するデータの処理、及びインターフェイス196を介した伝送を実行する。   The sensor hub 192 and the FPGA 194 are connected to the image display unit 20 via an interface (I / F) 196. The sensor hub 192 acquires detection values of various sensors included in the image display unit 20 and outputs them to the main processor 140. The FPGA 194 executes processing of data transmitted / received between the main processor 140 and each unit of the image display unit 20 and transmission via the interface 196.

HMD100は、バイブレーター19を備える。バイブレーター19は、モーター、偏心した回転子(いずれも図示略)を備え、その他の必要な構成を備えてもよい。バイブレーター19は、メインプロセッサー140の制御に従って上記モーターを回転させることにより、振動を発生する。HMD100は、例えば、操作部110に対する操作を検出した場合、HMD100の電源がオン/オフされる場合、或いはその他の場合に、所定の振動パターンでバイブレーター19により振動を発生する。   The HMD 100 includes a vibrator 19. The vibrator 19 includes a motor and an eccentric rotor (both not shown), and may have other necessary configurations. The vibrator 19 generates vibrations by rotating the motor according to the control of the main processor 140. For example, the HMD 100 generates vibration by the vibrator 19 with a predetermined vibration pattern when an operation on the operation unit 110 is detected, when the power of the HMD 100 is turned on / off, or in other cases.

画像表示部20の右表示ユニット22及び左表示ユニット24は、それぞれ、制御装置10に接続される。図1に示すように、HMD100では左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24のそれぞれが制御装置10に接続される。   The right display unit 22 and the left display unit 24 of the image display unit 20 are each connected to the control device 10. As shown in FIG. 1, in the HMD 100, a connection cable 40 is connected to the left holding unit 23, wiring connected to the connection cable 40 is laid inside the image display unit 20, and each of the right display unit 22 and the left display unit 24 is Connected to the control device 10.

右表示ユニット22は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)211、インターフェイス211を介して制御装置10から入力されるデータを受信する受信部(Rx)213、及びEEPROM215が実装される。
インターフェイス211は、受信部213、EEPROM215、温度センサー217、カメラ61、照度センサー65、及びLEDインジケーター67を、制御装置10に接続する。
The right display unit 22 includes a display unit substrate 210. On the display unit substrate 210, an interface (I / F) 211 connected to the interface 196, a receiving unit (Rx) 213 that receives data input from the control device 10 via the interface 211, and an EEPROM 215 are mounted. .
The interface 211 connects the receiving unit 213, the EEPROM 215, the temperature sensor 217, the camera 61, the illuminance sensor 65, and the LED indicator 67 to the control device 10.

EEPROM(Electrically Erasable Programmable Read−Only Memory)215は、各種のデータをメインプロセッサー140が読み取り可能に記憶する。EEPROM215は、例えば、画像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22又は左表示ユニット24が備えるセンサーの特性に関するデータなどを記憶する。具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれ、出荷後はメインプロセッサー140がEEPROM215のデータを利用して処理を行える。   An EEPROM (Electrically Erasable Programmable Read-Only Memory) 215 stores various data so that the main processor 140 can read the data. The EEPROM 215 stores, for example, data relating to light emission characteristics and display characteristics of the OLED units 221 and 241 provided in the image display unit 20, data relating to characteristics of sensors provided in the right display unit 22 or the left display unit 24, and the like. Specifically, parameters relating to gamma correction of the OLED units 221, 241 and data for compensating the detection values of the temperature sensors 217, 239 are stored. These data are generated by the factory inspection of the HMD 100 and written in the EEPROM 215. After the shipment, the main processor 140 can perform processing using the data in the EEPROM 215.

カメラ61は、インターフェイス211を介して入力される信号に従って撮像を実行し、撮像画像データ、又は撮像結果を示す信号を制御装置10に出力する。
照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するよう配置される。照度センサー65は、受光量(受光強度)に対応する検出値を出力する。
LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
The camera 61 executes imaging according to a signal input via the interface 211 and outputs captured image data or a signal indicating the imaging result to the control device 10.
As shown in FIG. 1, the illuminance sensor 65 is provided at an end ER of the front frame 27 and is arranged to receive external light from the front of the user wearing the image display unit 20. The illuminance sensor 65 outputs a detection value corresponding to the amount of received light (received light intensity).
As shown in FIG. 1, the LED indicator 67 is disposed near the camera 61 at the end ER of the front frame 27. The LED indicator 67 is lit during execution of imaging by the camera 61 to notify that imaging is in progress.

温度センサー217は、温度を検出し、検出温度に対応する電圧値又は抵抗値を、検出値として出力する。温度センサー217は、OLEDパネル223(図2)の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は、主としてOLEDパネル223の温度を検出する。   The temperature sensor 217 detects the temperature and outputs a voltage value or a resistance value corresponding to the detected temperature as a detected value. The temperature sensor 217 is mounted on the back side of the OLED panel 223 (FIG. 2). For example, the temperature sensor 217 may be mounted on the same substrate as the OLED drive circuit 225. With this configuration, the temperature sensor 217 mainly detects the temperature of the OLED panel 223.

受信部213は、インターフェイス211を介してメインプロセッサー140が送信するデータを受信する。受信部213は、OLEDユニット221で表示する画像の画像データを受信した場合に、受信した画像データを、OLED駆動回路225(図2)に出力する。   The receiving unit 213 receives data transmitted from the main processor 140 via the interface 211. When receiving the image data of the image displayed on the OLED unit 221, the receiving unit 213 outputs the received image data to the OLED drive circuit 225 (FIG. 2).

左表示ユニット24は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)231、インターフェイス231を介して制御装置10から入力されるデータを受信する受信部(Rx)233が実装される。また、表示ユニット基板210には、6軸センサー235及び磁気センサー237が実装される。
インターフェイス231は、受信部233、6軸センサー235、磁気センサー237、及び温度センサー239を、制御装置10に接続する。
The left display unit 24 includes a display unit substrate 210. On the display unit substrate 210, an interface (I / F) 231 connected to the interface 196 and a receiving unit (Rx) 233 that receives data input from the control device 10 via the interface 231 are mounted. In addition, a six-axis sensor 235 and a magnetic sensor 237 are mounted on the display unit substrate 210.
The interface 231 connects the receiving unit 233, the six-axis sensor 235, the magnetic sensor 237, and the temperature sensor 239 to the control device 10.

6軸センサー235は、3軸加速度センサー及び3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMUを採用してもよい。
磁気センサー237は、例えば、3軸の地磁気センサーである。
The 6-axis sensor 235 is a motion sensor (inertial sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 235 may employ an IMU in which the above sensors are modularized.
The magnetic sensor 237 is, for example, a triaxial geomagnetic sensor.

温度センサー239は、温度を検出し、検出温度に対応する電圧値又は抵抗値を、検出値として出力する。温度センサー239は、OLEDパネル243(図2)の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は、主としてOLEDパネル243の温度を検出する。
また、温度センサー239が、OLEDパネル243又はOLED駆動回路245に内蔵されてもよい。また、上記基板は半導体基板であってもよい。具体的には、OLEDパネル243が、Si−OLEDとして、OLED駆動回路245等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。
The temperature sensor 239 detects the temperature and outputs a voltage value or a resistance value corresponding to the detected temperature as a detected value. The temperature sensor 239 is mounted on the back side of the OLED panel 243 (FIG. 2). The temperature sensor 239 may be mounted on the same substrate as the OLED drive circuit 245, for example. With this configuration, the temperature sensor 239 mainly detects the temperature of the OLED panel 243.
Further, the temperature sensor 239 may be incorporated in the OLED panel 243 or the OLED drive circuit 245. The substrate may be a semiconductor substrate. Specifically, when the OLED panel 243 is mounted as an Si-OLED as an integrated circuit on an integrated semiconductor chip together with the OLED drive circuit 245 and the like, the temperature sensor 239 may be mounted on the semiconductor chip.

右表示ユニット22が備えるカメラ61、照度センサー65、温度センサー217、及び左表示ユニット24が備える6軸センサー235、磁気センサー237、温度センサー239は、センサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定及び初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。また、センサーハブ192は、予め設定されたタイミングで、右表示ユニット22及び左表示ユニット24が備える各センサーの検出値を、メインプロセッサー140に出力する。センサーハブ192は、各センサーの検出値を、メインプロセッサー140に対する出力のタイミングに合わせて一時的に保持する機能を備えてもよい。また、センサーハブ192は、各センサーの出力値の信号形式、又はデータ形式の相違に対応し、統一されたデータ形式のデータに変換して、メインプロセッサー140に出力する機能を備えてもよい。
また、センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始及び停止させ、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯又は点滅させる。
The camera 61, the illuminance sensor 65, the temperature sensor 217, and the 6-axis sensor 235, the magnetic sensor 237, and the temperature sensor 239 included in the left display unit 24 are connected to the sensor hub 192. The sensor hub 192 sets and initializes the sampling period of each sensor according to the control of the main processor 140. The sensor hub 192 executes energization to each sensor, transmission of control data, acquisition of a detection value, and the like in accordance with the sampling period of each sensor. The sensor hub 192 outputs detection values of the sensors included in the right display unit 22 and the left display unit 24 to the main processor 140 at a preset timing. The sensor hub 192 may have a function of temporarily holding the detection value of each sensor in accordance with the output timing to the main processor 140. In addition, the sensor hub 192 may have a function of converting the data of the output value of each sensor or the data format into data of a unified data format and outputting the data to the main processor 140.
The sensor hub 192 starts and stops energization of the LED indicator 67 according to the control of the main processor 140, and lights or blinks the LED indicator 67 in accordance with the timing when the camera 61 starts and ends imaging.

制御装置10は、電源部130を備え、電源部130から供給される電力により動作する。電源部130は、充電可能なバッテリー132、及びバッテリー132の残容量の検出およびバッテリー132への充電の制御を行う電源制御回路134を備える。電源制御回路134はメインプロセッサー140に接続され、バッテリー132の残容量の検出値、又は電圧の検出値をメインプロセッサー140に出力する。また、電源部130が供給する電力に基づき、制御装置10から画像表示部20に電力を供給してもよい。また、電源部130から制御装置10の各部及び画像表示部20への電力の供給状態を、メインプロセッサー140が制御可能な構成としてもよい。   The control device 10 includes a power supply unit 130 and operates with power supplied from the power supply unit 130. The power supply unit 130 includes a rechargeable battery 132 and a power supply control circuit 134 that detects the remaining capacity of the battery 132 and controls charging of the battery 132. The power control circuit 134 is connected to the main processor 140 and outputs a detected value of the remaining capacity of the battery 132 or a detected value of the voltage to the main processor 140. Further, the power may be supplied from the control device 10 to the image display unit 20 based on the power supplied from the power supply unit 130. The power supply state from the power supply unit 130 to each unit of the control device 10 and the image display unit 20 may be configured to be controllable by the main processor 140.

図5は、制御装置10の制御系を構成する記憶部122、及び制御部150の機能ブロック図である。図5に示す記憶部122は、不揮発性記憶部121(図4)により構成される論理的な記憶部であり、EEPROM215を含んでもよい。また、制御部150、及び制御部150が有する各種の機能部は、メインプロセッサー140がプログラムを実行することによって、ソフトウェアとハードウェアとの協働により形成される。制御部150、及び制御部150を構成する各機能部は、例えば、メインプロセッサー140、メモリー118及び不揮発性記憶部121により構成される。   FIG. 5 is a functional block diagram of the storage unit 122 and the control unit 150 that constitute the control system of the control device 10. The storage unit 122 illustrated in FIG. 5 is a logical storage unit configured by the nonvolatile storage unit 121 (FIG. 4), and may include an EEPROM 215. The control unit 150 and various functional units included in the control unit 150 are formed by cooperation of software and hardware by the main processor 140 executing a program. The control unit 150 and each functional unit constituting the control unit 150 include, for example, a main processor 140, a memory 118, and a nonvolatile storage unit 121.

制御部150は、記憶部122が記憶するデータを利用して各種処理を実行し、HMD100を制御する。
記憶部122は、制御部150が処理する各種のデータを記憶する。具体的には、記憶部122は、設定データ123、コンテンツデータ124、パターン登録辞書125及び音声パターン辞書126を記憶する。
The control unit 150 executes various processes using data stored in the storage unit 122 and controls the HMD 100.
The storage unit 122 stores various data processed by the control unit 150. Specifically, the storage unit 122 stores setting data 123, content data 124, a pattern registration dictionary 125, and an audio pattern dictionary 126.

設定データ123は、HMD100の動作を設定する各種の設定値を含む。また、制御部150がHMD100を制御する際にパラメーター、行列式、演算式、LUT(LookUp Table)等を用いる場合、これらを設定データ123に含めてもよい。   The setting data 123 includes various setting values that set the operation of the HMD 100. Further, when the control unit 150 controls the HMD 100, parameters, determinants, arithmetic expressions, LUTs (Look Up Tables), and the like may be included in the setting data 123.

コンテンツデータ124は、制御部150の制御によって画像表示部20が表示する表示画像や映像を含むコンテンツのデータであり、画像データ又は映像データを含む。また、コンテンツデータ124は、音声データを含んでもよい。また、コンテンツデータ124は複数の画像の画像データを含んでもよく、この場合、これら複数の画像は同時に画像表示部20に表示される画像に限定されない。
また、コンテンツデータ124は、コンテンツを画像表示部20により表示する際に、制御装置10によって使用者の操作を受け付けて、受け付けた操作に応じた処理を制御部150が実行する、双方向型のコンテンツであってもよい。この場合、コンテンツデータ124は、操作を受け付ける場合に表示するメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理等を定めるデータ等を含んでもよい。
The content data 124 is content data including a display image and video displayed by the image display unit 20 under the control of the control unit 150, and includes image data or video data. Further, the content data 124 may include audio data. The content data 124 may include image data of a plurality of images. In this case, the plurality of images are not limited to images displayed on the image display unit 20 at the same time.
The content data 124 is an interactive type in which when the content is displayed on the image display unit 20, the control device 10 receives a user operation and the control unit 150 executes a process according to the received operation. It may be content. In this case, the content data 124 may include image data of a menu screen that is displayed when an operation is accepted, data that defines processing corresponding to items included in the menu screen, and the like.

パターン登録辞書125は、ジェスチャー登録辞書1251と、ハンドサイン登録辞書1252とを備える。
ジェスチャー登録辞書1251は、ジェスチャーを特定する情報と、文字や記号を示す情報(以下、文字情報という)とを対応付けて登録した辞書である。ここで、ジェスチャーとは、予め設定された手指の形状を、予め設定された順番で行う手指の動きである。ジェスチャーを特定する情報は、ジェスチャーを構成する手指の状態ごとの手指の形状や位置関係を示す情報である。例えば、ジェスチャーが、握った手を開く動作、すなわち「グー」の状態の手を開いて「パー」の状態にする動作であると仮定する。この場合、ジェスチャーを特定する情報には、「グー」の状態を特定する手指の形状や位置関係を示す情報と、「パー」の状態を特定する手指の形状や位置関係を示す情報とが含まれる。
The pattern registration dictionary 125 includes a gesture registration dictionary 1251 and a hand sign registration dictionary 1252.
The gesture registration dictionary 1251 is a dictionary in which information specifying a gesture and information indicating characters and symbols (hereinafter referred to as character information) are registered in association with each other. Here, the gesture is a movement of a finger that performs a preset finger shape in a preset order. The information for specifying the gesture is information indicating the shape and positional relationship of the fingers for each state of the fingers constituting the gesture. For example, it is assumed that the gesture is an operation of opening a grasped hand, that is, an operation of opening a hand in a “goo” state to a “par” state. In this case, the information specifying the gesture includes information indicating the shape and positional relationship of the finger that specifies the “go” state, and information indicating the shape and positional relationship of the finger that specifies the “par” state. It is.

また、ハンドサイン登録辞書1252は、ハンドサインを特定するための情報と、文字情報とを対応付けて登録した辞書である。ハンドサインは、手や指の予め設定された静的な形状や位置を示し、ハンドサインを特定するための情報は、手や指の位置や形状を示す情報である。   The hand sign registration dictionary 1252 is a dictionary in which information for specifying a hand sign and character information are associated and registered. The hand sign indicates a preset static shape or position of the hand or finger, and the information for specifying the hand sign is information indicating the position or shape of the hand or finger.

また、ジェスチャー登録辞書1251に、ジェスチャーを特定する情報と、特定したジェスチャーにより操作するHMD100や外部の装置の機能とを対応付けて登録してもよい。同様に、ハンドサイン登録辞書1252に、ハンドサインを特定するための情報と、特定したハンドサインにより操作するHMD100や外部の装置の機能とを対応付けて登録してもよい。
例えば、ハンドサインやジェスチャーによりHMD100のオーディオ機能を操作する場合、ボリュームコントロールや選曲等のオーディオ機能の操作項目を、この操作項目に対応付けられたハンドサインやジェスチャーを特定する情報に対応付けて登録する。
また、ハンドサインやジェスチャーにより外部の装置を操作する場合、外部の装置を操作可能な操作項目を、この操作項目に対応付けられたハンドサインやジェスチャーを特定する情報に対応付けて登録する。例えば、外部の装置が電気メスである場合、電気メスの電源をオンやオフする操作や、電気メスに通電する電流量をアップやダウンする操作の操作項目を、この操作項目に対応付けられたハンドサインやジェスチャーを特定する情報に対応付けて登録する。
Further, information for specifying a gesture and functions of the HMD 100 or an external device operated by the specified gesture may be registered in the gesture registration dictionary 1251 in association with each other. Similarly, information for specifying a hand sign and functions of the HMD 100 or an external device operated by the specified hand sign may be registered in the hand sign registration dictionary 1252 in association with each other.
For example, when the audio function of the HMD 100 is operated by a hand sign or gesture, the operation items of the audio function such as volume control and music selection are registered in association with information for specifying the hand sign and gesture associated with the operation item. To do.
When an external device is operated by a hand sign or gesture, an operation item capable of operating the external device is registered in association with information for specifying a hand sign or gesture associated with the operation item. For example, when the external device is an electric knife, the operation items for turning on / off the electric knife and for increasing / decreasing the amount of current flowing to the electric knife are associated with the operation items. Register in association with information identifying hand signs and gestures.

また、左手と右手とでそれぞれ異なる操作を行う場合、左手のハンドサインやジェスチャーと、右手のハンドサインやジェスチャーとにそれぞれ異なる操作を対応付ける。
すなわち、ジェスチャー登録辞書1251には、左手のジェスチャーを特定する情報と、このジェスチャーに対応付けられた操作とを対応付けて登録する。また、ジェスチャー登録辞書1251には、右手のジェスチャーを特定する情報と、このジェスチャーに対応付けられた操作とを対応付けて登録する。また、ハンドサイン登録辞書1252には、左手のハンドサインを特定するための情報と、このハンドサインに対応付けられた操作とを対応付けて登録する。また、ハンドサイン登録辞書1252には、右手のハンドサインを特定するための情報と、このハンドサインに対応付けられた操作とを対応付けて登録する。
When different operations are performed for the left hand and the right hand, different operations are associated with the left hand hand sign and gesture and the right hand hand sign and gesture, respectively.
That is, in the gesture registration dictionary 1251, information specifying the left hand gesture and an operation associated with the gesture are registered in association with each other. In the gesture registration dictionary 1251, information for specifying the right hand gesture and an operation associated with the gesture are registered in association with each other. In the hand sign registration dictionary 1252, information for specifying the hand sign of the left hand and an operation associated with the hand sign are registered in association with each other. Also, in the hand sign registration dictionary 1252, information for specifying the hand sign of the right hand and an operation associated with the hand sign are registered in association with each other.

また、記憶部122は、音声パターン辞書126を記憶する。
音声パターン辞書126は、予め設定された音声データを登録した辞書である。音声パターン辞書126には、例えば、指を鳴らす動作であるフィンガースナップの音声データや、例えば、トラックパッド14等を叩くノック音の音声データが登録される。
In addition, the storage unit 122 stores an audio pattern dictionary 126.
The voice pattern dictionary 126 is a dictionary in which preset voice data is registered. In the voice pattern dictionary 126, for example, finger snap voice data, which is an operation of ringing a finger, or knock voice data for hitting the track pad 14 or the like is registered.

制御部150は、オペレーティングシステム(OS)143、画像処理部145、撮像制御部147、操作制御部149、検出制御部151及び表示制御部153の機能を有する。撮像制御部147は、本発明の「検出部」に相当する。また、検出制御部151は、本発明の「操作検出部」に相当する。   The control unit 150 has functions of an operating system (OS) 143, an image processing unit 145, an imaging control unit 147, an operation control unit 149, a detection control unit 151, and a display control unit 153. The imaging control unit 147 corresponds to the “detection unit” of the present invention. The detection control unit 151 corresponds to the “operation detection unit” of the present invention.

オペレーティングシステム143の機能は、記憶部122が記憶する制御プログラムの機能であり、その他の各部は、オペレーティングシステム143上で実行されるアプリケーションプログラムの機能である。   The functions of the operating system 143 are functions of a control program stored in the storage unit 122, and the other units are functions of application programs executed on the operating system 143.

画像処理部145は、画像表示部20により表示する画像又は映像の画像データに基づいて、右表示ユニット22及び左表示ユニット24に送信する信号を生成する。画像処理部145が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。
また、画像処理部145は、必要に応じて、画像データの解像度を右表示ユニット22及び左表示ユニット24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部145は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、又は2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。画像処理部145は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して、接続ケーブル40を介して画像表示部20に送信する。
The image processing unit 145 generates a signal to be transmitted to the right display unit 22 and the left display unit 24 based on image data of an image or video displayed by the image display unit 20. The signal generated by the image processing unit 145 may be a vertical synchronization signal, a horizontal synchronization signal, a clock signal, an analog image signal, or the like.
Further, the image processing unit 145 may perform resolution conversion processing for converting the resolution of the image data to a resolution suitable for the right display unit 22 and the left display unit 24 as necessary. The image processing unit 145 also performs image adjustment processing for adjusting the brightness and saturation of image data, 2D image data from 3D image data, 2D / 3D conversion processing for generating 3D image data from 2D image data, and the like. May be executed. When these image processes are executed, the image processing unit 145 generates a signal for displaying an image based on the processed image data, and transmits the signal to the image display unit 20 via the connection cable 40.

画像処理部145は、メインプロセッサー140がプログラムを実行して実現される構成のほか、メインプロセッサー140と別のハードウェア(例えば、DSP(Digital Signal Processor))で構成してもよい。   The image processing unit 145 may be configured by hardware different from the main processor 140 (for example, a digital signal processor (DSP)), in addition to the configuration realized by the main processor 140 executing a program.

撮像制御部147は、カメラ61を制御して撮像を実行させ、撮像画像データを生成し、記憶部122に一時的に記憶する。また、カメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部147は撮像画像データをカメラ61から取得して、記憶部122に一時的に記憶する。   The imaging control unit 147 controls the camera 61 to execute imaging, generates captured image data, and temporarily stores the captured image data in the storage unit 122. When the camera 61 is configured as a camera unit including a circuit that generates captured image data, the imaging control unit 147 acquires captured image data from the camera 61 and temporarily stores the captured image data in the storage unit 122.

操作制御部149は、トラックパッド14及び操作部110における操作を検出し、検出した操作に対応するデータを出力する。操作制御部149は、例えば、操作部110のボタン等が操作された場合、操作内容を示す操作データを生成して、表示制御部153に出力する。表示制御部153は、操作制御部149から入力される操作データに従って画像表示部20の表示状態を変更する。
また、操作制御部149は、トラックパッド14における操作を検出した場合に、トラックパッド14における操作位置の座標を取得する。操作制御部149は、操作位置の軌跡を生成する。操作位置の軌跡は、トラックパッド14のタッチ操作が解除されない間、すなわち操作体がトラックパッド14に接触した状態が継続する間の操作位置の軌跡である。
The operation control unit 149 detects an operation on the track pad 14 and the operation unit 110 and outputs data corresponding to the detected operation. For example, when a button or the like of the operation unit 110 is operated, the operation control unit 149 generates operation data indicating the operation content and outputs the operation data to the display control unit 153. The display control unit 153 changes the display state of the image display unit 20 according to the operation data input from the operation control unit 149.
Further, the operation control unit 149 acquires the coordinates of the operation position on the track pad 14 when the operation on the track pad 14 is detected. The operation control unit 149 generates a locus of the operation position. The locus of the operation position is the locus of the operation position while the touch operation on the track pad 14 is not released, that is, while the state where the operation body is in contact with the track pad 14 continues.

検出制御部151は、カメラ61の撮像画像データから使用者の動作(動き)に対応付けられた指示体を検出する。指示体には、例えば、使用者の腕を含む手や指(以下、手や指を総称して手指と表記する)を用いることができる。また、指示体として、使用者の手指や腕に装着された部材を用いてもよい。例えば、使用者の指に装着された指輪や、使用者の腕に装着された時計やバンド等を指示体として用いることができる。これらの指示体は、使用者が身につける物であるため、使用者が手指や腕を動かせば、手指や腕の動きに応じて指示体も一体に(一緒に)動く。また、指示体として、使用者が手に持った手術道具(例えば、電気メス)等の予め設定された道具を用いることも可能である。使用者の左手は「第1指示体」に相当し、使用者の右手は「第2指示体」に相当する。   The detection control unit 151 detects an indicator associated with the user's action (movement) from the captured image data of the camera 61. As the indicator, for example, a hand or a finger including a user's arm (hereinafter, the hand and the finger are collectively referred to as a finger) can be used. Moreover, you may use the member with which the user's finger | toe and arm were mounted | worn as an indicator. For example, a ring attached to the user's finger, a watch or a band attached to the user's arm, and the like can be used as the indicator. Since these indicators are things that the user wears, if the user moves the fingers or arms, the indicators move together (together) according to the movement of the fingers or arms. Moreover, it is also possible to use a preset tool such as a surgical tool (for example, an electric knife) held by the user as the indicator. The user's left hand corresponds to a “first indicator”, and the user's right hand corresponds to a “second indicator”.

検出制御部151は、記憶部122から撮像画像データを取得し、取得した撮像画像データに撮像された使用者の手や指の領域(以下、手指領域という)を検出する。また、検出制御部151は、検出した手指領域に写った手指の形状や位置を特定し、特定した手指の形状や位置を、パターン登録辞書125に登録された情報と比較して、ジェスチャーやハンドサインを検出する。
具体的には、検出制御部151は、取得した撮像画像データから使用者の手指が撮像された領域を検出する。検出制御部151は、例えば、肌色抽出処理により、撮像画像データの領域から肌色領域を抽出し、しきい値処理により、抽出した肌色領域の画素値をしきい値と比較して手指領域を検出する。また、検出制御部151は、エッジ検出処理により、求めた手指領域の輪郭を抽出し、輪郭の凹凸による特徴点マッチングや曲率判定を用いて手指の形状や位置を検出する。また、検出制御部151は、連続して撮像される撮像画像データのそれぞれから手指の形状や位置を検出し、手指の形状や位置の変化、すなわち動きを検出する。検出制御部151は、手指の形状や位置を検出すると、検出した手指の形状や位置を、パターン登録辞書125に登録された情報と比較して、ジェスチャーやハンドサインを検出する。
The detection control unit 151 acquires captured image data from the storage unit 122, and detects a user's hand or finger region (hereinafter referred to as a finger region) captured in the acquired captured image data. In addition, the detection control unit 151 identifies the shape and position of the finger reflected in the detected finger region, compares the identified shape and position of the finger with information registered in the pattern registration dictionary 125, and determines the gesture or hand. Detect signatures.
Specifically, the detection control unit 151 detects a region where the user's finger is imaged from the acquired captured image data. For example, the detection control unit 151 extracts a skin color region from the captured image data region by skin color extraction processing, and detects a finger region by comparing the pixel value of the extracted skin color region with a threshold value by threshold processing. To do. In addition, the detection control unit 151 extracts the contour of the obtained finger region by edge detection processing, and detects the shape and position of the finger using feature point matching or curvature determination based on the contour unevenness. Further, the detection control unit 151 detects the shape and position of the finger from each of the captured image data that is continuously captured, and detects a change in the shape and position of the finger, that is, a movement. When detecting the shape and position of the finger, the detection control unit 151 compares the detected shape and position of the finger with information registered in the pattern registration dictionary 125 to detect a gesture and a hand sign.

表示制御部153は、右表示ユニット22及び左表示ユニット24を制御する制御信号を生成して、生成した制御信号により右表示ユニット22及び左表示ユニット24を制御する。具体的には、表示制御部151は、OLED駆動回路225、245を制御して、OLEDパネル223、243による画像の表示を実行させる。表示制御部151は、画像処理部145が出力する信号に基づきOLED駆動回路225、245がOLEDパネル223、243に描画するタイミングの制御、OLEDパネル223、243の輝度の制御等を行う。   The display control unit 153 generates a control signal for controlling the right display unit 22 and the left display unit 24, and controls the right display unit 22 and the left display unit 24 based on the generated control signal. Specifically, the display control unit 151 controls the OLED drive circuits 225 and 245 to cause the OLED panels 223 and 243 to display an image. The display control unit 151 controls the timing at which the OLED drive circuits 225 and 245 draw on the OLED panels 223 and 243 based on the signal output from the image processing unit 145, controls the luminance of the OLED panels 223 and 243, and the like.

また、表示制御部153は、検出制御部151が検出する手指の動きや、形状及び位置の少なくともいずれかに対応する入力内容の候補を、後述する表示領域310に表示させる。表示制御部151は、検出制御部151が検出する手指の動きや、形状及び位置を、パターン登録辞書125に登録されたジェスチャーやハンドサインを特定するための情報と比較し、少なくとも一部が一致するジェスチャーやハンドサインを選択する。表示制御部153は、選択したジェスチャーやハンドサインに対応付けられた文字情報の示す文字の画像を入力内容の候補として表示させる。   In addition, the display control unit 153 displays input content candidates corresponding to at least one of the movement of the fingers and the shape and position detected by the detection control unit 151 in the display area 310 described later. The display control unit 151 compares the finger movement, shape, and position detected by the detection control unit 151 with information for specifying a gesture or a hand sign registered in the pattern registration dictionary 125, and at least a part of them matches. Select the gesture or hand sign you want to use. The display control unit 153 displays a character image indicated by the character information associated with the selected gesture or hand sign as a candidate for input content.

表示制御部153が表示させる入力内容の候補は、文字や記号に限定されるものではない。例えば、表示制御部153が表示領域310にソフトウェアキーボードの画像を表示させ、検出制御部151が撮像画像データから手指の位置を検出し、選択されたキーを検出する構成であると仮定する。この場合、表示制御部153は、検出制御部151が検出した手指の位置に表示されたキーを入力内容の候補として表示してもよい。   The input content candidates displayed by the display control unit 153 are not limited to characters and symbols. For example, it is assumed that the display control unit 153 displays the image of the software keyboard in the display area 310, and the detection control unit 151 detects the position of the finger from the captured image data and detects the selected key. In this case, the display control unit 153 may display the key displayed at the position of the finger detected by the detection control unit 151 as a candidate for input content.

HMD100は、コンテンツの供給元となる種々の外部機器を接続するインターフェイス(図示略)を備えてもよい。例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスであってもよく、無線通信インターフェイスで構成してもよい。この場合の外部機器は、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。この場合、HMD100は、これらの外部機器から入力されるコンテンツデータに基づく画像や音声を出力できる。   The HMD 100 may include an interface (not shown) for connecting various external devices that are content supply sources. For example, an interface corresponding to a wired connection such as a USB interface, a micro USB interface, or a memory card interface may be used, or a wireless communication interface may be used. The external device in this case is an image supply device that supplies an image to the HMD 100, and a personal computer (PC), a mobile phone terminal, a portable game machine, or the like is used. In this case, the HMD 100 can output images and sounds based on content data input from these external devices.

図6は、制御部150の動作を示すフローチャートである。特に、図6は、使用者のジェスチャーやハンドサインを検出し、検出したジェスチャーやハンドサインに対応する文字や記号を入力する動作を示すフローチャートである。
制御部150は、まず、予め設定された操作を受け付けたか否かを判定する(ステップS1)。予め設定された操作には、例えば、ボタン11や、上下キー15、トラックパッド14の操作が含まれる。
また、制御部150は、使用者の頭部の動きを画像表示部20に搭載された6軸センサー235により検出し、予め設定された頭部の動きが検出された場合に、予め設定された操作を受け付けたと判定してもよい。例えば、制御部150は、6軸センサー235の検出値に基づいて、うなずきや首振りといった頭部の動きを検出した場合に、予め設定された操作を受け付けたと判定してもよい。
また、制御部150は、カメラ61が撮像した撮像画像データから使用者の手指領域を検出し、予め設定されたジェスチャーやハンドサインが検出された場合に、予め設定された操作を受け付けたと判定してもよい。
また、制御部150は、マイク63から入力される音声信号に基づき、予め設定された操作を受け付けたか否かを判定してもよい。制御部150は、マイク63から入力される音声信号を、音声パターン辞書126から取得した音声パターンと比較する。制御部150は、音声パターン辞書126に登録されたフィンガースナップやノック音に一致する音声信号が入力された場合に、予め設定された操作を受け付けたと判定してもよい。
FIG. 6 is a flowchart showing the operation of the control unit 150. In particular, FIG. 6 is a flowchart showing an operation of detecting a user's gesture and hand sign and inputting characters and symbols corresponding to the detected gesture and hand sign.
First, the control unit 150 determines whether or not a preset operation has been accepted (step S1). The preset operation includes, for example, the operation of the button 11, the up / down key 15, and the track pad 14.
In addition, the control unit 150 detects the movement of the user's head with the 6-axis sensor 235 mounted on the image display unit 20, and is set in advance when a preset movement of the head is detected. It may be determined that the operation has been accepted. For example, the control unit 150 may determine that a preset operation has been received when a head movement such as nodding or swinging is detected based on the detection value of the 6-axis sensor 235.
In addition, the control unit 150 detects the user's finger area from the captured image data captured by the camera 61, and determines that a preset operation has been accepted when a preset gesture or hand sign is detected. May be.
Further, the control unit 150 may determine whether or not a preset operation has been received based on an audio signal input from the microphone 63. The control unit 150 compares the audio signal input from the microphone 63 with the audio pattern acquired from the audio pattern dictionary 126. The controller 150 may determine that a preset operation has been accepted when an audio signal that matches a finger snap or a knock sound registered in the audio pattern dictionary 126 is input.

制御部150は、予め設定された操作を受け付けていないと判定した場合(ステップS1/NO)、予め設定された操作を受け付けるまで待機し、他に実行可能な処理があれば、この実行可能な処理を実行する。また、制御部150は、予め設定された操作を受け付けたと判定した場合(ステップS1/YES)、検出範囲画像320を表示領域310に表示させ(ステップS2)、指示体としての使用者の手指の検出を開始する。検出範囲画像320及び表示領域310について、図7を参照しながら説明する。検出範囲画像320は、本発明の「検出状態を示す画像」に相当し、また「検出エリアを示す画像」に相当する。   When it is determined that the preset operation has not been accepted (step S1 / NO), the control unit 150 waits until the preset operation is accepted. Execute the process. When it is determined that a preset operation has been received (step S1 / YES), the control unit 150 displays the detection range image 320 on the display area 310 (step S2), and the user's finger as an indicator is displayed. Start detection. The detection range image 320 and the display area 310 will be described with reference to FIG. The detection range image 320 corresponds to the “image indicating the detection state” of the present invention, and also corresponds to the “image indicating the detection area”.

図7は、HMD100を装着した使用者の視界300の一例を示す図である。
HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させる。このため、使用者には、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。外景とは、使用者の眼に画像表示部20越しに見える景色である。図7には、外景として、先生が黒板を使って授業を行っている授業風景を示す。すなわち、図7は、HMD100を装着した生徒の視界300を示す。
HMD100は、表示領域310に画像光Lに基づく画像(以下、表示画像という)を表示させる。表示領域310は、HMD100が表示画像を表示可能な範囲を示す。使用者は、表示領域310内では、HMD100の表示する表示画像及び外景を視認する。また、使用者は、表示領域310の外側では、外景のみを視認する。なお、図7には、説明のため表示領域310を示す矩形の画像を示したが、使用者が表示領域310を示す画像を視認することはない。
FIG. 7 is a diagram illustrating an example of the field of view 300 of the user wearing the HMD 100.
The HMD 100 causes the image light L of the internally processed image and the external light OL to overlap and enter the user's eyes. For this reason, the user can see the outside scene through the right light guide plate 26 and the left light guide plate 28, and the image by the image light L is visually recognized over the outside scene. The outside scene is a scene that can be seen through the image display unit 20 by the user's eyes. FIG. 7 shows a lesson scene in which a teacher conducts a lesson using a blackboard as an outside scene. That is, FIG. 7 shows a field of view 300 of a student wearing the HMD 100.
The HMD 100 displays an image based on the image light L (hereinafter referred to as a display image) in the display area 310. A display area 310 indicates a range in which the HMD 100 can display a display image. In the display area 310, the user visually recognizes a display image displayed on the HMD 100 and an outside scene. In addition, the user visually recognizes only the outside scene outside the display area 310. In FIG. 7, a rectangular image showing the display area 310 is shown for explanation, but the user does not visually recognize the image showing the display area 310.

図7には、表示画像として検出範囲画像320が表示された状態を示す。検出範囲画像320は、制御部150が使用者の手指を検出する範囲を示す画像である。制御部150は、カメラ61の撮像画像データから、検出範囲画像320に対応する範囲のデータを抽出し、抽出した範囲のデータから手指領域を検出する。表示領域310に検出範囲画像320を表示させることで、表示領域310の全体から手指を検出する必要がなくなり、手指領域の検出時間を短縮することができる。検出範囲画像320には、使用者の左手の手指の検出範囲を示す左検出範囲画像321と、使用者の右手の手指の検出範囲を示す右検出範囲画像322とが含まれる。   FIG. 7 shows a state where the detection range image 320 is displayed as a display image. The detection range image 320 is an image indicating a range in which the control unit 150 detects the user's finger. The control unit 150 extracts data in a range corresponding to the detection range image 320 from the captured image data of the camera 61, and detects a finger region from the extracted range data. By displaying the detection range image 320 in the display area 310, it is not necessary to detect a finger from the entire display area 310, and the detection time of the finger area can be shortened. The detection range image 320 includes a left detection range image 321 indicating the detection range of the user's left hand finger and a right detection range image 322 indicating the detection range of the user's right hand finger.

制御部150は、撮像画像データの左検出範囲画像321に対応する範囲から手指領域を検出した場合、検出した手指領域を使用者の左手の手指と判定する。また、制御部150は、撮像画像データの右検出範囲画像322に対応する範囲から手指領域を検出した場合、検出した手指領域を使用者の右手の手指と判定する。制御部150は、検出した手指領域が右手の手指領域であるのか、左手の手指領域であるのかを判定する必要がないので、手指の認識処理にかかる時間を短縮することができる。また、左手と右手を誤って認識する誤認識の発生確率を低減することができる。   When the control unit 150 detects a finger region from the range corresponding to the left detection range image 321 of the captured image data, the control unit 150 determines the detected finger region as the finger of the left hand of the user. In addition, when the control unit 150 detects a finger region from the range corresponding to the right detection range image 322 of the captured image data, the control unit 150 determines the detected finger region as the finger of the right hand of the user. The control unit 150 does not need to determine whether the detected finger area is the right hand finger area or the left hand finger area, and thus the time required for the finger recognition process can be reduced. In addition, it is possible to reduce the occurrence probability of erroneous recognition that erroneously recognizes the left hand and the right hand.

使用者は、表示領域310に検出範囲画像320が表示されると、入力したい文字や記号に対応したハンドサインや、ジェスチャーを手指により行う。このとき、使用者は、左右の手指が左検出範囲画像321及び右検出範囲画像322内にそれぞれ表示されるようにハンドサインやジェスチャーを行う。
使用者が行うハンドサインやジェスチャーは、左右の手指がそれぞれ1つの文字や記号を表すものであってもよいし、左手指が母音を示し、右手指が子音を示す等、両手の組み合わせで1つの文字を表すものであってもよい。
図8は、左検出範囲画像321の枠内に左手が収まり、右検出範囲画像322の枠内の右手が収まった状態を示す図である。
When the detection range image 320 is displayed in the display area 310, the user performs a hand sign or gesture corresponding to the character or symbol desired to be input with his / her fingers. At this time, the user performs a hand sign or gesture so that the left and right fingers are displayed in the left detection range image 321 and the right detection range image 322, respectively.
The user's hand sign or gesture may be one in which the left and right fingers each represent one letter or symbol, the left hand indicates a vowel, the right hand indicates a consonant, etc. It may represent one character.
FIG. 8 is a diagram illustrating a state in which the left hand is within the frame of the left detection range image 321 and the right hand is within the frame of the right detection range image 322.

次に、制御部150は、カメラ61に撮像を実行させ、カメラ61の生成する撮像画像データを取得する(ステップS3)。制御部150は、取得した撮像画像データから、検出範囲画像320に対応する領域を抽出する。制御部150は、キャリブレーションにより生成したパラメーターを使用して、撮像画像データの検出範囲画像320に対応する範囲を特定し、特定した範囲のデータを抽出する。制御装置10は、カメラ61の撮像画像データ上での位置と、画像表示部20が画像を表示する表示領域310上での位置とを対応付けるためのキャリブレーションを、この処理フローの開始前に予め実行する。本実施形態では、次の方法によりキャリブレーションを行う。   Next, the control unit 150 causes the camera 61 to perform imaging and acquires captured image data generated by the camera 61 (step S3). The control unit 150 extracts a region corresponding to the detection range image 320 from the acquired captured image data. The control unit 150 uses a parameter generated by calibration to specify a range corresponding to the detection range image 320 of the captured image data, and extracts data in the specified range. The control device 10 performs, in advance, calibration for associating the position on the captured image data of the camera 61 with the position on the display area 310 where the image display unit 20 displays an image before starting this processing flow. Run. In the present embodiment, calibration is performed by the following method.

制御部150は、画像表示部20にキャリブレーション用画像を表示させながら、キャリブレーション用画像に対応した参照実物体を、カメラ61の撮像画像データから認識し、追跡する。この状態で、使用者が、トラックパッド14等のユーザーインターフェイスを介してキャリブレーション用画像の位置を画像表示部20上で移動させる。そして、使用者が、キャリブレーション用画像と参照実物体とが重なる(位置、大きさ、向きの少なくとも1つがほぼ一致する)ように知覚したタイミングにて、ユーザーインターフェイスを介して制御部150に通知する。制御部150は、取得した通知に応じて、当該タイミングでの参照実物体の検出結果(撮像画像データ上の位置)と、画像表示部20上でのキャリブレーション用画像の表示位置とを対応付けるパラメーターを生成する。   The control unit 150 recognizes and tracks the reference real object corresponding to the calibration image from the captured image data of the camera 61 while displaying the calibration image on the image display unit 20. In this state, the user moves the position of the calibration image on the image display unit 20 via the user interface such as the track pad 14. Then, when the user perceives that the calibration image and the reference real object overlap (at least one of position, size, and orientation substantially coincides), the user is notified to the control unit 150 via the user interface. To do. In accordance with the acquired notification, the control unit 150 associates the detection result of the reference real object at the timing (position on the captured image data) with the display position of the calibration image on the image display unit 20. Is generated.

次に、制御部150は、撮像画像データから検出範囲画像320に対応する範囲のデータを抽出すると、この抽出したデータに対して任意の公知技術を実行し、手指領域を検出する検出処理を実行する(ステップS4)。例えば、制御部150は、肌色抽出処理により、抽出した領域した撮像画像データの領域から肌色領域を抽出し、しきい値処理により、抽出した肌色領域の画素値をしきい値と比較して手指領域を求める。また、制御部150は、エッジ検出処理により、求めた手指領域の輪郭を抽出し、輪郭の凹凸による特徴点マッチングや曲率判定を用いて手指を検出する。   Next, when the control unit 150 extracts data in a range corresponding to the detection range image 320 from the captured image data, the control unit 150 executes any known technique on the extracted data and executes detection processing for detecting a finger region. (Step S4). For example, the control unit 150 extracts the skin color area from the extracted captured image data area by the skin color extraction process, compares the pixel value of the extracted skin color area with the threshold value by the threshold process, and performs a finger operation. Find the area. Further, the control unit 150 extracts the contour of the obtained finger region by the edge detection process, and detects the finger by using feature point matching or curvature determination based on the contour unevenness.

また、制御部150は、連続する複数の撮像画像データの差分を求め、求めた差分に基づいて動きのある領域(動領域)を特定し、特定した動領域を手指領域として抽出してもよい。また、制御部150は、例えば、BoostingやSVM(Support Vector Machine)等の顔検出に一般的に用いられているものと同様の手法を用いて手指領域を検出してもよい。   In addition, the control unit 150 may obtain a difference between a plurality of consecutive captured image data, identify a region (moving region) with movement based on the obtained difference, and extract the identified moving region as a finger region. . In addition, the control unit 150 may detect a finger region using a technique similar to that generally used for face detection, such as Boosting or SVM (Support Vector Machine).

次に、制御部150は、検出処理により手指領域が検出されたか否かを判定する(ステップS5)。制御部150は、手指領域が検出されなかった場合(ステップS5/NO)、ステップS7の処理に移行する。また、制御部150は、手指領域を検出した場合(ステップS5/YES)、検出された手指領域の撮像画像データ(以下、手指画像データという)を記憶部122に記憶させる(ステップS6)。   Next, the control unit 150 determines whether or not a finger region is detected by the detection process (step S5). When the finger region is not detected (step S5 / NO), the control unit 150 proceeds to the process of step S7. Further, when detecting the finger region (step S5 / YES), the control unit 150 causes the storage unit 122 to store captured image data (hereinafter referred to as finger image data) of the detected finger region (step S6).

制御部150は、予め設定された枚数の撮像画像データに対して検出処理を実行したか否かを判定する(ステップS7)。この予め設定された枚数の撮像画像データは、連続して撮像された撮像画像データであってもよいし、連続して撮像された撮像画像データから所定の枚数ごとに取り出した撮像画像データであってもよい。なお、カメラ61の撮像によって得られる1フレーム画像分の撮像画像データを1枚と表記する。制御部150は、予め設定された枚数の撮像画像データに対して検出処理を実行していない場合(ステップS7/NO)、ステップS3に戻り、記憶部122から撮像画像データを新たに取得する。そして、制御部150は、取得した撮像画像データに対して検出処理を実行する(ステップS4)。   The control unit 150 determines whether or not the detection process has been executed for a preset number of captured image data (step S7). The preset number of captured image data may be captured image data captured continuously, or captured image data extracted every predetermined number of captured image data captured continuously. May be. Note that captured image data for one frame image obtained by imaging by the camera 61 is represented as one sheet. When the detection process is not executed for the preset number of captured image data (step S7 / NO), the control unit 150 returns to step S3 and newly acquires captured image data from the storage unit 122. And the control part 150 performs a detection process with respect to the acquired captured image data (step S4).

また、制御部150は、予め設定された枚数の撮像画像データに対して検出処理を実行した場合(ステップS7/YES)、ステップS6において記憶部122に記憶させた手指画像データを取得する。そして、制御部150は、取得した手指画像データが複数枚ある場合、これらの手指画像データを比較して、手指の位置や形状に変化があるか否かを判定する(ステップS8)。例えば、制御部150は、検出範囲画像320内に手指が検出された時点をジェスチャーの開始時とし、検出範囲画像320から手指が外に出た時点をジェスチャーの終了時として手指に動きがあるか否かを判定する。また、制御部150は、手指の動きが検出された時点をジェスチャーの開始時とし、手指の動きが停止した時点をジェスチャーの終了時として手指に動きがあるか否かを判定してもよい。   In addition, when the detection process is performed on a predetermined number of pieces of captured image data (step S7 / YES), the control unit 150 acquires the finger image data stored in the storage unit 122 in step S6. Then, when there are a plurality of pieces of acquired finger image data, the control unit 150 compares these finger image data and determines whether or not there is a change in the position and shape of the fingers (step S8). For example, the control unit 150 determines whether or not there is a movement of the finger when the finger is detected in the detection range image 320 as the start of the gesture and when the finger comes out from the detection range image 320 as the end of the gesture. Determine whether or not. In addition, the control unit 150 may determine whether or not there is a movement of the finger with the time when the movement of the finger is detected as the start time of the gesture and the time when the movement of the finger stops as the time when the gesture ends.

制御部150は、手指の形状や位置に変化がある、すなわち、手指に動きがあると判定した場合(ステップS8/YES)、使用者の行った操作はジェスチャーであると判定する。この場合、制御部150は、撮像画像データから検出した手指の状態と、ジェスチャー登録辞書1251とに基づいてジェスチャーを判定し、判定したジェスチャーに対応する入力候補の文字や記号(以下、これらを総称して候補文字335という)を選択する。   When it is determined that there is a change in the shape or position of the finger, that is, there is a movement of the finger (step S8 / YES), the control unit 150 determines that the operation performed by the user is a gesture. In this case, the control unit 150 determines a gesture based on the state of the finger detected from the captured image data and the gesture registration dictionary 1251, and input candidate characters and symbols corresponding to the determined gesture (hereinafter collectively referred to as “general”). The candidate character 335 is selected.

制御部150は、ジェスチャー登録辞書1251に登録されたジェスチャーを特定する情報と、検出した手指の状態とをマッチングして、マッチング結果が条件を満たすジェスチャーを選択する(ステップS9)。例えば、制御部150は、検出した手指の動きに含まれる各状態の少なくとも一部が、ジェスチャー登録辞書1251に登録されたジェスチャーを特定する情報に一致するジェスチャーを選択する(ステップS9)。ここで選択するジェスチャーは、1つであってもよいし複数であってもよい。制御部150は、選択したジェスチャーを示す画像を候補表示領域330に表示させ、このジェスチャーに対応付けられた文字を候補文字335として候補表示領域330に表示させる(ステップS10)。候補表示領域330は、制御部150がジェスチャー登録辞書1251や、ハンドサイン登録辞書1252に基づいて判定した候補文字335を表示させる領域である。候補表示領域330は、指示体である使用者の手指が視認される位置に対応させて表示領域310に表示される。候補表示領域330は、本発明の「検出状態を示す画像」に相当し、また本発明の「候補表示エリア」に相当する。   The control unit 150 matches the information specifying the gesture registered in the gesture registration dictionary 1251 with the detected finger state, and selects a gesture that satisfies the matching result (step S9). For example, the control unit 150 selects a gesture in which at least a part of each state included in the detected finger movement matches the information specifying the gesture registered in the gesture registration dictionary 1251 (step S9). One or more gestures may be selected here. The control unit 150 displays an image indicating the selected gesture in the candidate display area 330, and displays the character associated with the gesture as the candidate character 335 in the candidate display area 330 (step S10). The candidate display area 330 is an area for displaying the candidate character 335 determined by the control unit 150 based on the gesture registration dictionary 1251 and the hand sign registration dictionary 1252. The candidate display area 330 is displayed in the display area 310 in correspondence with the position where the finger of the user who is the indicator is visually recognized. The candidate display area 330 corresponds to the “image showing the detection state” of the present invention, and also corresponds to the “candidate display area” of the present invention.

また、制御部150は、手指の位置や形状に変化がない、すなわち、手指に動きがないと判定した場合(ステップS8/NO)、ハンドサイン登録辞書1252を参照して、候補文字335を選択する。制御部150は、検出した手指の形状や位置を、ハンドサインを特定するための情報と比較して、検出した手指の形状や位置に少なくとも一部が一致するハンドサインを選択する(ステップS11)。ここで選択されるハンドサインは、1つであってもよいし、複数であってもよい。制御部150は、ハンドサインを選択すると、選択したハンドサインを示す画像と、このハンドサインに対応付けられた候補文字335とを候補表示領域330に表示させる(ステップS12)。   In addition, when it is determined that there is no change in the position or shape of the finger, that is, there is no movement of the finger (step S8 / NO), the control unit 150 refers to the hand sign registration dictionary 1252 and selects the candidate character 335. To do. The control unit 150 compares the detected finger shape and position with information for specifying the hand sign, and selects a hand sign that at least partially matches the detected finger shape and position (step S11). . The hand sign selected here may be one or plural. When selecting the hand sign, the control unit 150 displays an image indicating the selected hand sign and the candidate character 335 associated with the hand sign in the candidate display area 330 (step S12).

また、制御部150は、手指の形状が予め設定された時間以上、継続して同一の形状であると判定された場合に、検出された手指の形状や位置に基づいてハンドサインを判定して、候補を表示させてもよい。同一の手指の形状が予め設定された時間以上、継続して検出された場合にハンドサインを選択することで、使用者が意図した候補文字335が候補表示領域330に表示される確率を高めることができる。
また、制御部150は、手指が所定時間以上継続して静止した状態にあると判定した場合に、手指の形状や位置を検出し、検出した手指の形状や位置に基づいてハンドサイン登録辞書1252を参照し、ハンドサインを判定してもよい。手指が所定時間以上継続して静止した状態は、本発明の「指示体が、予め設定された条件に該当する場合」に相当する。
また、制御部150は、表示領域310に所定のシンボル等を表示させておき、手指がこのシンボルの表示位置を通過した場合、又はシンボルの表示位置に重なる場合に、ハンドサインの検出を行ってもよい。また、制御部150がハンドサインを検出するタイミングは、例えば、使用者の手指の位置がシンボルの表示位置に重なるときであってもよいし、シンボルの表示位置を通過した後、手指の動きが静止したタイミングであってもよい。手指がこのシンボルの表示位置を通過した場合は、本発明の「指示体の位置が、予め設定された位置に重なる場合」に相当する。
Further, the control unit 150 determines the hand sign based on the detected finger shape and position when it is determined that the finger shape is the same shape continuously for a preset time or longer. Candidates may be displayed. Increasing the probability that the candidate character 335 intended by the user is displayed in the candidate display area 330 by selecting the hand sign when the shape of the same finger is continuously detected for a preset time or longer. Can do.
In addition, when it is determined that the finger is in a stationary state for a predetermined time or longer, the control unit 150 detects the shape and position of the finger, and the hand sign registration dictionary 1252 based on the detected shape and position of the finger The hand sign may be determined with reference to FIG. The state where the finger is kept stationary for a predetermined time or more corresponds to “when the indicator meets a preset condition” of the present invention.
In addition, the control unit 150 displays a predetermined symbol or the like in the display area 310, and detects a hand sign when a finger passes the symbol display position or overlaps the symbol display position. Also good. The timing at which the control unit 150 detects the hand sign may be, for example, when the position of the user's finger overlaps the symbol display position, or the movement of the finger after the symbol display position passes. It may be a stationary timing. When the finger passes the symbol display position, this corresponds to “a case where the position of the indicator overlaps a preset position” according to the present invention.

図9は、候補表示領域330を示す図である。
候補表示領域330は、検出範囲画像320に対応する位置、又は検出範囲画像320内で検出された手指に対応する位置に表示される。候補表示領域330には、左候補表示領域331と、右候補表示領域332とが含まれる。左候補表示領域331及び右候補表示領域332は、本発明の「候補表示エリア」に相当する。左候補表示領域331は、左検出範囲画像321に対応する位置、又は左検出範囲画像321において検出された手指に対応する位置に表示される。また、右候補表示領域332は、右検出範囲画像322に対応する位置、又は右検出範囲画像322において検出された手指に対応する位置に表示される。左候補表示領域331には、制御部150が撮像画像データから検出した左手の形状や、位置、動きに基づいて判定した候補文字335(以下、左候補文字335Aという)が表示される。右候補表示領域332には、制御部150が撮像画像データから検出した右手の形状や、位置、動きに基づいて判定した候補文字335(以下、右候補文字335Bという)が表示される。左候補文字335A及び右候補文字335Bを総称する場合、候補文字335という。
FIG. 9 is a diagram showing a candidate display area 330.
The candidate display area 330 is displayed at a position corresponding to the detection range image 320 or a position corresponding to a finger detected in the detection range image 320. The candidate display area 330 includes a left candidate display area 331 and a right candidate display area 332. The left candidate display area 331 and the right candidate display area 332 correspond to the “candidate display area” of the present invention. The left candidate display area 331 is displayed at a position corresponding to the left detection range image 321 or a position corresponding to a finger detected in the left detection range image 321. The right candidate display area 332 is displayed at a position corresponding to the right detection range image 322 or a position corresponding to the finger detected in the right detection range image 322. In the left candidate display area 331, a candidate character 335 (hereinafter referred to as the left candidate character 335A) determined based on the shape, position, and movement of the left hand detected by the control unit 150 from the captured image data is displayed. In the right candidate display area 332, a candidate character 335 (hereinafter referred to as a right candidate character 335B) determined based on the shape, position, and movement of the right hand detected by the control unit 150 from the captured image data is displayed. When the left candidate character 335A and the right candidate character 335B are collectively referred to as a candidate character 335.

図9は、左候補表示領域331を左検出範囲画像321の周囲に表示し、右候補表示領域332を右検出範囲画像322の周囲に表示した表示例を示す。
左検出範囲画像321の周囲とは、左検出範囲画像321の近傍であって、左候補表示領域331と左検出範囲画像321とが対応付けられていると使用者が認識できる範囲のである。また、制御部150は、使用者により事前に設定された距離に基づいて、左候補表示領域331を左検出範囲画像321の周囲に表示してもよい。右候補表示領域332と右検出範囲画像322との距離についても同様である。
FIG. 9 shows a display example in which the left candidate display area 331 is displayed around the left detection range image 321 and the right candidate display area 332 is displayed around the right detection range image 322.
The periphery of the left detection range image 321 is a range in the vicinity of the left detection range image 321 that can be recognized by the user when the left candidate display area 331 and the left detection range image 321 are associated with each other. In addition, the control unit 150 may display the left candidate display area 331 around the left detection range image 321 based on the distance set in advance by the user. The same applies to the distance between the right candidate display area 332 and the right detection range image 322.

左候補表示領域331及び右候補表示領域332の表示位置は、図9に示す例に限定されるものではない。例えば、左候補表示領域331を左検出範囲画像321に接するように表示し、右候補表示領域332を右検出範囲画像322に接するように表示してもよい。
また、左候補表示領域331の少なくとも一部が左検出範囲画像321に重なるように左候補表示領域331を表示し、右候補表示領域332の少なくとも一部が右検出範囲画像322に重なるように右候補表示領域332を表示してもよい。また、検出された手指に対応する位置として、例えば、使用者の手指のうち、人指し指等の予め設定された指の指先の位置に左候補表示領域331及び右候補表示領域332を表示してもよい。このように候補表示領域330を検出範囲画像320の近傍に表示することで、使用者は、視線を移動させることなく、手指の近傍に表示される候補文字335を選択することができる。
The display positions of the left candidate display area 331 and the right candidate display area 332 are not limited to the example shown in FIG. For example, the left candidate display area 331 may be displayed in contact with the left detection range image 321, and the right candidate display area 332 may be displayed in contact with the right detection range image 322.
The left candidate display area 331 is displayed so that at least a part of the left candidate display area 331 overlaps the left detection range image 321, and the right candidate display area 332 is displayed so that at least a part of the left candidate display area 332 overlaps the right detection range image 322. The candidate display area 332 may be displayed. Further, as the position corresponding to the detected finger, for example, the left candidate display area 331 and the right candidate display area 332 may be displayed at the position of a predetermined fingertip of the finger of the user's finger, for example. Good. By displaying the candidate display area 330 in the vicinity of the detection range image 320 in this way, the user can select the candidate character 335 displayed in the vicinity of the finger without moving the line of sight.

図10に示すフローチャートを参照して、ジェスチャーやハンドサイン検出による文字入力の動作を引き続き説明する。
次に、制御部150は、左候補表示領域331に表示した左候補文字335Aを選択する動作と、右検出範囲画像322に表示した右候補文字335Bとを選択する動作とを検出する。制御部150は、カメラ61に撮像を実行させ、カメラ61の生成する撮像画像データを取得する(ステップS13)。制御部150は、キャリブレーションにより生成したパラメーターを使用して、候補表示領域330が撮像された撮像画像データの範囲を特定し、特定した範囲の撮像画像データに対して任意の公知技術を実行し、手指領域を検出する検出処理を実行する。制御部150は、検出処理を実行すると、撮像画像データから手指領域を検出したか否かを判定する(ステップS14)。制御部150は、手指領域を検出できなかった場合(ステップS14/NO)、ステップS13に戻り撮像画像データを取得して(ステップS13)、検出処理を再度実行する。
With reference to the flowchart shown in FIG. 10, the character input operation based on gesture and hand sign detection will be described.
Next, the control unit 150 detects an operation of selecting the left candidate character 335A displayed in the left candidate display area 331 and an operation of selecting the right candidate character 335B displayed in the right detection range image 322. The control unit 150 causes the camera 61 to perform imaging and acquires captured image data generated by the camera 61 (step S13). The control unit 150 uses the parameters generated by the calibration to specify the range of the captured image data in which the candidate display area 330 is captured, and executes any known technique on the captured image data in the specified range. Then, detection processing for detecting a finger region is executed. When executing the detection process, the control unit 150 determines whether or not a finger region has been detected from the captured image data (step S14). When the finger region cannot be detected (step S14 / NO), the control unit 150 returns to step S13, acquires captured image data (step S13), and executes the detection process again.

また、制御部150は、手指領域が検出された場合(ステップS14/YES)、この手指領域を検出した撮像画像データの領域に基づき、選択された候補文字335を特定する。制御部150は、左候補表示領域331及び右候補表示領域332のそれぞれについて手指領域を検出する。制御部150は、左候補表示領域331に手指領域が検出されると、この手指領域を検出した撮像画像データの範囲に表示した候補文字335を、左候補文字335Aと判定する(ステップS15)。また、制御部150は、右候補表示領域332に手指領域が検出されると、この手指領域を検出した撮像画像データの範囲に表示した候補文字335を、右候補文字335Bと判定する(ステップS15)。制御部150は、選択されたと判定した候補文字335を、選択文字として記憶部122に記憶させる(ステップS16)。   In addition, when a finger region is detected (step S14 / YES), the control unit 150 specifies the selected candidate character 335 based on the region of the captured image data in which the finger region is detected. The control unit 150 detects a finger area for each of the left candidate display area 331 and the right candidate display area 332. When a finger region is detected in the left candidate display region 331, the control unit 150 determines that the candidate character 335 displayed in the captured image data range in which the finger region is detected is the left candidate character 335A (step S15). Further, when a finger region is detected in the right candidate display region 332, the control unit 150 determines that the candidate character 335 displayed in the captured image data range in which the finger region is detected is the right candidate character 335B (step S15). ). The control unit 150 stores the candidate character 335 determined to be selected in the storage unit 122 as the selected character (step S16).

次に、制御部150は、カメラ61の撮像画像データを取得して(ステップS17)、検出範囲画像320に対応する撮像画像データの領域に対して検出処理を実行し(ステップS18)、手指領域を検出する。制御部150は、手指領域が検出された場合(ステップS19/YES)、図6に示すステップS6に戻り、手指画像データを記憶部122に記憶させる。その後、制御部150は、ステップS7以降の処理を繰り返す。また、制御部150は、手指領域が検出されなかった場合(ステップS19/NO)、前回の手指領域の検出から所定時間を経過したか否かを判定する(ステップS20)。前回の手指領域の検出から所定時間を経過していない場合(ステップS20/NO)、制御部150は、ステップS17に戻り、撮像画像データを取得して検出処理を実行する(ステップS17)。   Next, the control unit 150 acquires the captured image data of the camera 61 (step S17), executes a detection process on the region of the captured image data corresponding to the detection range image 320 (step S18), and the finger region. Is detected. When the finger region is detected (step S19 / YES), the control unit 150 returns to step S6 shown in FIG. 6 and stores the finger image data in the storage unit 122. Thereafter, the control unit 150 repeats the processes after step S7. Further, when the finger region is not detected (step S19 / NO), the control unit 150 determines whether or not a predetermined time has elapsed since the previous finger region detection (step S20). When the predetermined time has not elapsed since the previous finger region detection (step S20 / NO), the control unit 150 returns to step S17, acquires captured image data, and executes a detection process (step S17).

また、制御部150は、前回の手指領域の検出から所定時間を経過した場合(ステップS20/YES)、記憶部122から選択文字を読み出す。ここで、制御部150が記憶部122から読み出す選択文字は、1文字である場合もあれば、複数文字、すなわち文字列である場合もある。制御部150は、選択文字を読み出すと、読み出した選択文字に基づいて対応する処理を実行する(ステップS21)。例えば、制御部150は、アプリケーションプログラムとしてウェブブラウザーが起動されている場合には、ウェブブラウザーの検索欄に、選択文字を入力する。また、制御部150は、メールアプリを起動している場合、例えば、メールの宛て先や本文に、選択文字を入力する。   In addition, when a predetermined time has elapsed since the previous detection of the finger region (step S20 / YES), the control unit 150 reads the selected character from the storage unit 122. Here, the selected character that the control unit 150 reads from the storage unit 122 may be one character or a plurality of characters, that is, a character string. When the selected character is read, the control unit 150 executes a corresponding process based on the read selected character (step S21). For example, when a web browser is activated as an application program, the control unit 150 inputs a selected character in the search field of the web browser. In addition, when the mail application is activated, the control unit 150 inputs a selected character in, for example, a mail destination or text.

上述したフローチャートでは、ステップS15において、手指領域が検出された候補表示領域330の領域に表示した候補文字335を、選択文字と判定した。
他の動作として、例えば、制御部150は、複数の候補文字335のそれぞれ番号を付し、この番号を候補文字335と共に候補表示領域330に表示させてもよい。使用者は、検出範囲画像320内で、選択する候補文字335に対応する番号の指文字を作る。制御部150は、撮像画像データに基づいて手指の形状を特定し、選択された候補文字335を判定する。また、使用者は、選択する候補文字335に付された番号に対応するジェスチャーを行って候補文字335を選択してもよい。
In the flowchart described above, in step S15, the candidate character 335 displayed in the candidate display area 330 in which the finger area is detected is determined as the selected character.
As another operation, for example, the control unit 150 may assign a number to each of the plurality of candidate characters 335 and display the numbers together with the candidate characters 335 in the candidate display area 330. The user creates a finger character having a number corresponding to the candidate character 335 to be selected in the detection range image 320. The control unit 150 identifies the shape of the finger based on the captured image data, and determines the selected candidate character 335. Further, the user may select a candidate character 335 by performing a gesture corresponding to the number assigned to the candidate character 335 to be selected.

また、図7には、検出範囲画像320として、左検出範囲画像321及び右検出範囲画像322を示したが、1つの検出範囲画像320を表示領域310に表示する構成であってもよい。この場合、制御部150は、撮像画像データの検出範囲画像320に対応する範囲から使用者の両手の手指領域を検出する。
また、図7には、左検出範囲画像321及び右検出範囲画像322として円形の画像を表示させたが、検出範囲画像320の形状は円形に限定されるものではない。例えば、検出範囲画像320は、矩形の画像であってもよいし、多角形の画像であってもよい。
また、検出範囲画像320のサイズは、カメラ61が撮像する撮像画像データに写った使用者の手指のサイズよりも大きくなるように予め設定される。
In FIG. 7, the left detection range image 321 and the right detection range image 322 are shown as the detection range image 320. However, one detection range image 320 may be displayed on the display area 310. In this case, the control unit 150 detects the finger area of both hands of the user from the range corresponding to the detection range image 320 of the captured image data.
In FIG. 7, circular images are displayed as the left detection range image 321 and the right detection range image 322, but the shape of the detection range image 320 is not limited to a circle. For example, the detection range image 320 may be a rectangular image or a polygonal image.
The size of the detection range image 320 is set in advance so as to be larger than the size of the user's finger captured in the captured image data captured by the camera 61.

また、表示領域310に、左検出範囲画像321及び右検出範囲画像322を表示させるタイミングを、撮像画像データから使用者の手(左手、右手又は両手のいずれか)の画像が検出されたタイミングとしてもよい。制御部150は、カメラ61の撮像画像データから使用者の手指(左手、右手又は両手のいずれか)が検出されると、検出した手指に対応した左検出範囲画像321及び右検出範囲画像322の少なくとも一方を表示領域310に表示させる。すなわち、制御部150は、使用者の左手が検出された場合には、検出した左手の手指が左検出範囲画像321の範囲内に含まれるように左検出範囲画像321を表示させる。同様に、制御部150は、使用者の右手が検出された場合には、検出した右手の手指が右検出範囲画像322の範囲内に含まれるように右検出範囲画像322を表示させる。   The timing at which the left detection range image 321 and the right detection range image 322 are displayed in the display area 310 is the timing at which the image of the user's hand (either left hand, right hand, or both hands) is detected from the captured image data. Also good. When the user's finger (either the left hand, the right hand, or both hands) is detected from the captured image data of the camera 61, the control unit 150 displays the left detection range image 321 and the right detection range image 322 corresponding to the detected finger. At least one is displayed in the display area 310. That is, when the left hand of the user is detected, the control unit 150 displays the left detection range image 321 such that the detected left hand finger is included in the range of the left detection range image 321. Similarly, when the right hand of the user is detected, the control unit 150 displays the right detection range image 322 such that the detected right hand finger is included in the range of the right detection range image 322.

また、制御部150は、検出した手指の動きを追跡し、手指の動きに対応して左検出範囲画像321及び右検出範囲画像322の表示位置や表示範囲を変更してもよい。
制御部150は、カメラ61が順次撮像する撮像画像データから手指を検出し、検出した手指の位置に変化が生じると、位置に変化が生じた手指に対応する左検出範囲画像321又は右検出範囲画像322の表示表示や表示範囲を変更する。
すなわち、制御部150は、使用者の左手の位置に変化が生じたと判定した場合、左手の位置の変化に左検出範囲画像321を追従させ、左手が左検出範囲画像321の範囲内に含まれるように左検出範囲画像321の表示位置を変更する。また、制御部150は、左手の位置の変化に応じて左検出範囲画像321の表示範囲を変更してもよい。
また、制御部150は、使用者の右手の位置に変化が生じたと判定した場合、右手の位置の変化に右検出範囲画像322を追従させ、右手が右検出範囲画像322の範囲内に含まれるように右検出範囲画像322の表示位置を変更する。また、制御部150は、右手の位置の変化に応じて右検出範囲画像322の表示範囲を変更してもよい。
使用者の手指の動きに左検出範囲画像321及び右検出範囲画像322を追従させることで、使用者は、固定された位置でジェスチャーやハンドサインを行う必要がなく、より自由にジェスチャーやハンドサインを行うことができる。
Further, the control unit 150 may track the detected movement of the finger and change the display position and display range of the left detection range image 321 and the right detection range image 322 in accordance with the movement of the finger.
The control unit 150 detects a finger from captured image data sequentially captured by the camera 61, and when a change occurs in the position of the detected finger, the left detection range image 321 or the right detection range corresponding to the finger whose position has changed. The display display and display range of the image 322 are changed.
That is, when determining that the position of the left hand of the user has changed, the control unit 150 causes the left detection range image 321 to follow the change in the position of the left hand, and the left hand is included in the range of the left detection range image 321. In this way, the display position of the left detection range image 321 is changed. Further, the control unit 150 may change the display range of the left detection range image 321 according to the change in the position of the left hand.
If the control unit 150 determines that a change has occurred in the position of the right hand of the user, the control unit 150 causes the right detection range image 322 to follow the change in the position of the right hand, and the right hand is included in the range of the right detection range image 322. In this way, the display position of the right detection range image 322 is changed. Further, the control unit 150 may change the display range of the right detection range image 322 in accordance with the change in the position of the right hand.
By causing the left detection range image 321 and the right detection range image 322 to follow the movement of the user's finger, the user does not need to perform a gesture or hand sign at a fixed position, and can perform a gesture or hand sign more freely. It can be performed.

図11は、候補表示領域330の他の表示例を示す図である。
図11には、左検出範囲画像321の上下左右の4方向に対応する方向に左候補表示領域331をそれぞれ表示し、右検出範囲画像322の上下左右の4方向に対応する方向に右候補表示領域332をそれぞれ表示した例を示す。
使用者は、入力したい候補文字335が表示された候補表示領域330の方向に手指を移動させる。制御部150は、カメラ61の撮像画像データを取得し、上下左右の候補表示領域330に対応する撮像画像データの各領域から、上述した方法により手指領域を検出する。制御部150は、手指領域が検出された場合、この手指領域を検出した候補表示領域330に表示した候補文字335が選択されたと判定する。使用者は、入力したい文字が表示された方向に手指を移動させればよいので、候補文字335の選択を容易に行うことができる。
図11には、検出範囲画像320の上下左右の4方向に候補表示領域330を表示させた場合を示したが、選択される候補文字335の数に応じて候補表示領域330を表示させる方向を変更してもよい。例えば、候補文字335として2つの文字を選択した場合、検出範囲画像320の上下方向、又は左右方向に候補表示領域330を表示させることができる。
FIG. 11 is a diagram illustrating another display example of the candidate display area 330.
In FIG. 11, the left candidate display areas 331 are displayed in directions corresponding to the four directions of the upper, lower, left, and right directions of the left detection range image 321, and the right candidates are displayed in the directions corresponding to the upper, lower, left, and right directions of the right detection range image 322. The example which each displayed the area | region 332 is shown.
The user moves his / her finger in the direction of the candidate display area 330 where the candidate character 335 desired to be input is displayed. The control unit 150 acquires captured image data of the camera 61 and detects a finger region from each region of the captured image data corresponding to the upper, lower, left, and right candidate display regions 330 by the method described above. When the finger area is detected, the control unit 150 determines that the candidate character 335 displayed in the candidate display area 330 that has detected the finger area is selected. Since the user only has to move his / her finger in the direction in which the character to be input is displayed, the candidate character 335 can be easily selected.
FIG. 11 shows a case in which the candidate display area 330 is displayed in four directions, top, bottom, left, and right of the detection range image 320. The direction in which the candidate display area 330 is displayed according to the number of candidate characters 335 to be selected is shown. It may be changed. For example, when two characters are selected as the candidate characters 335, the candidate display area 330 can be displayed in the vertical direction or the horizontal direction of the detection range image 320.

また、制御部150は、候補文字335と、使用者が実際に選択した選択文字とを対応付けて記憶部122に記憶させてもよい。制御部150は、使用者のジェスチャーやハンドサインに基づいて判定した候補文字335が、記憶部122に記憶させた候補文字335の場合、この候補文字335に対応付けられた選択文字を表示領域310に表示させる。このように、候補文字335と、選択文字とを対応付けて記憶部122に記憶させることで、ジェスチャーやハンドサインの認識精度を向上させることができる。また、使用者が作る手や指の形に癖があっても、使用者の意図した文字や記号の候補を候補表示領域330に表示させることができる。   In addition, the control unit 150 may store the candidate character 335 and the selected character actually selected by the user in the storage unit 122 in association with each other. When the candidate character 335 determined based on the user's gesture or hand sign is the candidate character 335 stored in the storage unit 122, the control unit 150 displays the selected character associated with the candidate character 335 in the display area 310. To display. As described above, by recognizing the candidate character 335 and the selected character and storing them in the storage unit 122, it is possible to improve the recognition accuracy of gestures and hand signs. Further, even if the hand or finger shape created by the user has a wrinkle, the candidate of characters and symbols intended by the user can be displayed in the candidate display area 330.

図12は、候補文字335の他の表示例を示す図である。
図12に示す表示例は、リングを示す画像(以下、リング画像325という)の周方向に候補となる複数の候補文字335と、これら複数の候補文字335を示すハンドサインとを表示している。また、図12に示す表示例は、リング画像325の上下左右の4方向に対応する位置に、候補文字335をそれぞれ表示している。
FIG. 12 is a diagram illustrating another display example of the candidate character 335.
The display example shown in FIG. 12 displays a plurality of candidate characters 335 as candidates in the circumferential direction of an image showing a ring (hereinafter referred to as a ring image 325), and hand signs indicating the plurality of candidate characters 335. . In the display example shown in FIG. 12, candidate characters 335 are displayed at positions corresponding to the four directions of the ring image 325 in the vertical and horizontal directions.

使用者は、複数の候補文字335の中から1の候補文字335を選択する場合、例えば、以下に示す動作を行う。
使用者は、例えば、右手の右候補文字335Bを選択する場合、右手を左から右、又は右から左に動かすジェスチャーを行い、選択したい右候補文字335Bを選択位置に移動させる。選択位置は、予め設定された位置であって、リング画像325の上下左右の4方向に対応するいずれの位置であってもよい。本実施形態は、リング画像325の下方向に対応する位置が選択位置である場合について説明する。図12では、右候補文字335Bとして「B」が表示された位置が選択位置に対応する。
When the user selects one candidate character 335 from among the plurality of candidate characters 335, for example, the user performs the following operation.
For example, when selecting the right candidate character 335B of the right hand, the user performs a gesture of moving the right hand from left to right or from right to left, and moves the right candidate character 335B to be selected to the selected position. The selection position is a preset position, and may be any position corresponding to the four directions of the top, bottom, left, and right of the ring image 325. In the present embodiment, a case where the position corresponding to the downward direction of the ring image 325 is the selection position will be described. In FIG. 12, the position where “B” is displayed as the right candidate character 335B corresponds to the selected position.

制御部150は、カメラ61の撮像画像データにより右手の動きを検出し、右手が動いた方向にリング画像325を回転させ、リング画像325の回転に伴って複数の候補文字335も回転させる。
使用者は、候補文字335が、選択位置に表示されると、予め設定された確定操作を行い、候補文字335を確定させる。確定操作は、例えば、うなずく動作、すなわち、使用者の頭部を、使用者の視線方向である前方に倒す動作であってもよい。制御部150は、使用者の頭部の動きを6軸センサー235の検出値に基づいて検出し、確定操作が入力されたか否かを判定する。また、例えば、使用者が「確定」との音声を発声してもよい。制御部150は、マイク63から入力される音声信号に基づき、使用者が「確定」との発声を行ったか否かを判定する。
The control unit 150 detects the movement of the right hand from the imaged image data of the camera 61, rotates the ring image 325 in the direction in which the right hand moves, and also rotates a plurality of candidate characters 335 as the ring image 325 rotates.
When the candidate character 335 is displayed at the selected position, the user performs a predetermined confirming operation to confirm the candidate character 335. The confirmation operation may be, for example, a nodding operation, that is, an operation of tilting the user's head forward in the direction of the user's line of sight. The control unit 150 detects the movement of the user's head based on the detection value of the 6-axis sensor 235, and determines whether or not a confirmation operation has been input. Further, for example, the user may utter a sound “confirmed”. Based on the audio signal input from microphone 63, control unit 150 determines whether or not the user has uttered “confirmed”.

また、使用者は、複数の候補文字335の中から1の候補文字335を選択する場合、選択する候補文字335が表示された位置に指を重ねることで、候補文字335を選択してもよい。すなわち、使用者は、右候補文字335B択する場合、右手を選択する右候補文字335Bの位置に重ね、左候補文字335Aを選択する場合、左手を選択する左候補文字335Aの位置に重ねる。   In addition, when the user selects one candidate character 335 from among the plurality of candidate characters 335, the user may select the candidate character 335 by placing a finger on the position where the candidate character 335 to be selected is displayed. . That is, when selecting the right candidate character 335B, the user overlaps the position of the right candidate character 335B for selecting the right hand, and when selecting the left candidate character 335A, the user overlaps the position of the left candidate character 335A for selecting the left hand.

また、図6に示すフローチャートの説明では、制御部150は、予め設定された操作を受け付けた場合に、左検出範囲画像321及び右検出範囲画像322を表示領域310に表示させた。制御部150は、他の動作として、予め設定されたプログラムを実行する場合に、表示領域310に左検出範囲画像321及び右検出範囲画像322を表示させてもよい。予め設定されたプログラムは、例えば、ブラウザソフトウェアや、ワープロソフトウェア等の文字入力が必要なアプリケーションプログラム(以下、アプリという)である。   In the description of the flowchart shown in FIG. 6, the control unit 150 displays the left detection range image 321 and the right detection range image 322 in the display area 310 when a preset operation is received. As another operation, the control unit 150 may display the left detection range image 321 and the right detection range image 322 in the display area 310 when executing a preset program. The preset program is, for example, an application program (hereinafter referred to as an application) that requires character input, such as browser software or word processor software.

図13は、表示領域310に表示されたソフトウェアキーボード351及びテキスト入力欄352を示す図である。
制御部150は、文字入力が必要なアプリを実行する場合に、設定データ123に従って、ソフトウェアキーボード、又は左検出範囲画像321及び右検出範囲画像322を表示領域310に表示させる。また、制御部150は、テキスト入力欄352に対応する位置に使用者の指が検出された場合に、設定データ123に従って、ソフトウェアキーボード、又は左検出範囲画像321及び右検出範囲画像322を表示領域310に表示させてもよい。また、制御部150は、左検出範囲画像321及び右検出範囲画像322を表示領域310に表示させると、指示体を検出する状態に移行し、使用者の手指の検出を開始する。文字入力が必要なアプリが使用者により選択され、制御部150が選択されたアプリの実行を開始した状態が、本発明の「予め設定された操作を検出した場合」に相当する。また、テキスト入力欄352に対応する位置に使用者の指が検出された場合も、本発明の「予め設定された操作を検出した場合」に相当する。
FIG. 13 is a diagram showing the software keyboard 351 and the text input field 352 displayed in the display area 310.
When executing an application that requires character input, the control unit 150 displays the software keyboard or the left detection range image 321 and the right detection range image 322 in the display area 310 according to the setting data 123. In addition, when a user's finger is detected at a position corresponding to the text input field 352, the control unit 150 displays the software keyboard or the left detection range image 321 and the right detection range image 322 according to the setting data 123 as a display area. 310 may be displayed. Further, when the left detection range image 321 and the right detection range image 322 are displayed in the display area 310, the control unit 150 shifts to a state of detecting an indicator and starts detecting the user's finger. A state where an application that requires character input is selected by the user and execution of the selected application is started by the control unit 150 corresponds to “when a preset operation is detected” of the present invention. A case where the user's finger is detected at a position corresponding to the text input field 352 is also equivalent to “a case where a preset operation is detected” in the present invention.

記憶部122の記憶する設定データ123には、文字入力が必要なアプリを実行する場合に、ソフトウェアキーボード351により文字入力を行うのか、ジェスチャーやハンドサインによる文字入力を行うかを設定した情報が含まれる。
この設定データ123は、例えば、操作部110の操作により書き替えることができる。制御部150は、操作部110で受け付けた操作に従って設定データ123が変更される。設定データ123が変更されることで、文字入力がソフトウェアキーボードからジェスチャーやハンドサインに変更され、又はジェスチャーやハンドサインからソフトウェアキーボードに変更される。
The setting data 123 stored in the storage unit 122 includes information that sets whether to perform character input by the software keyboard 351 or character input by gesture or hand sign when executing an application that requires character input. It is.
The setting data 123 can be rewritten by operating the operation unit 110, for example. The control unit 150 changes the setting data 123 according to the operation received by the operation unit 110. When the setting data 123 is changed, the character input is changed from the software keyboard to the gesture or the hand sign, or the gesture or hand sign is changed to the software keyboard.

また、文字入力が必要なアプリごとに、ソフトウェアキーボードにより文字入力を行うのか、ジェスチャーやハンドサインにより文字入力を行うのかを設定してもよい。すなわち、設定データ123を、文字入力が必要なアプリごとに生成する。制御部150は、アプリの実行指示が入力されると、このアプリに対応する設定データ123に従ってソフトウェアキーボード351、又は左検出範囲画像321及び右検出範囲画像322を表示領域310に表示させる。   In addition, for each application that requires character input, it may be set whether character input is performed using a software keyboard or character input is performed using a gesture or a hand sign. That is, the setting data 123 is generated for each application that requires character input. When an application execution instruction is input, the control unit 150 displays the software keyboard 351 or the left detection range image 321 and the right detection range image 322 in the display area 310 according to the setting data 123 corresponding to the application.

また、上述した実施形態は、ハンドサインやジェスチャーによる文字の入力について説明したが、ハンドサインやジェスチャーによる入力は文字だけに限定されない。例えば、ハンドサインやジェスチャーによりHMD100の機能を操作したり、HMD100に接続した外部機器を操作したりすることも可能である。   Moreover, although embodiment mentioned above demonstrated the input of the character by a hand sign or a gesture, the input by a hand sign or a gesture is not limited only to a character. For example, the function of the HMD 100 can be operated by a hand sign or a gesture, or an external device connected to the HMD 100 can be operated.

HMD100のオーディオ機能を、ハンドサインやジェスチャーにより操作する場合について説明する。
例えば、使用者の左手のハンドサインやジェスチャーを、ボリュームコントロールや、選曲等の設定項目を選択する操作に対応付ける。また、右手のハンドサインやジェスチャーを、選択された設定項目を設定する操作に対応付ける。
この場合、ジェスチャー登録辞書1251には、左手の情報として、左手のジェスチャーを特定する情報と、各ジェスチャーに対応付けられた設定項目(例えば、ボリュームコントロールや選曲)を示す情報とが対応付けて登録される。
また、ジェスチャー登録辞書1251には、右手の情報として、右手のジェスチャーを特定する情報と、このジェスチャーに対応付けられた操作項目を示す情報とが、設定項目ごとに登録される。ハンドサイン登録辞書1252についても同様の構成を備える。例えば、設定項目がボリュームコントロールである場合、右手の情報には、ジェスチャーを特定する情報と、このジェスチャーに対応付けられた操作項目(例えば、ボリュームアップや、ボリュームダウン、ミュート)とが含まれる。また、設定項目が選曲である場合、右手の情報として、ジェスチャーを特定する情報と、このジェスチャーに対応付けられた操作項目(例えば、再生や、一時停止、停止)とが、ボリュームコントロールの情報としてジェスチャー登録辞書1251に記憶される。
A case where the audio function of the HMD 100 is operated by a hand sign or a gesture will be described.
For example, the hand sign and gesture of the user's left hand are associated with operations for selecting setting items such as volume control and music selection. Further, the hand sign or gesture of the right hand is associated with the operation for setting the selected setting item.
In this case, in the gesture registration dictionary 1251, as left hand information, information specifying the left hand gesture and information indicating setting items (for example, volume control and music selection) associated with each gesture are registered in association with each other. Is done.
In the gesture registration dictionary 1251, information specifying the right hand gesture and information indicating an operation item associated with the gesture are registered for each setting item as right hand information. The hand sign registration dictionary 1252 has the same configuration. For example, when the setting item is volume control, the information on the right hand includes information for specifying a gesture and operation items (for example, volume up, volume down, mute) associated with the gesture. When the setting item is song selection, information specifying the gesture as the right hand information and operation items (for example, playback, pause, stop) associated with the gesture are volume control information. It is stored in the gesture registration dictionary 1251.

図14は、ハンドサイン又はジェスチャーによりHMD100の機能を操作する場合に、表示画像310に表示される表示画像を示す図である。特に、図14は、HMD100のオーディオ機能を操作する場合に、表示画像310に表示される表示画像を示す図である。
まず、制御部150は、カメラ61の撮像画像データに基づいて左手のハンドサイン又はジェスチャーを検出する。制御部150は、左手のハンドサイン又はジェスチャーが検出されると、検出された左手のハンドサイン又はジェスチャーに対応した設定項目を左表示領域361に表示させる。図14には、左表示領域361に設定項目としてボリュームコントロールが表示された状態を示す。左表示領域361に表示された設定項目は、本発明の「第1操作画像」に相当する。
FIG. 14 is a diagram illustrating a display image displayed on the display image 310 when the function of the HMD 100 is operated by a hand sign or a gesture. In particular, FIG. 14 is a diagram illustrating a display image displayed on the display image 310 when the audio function of the HMD 100 is operated.
First, the control unit 150 detects a hand sign or gesture of the left hand based on the captured image data of the camera 61. When the left hand hand sign or gesture is detected, the control unit 150 displays setting items corresponding to the detected left hand hand sign or gesture in the left display area 361. FIG. 14 shows a state in which volume control is displayed as a setting item in the left display area 361. The setting items displayed in the left display area 361 correspond to the “first operation image” of the present invention.

次に、制御部150は、確定操作又は取り消し操作を検出する。確定操作は、左表示領域361に表示された設定項目を確定させる操作である。取り消し操作は、表示領域361に表示された設定項目を取り消す操作である。制御部150は、確定操作が検出された場合、撮像画像データに基づいて右手のハンドサイン又はジェスチャーを検出する。
また、制御部150は、取り消し操作が検出された場合、左表示領域361に表示させた設定項目の表示を消去し、左手のハンドサイン又はジェスチャーを再度検出する。
また、確定操作や取り消し操作は、例えば、左手のハンドサイン又はジェスチャーによる操作であってもよいし、6軸センサー235により検出される頭部の動きであってもよい。
Next, the control unit 150 detects a confirming operation or a canceling operation. The confirmation operation is an operation for confirming the setting item displayed in the left display area 361. The cancel operation is an operation for canceling the setting item displayed in the display area 361. When the confirmation operation is detected, the control unit 150 detects a right hand hand sign or gesture based on the captured image data.
In addition, when a cancel operation is detected, the control unit 150 deletes the display of the setting item displayed in the left display area 361 and detects the left hand hand sign or gesture again.
Further, the confirmation operation and the cancellation operation may be, for example, an operation by a hand sign or a gesture of the left hand, or a head movement detected by the 6-axis sensor 235.

また、制御部150は、確定操作が検出されると、撮像画像データに基づいて右手のハンドサインやジェスチャーを検出する。制御部150は、検出したハンドサイン又はジェスチャーに対応する操作項目を右表示領域362に表示させる。図14には、右表示領域362に操作項目としてボリュームダウン表示された状態を示す。表示領域362に表示された操作項目は、本発明の「第2操作画像」に相当する。
この後、制御部150は、左手のハンドサイン又はジェスチャーの場合と同様に、確定操作又は取り消し操作を検出する。制御部150は、確定操作が検出された場合、右表示領域362に表示させた操作項目に対応した処理を実行する。また、制御部150は、取り消し操作が検出された場合、右表示領域362に表示させた操作項目の表示を消去し、右手のハンドサイン又はジェスチャーを再度検出する。
Further, when a confirmation operation is detected, the control unit 150 detects a right hand hand sign or gesture based on the captured image data. The control unit 150 displays an operation item corresponding to the detected hand sign or gesture in the right display area 362. FIG. 14 shows a state in which the volume is displayed as an operation item in the right display area 362. The operation item displayed in the display area 362 corresponds to the “second operation image” of the present invention.
Thereafter, the control unit 150 detects a confirming operation or a canceling operation as in the case of the hand sign or gesture of the left hand. When the confirmation operation is detected, the control unit 150 executes processing corresponding to the operation item displayed in the right display area 362. In addition, when a cancel operation is detected, the control unit 150 erases the display of the operation item displayed in the right display area 362 and detects the right hand hand sign or gesture again.

また、制御部150は、左手のハンドサイン又はジェスチャーに対応する設定項目を判定すると、判定した設定項目に対応付けられた右手の操作項目のすべてを右表示領域362に表示させてもよい。
例えば、制御部150は、設定項目としてボリュームコントロールが選択されたと判定した場合、右表示領域362に、ボリュームアップやボリュームダウン、ミュートを表示させる。使用者は、操作したい操作項目が表示された位置に重なるように右手を動かす。制御部150は、撮像画像データに基づいて右手の位置を検出し、検出した位置に表示された操作項目を判定する。制御部150は、判定した操作項目に対応した処理を実行する。
Further, when determining the setting item corresponding to the hand sign or gesture of the left hand, the control unit 150 may display all the operation items of the right hand associated with the determined setting item in the right display area 362.
For example, when it is determined that the volume control is selected as the setting item, the control unit 150 displays volume up, volume down, and mute in the right display area 362. The user moves the right hand so that the operation item to be operated overlaps with the displayed position. The control unit 150 detects the position of the right hand based on the captured image data, and determines the operation item displayed at the detected position. The control unit 150 executes processing corresponding to the determined operation item.

図15は、HMD100に接続した外部機器を、ハンドサインやジェスチャーにより操作する場合に、表示領域310に表示される表示画像を示す図である。特に、図15は、外部機器としての電気メスをハンドサインやジェスチャーにより操作する場合の表示画像を示す図である。
HMD100は、通信部117を介して電気メスに流れる電流を制御する制御装置(図示略)に接続されている。この制御装置とHMD100との接続は、無線であってもよいし、有線ケーブルにより接続する構成であってもよい。
FIG. 15 is a diagram illustrating a display image displayed in the display area 310 when an external device connected to the HMD 100 is operated by a hand sign or a gesture. In particular, FIG. 15 is a diagram illustrating a display image when an electric knife as an external device is operated by a hand sign or a gesture.
The HMD 100 is connected to a control device (not shown) that controls the current flowing through the electric knife through the communication unit 117. The connection between the control device and the HMD 100 may be wireless or may be connected by a wired cable.

まず、制御部150は、カメラ61の撮像画像データから所定のマークを検出する。例えば、電気メス等の外部機器には、外部機器を特定するバーコードやQRコード(登録商標)等の所定のマークが貼付けられている。制御部150は、撮像画像データからこの所定のマークを検出して、使用者の手(ここでは右手と仮定して説明する)に握られた外部機器を特定する。   First, the control unit 150 detects a predetermined mark from the captured image data of the camera 61. For example, a predetermined mark such as a barcode or a QR code (registered trademark) that identifies the external device is attached to the external device such as an electric knife. The control unit 150 detects the predetermined mark from the captured image data, and specifies the external device held in the user's hand (here, it is assumed that it is the right hand).

制御部150は、撮像画像データ所定のマークを検出して外部機器を特定すると、特定した外部機器の設定項目を、右表示領域362に表示させる。
ここでは、使用者の右手のハンドサインやジェスチャーを、スイッチや、電流調整等の設定項目を選択する操作に対応付ける。
この場合、ジェスチャー登録辞書1251には、右手の情報として、右手のジェスチャーを特定する情報と、各ジェスチャーに対応付けられた設定項目(例えば、電源スイッチや電流調整)を示す情報とが対応付けて登録される。
また、ジェスチャー登録辞書1251には、左手の情報として、左手のジェスチャーを特定する情報と、このジェスチャーに対応付けられた操作項目を示す情報とが、設定項目ごとに登録される。ハンドサイン登録辞書1252についても同様の構成を備える。例えば、設定項目が電流調整の場合、左手の情報として、ジェスチャーを特定する情報と、このジェスチャーに対応付けられた操作項目(例えば、電流アップや電流ダウン)とが、電流調整の情報としてジェスチャー登録辞書1251に記憶される。
When the control unit 150 detects the predetermined mark of the captured image data and specifies the external device, the control unit 150 displays the setting item of the specified external device in the right display area 362.
Here, the hand sign or gesture of the user's right hand is associated with an operation for selecting a setting item such as a switch or current adjustment.
In this case, in the gesture registration dictionary 1251, information specifying the right hand gesture and information indicating setting items (for example, a power switch and current adjustment) associated with each gesture are associated with each other as the right hand information. be registered.
In the gesture registration dictionary 1251, information specifying the left hand gesture and information indicating an operation item associated with the gesture are registered for each setting item as left hand information. The hand sign registration dictionary 1252 has the same configuration. For example, if the setting item is current adjustment, information specifying the gesture as left hand information and an operation item (for example, current up or current down) associated with the gesture are registered as current adjustment information. It is stored in the dictionary 1251.

制御部150は、所定のマークを検出して使用者の右手に握られた外部機器を特定すると、特定した外部機器の設定項目を右表示領域362に表示させる。
使用者は、右表示領域362に設定項目が表示されると、右手の操作、又は頭部の操作により、右表示領域362に表示された設定項目のいずれか1つを選択する。右手の操作は、選択する設定項目が表示された位置に右手を重ねる操作である。頭部の操作は、例えば、設定項目が表示された方向に頭部を向ける操作である。
When the control unit 150 detects a predetermined mark and specifies the external device held by the right hand of the user, the control unit 150 displays the setting item of the specified external device in the right display area 362.
When the setting item is displayed in the right display area 362, the user selects one of the setting items displayed in the right display area 362 by operating the right hand or the head. The right-hand operation is an operation of placing the right hand on the position where the setting item to be selected is displayed. The head operation is, for example, an operation of turning the head in the direction in which the setting item is displayed.

制御部150は、設定項目が選択されると、選択された設定項目に対応付けられた操作項目を左表示領域361に表示させる。例えば、制御部150は、設定項目として電流調整が選択された場合、操作項目として電流アップや、電流ダウンを左表示領域361に表示させる。   When a setting item is selected, the control unit 150 displays an operation item associated with the selected setting item in the left display area 361. For example, when current adjustment is selected as the setting item, the control unit 150 displays current up or current down as operation items in the left display area 361.

使用者は、左表示領域361に操作項目が表示されると、左手の操作や、頭部の操作により操作項目を操作する。例えば、選択する操作項目が表示された位置に左手を重ねる操作であってもよいし、ジェスチャーやハンドサインであってもよい。頭部の操作は、例えば、操作項目が表示された方向に頭部を向ける操作である。   When the operation item is displayed in the left display area 361, the user operates the operation item by operating the left hand or the head. For example, an operation of placing the left hand on the position where the operation item to be selected is displayed may be a gesture or a hand sign. The head operation is, for example, an operation of turning the head in the direction in which the operation item is displayed.

制御部150は、操作項目が選択されると、選択された操作項目に対応した第1操作情報と、右手の操作に対応した第2操作情報との少なくとも一方を含む制御情報を、通信部117を介して制御装置に送信する。第1操作情報は、例えば、電流アップや電流ダウンを指示する情報や、電気メスの電源オンや電源オフを指示する情報が含まれる。
また、制御装置に送信する制御情報を、第1操作情報及び第2操作情報を含む情報としてもよい。第2操作情報には、例えば、使用者が手に持った電気メスを識別する識別情報が含まれる。
また、使用者が左利きであり、電気メスを左手に持っている場合には、第2操作情報を含む制御情報がHMD100から制御装置に送信される。この場合の第2操作情報も流アップや電流ダウンを指示する情報や、電気メスの電源オンや電源オフを指示する情報である。
第1操作情報は、本発明の「第1情報」に相当し、第2操作情報は、本発明の「第2情報」に相当する。
When an operation item is selected, the control unit 150 transmits control information including at least one of first operation information corresponding to the selected operation item and second operation information corresponding to the right-hand operation to the communication unit 117. To the control device. The first operation information includes, for example, information for instructing current up and current down, and information for instructing to turn on and off the electric knife.
The control information transmitted to the control device may be information including the first operation information and the second operation information. The second operation information includes, for example, identification information for identifying the electric knife held by the user.
When the user is left-handed and has an electric knife in his left hand, control information including second operation information is transmitted from the HMD 100 to the control device. The second operation information in this case is information for instructing flow-up and current-down, and information for instructing power-on and power-off of the electric knife.
The first operation information corresponds to “first information” of the present invention, and the second operation information corresponds to “second information” of the present invention.

以上説明したように第1実施形態のHMD100は、画像表示部20、検出部として機能するカメラ61及び撮像制御部147と、表示制御部153とを備える。
画像表示部20は、外景を透過し、外景とともに視認できるように画像を表示領域310に表示する。カメラ61及び撮像制御部147は、少なくとも画像表示部20を透過する範囲を含む領域において、使用者の動作に対応づけられた指示体としての使用者の手指を検出する。
表示制御部153は、検出部が使用者の手指を検出する検出状態を示す画像を表示領域310に表示させ、検出部が検出する手指の動き、形状及び位置の少なくともいずれかに対応する入力内容の候補を表示させる。検出状態を示す画像は、検出範囲画像320や、候補表示領域330、この候補表示領域330に表示された候補文字335、左表示領域361及び右表示領域362等が含まれる。
第1実施形態のHMD100は、検出部による指示体の検出状態を示す画像が表示領域に表示されるため、検出部による手指の検出状態の確認が容易になる。また、検出部が検出した手指の動き、形状及び位置のいずれかに対応する入力内容の候補が、検出エリアを示す画像に対応する位置に表示されるので、手指による入力精度を高め、使用者の使い勝手を向上させることができる。
As described above, the HMD 100 according to the first embodiment includes the image display unit 20, the camera 61 and the imaging control unit 147 that function as a detection unit, and the display control unit 153.
The image display unit 20 displays an image in the display area 310 so that the outside scene is transmitted and can be visually recognized together with the outside scene. The camera 61 and the imaging control unit 147 detect the user's finger as an indicator associated with the user's action in an area including at least a range that passes through the image display unit 20.
The display control unit 153 displays an image indicating a detection state in which the detection unit detects the user's finger on the display area 310, and the input content corresponding to at least one of the movement, shape, and position of the finger detected by the detection unit Display candidates. The image indicating the detection state includes a detection range image 320, a candidate display area 330, candidate characters 335 displayed in the candidate display area 330, a left display area 361, a right display area 362, and the like.
In the HMD 100 according to the first embodiment, since the image indicating the detection state of the indicator by the detection unit is displayed in the display area, the detection state of the finger by the detection unit can be easily confirmed. In addition, since the input content candidates corresponding to any of the movement, shape, and position of the finger detected by the detection unit are displayed at the position corresponding to the image indicating the detection area, the input accuracy with the finger is improved, and the user Usability can be improved.

また、表示制御部153は、検出部の検出状態を示す画像を、外景において手指が視認される位置に対応させて表示させる。
従って、検出部の検出状態を示す画像が、手指が視認される位置に対応させて表示されるので、使用者は手指を動かして操作を入力しながら検出部の検出状態の確認ができる。
In addition, the display control unit 153 displays an image indicating the detection state of the detection unit corresponding to the position where the finger is visually recognized in the outside scene.
Therefore, an image indicating the detection state of the detection unit is displayed in correspondence with the position where the finger is visually recognized, so that the user can confirm the detection state of the detection unit while inputting the operation by moving the finger.

また、表示制御部153は、検出部が検出する手指の動き、形状及び位置の少なくともいずれかに対応する入力内容の候補を、検出部の検出状態を示す画像に対応する位置に表示させる。
従って、使用者は指示体を操作しながら検出部による検出状態の確認ができる。
In addition, the display control unit 153 displays the input content candidates corresponding to at least one of the movement, shape, and position of the finger detected by the detection unit at a position corresponding to the image indicating the detection state of the detection unit.
Therefore, the user can confirm the detection state by the detection unit while operating the indicator.

また、表示制御部153は、検出部の検出状態を示す画像として、検出範囲を示す検出範囲画像320を表示領域310に表示させる。また、表示制御部153は、検出部が検出する手指の動き、形状及び位置の少なくともいずれかに対応する入力内容の候補を、表示領域310において検出範囲画像320に対応する位置に表示させる。
従って、検出部の検出状態を示す画像として、検出部が手指を検出する検出エリアを示す検出範囲画像320が表示されるので、手指が検出される検出エリアの確認が容易になり、操作性を高めることができる。また、検出部が検出する指示体の動き、形状及び位置の少なくともいずれかに対応する入力内容の候補が検出範囲画像320に対応する位置に表示されるので、使用者は指示体を操作しながら検出部の検出状態の確認ができる。
In addition, the display control unit 153 displays a detection range image 320 indicating the detection range on the display area 310 as an image indicating the detection state of the detection unit. In addition, the display control unit 153 displays input content candidates corresponding to at least one of the movement, shape, and position of the finger detected by the detection unit at a position corresponding to the detection range image 320 in the display area 310.
Accordingly, since the detection range image 320 indicating the detection area where the detection unit detects the finger is displayed as an image indicating the detection state of the detection unit, it is easy to confirm the detection area where the finger is detected and the operability is improved. Can be increased. In addition, since the input content candidates corresponding to at least one of the movement, shape, and position of the indicator detected by the detection unit are displayed at the position corresponding to the detection range image 320, the user operates the indicator while operating the indicator. The detection state of the detection unit can be confirmed.

また、表示制御部153は、候補文字335を候補表示領域330に表示させ、候補表示領域330を、検出範囲画像320に対応する位置、又は検出範囲画像320において検出された手指に対応する位置に表示させる。
従って、検出範囲画像320に対応する位置、又は検出範囲画像320において検出された手指に対応する位置に表示された候補文字335の中から候補を選択する操作を容易に行うことができる。
In addition, the display control unit 153 displays the candidate character 335 in the candidate display area 330, and sets the candidate display area 330 to a position corresponding to the detection range image 320 or a position corresponding to the finger detected in the detection range image 320. Display.
Therefore, an operation of selecting a candidate from the candidate characters 335 displayed at the position corresponding to the detection range image 320 or the position corresponding to the finger detected in the detection range image 320 can be easily performed.

また、表示制御部153は、検出部が候補表示領域330に対応する位置で手指を検出した場合に、検出された手指の動き、形状及び位置の少なくともいずれかに基づき、候補表示領域330に表示された複数の候補のいずれかを選択する。
従って、手指の動き、形状及び位置の少なくともいずれかにより、複数の候補文字335のいずれかを選択することができるので、操作を簡略化することができる。
In addition, when the detection unit detects a finger at a position corresponding to the candidate display area 330, the display control unit 153 displays the candidate display area 330 based on at least one of the detected movement, shape, and position of the finger. Select one of a plurality of candidates.
Therefore, since any one of the plurality of candidate characters 335 can be selected by at least one of the movement, shape, and position of the fingers, the operation can be simplified.

また、表示制御部153は、表示領域310に表示される候補文字335に対応する位置で手指が検出された場合に、検出された手指の動き、形状及び位置の少なくともいずれかに基づき、候補表示領域330に表示された複数候補の文字のいずれかを選択する。
従って、候補文字335に対応する位置に移動させた手指の動き、形状及び位置に基づいて、複数の候補の文字のいずれかを選択することができる。
In addition, when a finger is detected at a position corresponding to the candidate character 335 displayed in the display area 310, the display control unit 153 displays a candidate based on at least one of the detected movement, shape, and position of the finger. One of a plurality of candidate characters displayed in the area 330 is selected.
Therefore, any of a plurality of candidate characters can be selected based on the movement, shape, and position of the finger moved to the position corresponding to the candidate character 335.

また、表示制御部153は、複数の候補を表示させ、検出部により検出された手指の移動方向が候補を表示させたいずれかの方向に対応する場合に、対応する候補を選択する。
従って、選択したい候補が表示された方向に手指を移動させることで、選択したい候補を選択することができる。
The display control unit 153 displays a plurality of candidates, and selects a corresponding candidate when the moving direction of the finger detected by the detection unit corresponds to any direction in which the candidate is displayed.
Therefore, the candidate to be selected can be selected by moving the finger in the direction in which the candidate to be selected is displayed.

また、表示制御部153は、検出部により検出された手指の形状が、予め設定された時間以上同一の形状である場合に、候補を表示させる。
従って、手指の形状を予め設定された時間以上同一の形状とすることで、候補を表示させることができるので、簡易な操作により候補を表示させることができる。
In addition, the display control unit 153 displays a candidate when the shape of the finger detected by the detection unit is the same shape for a preset time or more.
Therefore, candidates can be displayed by making the shape of the fingers the same shape for a preset time or longer, so that the candidates can be displayed by a simple operation.

また、表示制御部153は、検出部により検出された手指の位置が、予め設定された位置に重なる場合に、候補を表示させる。
従って、簡易な操作により候補を表示させることができる。
Further, the display control unit 153 displays candidates when the position of the finger detected by the detection unit overlaps with a preset position.
Therefore, candidates can be displayed by a simple operation.

また、表示制御部153は、検出部により検出された指示体の形状が、予め設定された条件に該当する形状である場合に、候補を表示させる。
従って、簡易な操作により候補を表示させることができる。
In addition, the display control unit 153 displays candidates when the shape of the indicator detected by the detection unit is a shape corresponding to a preset condition.
Therefore, candidates can be displayed by a simple operation.

また、表示制御部153は、検出エリアを示す画像として、使用者の左手を含む検出エリアを示す画像である左検出範囲画像321と右検出範囲画像322とを表示させる。
従って、検出部により検出される手指が左手であるのか、右手であるのかを判定する必要がなくなり、使用者の意図する候補が表示される確率を高めることができる。
In addition, the display control unit 153 displays a left detection range image 321 and a right detection range image 322, which are images indicating a detection area including the left hand of the user, as images indicating the detection area.
Accordingly, it is not necessary to determine whether the finger detected by the detection unit is the left hand or the right hand, and the probability that the candidate intended by the user is displayed can be increased.

また、検出部は、使用者の左手と、右手とを指示体として検出する。表示制御部153は、検出部が検出する左手の操作の対象とされる操作項目が表示された左表示領域361と、右手の操作の対象とされる操作項目が表示された右表示領域362とを表示領域に表示させる。
従って、左手により左表示領域361に表示された操作項目に対する操作を行うことができ、右手により右表示領域362に表示された操作項目に対する操作を行うことができる。
The detection unit detects the left hand and the right hand of the user as indicators. The display control unit 153 includes a left display area 361 in which operation items to be operated by the left hand detected by the detection unit are displayed, and a right display area 362 in which operation items to be operated by the right hand are displayed. Is displayed in the display area.
Therefore, an operation on the operation item displayed in the left display area 361 can be performed with the left hand, and an operation on the operation item displayed in the right display area 362 can be performed with the right hand.

また、HMD100は、検出部としてのカメラ61が検出する手指の動き、形状及び位置の少なくともいずれかに対応して外部機器に制御情報を送信する。
従って、手指の動き、形状及び位置の少なくともいずれかにより外部機器を操作することができる。
In addition, the HMD 100 transmits control information to the external device corresponding to at least one of the movement, shape, and position of the finger detected by the camera 61 as the detection unit.
Accordingly, the external device can be operated by at least one of the movement, shape, and position of the fingers.

また、HMD100は、検出部が検出する手指の動き、形状及び位置の少なくともいずれかに対応して外部機器に制御情報を出力する通信部117を備える。表示制御部153は、検出部が検出する左手の操作に対応する第1操作情報と、検出部が検出する右手の操作に対応する第2操作情報との少なくとも一方を含む制御情報を通信部117により外部装置に送信する。
従って、左手の操作と、右手の操作とにより外部機器を操作することができる。
The HMD 100 also includes a communication unit 117 that outputs control information to an external device in response to at least one of finger movement, shape, and position detected by the detection unit. The display control unit 153 includes control information including at least one of first operation information corresponding to the left hand operation detected by the detection unit and second operation information corresponding to the right hand operation detected by the detection unit. To the external device.
Therefore, the external device can be operated by the left hand operation and the right hand operation.

また、HMD100は、音声を入力する音声入力部としてマイク63を備える。検出制御部151は、マイク63が予め設定された音声を入力した場合に、手指を検出する。
従って、音声入力によりHMD100に手指の検出を開始させることができる。
The HMD 100 also includes a microphone 63 as a voice input unit that inputs voice. The detection control unit 151 detects a finger when the microphone 63 inputs a preset voice.
Therefore, it is possible to cause the HMD 100 to start detecting fingers by voice input.

また、HMD100は、操作を検出する検出制御部151を備える。
検出制御部151は、予め設定された操作が検出された場合に、手指を検出する状態に移行する。
従って、予め設定された操作を行うことで、手指を検出する状態に移行させることができる。
The HMD 100 includes a detection control unit 151 that detects an operation.
The detection control unit 151 shifts to a state of detecting a finger when a preset operation is detected.
Therefore, it is possible to shift to a state of detecting a finger by performing a preset operation.

また、記憶部122は、使用者の手指の予め設定された動きの軌跡を示すジェスチャーと、候補とを対応付けたジェスチャー登録辞書1251を記憶する。また、記憶部122は、手指の予め設定された形状を示すハンドサインと、候補とを対応付けたハンドサイン登録辞書1252を記憶する。
表示制御部153は、検出部が検出する手指の動き又は形状と、ジェスチャー登録辞書1251又はハンドサイン登録辞書1252とのマッチングによりジェスチャー又はハンドサインを選択する。表示制御部153は、選択したジェスチャー又はハンドサインに対応する候補を表示領域310に表示させる。
従って、使用者の手指の動き又は形状に基づいてジェスチャー又ハンドサインを特定し、特定したジェスチャー又はハンドサインに対応する候補を表示させることができる。
In addition, the storage unit 122 stores a gesture registration dictionary 1251 in which a gesture indicating a preset movement trajectory of a user's finger is associated with a candidate. The storage unit 122 also stores a hand sign registration dictionary 1252 in which hand signs indicating preset shapes of fingers are associated with candidates.
The display control unit 153 selects a gesture or a hand sign by matching the finger movement or shape detected by the detection unit with the gesture registration dictionary 1251 or the hand sign registration dictionary 1252. The display control unit 153 displays candidates corresponding to the selected gesture or hand sign in the display area 310.
Therefore, it is possible to specify a gesture or hand sign based on the movement or shape of the user's finger and display candidates corresponding to the specified gesture or hand sign.

[第2実施形態]
図16は、第2実施形態におけるHMD100の使用状況を示す図である。
図16は、HMD100を装着した複数の使用者間でテキストデータによる会話を行う場面を示している。特に図16は、使用者Aと使用者Bとの2人により会話を行う場面を示している。また、以下では、使用者Aの装着するHMD100を「HMD100A」と表記し、使用者Bの装着するHMD100を「HMD100B」と表記する。また、「HMD100A」を構成する機能部(図4参照)には「A」の符号を付し、「HMD100B」を構成する機能部(図4参照)には「B」の符号を付して説明する。
[Second Embodiment]
FIG. 16 is a diagram illustrating a usage state of the HMD 100 according to the second embodiment.
FIG. 16 shows a scene in which a conversation using text data is performed between a plurality of users wearing the HMD 100. In particular, FIG. 16 shows a scene where a user A and a user B have a conversation. Hereinafter, the HMD 100 worn by the user A is denoted as “HMD100A”, and the HMD100 worn by the user B is denoted as “HMD100B”. In addition, a function part (see FIG. 4) constituting “HMD100A” is denoted by “A”, and a function part (see FIG. 4) constituting “HMD100B” is denoted by “B”. explain.

使用者Aと使用者Bとは互いに向き合った状態で会話を行う。
使用者Aと使用者Bとが互いに向き合った状態では、HMD100Aのカメラ61Aには、使用者Aが行うジェスチャーやハンドサインの他に、使用者Bが行うジェスチャーやハンドサインも撮像される。同様に、HMD100Bのカメラ61Bには、使用者Bが行うジェスチャーやハンドサインの他に、使用者Aが行うジェスチャーやハンドサインも撮像される。
カメラ61Aに撮像された使用者Aのハンドサインやジェスチャーの方向を正面と仮定する。使用者Aと使用者Bは向かい合っているため、撮像画像データには、使用者Bのハンドサインやジェスチャーを、正面とは異なる方向(反対方向)である裏面側から撮像した画像が撮像される。
User A and user B have a conversation while facing each other.
In a state where the user A and the user B face each other, the camera 61A of the HMD 100A captures not only gestures and hand signs performed by the user A but also gestures and hand signs performed by the user B. Similarly, in addition to the gestures and hand signs performed by the user B, the gestures and hand signs performed by the user A are also captured by the camera 61B of the HMD 100B.
It is assumed that the direction of the hand sign and gesture of the user A imaged by the camera 61A is the front. Since the user A and the user B face each other, the captured image data includes an image obtained by capturing the hand sign and gesture of the user B from the back side, which is a direction different from the front (opposite direction). .

HMD100Aの制御部150Aは、カメラ61Aの撮像画像データから、使用者Aのハンドサインやジェスチャーと、使用者Bのハンドサインやジェスチャーとをそれぞれに検出する。また、HMD100Bの制御部150Bは、カメラ61Bの撮像画像データから、使用者Aのハンドサインやジェスチャーと、使用者Bのハンドサインやジェスチャーとをそれぞれに検出する。   The control unit 150A of the HMD 100A detects the hand sign and gesture of the user A and the hand sign and gesture of the user B from the captured image data of the camera 61A. Further, the control unit 150B of the HMD 100B detects the hand sign and gesture of the user A and the hand sign and gesture of the user B from the captured image data of the camera 61B.

使用者Aと使用者Bは、使用者Aの手指と使用者Bの手指とがカメラ61A及び61Bに重なって撮像されないようにハンドサインやジェスチャーを行う。例えば、使用者Aと使用者Bとが同時にハンドサインやジェスチャーを行わないようにしてもよい。また、使用者Aは、使用者Aから見て左側でハンドサインやジェスチャーを行い、使用者Bは、使用者Bから見て左側でハンドサインやジェスチャーを行うように取り決めしてもよい。   The user A and the user B perform hand signs and gestures so that the fingers of the user A and the fingers of the user B do not overlap the cameras 61A and 61B. For example, the user A and the user B may not perform hand signs and gestures at the same time. Alternatively, the user A may make a hand sign or gesture on the left side when viewed from the user A, and the user B may make a hand sign or gesture on the left side when viewed from the user B.

図17は、表示領域310に表示された第1検出範囲画像326及び第2検出範囲画像327を示す図である。
また、使用者Aは、カメラ61Aの画角内に使用者Bが収まるように頭部の向きを調整し、操作部110を操作してカメラ61Aに使用者Bを撮像させる。このとき、使用者Aは、使用者Bが撮像画像データの中心から外れ、撮像画像データの右側又は左側で撮像されるように頭部の向きを調整する。
HMD100Aの制御部150Aは、カメラ61Aの撮像画像データから人物が撮像された人物領域を特定し、特定した人物領域を含む範囲を、会話相手である使用者Bが行うハンドサインやジェスチャーの検出範囲に設定する。制御部150Aは、設定した検出範囲を示す画像(以下、第1検出範囲画像326という)を表示領域310に表示させる。また、制御部150Aは、第1検出範囲画像326以外の領域に、使用者Aのハンドサインやジェスチャーを検出する検出範囲を設定する。制御部150Aは、設定した検出範囲を示す画像(以下、第12出範囲画像という)327を表示領域310に表示させる。第1検出範囲画像326は、本発明の第1検出エリアに相当し、第2検出範囲画像327は、本発明の第2検出エリアに相当する。
FIG. 17 is a diagram showing the first detection range image 326 and the second detection range image 327 displayed in the display area 310.
Further, the user A adjusts the direction of the head so that the user B is within the angle of view of the camera 61A, and operates the operation unit 110 to cause the camera 61A to image the user B. At this time, the user A adjusts the orientation of the head so that the user B departs from the center of the captured image data and is captured on the right side or the left side of the captured image data.
The control unit 150A of the HMD 100A specifies a person area where a person is imaged from the imaged image data of the camera 61A, and a range including the specified person area is a detection range of hand signs and gestures performed by the user B who is a conversation partner. Set to. The controller 150A causes the display area 310 to display an image indicating the set detection range (hereinafter referred to as a first detection range image 326). In addition, the control unit 150A sets a detection range for detecting the hand sign or gesture of the user A in an area other than the first detection range image 326. The controller 150A causes the display area 310 to display an image (hereinafter, referred to as a twelfth outgoing range image) 327 indicating the set detection range. The first detection range image 326 corresponds to the first detection area of the present invention, and the second detection range image 327 corresponds to the second detection area of the present invention.

図18は、第2実施形態の制御部150及び記憶部122の構成を示す図である。
HMD100Aの記憶部122Aは、パターン登録辞書125Aとして、ジェスチャー登録辞書1251A及びハンドサイン登録辞書1252Aの他に、外部ジェスチャー登録辞書1253A及び外部ハンドサイン登録辞書1254Aを記憶する。外部ジェスチャー登録辞書1253A及び外部ハンドサイン登録辞書1254Aは、本発明の「外部辞書情報」に相当する。
外部ジェスチャー登録辞書1253Aは、向かい合った使用者(使用者B)が行うジェスチャーを特定する情報と、このジェスチャーに対応付けられた候補文字335とを対応付けて登録した辞書である。外部ハンドサイン登録辞書1254Aは、使用者(使用者B)が行うハンドサインを特定する情報と、このハンドサインに対応付けられた候補文字335とを対応付けて登録した辞書である。すなわち、ジェスチャー登録辞書1251A及びハンドサイン登録辞書1252Aは、正面側から撮像されたハンドサインやジェスチャーを特定するための辞書である。また、外部ジェスチャー登録辞書1253A及び外部ハンドサイン登録辞書1254Aは、正面とは反対方向である裏面側から撮像されたハンドサインやジェスチャーを特定するための辞書である。
FIG. 18 is a diagram illustrating configurations of the control unit 150 and the storage unit 122 according to the second embodiment.
The storage unit 122A of the HMD 100A stores an external gesture registration dictionary 1253A and an external hand sign registration dictionary 1254A in addition to the gesture registration dictionary 1251A and the hand sign registration dictionary 1252A as the pattern registration dictionary 125A. The external gesture registration dictionary 1253A and the external hand sign registration dictionary 1254A correspond to “external dictionary information” of the present invention.
The external gesture registration dictionary 1253A is a dictionary in which information for specifying a gesture performed by a facing user (user B) and a candidate character 335 associated with the gesture are registered in association with each other. The external handsign registration dictionary 1254A is a dictionary in which information for specifying a handsign performed by the user (user B) and candidate characters 335 associated with the handsign are registered in association with each other. That is, the gesture registration dictionary 1251A and the hand sign registration dictionary 1252A are dictionaries for specifying hand signs and gestures captured from the front side. The external gesture registration dictionary 1253A and the external hand sign registration dictionary 1254A are dictionaries for specifying hand signs and gestures imaged from the back side that is the direction opposite to the front.

制御部150Aは、使用者Bが行ったジェスチャーやハンドサインをカメラ61Aにより撮像する。制御部150Aは、カメラ61Aの撮像画像データから使用者Bの手指が撮像された手指領域を検出して、検出した手指領域に撮像された手指の形状や位置を特定する。制御部150Aは、特定した使用者Bの手指の形状や位置に基づき外部ジェスチャー登録辞書1253A及び外部ハンドサイン登録辞書1254Aを参照して、使用者Bが行ったハンドサインやジェスチャーを特定する。   150 A of control parts image the gesture and hand sign which the user B performed with the camera 61A. 150 A of control parts detect the finger area | region where the finger of the user B was imaged from the captured image data of the camera 61A, and specify the shape and position of the finger imaged by the detected finger area | region. The controller 150A identifies the hand sign or gesture performed by the user B with reference to the external gesture registration dictionary 1253A and the external hand sign registration dictionary 1254A based on the shape and position of the finger of the user B that has been identified.

HMD100Bの記憶部122Bも、パターン登録辞書125Bとして、ジェスチャー登録辞書1251B及びハンドサイン登録辞書1252Bの他に、外部ジェスチャー登録辞書1253B及び外部ハンドサイン登録辞書1254Bを記憶する。
外部ジェスチャー登録辞書1253Bは、使用者Bと向かい合った使用者Aが行うジェスチャーを特定する情報と、このジェスチャーに対応付けられた候補文字335とを対応付けて登録した辞書である。また、外部ハンドサイン登録辞書1254Bは、使用者Bと向かい合った使用者Aが行うハンドサインを特定する情報と、このハンドサインに対応付けられた候補文字335とを対応付けて登録した辞書である。
The storage unit 122B of the HMD 100B also stores an external gesture registration dictionary 1253B and an external hand sign registration dictionary 1254B in addition to the gesture registration dictionary 1251B and the hand sign registration dictionary 1252B as the pattern registration dictionary 125B.
The external gesture registration dictionary 1253B is a dictionary in which information specifying a gesture performed by the user A facing the user B and a candidate character 335 associated with the gesture are registered in association with each other. The external hand sign registration dictionary 1254B is a dictionary in which information for specifying a hand sign performed by the user A facing the user B and a candidate character 335 associated with the hand sign are registered in association with each other. .

また、使用者同士が会話を開始する前に、HMD100同士で通信を行い、外部ジェスチャー登録辞書1253及び外部ハンドサイン登録辞書1254が、通信相手のHMD100の記憶部122に記憶されているか否かを確認する処理を行ってもよい。
例えば、HMD100Aは、外部ジェスチャー登録辞書1253A及び外部ハンドサイン登録辞書1254Aを記憶しており、HMD100Bは外部ジェスチャー登録辞書1253B及び外部ハンドサイン登録辞書1254Bを記憶していないと仮定する。この場合、HMD100Aは、会話を開始する前に、HMD100Bと通信を行って、外部ジェスチャー登録辞書1253A及び外部ハンドサイン登録辞書1254AをHMD100Bに送信する。HMD100Bは、HMD100Aから受信した外部ジェスチャー登録辞書1253A及び外部ハンドサイン登録辞書1254Aを記憶部122Bに記憶させる。また、HMD100Bは、HMD100Aから受信した辞書を用いて使用者Aのジェスチャーやハンドサインを判定する。
Also, before the users start a conversation, the HMDs 100 communicate with each other, and whether or not the external gesture registration dictionary 1253 and the external hand sign registration dictionary 1254 are stored in the storage unit 122 of the communication partner HMD 100 is determined. You may perform the process to confirm.
For example, it is assumed that the HMD 100A stores an external gesture registration dictionary 1253A and an external hand sign registration dictionary 1254A, and the HMD 100B does not store the external gesture registration dictionary 1253B and the external hand sign registration dictionary 1254B. In this case, before starting the conversation, the HMD 100A communicates with the HMD 100B and transmits the external gesture registration dictionary 1253A and the external hand sign registration dictionary 1254A to the HMD 100B. The HMD 100B stores the external gesture registration dictionary 1253A and the external hand sign registration dictionary 1254A received from the HMD 100A in the storage unit 122B. Further, the HMD 100B determines the gesture and hand sign of the user A using the dictionary received from the HMD 100A.

以上説明したように、第2実施形態のHMD100Aは、外部ジェスチャー登録辞書1253A及び外部ハンドサイン登録辞書1254Aを記憶した記憶部122Aを備える。
外部ジェスチャー登録辞書1253A及び外部ハンドサイン登録辞書1254Aは、異なる方向から検出される使用者Bの手指の動き、形状及び位置の少なくともいずれかであるジェスチャーやハンドサインを特定するための辞書である。
HMD100Aのカメラ61Aにより撮像される撮像画像データには、使用者Aの手指とは異なる方向から撮像された使用者Bの手指が撮像される。制御部150Aは、外部ジェスチャー登録辞書1253A及び外部ハンドサイン登録辞書1254Aに基づいて、使用者Aの手指とは異なる方向から撮像された使用者Bの手指によるハンドサインやジェスチャーを特定する。また、制御部150Aは、特定したハンドサインやジェスチャーに対応する候補文字335を表示領域310に表示させる。
従って、使用者Aと使用者Bとが同一の方向からハンドサインやジェスチャーを行う必要がなくなり、ハンドサインやジェスチャーを行う際の手間を軽減することができる。
As described above, the HMD 100A of the second embodiment includes the storage unit 122A that stores the external gesture registration dictionary 1253A and the external hand sign registration dictionary 1254A.
The external gesture registration dictionary 1253A and the external hand sign registration dictionary 1254A are dictionaries for specifying gestures and hand signs that are at least one of the movement, shape, and position of the finger of the user B detected from different directions.
In the captured image data captured by the camera 61A of the HMD 100A, the finger of the user B captured from a direction different from the direction of the finger of the user A is captured. Based on the external gesture registration dictionary 1253A and the external hand sign registration dictionary 1254A, the control unit 150A specifies a hand sign or gesture by the finger of the user B captured from a direction different from the finger of the user A. In addition, the control unit 150A causes the display area 310 to display candidate characters 335 corresponding to the identified hand sign or gesture.
Therefore, it is not necessary for the user A and the user B to perform hand signs and gestures from the same direction, and it is possible to reduce time and labor when performing hand signs and gestures.

また、HMD100Aは、外部の頭部装着型表示装置であるHMD100Bと通信する通信部117を備える。HMD100Aは、通信部117により外部ジェスチャー登録辞書1253A及び外部ハンドサイン登録辞書1254AをHMD100Bに送信する。従って、HMD100Bにおいて手指の動き、形状及び位置の少なくともいずれかを検出して、検出結果に対応する候補を表示させることができる。   Further, the HMD 100A includes a communication unit 117 that communicates with the HMD 100B that is an external head-mounted display device. The HMD 100A transmits the external gesture registration dictionary 1253A and the external hand sign registration dictionary 1254A to the HMD 100B through the communication unit 117. Therefore, the HMD 100B can detect at least one of the movement, shape, and position of a finger and display a candidate corresponding to the detection result.

また、カメラ61の撮像画像データに撮像された使用者Bを検出し、制御部150Aは、検出結果に基づいて、使用者Aの行うジェスチャーやハンドサインを検出する第1検出範囲画像326と、使用者Bの行うジェスチャーやハンドサインを検出する第2検出範囲画像327とを表示させる。従って、制御部150Aは、検出した手指が、使用者Aの手指であるのか、使用者Bの手指であるのかを判定する必要がない。このため、手指の認識処理にかかる時間を短縮し、手指によるハンドサインやジェスチャーを誤認識する確率を低減することができる。   In addition, the user B imaged in the imaged image data of the camera 61 is detected, and the control unit 150A, based on the detection result, a first detection range image 326 that detects a gesture and a hand sign performed by the user A; A second detection range image 327 for detecting a gesture or a hand sign performed by the user B is displayed. Therefore, the control unit 150A does not need to determine whether the detected finger is the finger of the user A or the finger of the user B. For this reason, the time required for the finger recognition process can be shortened, and the probability of erroneously recognizing a hand sign or gesture by a finger can be reduced.

また、第1検出範囲画像326において、撮像画像データに撮像されるハンドサインやジェスチャーに対応する候補をジェスチャー登録辞書1251A及びハンドサイン登録辞書1252Aを用いて特定する。また、第2検出範囲画像327において、撮像画像データに撮像されるハンドサインやジェスチャーに対応する候補を外部ジェスチャー登録辞書1253A及びハンドサイン登録辞書1254Aを用いて特定する。従って、ハンドサインやジェスチャーが撮像された撮像方向に対応した辞書を用いて、ハンドサインやジェスチャーを特定することができ、ハンドサインやジェスチャーを精度よく特定することができる。   In addition, in the first detection range image 326, candidates corresponding to hand signs and gestures captured in the captured image data are specified using the gesture registration dictionary 1251A and the hand sign registration dictionary 1252A. Further, in the second detection range image 327, candidates corresponding to hand signs and gestures captured in the captured image data are specified using the external gesture registration dictionary 1253A and the hand sign registration dictionary 1254A. Therefore, the hand sign and the gesture can be specified using the dictionary corresponding to the imaging direction in which the hand sign and the gesture are imaged, and the hand sign and the gesture can be specified with high accuracy.

[第3実施形態]
本実施形態も、上述した第2実施形態のように、HMD100を複数の使用者に装着させ、使用者間でテキストによる会話を行う場面を想定している。本実施形態は、使用者Aが行うハンドサインやジェスチャーをHMD100Aにより検出し、使用者Bが行うハンドサインやジェスチャーをHMD100Bにより検出する。
HMD100Aの制御部150Aは、カメラ61Aにより使用者Aの行うハンドサインやジェスチャーを撮像し、撮像された撮像画像データから入力されたハンドサインやジェスチャーに対応するテキストを特定する。同様に、HMD100Bの制御部150Bは、カメラ61Bにより使用者Aの行うハンドサインやジェスチャーを撮像し、撮像された撮像画像データから入力されたハンドサインやジェスチャーに対応するテキストを特定する。本実施形態では、使用者Aと使用者Bは互いに向かい合っている必要はない。
[Third Embodiment]
This embodiment also assumes a scene in which the HMD 100 is worn by a plurality of users and text conversation is performed between the users as in the second embodiment described above. In the present embodiment, the hand sign and gesture performed by the user A are detected by the HMD 100A, and the hand sign and gesture performed by the user B are detected by the HMD 100B.
The control unit 150A of the HMD 100A captures the hand sign and gesture performed by the user A with the camera 61A, and specifies text corresponding to the hand sign and gesture input from the captured image data. Similarly, the control unit 150B of the HMD 100B captures a hand sign or gesture made by the user A with the camera 61B, and specifies text corresponding to the hand sign or gesture input from the captured image data. In the present embodiment, the user A and the user B do not need to face each other.

また、使用者Aの装着するHMD100Aの通信部117Aと、使用者Bの装着するHMD100Bの通信部117Bとは、例えば、Bluetoothや、無線LAN等の無線通信により接続される。制御部150Aは、使用者Aが行ったハンドサインやジェスチャーを検出し、検出したハンドサインやジェスチャーに対応するテキストを特定すると、特定したテキストのデータ(テキストデータ)を通信部117AによりHMD100Bに送信する。HMD100Bは、HMD100Aからテキストデータを受信すると、受信したテキストデータを、表示領域310Bに表示させる。
同様に、制御部150Bは、使用者Bが行ったハンドサインやジェスチャーを検出し、検出したハンドサインやジェスチャーに対応するテキストを特定すると、特定したテキストのデータ(テキストデータ)を通信部117BによりHMD100Aに送信する。HMD100Aは、HMD100Bからテキストデータを受信すると、受信したテキストデータを、表示領域310Aに表示させる。
Further, the communication unit 117A of the HMD 100A worn by the user A and the communication unit 117B of the HMD 100B worn by the user B are connected by wireless communication such as Bluetooth or wireless LAN, for example. When the control unit 150A detects the hand sign or gesture made by the user A and specifies the text corresponding to the detected hand sign or gesture, the control unit 150A transmits the specified text data (text data) to the HMD 100B by the communication unit 117A. To do. When the HMD 100B receives the text data from the HMD 100A, the HMD 100B displays the received text data in the display area 310B.
Similarly, when the control unit 150B detects the hand sign or gesture made by the user B and specifies the text corresponding to the detected hand sign or gesture, the control unit 150B transmits the specified text data (text data) by the communication unit 117B. Send to HMD100A. When the HMD 100A receives the text data from the HMD 100B, the HMD 100A displays the received text data in the display area 310A.

図19は、HMD100Bの表示領域310Bに表示される表示画面360Bを示す図である。特に、図19は、使用者A及び使用者Bにより行われた会話の内容を時系列に並べて表示した表示画面360Bを示す図である。例えば、表示画面360Bの左側には、使用者Aの発話内容を示すテキストが時系列に上から下に並べて表示され、表示画面360Bの右側には、使用者Bの発話内容を示すテキストが時系列に上から下に並べて表示される。
なお、HMD100Aの表示領域310Aにも同様の表示画面360Aが表示される。
FIG. 19 is a diagram showing a display screen 360B displayed in the display area 310B of the HMD 100B. In particular, FIG. 19 is a diagram showing a display screen 360B that displays the contents of conversations performed by the user A and the user B in time series. For example, on the left side of the display screen 360B, text indicating the utterance content of the user A is displayed in time series from top to bottom, and on the right side of the display screen 360B, text indicating the utterance content of the user B is displayed. Displayed in series from top to bottom.
A similar display screen 360A is also displayed in the display area 310A of the HMD 100A.

使用者が入力する情報には、他の使用者に公開してもよい情報と、メモ等の他の使用者には公開したくない情報とが含まれる。
制御部150Aは、使用者Aの体(胴体)と手との距離に基づいて、入力されたテキストを、他の使用者の公開する情報とするか、非公開の情報とするかを判定する。
例えば、制御部150Aは、カメラ61Aの撮像画像データに撮像された手や指の大きさと、予め設定されたしきい値とを比較して、入力された文字を公開するか非公開とするかを判定する。制御部150Aは、撮像された手や指の大きさが予め設定されたしきい値以下である場合、使用者Aの体(胴体)から離れた位置でハンドサインやジェスチャーが行われたと判定する。この場合、制御部150Aは、入力されたテキストのテキストデータを会話相手のHMD100Bに送信する。HMD100Bの制御部150Bは、HMD100Aから受信したテキストデータを画像表示部20Bにより表示領域310Bに表示させる。
Information input by the user includes information that may be disclosed to other users and information that is not desired to be disclosed to other users such as a memo.
Based on the distance between the body (torso) of the user A and the hand, the control unit 150A determines whether the input text is information that is made public to other users or private information. .
For example, the control unit 150A compares the size of the hand or finger captured in the captured image data of the camera 61A with a preset threshold value, and determines whether the input character is disclosed or not disclosed Determine. When the size of the imaged hand or finger is equal to or less than a preset threshold value, control unit 150A determines that a hand sign or gesture has been performed at a position away from user A's body (torso). . In this case, the control unit 150A transmits the text data of the input text to the conversation partner HMD 100B. The control unit 150B of the HMD 100B displays the text data received from the HMD 100A on the display area 310B by the image display unit 20B.

また、制御部150Aは、撮像された手や指の大きさが予め設定されたしきい値よりも大きい場合、使用者Aの体(胴体)に近い位置でハンドサインやジェスチャーが行われたと判定する。この場合、制御部150Aは、入力されたテキストのテキストデータを会話相手のHMD100Bには送信せず、使用者Aだけが視認できるように表示領域310Aに表示させる。   Further, the control unit 150A determines that a hand sign or gesture has been performed at a position close to the body (torso) of the user A when the size of the captured hand or finger is larger than a preset threshold value. To do. In this case, the control unit 150A does not transmit the text data of the input text to the conversation partner HMD 100B, but displays it in the display area 310A so that only the user A can visually recognize it.

カメラ61の撮像画像データに撮像された手や指の大きさとの比較に使用するしきい値は、事前に行うキャリブレーションにより設定してもよい。例えば、制御部150Aは、「公開するテキストを入力する場合のハンドサインやジェスチャーを行って下さい」といったメッセージを画像表示部20Aにより表示領域310Aに表示させる。その後、制御部150Aは、カメラ61Aにより撮像を行い、撮像された撮像画像データから手指領域を検出して、予め設定された手や指(例えば、親指)のサイズを検出する。また、制御部150Aは、「公開しないテキストを入力する場合のハンドサインやジェスチャーを行って下さい」といったメッセージを画像表示部20Aにより表示領域310Aに表示させる。その後、制御部150Aは、カメラ61Aにより撮像を行い、撮像された撮像画像データから手指領域を検出して、予め設定された手や指(例えば、親指)のサイズを検出する。制御部150Aは、テキストを公開する場合に、カメラ61により撮像される手や指のサイズと、テキストを公開しない場合に、カメラ61により撮像される手や指のサイズとに基づき、しきい値を最適な値に設定する。   The threshold value used for comparison with the size of the hand or finger captured in the captured image data of the camera 61 may be set by calibration performed in advance. For example, the control unit 150A causes the image display unit 20A to display a message such as “Please do hand sign or gesture when inputting text to be disclosed” on the display area 310A. Thereafter, the controller 150A captures an image with the camera 61A, detects a finger region from the captured image data, and detects a preset size of a hand or a finger (for example, a thumb). In addition, the control unit 150A causes the image display unit 20A to display a message such as “please perform a hand sign or gesture when inputting non-public text” on the display area 310A. Thereafter, the controller 150A captures an image with the camera 61A, detects a finger region from the captured image data, and detects a preset size of a hand or a finger (for example, a thumb). Based on the size of the hand or finger captured by the camera 61 when the text is disclosed and the size of the hand or finger captured by the camera 61 when the text is not disclosed, the control unit 150A Is set to the optimum value.

上述した実施形態は本発明の好適な実施の形態である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形実施が可能である。
例えば、上述した実施形態は、カメラ61の撮像画像データを用いて使用者の手指を検出したが、使用者の手指の検出方法はこの方法に限定されるものではない。例えば、HMD100に赤外線を撮像するカメラを搭載し、使用者の手に付けたデバイスから出力される赤外線をこのカメラにより撮像して、使用者の手指の動きや、形状、位置等を検出してもよい。
また、使用者の指にセンサーを付けて、このセンサーにより使用者の手指の動きや、形状、位置等を検出し、センサーにより検出される手指の動きや、形状、位置等を近距離無線通信によりHMD100に送信してもよい。
また、ジャイロセンサーや加速度センサー等の慣性センサーを使用者の手指に装着し、慣性センサーにより動きとして計測される情報から逆算して、手指の動きや形状、位置等を求めてもよい。
The above-described embodiment is a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.
For example, in the above-described embodiment, the user's finger is detected using the captured image data of the camera 61, but the method for detecting the user's finger is not limited to this method. For example, a camera that captures infrared rays is mounted on the HMD 100, and infrared rays output from a device attached to the user's hand are captured by this camera to detect the movement, shape, position, etc. of the user's fingers. Also good.
In addition, a sensor is attached to the user's finger and the movement, shape, position, etc. of the user's finger are detected by this sensor, and the movement, shape, position, etc. of the finger detected by the sensor are short-range wirelessly communicated. May be transmitted to the HMD 100.
In addition, an inertial sensor such as a gyro sensor or an acceleration sensor may be attached to the user's finger, and the motion, shape, position, etc. of the finger may be obtained by calculating backward from information measured as movement by the inertial sensor.

また、上述した実施形態では、カメラ61の撮像画像データに写った使用者の手や指を検出したが、使用者の腕を含む手指を検出してもよい。例えば、使用者は、手旗信号によってHMD100に入力する文字や記号を表現する。HMD100の制御部150は、カメラ61の撮像画像データから腕を含む手指が写った領域を検出し、検出した領域に写った腕の位置を特定する。また、制御部150は、連続して撮像される撮像画像データから腕を含む手指が写った領域を検出して、この領域に写った腕の位置を特定することで、腕の動きを検出して、対応する手旗信号を特定し、候補文字335を候補表示領域330に表示させる。   In the above-described embodiment, the user's hand or finger shown in the captured image data of the camera 61 is detected. However, a finger including the user's arm may be detected. For example, the user expresses characters and symbols to be input to the HMD 100 by a hand flag signal. The control unit 150 of the HMD 100 detects a region where a finger including the arm is captured from the captured image data of the camera 61 and specifies the position of the arm captured in the detected region. Further, the control unit 150 detects the movement of the arm by detecting the region where the finger including the arm is captured from the captured image data continuously captured, and specifying the position of the arm captured in this region. Thus, the corresponding hand flag signal is specified, and the candidate character 335 is displayed in the candidate display area 330.

また、上述した説明では、ボタン11や、上下キー15、トラックパッド14の操作や、予め設定された頭部の動き、予め設定された音声の入力をトリガーとして、HMD100がジェスチャーやハンドサインの検出を開始する場合について説明した。これら以外のトリガーとして、HMD100が使用者の頭部に装着された場合に、HMD100がジェスチャーやハンドサインの検出を開始するようにしてもよい。
例えば、HMD100の画像表示部20に装着検出部(図示略)を設ける。装着検出部は、例えば、画像表示部20に設けられた6軸センサー235や磁気センサー237の検出値に基づいて、HMD100が使用者の頭部に装着されたことを検出してもよい。また、HMD100の画像表示部20にハードスイッチを設け、HMD100が使用者の頭部に装着され、ハードスイッチの状態が切り替わったことを装着検出部が検出して、HMD100が使用者の頭部に装着されたことを検出してもよい。
In the above description, the HMD 100 detects a gesture or a hand sign by using the operation of the button 11, the up / down key 15, the track pad 14, a preset head movement, or a preset voice input as a trigger. Explained the case of starting. As another trigger, when the HMD 100 is mounted on the user's head, the HMD 100 may start detecting a gesture or a hand sign.
For example, a mounting detection unit (not shown) is provided in the image display unit 20 of the HMD 100. For example, the mounting detection unit may detect that the HMD 100 is mounted on the user's head based on detection values of the 6-axis sensor 235 and the magnetic sensor 237 provided in the image display unit 20. In addition, a hard switch is provided in the image display unit 20 of the HMD 100, the mounting detection unit detects that the HMD 100 is mounted on the user's head and the state of the hard switch is switched, and the HMD 100 is mounted on the user's head. You may detect having mounted | worn.

また、上述した実施形態では、カメラ61の撮像画像データから手指領域を検出して候補表示領域330の領域を特定した。これ以外の動作として、制御部150は、手指領域を検出して、対応する候補表示領域330の領域を特定した後に、特定した領域に表示させた候補文字335を点滅させる。そして、制御部150は、使用者の頭部の動き、例えば、うなずき動作を検出した場合に、この候補文字335が選択されたと判定してもよい。また、使用者が首を左右に振る動きが検出された場合には、再度、カメラ61の撮像画像データを取得して手指領域を検出するとよい。   In the above-described embodiment, the finger display area is detected from the captured image data of the camera 61 and the candidate display area 330 is specified. As an operation other than this, the control unit 150 detects a finger region, specifies the corresponding candidate display region 330, and then blinks the candidate character 335 displayed in the specified region. And the control part 150 may determine with this candidate character 335 having been selected, when a motion of a user's head, for example, a nodding action, is detected. In addition, when a movement of the user swinging his / her head to the left or right is detected, it is preferable to acquire the captured image data of the camera 61 and detect the finger region again.

また、上述した実施形態では、制御装置10が画像表示部20と有線接続される構成を例示したが、本発明はこれに限定されず、制御装置10に対して画像表示部20が無線接続される構成であってもよい。この場合の無線通信方式は通信部117が対応する通信方式として例示した方式を採用してもよいし、その他の通信方式であってもよい。   In the above-described embodiment, the configuration in which the control device 10 is connected to the image display unit 20 by wire is illustrated. However, the present invention is not limited to this, and the image display unit 20 is wirelessly connected to the control device 10. It may be a configuration. In this case, the wireless communication method may be the method exemplified as the communication method supported by the communication unit 117, or may be another communication method.

また、制御装置10が備える一部の機能を画像表示部20に設けてもよく、制御装置10を複数の装置により実現してもよい。すなわち、制御装置10は、箱形のケース10Aを備える構成に限定されない。例えば、制御装置10に代えて、使用者の身体、着衣又は、使用者が身につける装身具に取り付け可能なウェアラブルデバイスを用いてもよい。この場合のウェアラブルデバイスは、例えば、時計型の装置、指輪型の装置、レーザーポインター、マウス、エアーマウス、ゲームコントローラー、ペン型のデバイス等であってもよい。   In addition, some functions of the control device 10 may be provided in the image display unit 20, and the control device 10 may be realized by a plurality of devices. That is, the control device 10 is not limited to the configuration including the box-shaped case 10A. For example, instead of the control device 10, a wearable device that can be attached to a user's body, clothes, or an accessory worn by the user may be used. The wearable device in this case may be, for example, a watch-type device, a ring-type device, a laser pointer, a mouse, an air mouse, a game controller, a pen-type device, or the like.

さらに、上記の実施形態では、画像表示部20と制御装置10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明した。本発明はこれに限定されず、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。   Furthermore, in the above embodiment, the configuration in which the image display unit 20 and the control device 10 are separated and connected via the connection cable 40 has been described as an example. The present invention is not limited to this, and the control device 10 and the image display unit 20 may be configured integrally and mounted on the user's head.

また、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。   As the control device 10, a notebook computer, a tablet computer, or a desktop computer may be used. The control device 10 may be a game machine, a portable phone, a portable electronic device including a smartphone or a portable media player, other dedicated devices, or the like.

また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼LEに対応して画像を表示する表示部と、使用者の右眼REに対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び当該部分に対し位置決めされる部分を装着部とすることができる。   Further, for example, instead of the image display unit 20, an image display unit of another method such as an image display unit worn like a hat may be adopted, and an image corresponding to the left eye LE of the user is displayed. What is necessary is just to provide the display part which displays, and the display part which displays an image corresponding to a user's right eye RE. The display device of the present invention may be configured as a head mounted display mounted on a vehicle such as an automobile or an airplane. Further, for example, it may be configured as a head-mounted display built in a body protective device such as a helmet. In this case, the part for positioning the position with respect to the user's body and the part positioned with respect to the part can be used as the mounting portion.

また、画像光を使用者の眼に導く光学系として、右導光板26及び左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。本発明はこれに限定されず、右導光板26及び左導光板28の全面又は大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
さらに、本発明の光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
In addition, as an optical system that guides image light to the user's eyes, a configuration in which virtual images are formed by the half mirrors 261 and 281 on a part of the right light guide plate 26 and the left light guide plate 28 is illustrated. The present invention is not limited to this, and an image may be displayed on a display region having an area that occupies the entire or most of the right light guide plate 26 and the left light guide plate 28. In this case, a process of reducing the image may be included in the operation of changing the display position of the image.
Furthermore, the optical element of the present invention is not limited to the right light guide plate 26 and the left light guide plate 28 having the half mirrors 261 and 281, and may be any optical component that allows image light to enter the user's eyes. A diffraction grating, a prism, or a holographic display unit may be used.

また、図4、図5等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部150が実行するプログラムは、不揮発性記憶部121又は制御装置10内の他の記憶装置(図示略)に記憶されてもよい。また、外部の装置に記憶されたプログラムを通信部117や外部コネクター184を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部110が使用者インターフェイス(UI)として形成されてもよい。   In addition, at least a part of the functional blocks shown in FIGS. 4 and 5 may be realized by hardware, or may be realized by cooperation of hardware and software. As described above, the present invention is not limited to a configuration in which independent hardware resources are arranged. Further, the program executed by the control unit 150 may be stored in the nonvolatile storage unit 121 or another storage device (not shown) in the control device 10. A program stored in an external device may be acquired and executed via the communication unit 117 or the external connector 184. Moreover, the operation part 110 may be formed as a user interface (UI) among the structures formed in the control apparatus 10.

また、図6及び図10に示すフローチャートの処理単位は、HMD100の制御部150の処理を理解容易にするために、主な処理内容に応じて分割したものであり、処理単位の分割の仕方や名称によって本発明が制限されることはない。また、制御部150の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。   The processing units of the flowcharts shown in FIGS. 6 and 10 are divided according to main processing contents in order to make the processing of the control unit 150 of the HMD 100 easy to understand. The present invention is not limited by the name. Further, the processing of the control unit 150 can be divided into more processing units according to the processing content, or can be divided so that one processing unit includes more processing. Further, the processing order of the above flowchart is not limited to the illustrated example.

また、制御部150Aは、表示領域310に検出範囲画像320を表示させる場合に、表示画像が邪魔をして、使用者が行うジェスチャーやハンドサインが見にくくならないように、表示画像の透過率や表示位置を調整するとよい。表示画像には、例えば、検出範囲画像320や、左表示領域361及び右表示領域362に表示される設定項目、リング画像325、候補表示領域330、ソフトウェアキーボード351、テキスト入力欄352等が含まれる。   In addition, when displaying the detection range image 320 in the display area 310, the control unit 150A prevents the display image from interfering with the display image transmissivity and display so that the gestures and hand signs performed by the user are not difficult to see. Adjust the position. The display image includes, for example, a detection range image 320, setting items displayed in the left display area 361 and the right display area 362, a ring image 325, a candidate display area 330, a software keyboard 351, a text input field 352, and the like. .

1…システム、10…制御装置、10A…ケース、11…ボタン、12、67…LEDインジケーター、14…トラックパッド、15…上下キー、16…切替スイッチ、17…LED表示部、18…電源スイッチ、19…バイブレーター、20…画像表示部(表示部)、21…右保持部、22…右表示ユニット、23…左保持部、24…左表示ユニット、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、46…コネクター、61…カメラ(検出部)、63…マイク(音声入力部)、65…照度センサー、100…HMD(表示装置)、110…操作部、111…6軸センサー、113…磁気センサー、115…GPS受信部、117…通信部(制御情報出力部)、118…メモリー、120…コントローラー基板、121…不揮発性記憶部、122…記憶部、123…設定データ、124…コンテンツデータ、125…パターン登録辞書、1251、1251A、1251B…ジェスチャー登録辞書、1252、1252A、1252B…ハンドサイン登録辞書、1253、1253A、1253B…外部ジェスチャー登録辞書、1254、1254A、1254B…外部ハンドサイン登録辞書、126…音声パター辞書、130…電源部、132…バッテリー、134…電源制御回路、140…メインプロセッサー、143…オペレーティングシステム、145…画像処理部、147…撮像制御部(検出部)、149…操作制御部、151…検出制御部(操作検出部)、153…表示制御部、180…音声コーデック、182…音声インターフェイス、184…外部コネクター、186…外部メモリーインターフェイス、188…USBコネクター、192…センサーハブ、194…FPGA、196…インターフェイス、200…ビーコン装置、211…インターフェイス、213…受信部、215…EEPROM、217…温度センサー、221…OLEDユニット、223…OLEDパネル、225…OLED駆動回路、231…インターフェイス、233…受信部、235…6軸センサー、237…磁気センサー、239…温度センサー、241…OLEDユニット、243…OLEDパネル、245…OLED駆動回路、251…右光学系、252…左光学系、261、281…ハーフミラー、300…視界、310…表示領域、320…検出範囲画像、321…左検出範囲画像、322…右検出範囲画像、325…リング画像、326…第1検出範囲画像(第1検出エリア)、327…第2検出範囲画像(第2検出エリア)、330…候補表示領域、331…左候補表示領域、332…右候補表示領域、335…候補文字、335A…左候補文字、335B…右候補文字、351…ソフトウェアキーボード、352…テキスト入力欄、361…左表示領域、362…右表示領域。   DESCRIPTION OF SYMBOLS 1 ... System, 10 ... Control apparatus, 10A ... Case, 11 ... Button, 12, 67 ... LED indicator, 14 ... Track pad, 15 ... Up / down key, 16 ... Changeover switch, 17 ... LED display part, 18 ... Power switch, DESCRIPTION OF SYMBOLS 19 ... Vibrator, 20 ... Image display part (display part), 21 ... Right holding part, 22 ... Right display unit, 23 ... Left holding part, 24 ... Left display unit, 26 ... Right light guide plate, 27 ... Front frame, 28 ... Left light guide plate, 30 ... Headset, 32 ... Right earphone, 34 ... Left earphone, 40 ... Connection cable, 46 ... Connector, 61 ... Camera (detection unit), 63 ... Microphone (voice input unit), 65 ... Illuminance Sensor: 100 ... HMD (display device), 110 ... operation unit, 111 ... 6-axis sensor, 113 ... magnetic sensor, 115 ... GPS receiver, 117 ... communication unit (control) Information output unit), 118 ... memory, 120 ... controller board, 121 ... nonvolatile storage unit, 122 ... storage unit, 123 ... setting data, 124 ... content data, 125 ... pattern registration dictionary, 1251, 1251A, 1251B ... gesture registration Dictionary, 1252, 1252A, 1252B ... Hand sign registration dictionary, 1253, 1253A, 1253B ... External gesture registration dictionary, 1254, 1254A, 1254B ... External hand sign registration dictionary, 126 ... Voice pattern dictionary, 130 ... Power supply unit, 132 ... Battery , 134 ... power supply control circuit, 140 ... main processor, 143 ... operating system, 145 ... image processing unit, 147 ... imaging control unit (detection unit), 149 ... operation control unit, 151 ... detection control unit (operation detection unit), 153 ... Display system 180, audio codec, 182 ... audio interface, 184 ... external connector, 186 ... external memory interface, 188 ... USB connector, 192 ... sensor hub, 194 ... FPGA, 196 ... interface, 200 ... beacon device, 211 ... interface, 213: Receiver, 215 ... EEPROM, 217 ... Temperature sensor, 221 ... OLED unit, 223 ... OLED panel, 225 ... OLED drive circuit, 231 ... Interface, 233 ... Receiver, 235 ... 6-axis sensor, 237 ... Magnetic sensor, 239 ... temperature sensor, 241 ... OLED unit, 243 ... OLED panel, 245 ... OLED drive circuit, 251 ... right optical system, 252 ... left optical system, 261,281 ... half mirror, 300 ... field of view, 310 Display area 320 Detection range image 321 Left detection range image 322 Right detection range image 325 Ring image 326 First detection range image (first detection area) 327 Second detection range image (Second detection area), 330 ... candidate display region, 331 ... left candidate display region, 332 ... right candidate display region, 335 ... candidate character, 335A ... left candidate character, 335B ... right candidate character, 351 ... software keyboard, 352 ... text input field, 361 ... left display area, 362 ... right display area.

Claims (24)

使用者の頭部に装着される頭部装着型表示装置であって、
外景を透過し、前記外景とともに視認できるように画像を表示領域に表示する表示部と、
少なくとも前記表示部を透過する範囲を含む領域において、前記使用者の動作に対応づけられた指示体を検出する検出部と、
前記検出部が前記指示体を検出する検出状態を示す画像を前記表示領域に表示させ、前記検出部が検出する前記指示体の動き、形状及び位置の少なくともいずれかに対応する入力内容の候補を表示させる表示制御部と、
を備える頭部装着型表示装置。
A head-mounted display device mounted on a user's head,
A display unit that displays an image in a display area so as to transmit the outside scene and be visible together with the outside scene;
A detection unit that detects an indicator associated with the user's action in an area including at least a range that passes through the display unit;
An image indicating a detection state in which the detection unit detects the indicator is displayed in the display area, and input content candidates corresponding to at least one of the movement, shape, and position of the indicator detected by the detection unit are displayed. A display control unit to display;
A head-mounted display device comprising:
前記表示制御部は、前記検出部の検出状態を示す画像を、前記外景において前記指示体が視認される位置に対応させて、前記表示領域に表示させる請求項1記載の頭部装着型表示装置。   The head-mounted display device according to claim 1, wherein the display control unit displays an image indicating a detection state of the detection unit in the display area in association with a position where the indicator is visually recognized in the outside scene. . 前記表示制御部は、前記検出部が検出する前記指示体の動き、形状及び位置の少なくともいずれかに対応する前記候補を、前記検出部の検出状態を示す画像に対応する位置に表示させる請求項2記載の頭部装着型表示装置。   The display control unit displays the candidate corresponding to at least one of the movement, shape, and position of the indicator detected by the detection unit at a position corresponding to an image indicating a detection state of the detection unit. 2. A head-mounted display device according to 2. 前記表示制御部は、前記検出部の検出状態を示す画像として、前記検出部が前記指示体を検出する検出エリアを示す画像を前記表示領域に表示させ、前記検出部が検出する前記指示体の動き、形状及び位置の少なくともいずれかに対応する前記候補を、前記表示領域において前記検出エリアを示す前記画像に対応する位置に表示させる請求項1記載の頭部装着型表示装置。   The display control unit displays, in the display area, an image indicating a detection area where the detection unit detects the indicator as an image indicating a detection state of the detection unit, and the detection unit detects the indicator. The head-mounted display device according to claim 1, wherein the candidate corresponding to at least one of movement, shape, and position is displayed at a position corresponding to the image indicating the detection area in the display area. 前記表示制御部は、前記候補を前記表示領域の候補表示エリアに表示させ、前記候補表示エリアを、前記検出エリアを示す前記画像に対応する位置、又は前記検出エリアにおいて検出された前記指示体に対応する位置に表示させる請求項4記載の頭部装着型表示装置。   The display control unit displays the candidate in a candidate display area of the display area, and displays the candidate display area on a position corresponding to the image indicating the detection area or the indicator detected in the detection area. The head-mounted display device according to claim 4, wherein the head-mounted display device is displayed at a corresponding position. 前記表示制御部は、前記検出部が前記候補表示エリアに対応する位置で前記指示体を検出した場合に、検出された前記指示体の動き、形状及び位置の少なくともいずれかに基づき、前記候補表示エリアに表示された複数の前記候補のいずれかを選択する請求項5記載の頭部装着型表示装置。   When the detection unit detects the indicator at a position corresponding to the candidate display area, the display control unit is configured to display the candidate display based on at least one of the detected movement, shape, and position of the indicator. The head-mounted display device according to claim 5, wherein one of the plurality of candidates displayed in an area is selected. 前記表示制御部は、前記検出部が前記表示領域に表示される前記候補の文字に対応する位置で前記指示体を検出した場合に、検出された前記指示体の動き、形状及び位置の少なくともいずれかに基づき、前記候補表示エリアに表示された複数の前記候補の文字のいずれかを選択する請求項1から6のいずれか1項に記載の頭部装着型表示装置。   When the detection unit detects the indicator at a position corresponding to the candidate character displayed in the display area, the display control unit detects at least one of the detected movement, shape, and position of the indicator. The head-mounted display device according to any one of claims 1 to 6, wherein any one of the plurality of candidate characters displayed in the candidate display area is selected based on the above. 前記表示制御部は、複数の前記候補を表示させ、前記検出部により検出された前記指示体の移動方向が前記候補を表示させたいずれかの方向に対応する場合に、対応する前記候補を選択する請求項1から7のいずれか1項記載の頭部装着型表示装置。   The display control unit displays a plurality of the candidates, and selects the corresponding candidate when the moving direction of the indicator detected by the detection unit corresponds to any direction in which the candidate is displayed. The head-mounted display device according to any one of claims 1 to 7. 前記表示制御部は、前記検出部により検出された前記指示体の形状が、予め設定された時間以上同一の形状である場合に、前記候補を表示させる請求項1から8のいずれか1項記載の頭部装着型表示装置。   9. The display control unit according to claim 1, wherein when the shape of the indicator detected by the detection unit is the same shape for a preset time or longer, the candidate is displayed. Head-mounted display device. 前記表示制御部は、前記検出部により検出された前記指示体の位置が、予め設定された位置に重なる場合に、前記候補を表示させる請求項1から9のいずれか1項記載の頭部装着型表示装置。   The head mounted according to any one of claims 1 to 9, wherein the display control unit displays the candidate when the position of the indicator detected by the detection unit overlaps a preset position. Type display device. 前記表示制御部は、前記検出部により検出された前記指示体が、予め設定された条件に該当する場合に、前記候補を表示させる請求項1から10のいずれか1項記載の頭部装着型表示装置。   The head-mounted type according to any one of claims 1 to 10, wherein the display control unit displays the candidate when the indicator detected by the detection unit satisfies a preset condition. Display device. 前記表示制御部は、前記検出エリアを示す画像として、前記使用者の左手を含む指示体を検出する検出エリアを示す画像と、前記使用者の右手を含む指示体を検出する検出エリアを示す画像とを表示させる請求項1から11のいずれか1項記載の頭部装着型表示装置。   The display control unit, as an image showing the detection area, an image showing a detection area for detecting a pointer including the left hand of the user and an image showing a detection area for detecting the pointer including the right hand of the user The head-mounted display device according to claim 1, wherein: 前記検出部は、前記使用者の左手を含む第1指示体、及び、前記使用者の右手を含む第2指示体を前記指示体として検出し、
前記表示制御部は、前記検出部が検出する前記第1指示体の操作の対象とされる第1操作画像と、前記第2指示体の操作の対象とされる第2操作画像とを前記表示領域に表示させる請求項1から12のいずれか1項記載の頭部装着型表示装置。
The detection unit detects a first indicator including the left hand of the user and a second indicator including the right hand of the user as the indicator,
The display control unit displays the first operation image to be operated by the first indicator detected by the detection unit and the second operation image to be operated by the second indicator. The head-mounted display device according to any one of claims 1 to 12, which is displayed in an area.
前記検出部が検出する前記指示体の動き、形状及び位置の少なくともいずれかに対応して外部の機器に制御情報を出力する制御情報出力部を備える請求項1から13のいずれか1項記載の頭部装着型表示装置。   14. The control information output unit according to claim 1, further comprising a control information output unit configured to output control information to an external device corresponding to at least one of the movement, shape, and position of the indicator detected by the detection unit. Head-mounted display device. 前記検出部が検出する前記指示体の動き、形状及び位置の少なくともいずれかに対応して外部の機器に制御情報を出力する制御情報出力部を備え、
前記検出部は、前記使用者の左手を含む第1指示体、及び、前記使用者の右手を含む第2指示体を前記指示体として検出し、
前記制御情報出力部は、前記検出部が検出する前記第1指示体の操作に対応する第1情報と、前記検出部が検出する前記第2指示体の操作に対応する第2情報との少なくとも一方を含む前記制御情報を出力する請求項1から13のいずれか1項記載の頭部装着型表示装置。
A control information output unit that outputs control information to an external device corresponding to at least one of the movement, shape, and position of the indicator detected by the detection unit;
The detection unit detects a first indicator including the left hand of the user and a second indicator including the right hand of the user as the indicator,
The control information output unit includes at least first information corresponding to the operation of the first indicator detected by the detection unit and second information corresponding to the operation of the second indicator detected by the detection unit. The head-mounted display device according to claim 1, wherein the control information including one is output.
音声を入力する音声入力部を備え、
前記検出部は、前記音声入力部が予め設定された音声を入力した場合に、前記指示体を検出する請求項1から15のいずれか1項記載の頭部装着型表示装置。
It has a voice input part to input voice,
The head-mounted display device according to claim 1, wherein the detecting unit detects the indicator when the voice input unit inputs a preset voice.
操作を検出する操作検出部を備え、
前記検出部は、前記操作検出部によって予め設定された操作を検出した場合に、前記指示体を検出する状態に移行する請求項1から16のいずれか1項記載の頭部装着型表示装置。
An operation detection unit that detects an operation is provided.
The head-mounted display device according to any one of claims 1 to 16, wherein the detection unit shifts to a state of detecting the indicator when an operation preset by the operation detection unit is detected.
前記指示体としての前記使用者の手指の予め設定された動きの軌跡を示すジェスチャーと、前記候補とを対応付けたジェスチャー登録辞書と、前記手指の予め設定された形状を示すハンドサインと、前記候補とを対応付けたハンドサイン登録辞書との少なくとも一方を記憶する記憶部を備え、
前記表示制御部は、前記検出部が検出する前記手指の動き、形状及び位置の少なくともいずれかと、前記ジェスチャー登録辞書又は前記ハンドサイン登録辞書とのマッチングにより前記ジェスチャー又は前記ハンドサインを選択し、選択した前記ジェスチャー又は前記ハンドサインに対応する前記候補を表示させる請求項1から17のいずれか1項記載の頭部装着型表示装置。
A gesture indicating a preset movement trajectory of the user's finger as the indicator, a gesture registration dictionary associating the candidate, a hand sign indicating a preset shape of the finger, A storage unit that stores at least one of the hand sign registration dictionaries associated with the candidates;
The display control unit selects the gesture or the hand sign by matching at least one of the movement, shape, and position of the finger detected by the detection unit with the gesture registration dictionary or the hand sign registration dictionary. The head-mounted display device according to claim 1, wherein the candidate corresponding to the gesture or the hand sign is displayed.
他の使用者の動作に対応付けられた前記指示体を、前記使用者の動作に対応付けられた前記指示体の検出方向とは異なる方向から検出し、
異なる方向から検出される前記他の使用者の動作に対応付けられた前記指示体の動き、形状及び位置の少なくともいずれかに対応する候補を表示するための外部辞書情報を記憶した記憶部を備え、
前記表示制御部は、前記外部辞書情報に基づいて、前記他の使用者の動作に対応付けられた前記指示体の動き、形状及び位置の少なくともいずれかに対応する前記候補を特定し、特定した前記候補を表示させる請求項1から17のいずれか1項に記載の頭部装着型表示装置。
Detecting the indicator associated with the action of another user from a direction different from the detection direction of the indicator associated with the action of the user;
A storage unit storing external dictionary information for displaying candidates corresponding to at least one of the movement, shape, and position of the indicator associated with the movement of the other user detected from a different direction; ,
The display control unit identifies and identifies the candidate corresponding to at least one of the movement, shape, and position of the indicator associated with the movement of the other user based on the external dictionary information. The head-mounted display device according to any one of claims 1 to 17, wherein the candidate is displayed.
外部の頭部装着型表示装置と通信する通信部を備え、
前記通信部により前記外部辞書情報を前記外部の頭部装着型表示装置に送信する請求19記載の頭部装着型表示装置。
It has a communication unit that communicates with an external head-mounted display device,
The head-mounted display device according to claim 19, wherein the external dictionary information is transmitted to the external head-mounted display device by the communication unit.
前記検出部は、前記他の使用者を光学的に検出し、
前記表示制御部は、前記検出部の検出結果に基づいて、前記他の使用者の動作に対応づけられた前記指示体の動き、形状及び位置の少なくともいずれかを光学的に検出する第1検出エリアを前記表示領域に表示させ、前記第1検出エリアを除く前記表示領域に、前記使用者の動作に対応づけられた前記指示体の動き、形状及び位置の少なくともいずれかを光学的に検出する第2検出エリアを表示させる請求項19又は20記載の頭部装着型表示装置。
The detection unit optically detects the other user,
The display control unit optically detects at least one of the movement, shape, and position of the indicator associated with the operation of the other user based on the detection result of the detection unit. An area is displayed in the display area, and at least one of the movement, shape and position of the indicator associated with the user's movement is optically detected in the display area excluding the first detection area. The head-mounted display device according to claim 19 or 20, wherein the second detection area is displayed.
前記表示制御部は、前記第1検出エリアにおいて、前記検出部により検出される前記指示体の動き、形状及び位置の少なくともいずれかに対応する前記候補を前記外部辞書情報に基づいて特定し、前記第2検出エリアにおいて、前記検出部により検出される前記指示体の動き、形状及び位置の少なくともいずれかに対応する前記候補を前記辞書情報に基づいて特定する請求項21記載の頭部装着型表示装置。   The display control unit identifies the candidate corresponding to at least one of the movement, shape, and position of the indicator detected by the detection unit in the first detection area based on the external dictionary information, The head-mounted display according to claim 21, wherein in the second detection area, the candidate corresponding to at least one of the movement, shape, and position of the indicator detected by the detection unit is specified based on the dictionary information. apparatus. 外景を透過し、前記外景とともに視認できるように画像を表示領域に表示する表示部と、少なくとも前記表示部を透過する範囲を含む領域において、使用者の動作に対応付けられた指示体を検出する検出部とを備え、前記使用者の頭部に装着される頭部装着型表示装置に搭載されたコンピューターが実行するプログラムであって、
コンピューターに、
前記検出部が前記指示体を検出する検出状態を示す画像を前記表示領域に表示させる手順と、
前記検出部が検出する前記指示体の動き、形状及び位置の少なくともいずれかに対応する入力内容の候補を表示させる手順と、
を実行させるプログラム。
A display unit that displays an image in a display area so that it can be seen through the outside scene and visible together with the outside scene, and an indicator associated with the user's action is detected in an area that includes at least the range that passes through the display section. A program that is executed by a computer mounted on a head-mounted display device that is mounted on the head of the user,
On the computer,
A procedure for displaying an image indicating a detection state in which the detection unit detects the indicator on the display area;
A procedure for displaying input content candidates corresponding to at least one of the movement, shape, and position of the indicator detected by the detection unit;
A program that executes
外景を透過し、前記外景とともに視認できるように画像を表示領域に表示する表示部と、少なくとも前記表示部を透過する範囲を含む領域において、使用者の動作に対応付けられた指示体を検出する検出部とを備え、前記使用者の頭部に装着される頭部装着型表示装置の制御方法であって、
前記検出部が前記指示体を検出する検出状態を示す画像を前記表示領域に表示させるステップと、
前記検出部が検出する前記指示体の動き、形状及び位置の少なくともいずれかに対応する入力内容の候補を表示させるステップと、
を有することを特徴とする頭部装着型表示装置の制御方法。
A display unit that displays an image in a display area so as to transmit the outside scene and be visible together with the outside scene, and an indicator associated with the user's action is detected in an area including at least the range that transmits the display section. A method for controlling a head-mounted display device mounted on the user's head, comprising:
Displaying an image indicating a detection state in which the detection unit detects the indicator on the display area;
Displaying input candidate candidates corresponding to at least one of the movement, shape, and position of the indicator detected by the detection unit;
A control method for a head-mounted display device, comprising:
JP2017111052A 2016-11-30 2017-06-05 Head-mounted display device, program, and control method for head-mounted display device Pending JP2018206080A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017111052A JP2018206080A (en) 2017-06-05 2017-06-05 Head-mounted display device, program, and control method for head-mounted display device
US15/801,916 US10296105B2 (en) 2016-11-30 2017-11-02 Head-mounted display device, computer program, and control method for head-mounted display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017111052A JP2018206080A (en) 2017-06-05 2017-06-05 Head-mounted display device, program, and control method for head-mounted display device

Publications (1)

Publication Number Publication Date
JP2018206080A true JP2018206080A (en) 2018-12-27

Family

ID=64957911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017111052A Pending JP2018206080A (en) 2016-11-30 2017-06-05 Head-mounted display device, program, and control method for head-mounted display device

Country Status (1)

Country Link
JP (1) JP2018206080A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021077311A (en) * 2019-11-05 2021-05-20 未來市股▲ふん▼有限公司 Human-computer interaction system and human-computer interaction method
JP2023016046A (en) * 2022-03-30 2023-02-01 株式会社あかつき Information processing system, program, and information processing method
WO2023181549A1 (en) * 2022-03-24 2023-09-28 キヤノン株式会社 Control device, control method, and program
US11908097B2 (en) 2021-07-20 2024-02-20 Akatsuki Inc. Information processing system, program, and information processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021077311A (en) * 2019-11-05 2021-05-20 未來市股▲ふん▼有限公司 Human-computer interaction system and human-computer interaction method
US11908097B2 (en) 2021-07-20 2024-02-20 Akatsuki Inc. Information processing system, program, and information processing method
WO2023181549A1 (en) * 2022-03-24 2023-09-28 キヤノン株式会社 Control device, control method, and program
JP2023016046A (en) * 2022-03-30 2023-02-01 株式会社あかつき Information processing system, program, and information processing method
JP7286856B2 (en) 2022-03-30 2023-06-05 株式会社あかつき Information processing system, program and information processing method

Similar Documents

Publication Publication Date Title
US11310483B2 (en) Display apparatus and method for controlling display apparatus
US10635182B2 (en) Head mounted display device and control method for head mounted display device
US10643390B2 (en) Head mounted display, method for controlling head mounted display, and computer program
US10296105B2 (en) Head-mounted display device, computer program, and control method for head-mounted display device
US10474226B2 (en) Head-mounted display device, computer program, and control method for head-mounted display device
US11668936B2 (en) Head-mounted type display device and method of controlling head-mounted type display device
CN108376029B (en) Display system
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
US10261327B2 (en) Head mounted display and control method for head mounted display
JP2018142168A (en) Head mounted type display device, program, and control method for head mounted type display device
US10296104B2 (en) Display device, method of controlling display device, and program
JP2019128693A (en) Head-mounted display, and method for controlling head-mounted display
JP2018206080A (en) Head-mounted display device, program, and control method for head-mounted display device
JP6776578B2 (en) Input device, input method, computer program
JP2018084886A (en) Head mounted type display device, head mounted type display device control method, computer program
US10884498B2 (en) Display device and method for controlling display device
JP6996115B2 (en) Head-mounted display device, program, and control method of head-mounted display device
JP6932917B2 (en) Head-mounted display, program, and head-mounted display control method
JP6790769B2 (en) Head-mounted display device, program, and control method of head-mounted display device
US20170285765A1 (en) Input apparatus, input method, and computer program
JP2019053644A (en) Head mounted display device and control method for head mounted display device
JP2017182460A (en) Head-mounted type display device, method for controlling head-mounted type display device, and computer program
JP2017134630A (en) Display device, control method of display device, and program
JP6693160B2 (en) Display device, display device control method, and program
JP2019053714A (en) Head mounted display device and control method for head mounted display device