JPWO2017065050A1 - Input device, electronic device, input method of electronic device, and input program thereof - Google Patents

Input device, electronic device, input method of electronic device, and input program thereof Download PDF

Info

Publication number
JPWO2017065050A1
JPWO2017065050A1 JP2017545160A JP2017545160A JPWO2017065050A1 JP WO2017065050 A1 JPWO2017065050 A1 JP WO2017065050A1 JP 2017545160 A JP2017545160 A JP 2017545160A JP 2017545160 A JP2017545160 A JP 2017545160A JP WO2017065050 A1 JPWO2017065050 A1 JP WO2017065050A1
Authority
JP
Japan
Prior art keywords
input
detection
indicator
specific direction
moved
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017545160A
Other languages
Japanese (ja)
Inventor
石川 哲也
哲也 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2017065050A1 publication Critical patent/JPWO2017065050A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Abstract

非接触での操作を実現しながらも誤入力を抑制できるユーザーフレンドリーな入力装置、電子機器及び電子機器の入力方法並びにその入力プログラムを提供する。制御装置は、指示体が検出領域内において特定方向の正方向に移動したことを検出装置が検出したときは、特定方向の正方向に移動したことに対応する入力内容を決定し、一方、指示体が検出領域内において特定方向の正方向とは反対の負方向に移動したことを検出装置が検出したときは、特定方向の負方向に移動したことに対応する入力内容の決定を保留にした上で、更に所定時間内に指示体が検出領域内において特定方向の正方向に移動したことを検出装置が検出したときは、保留にしていた特定方向の負方向に移動したことに対応する入力内容を決定する。Provided are a user-friendly input device, an electronic device, an input method for an electronic device, and an input program thereof that can suppress erroneous input while realizing non-contact operation. When the detection device detects that the indicator has moved in the positive direction of the specific direction within the detection area, the control device determines the input content corresponding to the movement in the positive direction of the specific direction, When the detection device detects that the body has moved in the negative direction opposite to the positive direction of the specific direction within the detection area, the determination of the input content corresponding to the movement in the negative direction of the specific direction has been suspended On the other hand, when the detection device detects that the indicator has moved in the positive direction of the specific direction within the detection area within the predetermined time, the input corresponding to the movement of the reserved direction in the negative direction of the specific direction Determine the content.

Description

本発明は入力装置、電子機器、電子機器の入力方法及びその入力プログラムに関する。   The present invention relates to an input device, an electronic device, an input method of the electronic device, and an input program thereof.

近年、急速に発達したスマートフォン等の携帯端末は、ビジネスや家庭での作業補助に用いられることも多い。一般的な携帯端末では、画像表示とユーザーインタフェースを兼ねるタッチパネル式の画面を備えているので、ユーザーはこれにタッチすることで必要な入力を行って、所望の画像を表示したり、情報を入力したりするなどの操作を行うことができる。しかるに、ユーザーの手が濡れていたり、汚れていたりする場合など、画面にタッチせずに携帯端末の操作を行いたい場合があるが、その際の入力をどのように行うかが課題となっている。   In recent years, mobile terminals such as smartphones that have been rapidly developed are often used for business and home work assistance. A typical mobile terminal has a touch panel screen that serves both as an image display and a user interface. By touching this screen, the user can make necessary inputs to display a desired image or input information. Can be performed. However, there are cases where you want to operate the mobile device without touching the screen, such as when the user's hand is wet or dirty, but how to perform input at that time is an issue Yes.

特許文献1には、赤外線LEDと赤外線近接センサーとを備えたコンピューティングデバイスが開示されている。特許文献1の技術によれば、赤外線LEDから出射された赤外光が、コンピューティングデバイスに近づけた手に当たって反射し、その反射光を赤外線近接センサーが検出することで手の動きを検出でき、その手の動き(ジェスチャー)により非接触でスワイプ等のユーザーの望む入力操作を行うことができる。従って、例えユーザーの手が汚れていても、移動コンピューティングデバイスを汚染する恐れがない。   Patent Document 1 discloses a computing device including an infrared LED and an infrared proximity sensor. According to the technique of Patent Document 1, the infrared light emitted from the infrared LED is reflected by the hand approaching the computing device and reflected, and the reflected light can be detected by the infrared proximity sensor to detect the movement of the hand. The user can perform an input operation desired by the user such as swipe without contact by the movement (gesture) of the hand. Therefore, even if the user's hand is dirty, there is no risk of contaminating the mobile computing device.

特表2013−534009号公報Special table 2013-534209

しかるに、特許文献1に示されるコンピューティングデバイスにおいて、赤外線近接センサーを用いたジェスチャー検知を行う際に、ユーザーは一方向への複数回のスクロール或いは頁送りを所望する場合があるが、赤外線近接センサーの検出領域内でユーザーが手を往復動作させると、これを検出した赤外線近接センサーからの信号を受信したコンピューティングデバイス側では、往復スクロール或いは往復頁送りと認識してしまうこととなる。そこで、特許文献1に示されるコンピューティングデバイスにおいて、ユーザーの意図に従って一方向に複数回スクロール或いは頁送りをさせたい場合、赤外線近接センサーの検出領域内でユーザーが手を一方向に移動させた後、当該検出領域外を通って元の位置へ手を戻した後、再度検出領域内で同方向に移動させる必要がある。しかしながら、このような動作を要求されることはユーザーにとって大きな負担になり、又かかる動作を無意識に行うことは困難であるが故、誤入力の原因となり得る。   However, in the computing device disclosed in Patent Document 1, when performing gesture detection using an infrared proximity sensor, a user may desire multiple scrolls or page feeds in one direction. If the user reciprocates his / her hand within the detection area, the computing device that has received the signal from the infrared proximity sensor that has detected this will recognize it as reciprocating scrolling or reciprocating page feed. Therefore, in the computing device disclosed in Patent Document 1, when the user wants to scroll or page forward multiple times in one direction according to the user's intention, the user moves the hand in one direction within the detection region of the infrared proximity sensor. After returning the hand to the original position through the outside of the detection area, it is necessary to move again in the same direction within the detection area. However, requiring such an operation is a heavy burden on the user, and it is difficult to unconsciously perform such an operation, which may cause erroneous input.

本発明は、上記の事情に鑑みてなされたものであって、非接触での操作を実現しながらも誤入力を抑制できるユーザーフレンドリーな入力装置、電子機器及び電子機器の入力方法並びにその入力プログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and is a user-friendly input device, an electronic device, an input method for an electronic device, and an input program thereof that can suppress erroneous input while realizing a non-contact operation. The purpose is to provide.

上述した目的のうち少なくとも一つを実現するために、本発明の一側面を反映した入力装置は、
検出領域を持ち、ユーザーにより動かされる指示体が前記検出領域を移動する方向を検出して、それに応じた出力を生成する検出装置と、
前記検出装置の出力に応じて入力内容を決定する制御装置と、を備えた入力装置であって、
前記制御装置は、前記指示体が前記検出領域内において特定方向の正方向に移動したことを前記検出装置が検出したときは、前記特定方向の正方向に移動したことに対応する入力内容を決定し、
前記制御装置は、前記指示体が前記検出領域内において前記特定方向の正方向とは反対の負方向に移動したことを前記検出装置が検出したときは、前記特定方向の負方向に移動したことに対応する入力内容の決定を保留にした上で、更に所定時間内に前記指示体が前記検出領域内において前記特定方向の正方向に移動したことを前記検出装置が検出したときは、保留にしていた前記特定方向の負方向に移動したことに対応する入力内容を決定するものである。
In order to achieve at least one of the above-described objects, an input device reflecting one aspect of the present invention is:
A detection device having a detection area, detecting a direction in which the indicator moved by the user moves in the detection area, and generating an output corresponding thereto;
A control device for determining input contents according to the output of the detection device, and an input device comprising:
When the detection device detects that the indicator has moved in the positive direction of the specific direction within the detection area, the control device determines an input content corresponding to the movement of the indicator in the positive direction of the specific direction. And
The control device has moved in the negative direction of the specific direction when the detection device detects that the indicator has moved in the negative direction opposite to the positive direction of the specific direction in the detection area. When the detection device detects that the indicator has moved in the positive direction of the specific direction within the detection area within a predetermined time, the input content corresponding to is suspended. The input content corresponding to the movement in the negative direction of the specific direction is determined.

上述した目的のうち少なくとも一つを実現するために、本発明の一側面を反映した電子機器の入力方法は、検出領域を持ち、ユーザーにより動かされる指示体が前記検出領域を移動する方向を検出して、それに応じた出力を生成する検出装置を備え、前記検出装置の出力に応じて入力内容を決定する電子機器の入力方法であって、
前記指示体が前記検出領域内において特定方向の正方向に移動したことを前記検出装置が検出したときは、前記特定方向の正方向に移動したことに対応する入力内容を決定し、 前記指示体が前記検出領域内において前記特定方向の正方向とは反対の負方向に移動したことを前記検出装置が検出したときは、前記特定方向の負方向に移動したことに対応する入力内容の決定を保留にした上で、更に所定時間内に前記指示体が前記検出領域内において前記特定方向の正方向に移動したことを前記検出装置が検出したときは、保留にしていた前記特定方向の負方向に移動したことに対応する入力内容を決定するものである。
In order to achieve at least one of the above-described objects, an electronic device input method reflecting one aspect of the present invention has a detection area and detects a direction in which an indicator moved by a user moves in the detection area. An input method of an electronic device comprising a detection device that generates an output corresponding to the detection device, and determining input contents according to the output of the detection device,
When the detection device detects that the indicator has moved in the positive direction of the specific direction within the detection area, the input content corresponding to the movement in the positive direction of the specific direction is determined, and the indicator Is detected in the negative direction opposite to the positive direction of the specific direction in the detection area, the input content corresponding to the movement in the negative direction of the specific direction is determined. When the detection device detects that the indicator has moved in the positive direction of the specific direction within the detection area within a predetermined time after being put on hold, the negative direction of the specific direction put on hold The input content corresponding to the movement to is determined.

上述した目的のうち少なくとも一つを実現するために、本発明の一側面を反映した電子機器の入力プログラムは、検出領域を持ち、ユーザーにより動かされる指示体が前記検出領域を移動する方向を検出して、それに応じた出力を生成する検出装置を備え、前記検出装置の出力に応じて入力内容を決定する電子機器の入力プログラムであって、
前記指示体が前記検出領域内において特定方向の正方向に移動したことを前記検出装置が検出したときは、前記特定方向の正方向に移動したことに対応する入力内容を決定し、 前記指示体が前記検出領域内において前記特定方向の正方向とは反対の負方向に移動したことを前記検出装置が検出したときは、前記特定方向の負方向に移動したことに対応する入力内容の決定を保留にした上で、更に所定時間内に前記指示体が前記検出領域内において前記特定方向の正方向に移動したことを前記検出装置が検出したときは、保留にしていた前記特定方向の負方向に移動したことに対応する入力内容を決定するものである。
In order to achieve at least one of the above-described objects, an electronic device input program reflecting one aspect of the present invention has a detection area, and detects a direction in which an indicator moved by the user moves in the detection area. And an electronic device input program that includes a detection device that generates an output corresponding to the detection device, and that determines input contents according to the output of the detection device,
When the detection device detects that the indicator has moved in the positive direction of the specific direction within the detection area, the input content corresponding to the movement in the positive direction of the specific direction is determined, and the indicator Is detected in the negative direction opposite to the positive direction of the specific direction in the detection area, the input content corresponding to the movement in the negative direction of the specific direction is determined. When the detection device detects that the indicator has moved in the positive direction of the specific direction within the detection area within a predetermined time after being put on hold, the negative direction of the specific direction put on hold The input content corresponding to the movement to is determined.

本発明によれば、非接触での操作を実現しながらも誤入力を抑制できるユーザーフレンドリーな入力装置、電子機器及び電子機器の入力方法並びにその入力プログラムを提供することができる。   According to the present invention, it is possible to provide a user-friendly input device, an electronic device, an input method for an electronic device, and an input program thereof that can suppress erroneous input while realizing a non-contact operation.

本実施形態にかかるヘッドマウントディスプレイ(HMD)の斜視図である。It is a perspective view of the head mounted display (HMD) concerning this embodiment. HMDを正面から見た図である。It is the figure which looked at HMD from the front. HMDを上方から見た図である。It is the figure which looked at HMD from the upper part. ディスプレイユニットの構成を示す概略断面図である。It is a schematic sectional drawing which shows the structure of a display unit. 近接センサーの拡大図である。It is an enlarged view of a proximity sensor. HMDの主要回路のブロック図である。It is a block diagram of the main circuit of HMD. ユーザーがHMDを装着したときの正面図である。It is a front view when a user wears HMD. ユーザーがHMDを装着したときの側面図である。It is a side view when a user wears HMD. ユーザーがHMDを装着したときの上面図である。It is a top view when a user wears an HMD. 複数の受光領域が出力する信号波形の例を示す図である。It is a figure which shows the example of the signal waveform which a some light reception area | region outputs. 複数の受光領域が出力する信号波形の他の例を示す図である。It is a figure which shows the other example of the signal waveform which a some light reception area | region outputs. 受光領域が出力する信号波形の他の例を示す図である。It is a figure which shows the other example of the signal waveform which a light reception area | region outputs. ユーザーUSの手HDの動きの例を示す図である。It is a figure which shows the example of a motion of user's US hand HD. ユーザーUSの手HDの動きの例を示す図である。It is a figure which shows the example of a motion of user's US hand HD. ジェスチャー操作による入力方法を実行するためのフローチャートである。It is a flowchart for performing the input method by gesture operation. (a)手の動き、(b)近接センサー出力、(c)画面表示制御の例をタイムチャートで表した図である。It is the figure which represented the example of (a) hand movement, (b) proximity sensor output, and (c) screen display control with the time chart. ジェスチャー操作によって切り変わる画像の一例を示す図である。It is a figure which shows an example of the image switched by gesture operation.

以下に、本発明による実施形態を、図面を参照して説明する。図1は、本実施形態にかかる、電子機器であるHMD100の斜視図である。図2は、本実施形態にかかるHMD100を正面から見た図である。図3は、本実施形態にかかるHMD100を上方から見た図である。以下、HMD100の右側及左側とは、HMD100を装着したユーザーにとっての右側及び左側をいうものとする。   Embodiments according to the present invention will be described below with reference to the drawings. FIG. 1 is a perspective view of an HMD 100 that is an electronic apparatus according to the present embodiment. FIG. 2 is a front view of the HMD 100 according to the present embodiment. FIG. 3 is a view of the HMD 100 according to the present embodiment as viewed from above. Hereinafter, the right side and the left side of the HMD 100 refer to the right side and the left side for the user wearing the HMD 100.

図1〜3に示すように、本実施形態のHMD100は,支持部材であるフレーム101を有している。上方から見てコ字状であるフレーム101は、2つの眼鏡レンズ102を取り付ける前方部101aと、前方部101aの両端から後方へと延在する側部101b、101cとを有する。フレーム101に取り付けられた2つの眼鏡レンズ102は屈折力を有していてもよいし、有していなくてもよい。   As shown in FIGS. 1-3, HMD100 of this embodiment has the flame | frame 101 which is a supporting member. A frame 101 that is U-shaped when viewed from above has a front part 101a to which two spectacle lenses 102 are attached, and side parts 101b and 101c extending rearward from both ends of the front part 101a. The two spectacle lenses 102 attached to the frame 101 may or may not have refractive power.

右側(ユーザーの利き目などに応じて左側でもよい)の眼鏡レンズ102の上部において、支持部材である円筒状の主本体部103がフレーム101の前方部101aに固定されている。主本体部103にはディスプレイユニット104が設けられている。主本体部103内には、後述するプロセッサー121からの指示に基づいてディスプレイユニット104の表示制御を司る表示制御部104DR(後述する図6を参照)が配置されている。なお、必要であれば両眼の前にそれぞれディスプレイユニットを配置してもよい。   A cylindrical main body 103 serving as a support member is fixed to the front portion 101 a of the frame 101 on the upper side of the right eyeglass lens 102 (which may be the left side according to the user's dominant eye). The main body 103 is provided with a display unit 104. A display control unit 104DR (see FIG. 6 to be described later) that controls display control of the display unit 104 based on an instruction from a processor 121 described later is disposed in the main body 103. If necessary, a display unit may be arranged in front of both eyes.

図4は、ディスプレイユニット104の構成を示す概略断面図である。ディスプレイユニット104は、画像形成部104Aと画像表示部104Bとからなる。画像形成部104Aは、主本体部103内に組み込まれており、光源104aと、一方向拡散板104bと、集光レンズ104cと、表示素子104dとを有している。一方、いわゆるシースルー型の表示部材である画像表示部104Bは、主本体部103から下方に向かい、片方の眼鏡レンズ102(図1参照)に平行に延在するように配置された全体的に板状であって、接眼プリズム104fと、偏向プリズム104gと、ホログラム光学素子104hとを有している。   FIG. 4 is a schematic cross-sectional view showing the configuration of the display unit 104. The display unit 104 includes an image forming unit 104A and an image display unit 104B. The image forming unit 104A is incorporated in the main body unit 103, and includes a light source 104a, a unidirectional diffuser 104b, a condenser lens 104c, and a display element 104d. On the other hand, the image display unit 104B, which is a so-called see-through type display member, is disposed on the entire plate so as to extend downward from the main body unit 103 and extend in parallel to one eyeglass lens 102 (see FIG. 1). The eyepiece prism 104f, the deflecting prism 104g, and the hologram optical element 104h.

光源104aは、表示素子104dを照明する機能を有し、例えば光強度のピーク波長及び光強度半値の波長幅で462±12nm(B光)、525±17nm(G光)、635±11nm(R光)となる3つの波長帯域の光を発するRGB一体型のLEDで構成されている。このように光源104aが所定の波長幅の光を出射することにより、表示素子104dを照明して得られる画像光に所定の波長幅を持たせることができ、ホログラム光学素子104hにて画像光を回折させたときに、瞳孔Bの位置にて観察画角全域にわたってユーザーに画像を観察させることができる。また、光源104aの各色についてのピーク波長は、ホログラム光学素子104hの回折効率のピーク波長の近傍に設定されており、光利用効率の向上がはかられている。   The light source 104a has a function of illuminating the display element 104d. For example, 462 ± 12 nm (B light), 525 ± 17 nm (G light), 635 ± 11 nm (R It is composed of RGB-integrated LEDs that emit light in three wavelength bands. Thus, the light source 104a emits light having a predetermined wavelength width, whereby the image light obtained by illuminating the display element 104d can have a predetermined wavelength width, and the hologram optical element 104h transmits the image light. When diffracted, the image can be observed by the user over the entire observation angle of view at the position of the pupil B. Further, the peak wavelength for each color of the light source 104a is set in the vicinity of the peak wavelength of the diffraction efficiency of the hologram optical element 104h, so that the light use efficiency is improved.

また、光源104aは、RGBの光を出射するLEDで構成されているので、光源104aのコストを抑えることができるとともに、表示素子104dを照明したときに、表示素子104dにてカラー画像を表示することが可能となり、そのカラー画像をユーザーが視認可能とすることができる。また、RGBの各LED素子は発光波長幅が狭いので、そのようなLED素子を複数用いることにより、色再現性が高く、明るい画像表示が可能となる。   Further, since the light source 104a is composed of LEDs that emit RGB light, the cost of the light source 104a can be reduced, and a color image is displayed on the display element 104d when the display element 104d is illuminated. The color image can be visually recognized by the user. In addition, since each of the RGB LED elements has a narrow emission wavelength width, the use of a plurality of such LED elements enables high color reproducibility and bright image display.

表示素子104dは、光源104aからの出射光を画像データに応じて変調して画像を表示するものであり、光が透過する領域となる各画素をマトリクス状に有する透過型の液晶表示素子で構成されている。なお、表示素子104dは、反射型であってもよい。   The display element 104d displays an image by modulating the light emitted from the light source 104a in accordance with image data, and is configured by a transmissive liquid crystal display element having pixels that serve as light transmitting regions in a matrix. Has been. Note that the display element 104d may be of a reflective type.

接眼プリズム104fは、基端面PL1を介して入射する表示素子104dからの画像光を、相対する平行な内側面PL2と外側面PL3とで全反射させ、ホログラム光学素子104hを介してユーザーの瞳に導く一方、外光を透過させてユーザーの瞳に導くものであり、偏向プリズム104gとともに、例えばアクリル系樹脂で構成されている。この接眼プリズム104fと偏向プリズム104gとは、内側面PL2及び外側面PL3に対して傾斜した傾斜面PL4、PL5でホログラム光学素子104hを挟み、接着剤で接合されている。   The eyepiece prism 104f totally reflects the image light from the display element 104d incident through the base end face PL1 by the opposed parallel inner side face PL2 and outer side face PL3, and passes through the hologram optical element 104h to the user's pupil. On the other hand, external light is transmitted and guided to the user's pupil, and is composed of, for example, an acrylic resin together with the deflecting prism 104g. The eyepiece prism 104f and the deflection prism 104g are joined by an adhesive with the hologram optical element 104h sandwiched between inclined surfaces PL4 and PL5 inclined with respect to the inner surface PL2 and the outer surface PL3.

偏向プリズム104gは、接眼プリズム104fに接合されて、接眼プリズム104fと一体となって略平行平板となるものである。この偏向プリズム104gを接眼プリズム104fに接合することにより,ユーザーがディスプレイユニット104を介して観察する外界像に歪みが生じるのを防止することができる。   The deflecting prism 104g is joined to the eyepiece prism 104f, and is integrated with the eyepiece prism 104f to form a substantially parallel plate. By joining the deflecting prism 104g to the eyepiece prism 104f, it is possible to prevent distortion in the external image observed by the user through the display unit 104.

すなわち、例えば、接眼プリズム104fに偏向プリズム104gを接合させない場合、外光は接眼プリズム104fの傾斜面PL4を透過するときに屈折するので、接眼プリズム104fを介して観察される外界像に歪みが生じる。しかし、接眼プリズム104fに相補的な傾斜面PL5を有する偏向プリズム104gを接合させて一体的な略平行平板を形成することで、外光が傾斜面PL4,PL5(ホログラム光学素子104h)を透過するときの屈折を偏向プリズム104gでキャンセルすることができる。その結果、シースルーで観察される外界像に歪みが生じるのを防止することができる。なお、ディスプレイユニット104とユーザーの瞳の間に眼鏡レンズ102(図1参照)を装着すると、通常眼鏡を使用しているユーザーでも問題なく画像を観察することが可能である。   That is, for example, when the deflecting prism 104g is not joined to the eyepiece prism 104f, external light is refracted when passing through the inclined surface PL4 of the eyepiece prism 104f, so that an external image observed through the eyepiece prism 104f is distorted. . However, by joining the deflecting prism 104g having the inclined surface PL5 complementary to the eyepiece prism 104f to form an integral substantially parallel plate, external light is transmitted through the inclined surfaces PL4 and PL5 (hologram optical element 104h). The refraction at that time can be canceled by the deflecting prism 104g. As a result, it is possible to prevent distortion in the external image observed through the see-through. In addition, if the spectacle lens 102 (refer FIG. 1) is mounted | worn between the display unit 104 and a user's pupil, it will be possible for the user who normally uses spectacles to observe an image without a problem.

ホログラム光学素子104hは、表示素子104dから出射される画像光(3原色に対応した波長の光)を回折反射して瞳孔Bに導き、表示素子104dに表示される画像を拡大してユーザーの瞳に虚像として導く体積位相型の反射型ホログラムである。このホログラム光学素子104hは、例えば、回折効率のピーク波長および回折効率半値の波長幅で465±5nm(B光)、521±5nm(G光)、634±5nm(R光)の3つの波長域の光を回折(反射)させるように作製されている。ここで、回折効率のピーク波長は、回折効率がピークとなるときの波長のことであり、回折効率半値の波長幅とは、回折効率が回折効率ピークの半値となるときの波長幅のことである。   The hologram optical element 104h diffracts and reflects the image light (light having a wavelength corresponding to the three primary colors) emitted from the display element 104d, guides it to the pupil B, enlarges the image displayed on the display element 104d, and enlarges the user's pupil. It is a volume phase type reflection hologram guided as a virtual image. The hologram optical element 104h has, for example, three wavelength ranges of 465 ± 5 nm (B light), 521 ± 5 nm (G light), and 634 ± 5 nm (R light) with a peak wavelength of diffraction efficiency and a wavelength width of half the diffraction efficiency. The light is diffracted (reflected). Here, the peak wavelength of diffraction efficiency is the wavelength at which the diffraction efficiency reaches a peak, and the wavelength width at half maximum of the diffraction efficiency is the wavelength width at which the diffraction efficiency is at half maximum of the diffraction efficiency peak. is there.

反射型のホログラム光学素子104hは、高い波長選択性を有しており、上記波長域(露光波長近辺)の波長の光しか回折反射しないので、回折反射される波長以外の波長を含む外光はホログラム光学素子104hを透過することになり、高い外光透過率を実現することができる。   The reflection-type hologram optical element 104h has high wavelength selectivity, and only diffracts and reflects light having a wavelength in the above-mentioned wavelength range (near the exposure wavelength). The hologram optical element 104h is transmitted, and a high external light transmittance can be realized.

次に、ディスプレイユニット104の動作について説明する。光源104aから出射された光は、一方向拡散板104bにて拡散され、集光レンズ104cにて集光されて表示素子104dに入射する。表示素子104dに入射した光は、表示制御部104DRから入力された画像データに基づいて画素ごとに変調され、画像光として出射される。これにより、表示素子104dには、カラー画像が表示される。   Next, the operation of the display unit 104 will be described. The light emitted from the light source 104a is diffused by the unidirectional diffusion plate 104b, condensed by the condenser lens 104c, and enters the display element 104d. The light incident on the display element 104d is modulated for each pixel based on the image data input from the display control unit 104DR, and is emitted as image light. Thereby, a color image is displayed on the display element 104d.

表示素子104dからの画像光は、接眼プリズム104fの内部にその基端面PL1から入射し、内側面PL2と外側面PL3で複数回全反射されて、ホログラム光学素子104hに入射する。ホログラム光学素子104hに入射した光は、そこで反射され、内側面PL2を透過して瞳孔Bに達する。瞳孔Bの位置では、ユーザーは、表示素子104dに表示された画像の拡大虚像を観察することができ、画像表示部104Bに形成される画面として視認することができる。この場合、ホログラム光学素子104hが画面を構成しているとみることもできるし、内側面PL2に画面が形成されているとみることもできる。なお、本明細書において「画面」というときは、表示される画像を指すこともある。   The image light from the display element 104d enters the eyepiece prism 104f from its base end face PL1, is totally reflected a plurality of times by the inner side face PL2 and the outer side face PL3, and enters the hologram optical element 104h. The light incident on the hologram optical element 104h is reflected there, passes through the inner side surface PL2, and reaches the pupil B. At the position of the pupil B, the user can observe an enlarged virtual image of the image displayed on the display element 104d, and can visually recognize it as a screen formed on the image display unit 104B. In this case, it can be considered that the hologram optical element 104h constitutes a screen, or it can be considered that a screen is formed on the inner surface PL2. In the present specification, “screen” may refer to an image to be displayed.

一方、接眼プリズム104f、偏向プリズム104gおよびホログラム光学素子104hは、外光をほとんど全て透過させるので、ユーザーはこれらを介して外界像(実像)を観察することができる。したがって、表示素子104dに表示された画像の虚像は、外界像の一部に重なって観察されることになる。このようにして、HMD100のユーザーは、ホログラム光学素子104hを介して、表示素子104dから提供される画像と外界像とを同時に観察することができる。尚、ディスプレイユニット104が非表示状態のとき画像表示部104Bは素通しとなり、外界像のみを観察できる。なお、本例では、光源と液晶表示素子と光学系とを組み合わせて表示ユニットを構成しているが、光源と液晶表示素子の組合せに代えて、自発光型の表示素子(例えば、有機EL表示素子)を用いても良い。また、光源と液晶表示素子と光学系の組合せに代えて、非発光状態で透過性を有する透過型有機EL表示パネルを用いてもよい。いずれにしても、画像表示部104Bに対向するユーザーの眼の視野に入るように、好ましくは、有効視野に少なくとも一部が重なるように、画面を配置すると、ユーザーは画像を容易に視認することができる。   On the other hand, the eyepiece prism 104f, the deflecting prism 104g, and the hologram optical element 104h transmit almost all the external light, so that the user can observe an external image (real image) through them. Therefore, the virtual image of the image displayed on the display element 104d is observed so as to overlap with a part of the external image. In this manner, the user of the HMD 100 can simultaneously observe the image provided from the display element 104d and the external image via the hologram optical element 104h. Note that when the display unit 104 is in the non-display state, the image display unit 104B is transparent, and only the external image can be observed. In this example, a display unit is configured by combining a light source, a liquid crystal display element, and an optical system. However, instead of a combination of a light source and a liquid crystal display element, a self-luminous display element (for example, an organic EL display) is used. Element) may be used. Further, instead of a combination of a light source, a liquid crystal display element, and an optical system, a transmissive organic EL display panel having transparency in a non-light emitting state may be used. In any case, when the screen is arranged so as to fall within the visual field of the user's eye facing the image display unit 104B, and preferably at least partially overlaps the effective visual field, the user can easily visually recognize the image. Can do.

更に図1、2において、主本体部103の正面には、フレーム101の中央寄りに配置された近接センサー105と、側部寄りに配置されたカメラ106のレンズ106aが前方を向くようにして設けられている。   Further, in FIGS. 1 and 2, a proximity sensor 105 disposed near the center of the frame 101 and a lens 106 a of a camera 106 disposed near the side are provided in front of the main body 103 so as to face the front. It has been.

本明細書において、検出装置の一例である「近接センサー」とは、物体、例えば人体の一部(手や指など)がユーザーの眼前に近接していることを検知するために、近接センサーの検出面前方の近接範囲にある検出領域内に存在しているか否かを検出して信号を出力するものをいう。近接範囲は、操作者の特性や好みに応じて適宜設定すればよいが、例えば、近接センサーの検出面からの距離が200mm以内の範囲とすることができる。近接センサーからの距離が200mm以内であれば、ユーザーが腕を曲げた状態で、手のひらや指をユーザーの視野内に入れたり出したりできるため、手や指を使ったジェスチャーによって容易に操作を行うことができ、また、ユーザー以外の人体や家具等を誤って検出する恐れが少なくなる。ここで制御回路は、近接センサーの前方の近接範囲にある検出領域に物体が入った際に近接センサーから出力される信号に基づいて、物体が近接範囲に存在すると判定する。検出領域に物体が入った際に、近接センサーから有効な信号を制御回路に出力するようにしても良い。   In this specification, a “proximity sensor” which is an example of a detection device refers to a proximity sensor in order to detect that an object, for example, a part of a human body (such as a hand or a finger) is in proximity to the user's eyes. This means that a signal is output by detecting whether or not it exists in a detection region in the proximity range in front of the detection surface. The proximity range may be set as appropriate according to the operator's characteristics and preferences. For example, the proximity range from the detection surface of the proximity sensor may be within a range of 200 mm. If the distance from the proximity sensor is 200mm or less, the user can put the palm and fingers into and out of the user's field of view with the arm bent, so the user can easily operate with gestures using the hands and fingers. In addition, the risk of erroneous detection of a human body or furniture other than the user is reduced. Here, the control circuit determines that the object exists in the proximity range based on a signal output from the proximity sensor when the object enters the detection area in the proximity range in front of the proximity sensor. When an object enters the detection area, a valid signal may be output from the proximity sensor to the control circuit.

近接センサーには、パッシブ型とアクティブ型とがある。パッシブ型の近接センサーは、物体が近接した際に物体から放射される不可視光や電磁波を検出する検出部を有する。パッシブ型の近接センサーとしては、接近した人体から放射される赤外線などの不可視光を検出する焦電センサーや、接近した人体との間の静電容量変化を検出する静電容量センサーなどがある。アクティブ型の近接センサーは、不可視光や音波の投射部と、物体に反射して戻った不可視光や音波を受ける検出部とを有する。アクティブ型の近接センサーとしては、赤外線を投射して物体で反射された赤外線を受光する赤外線センサーや、レーザ光を投射して物体で反射されたレーザ光を受光するレーザセンサーや、超音波を投射して物体で反射された超音波を受け取る超音波センサーなどがある。尚、パッシブ型の近接センサーは、物体に向けてエネルギーを投射する必要がないので、低消費電力性に優れている。アクティブ型の近接センサーは検知の確実性を向上させやすく、例えば、ユーザーが、赤外光などの人体から放射される検出光を透過しない手袋をしているような場合でも、ユーザーの手の動きを検出することができる。複数種類の近接センサーを組み合わせて用いても良い。   The proximity sensor includes a passive type and an active type. A passive proximity sensor has a detection unit that detects invisible light and electromagnetic waves emitted from an object when the object approaches. As a passive proximity sensor, there are a pyroelectric sensor that detects invisible light such as infrared rays emitted from an approaching human body, and a capacitance sensor that detects a change in electrostatic capacitance between the approaching human body. The active proximity sensor includes an invisible light or sound wave projection unit, and a detection unit that receives the invisible light or sound wave reflected and returned from the object. Active proximity sensors include infrared sensors that project infrared rays and receive infrared rays reflected by objects, laser sensors that project laser beams and receive laser beams reflected by objects, and project ultrasonic waves. Then, there is an ultrasonic sensor that receives ultrasonic waves reflected by an object. Note that a passive proximity sensor does not need to project energy toward an object, and thus has excellent low power consumption. Active proximity sensors can improve detection reliability. For example, even if the user wears gloves that do not transmit detection light emitted from the human body such as infrared light, the movement of the user's hand Can be detected. A plurality of types of proximity sensors may be used in combination.

近接センサーは、カメラに比べて、概して小型で安価であり、消費電力も小さい。また、近接センサーは、物体の形状の検出など複雑な検出を行うことは難しいが、検出領域への物体の進入や離間を判別することができるので、ユーザーが手や指を通過させたり手のひらをかざしたりすることで、HMDの操作を行うことができ、しかも、カメラの撮影画像の解析によるジェスチャー認識に必要とされる複雑な画像処理も不要である。   Proximity sensors are generally smaller and cheaper than cameras, and consume less power. In addition, it is difficult for the proximity sensor to perform complicated detection such as detection of the shape of the object, but it can determine the approach and separation of the object from the detection area, so that the user can pass the hand or finger or touch the palm. By holding it over, the HMD can be operated, and complicated image processing required for gesture recognition by analysis of the image captured by the camera is also unnecessary.

図5は、本実施形態で用いる近接センサー105を正面から見た拡大図である。本実施形態では、近接センサー105として、焦電センサーを用いた例について説明する。図5において、近接センサー105は、人体から放射される赤外光などの不可視光を検出光として受光する受光部105aを有する。受光部105aは、2行2列に並べられた受光領域RA〜RDを形成しており、不可視光を受光した際に、それに対応した信号が各受光領域RA〜RDから個々に出力されるようになっている。各受光領域RA〜RDの出力は、受光部105aから物体までの距離に応じて強度が変化し、距離が近いほど強度が大きくなる。人体から放射される赤外光を検出する焦電センサーであれば、露出した人体以外の物体を誤検出しくにいので、例えば、狭所で作業する場合などにおいて、効果的に誤検出を防ぐことができるというメリットがある。   FIG. 5 is an enlarged view of the proximity sensor 105 used in the present embodiment as viewed from the front. In this embodiment, an example in which a pyroelectric sensor is used as the proximity sensor 105 will be described. In FIG. 5, the proximity sensor 105 includes a light receiving unit 105 a that receives invisible light such as infrared light emitted from a human body as detection light. The light receiving unit 105a forms light receiving areas RA to RD arranged in 2 rows and 2 columns, and when receiving invisible light, signals corresponding to the light receiving areas RA to RD are individually output from the light receiving areas RA to RD. It has become. The outputs of the light receiving regions RA to RD change in intensity according to the distance from the light receiving unit 105a to the object, and the intensity increases as the distance decreases. If it is a pyroelectric sensor that detects infrared light emitted from the human body, it is difficult to falsely detect objects other than the exposed human body. For example, when working in a confined space, false detection is effectively prevented. There is an advantage that you can.

図1、2において、フレーム101の右側の側部101bには、右副本体部107が取り付けられ、フレーム101の左側の側部101cには、左副本体部108が取り付けられている。右副本体部107及び左副本体部108は、細長い板形状を有しており、それぞれ内側に細長い突起107a,108aを有している。この細長い突起107aを、フレーム101の側部101bの長孔101dに係合させることで、右副本体部107が位置決めされた状態でフレーム101に取り付けられ、また細長い突起108aを、フレーム101の側部101cの長孔101eに係合させることで、左副本体部108が位置決めされた状態でフレーム101に取り付けられている。   1 and 2, a right sub-body portion 107 is attached to the right side portion 101b of the frame 101, and a left sub-body portion 108 is attached to the left side portion 101c of the frame 101. The right sub-main body portion 107 and the left sub-main body portion 108 have an elongated plate shape, and have elongated protrusions 107a and 108a on the inner side, respectively. By engaging the elongated protrusion 107 a with the elongated hole 101 d of the side portion 101 b of the frame 101, the right sub-body portion 107 is attached to the frame 101 in a positioned state, and the elongated protrusion 108 a is attached to the side of the frame 101. By engaging with the long hole 101e of the portion 101c, the left sub-main body portion 108 is attached to the frame 101 in a positioned state.

右副本体部107内には、地磁気を検出する地磁気センサー109(後述する図6参照)と、姿勢に応じた出力を生成する、角速度センサー110B及び加速度センサー110A(後述する図6参照)とが搭載されており、左副本体部108内には、スピーカー111A,イヤホン111C及びマイク111B(後述する図6参照)とが設けられている。主本体部103と右副本体部107とは、配線HSで信号伝達可能に接続されており、主本体部103と左副本体部108とは、不図示の配線で信号伝達可能に接続されている。図3に簡略図示するように、右副本体部107は、その後端から延在するコードCDを介して制御ユニットCTUに接続されている。なお、角速度センサー及び加速度センサーを一体化した6軸センサーを用いてもよい。また、入力される音声に応じてマイク111Bから生成される出力信号に基づいて、音声によってHMDを操作することもできる。また、主本体部103と左副本体部108とが無線接続されるように構成してもよい。図示していないが、制御ユニットCTUのバッテリー制御部128から付与された電圧を各部に適正な電圧に変換するための電源回路113(後述する図6参照)が右副本体部107に設けられている。   In the right sub main body 107, there are a geomagnetic sensor 109 (see FIG. 6 described later) for detecting geomagnetism, and an angular velocity sensor 110B and an acceleration sensor 110A (see FIG. 6 described later) that generate an output corresponding to the posture. The left sub-main body 108 is provided with a speaker 111A, an earphone 111C, and a microphone 111B (see FIG. 6 to be described later). The main main body 103 and the right sub main body 107 are connected so as to be able to transmit signals through a wiring HS, and the main main body 103 and the left sub main body 108 are connected so as to be able to transmit signals through a wiring (not shown). Yes. As schematically illustrated in FIG. 3, the right sub-main body 107 is connected to the control unit CTU via a cord CD extending from the rear end. A 6-axis sensor in which an angular velocity sensor and an acceleration sensor are integrated may be used. Further, the HMD can be operated by sound based on an output signal generated from the microphone 111B according to the input sound. Further, the main main body 103 and the left sub main body 108 may be configured to be wirelessly connected. Although not shown in the figure, a power circuit 113 (see FIG. 6 described later) for converting the voltage applied from the battery control unit 128 of the control unit CTU into an appropriate voltage for each unit is provided in the right sub-main unit 107. Yes.

図6は、HMD100の主要回路のブロック図である。制御ユニットCTUは、ディスプレイユニット104やその他の機能デバイスに対して制御信号を生成することにより、各機能デバイスを制御する制御装置としてのプロセッサー121と、操作部122と、GPS衛星からの電波を受信するGPS受信部123と、外部とデータのやりとりを行う通信部124と、プログラム等を格納するROM125と、画像データ等を保存するRAM126と、バッテリー127及びバッテリー制御部128と、バッテリー制御部128から付与された電圧を各部に適正な電圧に変換するための電源回路130と、SSDやフラッシュメモリ等のストレージデバイス129とを有している。プロセッサー121はスマートフォンなどで用いられているアプリケーションプロセッサーを使用することが出来るが、プロセッサー121の種類は問わない。例えば、アプリケーションプロセッサーの内部にGPUやCodecなど画像処理に必要なハードウェアが標準で組み込まれているものは、小型のHMDには適したプロセッサーであるといえる。   FIG. 6 is a block diagram of main circuits of the HMD 100. The control unit CTU receives the radio waves from the processor 121, the operation unit 122, and the GPS satellite as a control device for controlling each functional device by generating a control signal for the display unit 104 and other functional devices. A GPS receiving unit 123, a communication unit 124 for exchanging data with the outside, a ROM 125 for storing programs, a RAM 126 for storing image data, a battery 127, a battery control unit 128, and a battery control unit 128. It has a power supply circuit 130 for converting the applied voltage into an appropriate voltage for each part, and a storage device 129 such as an SSD or a flash memory. The processor 121 can use an application processor used in a smartphone or the like, but the type of the processor 121 is not limited. For example, if an application processor includes hardware necessary for image processing such as GPU or Codec as a standard, it can be said that the processor is suitable for a small HMD.

更に、プロセッサー121には、受光部105aが人体から放射される検出光としての不可視光を検出したときは、近接センサー105からその信号が入力される。又、プロセッサー121は、表示制御部104DRを介してディスプレイユニット104の画像表示を制御する。プロセッサー121と近接センサー105とで入力装置を構成する。   Furthermore, when the light receiving unit 105 a detects invisible light as detection light emitted from the human body, the processor 121 receives a signal from the proximity sensor 105. Further, the processor 121 controls image display of the display unit 104 via the display control unit 104DR. The processor 121 and the proximity sensor 105 constitute an input device.

プロセッサー121は、電源回路130からの給電を受け、ROM124及びストレージデバイス129の少なくとも一方に格納されたプログラムに従って動作し、操作部122からの電源オンなどの操作入力に従い、カメラ106からの画像データを入力してRAM126に記憶し、必要に応じて通信部124を介して外部と通信を行うことができる。更に、後述するように、プロセッサー121が近接センサー105からの出力に応じた画像制御を実行することで、ユーザーは手や指を用いたジェスチャー操作によってHMD100の画面制御を行うことができる。   The processor 121 receives power from the power supply circuit 130, operates according to a program stored in at least one of the ROM 124 and the storage device 129, and receives image data from the camera 106 according to an operation input such as power-on from the operation unit 122. The data can be input and stored in the RAM 126, and can be communicated with the outside via the communication unit 124 as necessary. Furthermore, as will be described later, the processor 121 executes image control according to the output from the proximity sensor 105, so that the user can perform screen control of the HMD 100 by gesture operation using a hand or a finger.

図7は、ユーザーUSが本実施形態のHMD100を装着したときの正面図である。図8は、ユーザーUSがHMD100を装着したときの側面図であり、図9はその上面図であり、ユーザーの手と共に示している。ここで、ジェスチャー操作とは、少なくともユーザーUSの手HDや指が近接センサー105の検出領域内を通過する動作であり、近接センサー105を介してHMD100のプロセッサー121が検出できるものである。   FIG. 7 is a front view when the user US wears the HMD 100 of the present embodiment. FIG. 8 is a side view when the user US wears the HMD 100, and FIG. 9 is a top view thereof, which is shown together with the user's hand. Here, the gesture operation is an operation in which at least the hand HD or finger of the user US passes through the detection area of the proximity sensor 105 and can be detected by the processor 121 of the HMD 100 via the proximity sensor 105.

次に、ジェスチャー操作の検出の基本原理について説明する。近接センサー105が作動しているときに、ユーザーUSの前方に何も存在しなければ、受光部105aは検出光としての不可視光を受光しないので、プロセッサー121はジェスチャー操作が行われていないと判断する。一方、図8に示すように、ユーザーUSの目の前にユーザーUS自身の手HDを接近させると、手HDから放射される不可視光を受光部105aが検出し、これに基づく近接センサー105からの出力信号に応じてプロセッサー121はジェスチャー操作が行われたと判断する。なお、以下においては、ユーザーの手HDによってジェスチャー操作を行うものとして説明するが、指やその他の部位であってもよいし、不可視光を放射できる材料からなる指示具をユーザーが用いてジェスチャー操作を行ってもよい。ユーザーの意思で移動させられるものを指示体という。尚、検出装置として、近接センサーの代りに撮像装置(カメラ)を使用することも可能である。かかる場合、移動する指示体を撮像装置で撮像し、その移動方向を、撮像装置から出力した画像データに基づき画像処理装置(制御装置の一部)で判別することになる。   Next, the basic principle of gesture operation detection will be described. If there is nothing in front of the user US when the proximity sensor 105 is operating, the light receiving unit 105a does not receive invisible light as detection light, so the processor 121 determines that no gesture operation is performed. To do. On the other hand, as shown in FIG. 8, when the user US's own hand HD is approached in front of the user US, the light receiving unit 105a detects the invisible light emitted from the hand HD, and the proximity sensor 105 based on the invisible light is detected. In response to the output signal, the processor 121 determines that a gesture operation has been performed. In the following description, it is assumed that the gesture operation is performed by the user's hand HD. However, the gesture operation may be performed by the user using a pointing device made of a material that can emit invisible light. May be performed. An indicator can be moved by the user's intention. An imaging device (camera) can be used as the detection device instead of the proximity sensor. In such a case, the moving indicator is imaged by the imaging device, and the moving direction is determined by the image processing device (part of the control device) based on the image data output from the imaging device.

上述したように、受光部105aは、2行2列に並べられた受光領域RA〜RDを有する(図5参照)。従って、ユーザーUSが、左右上下いずれの方向から手HDをHMD100の前方に近づけた場合、各受光領域RA〜RDで検出する信号の出力タイミングが異なる。   As described above, the light receiving unit 105a includes the light receiving regions RA to RD arranged in 2 rows and 2 columns (see FIG. 5). Therefore, when the user US brings the hand HD closer to the front of the HMD 100 from either the left, right, up, or down directions, the output timings of signals detected in the light receiving areas RA to RD differ.

図10、11は、縦軸に受光領域RA〜RDの信号強度をとり、横軸に時間をとって示した、受光領域RA〜RDの信号波形の一例である。例えば、図8、図9を参照してユーザーUSがHMD100の前方で右方から左方に向かって手HDを移動させた場合、手HDから放射された不可視光が受光部105aに入射するが、このとき最初に不可視光を受光するのは受光領域RA,RCである。従って、図10に示すように、まず受光領域RA,RCの信号が立ち上がり、遅れて受光領域RB,RDの信号が立ち上がり、更に受光領域RA,RCの信号が立ち下がった後に、受光領域RB,RDの信号が立ち下がる。この信号のタイミングをプロセッサー121が検出し、ユーザーUSは手HDを右から左へと移動させてジェスチャー操作を行ったと判断する。   10 and 11 are examples of signal waveforms of the light receiving regions RA to RD, where the vertical axis represents the signal intensity of the light receiving regions RA to RD and the horizontal axis represents time. For example, when the user US moves the hand HD from the right to the left in front of the HMD 100 with reference to FIGS. 8 and 9, invisible light emitted from the hand HD enters the light receiving unit 105a. In this case, the light receiving areas RA and RC first receive invisible light. Therefore, as shown in FIG. 10, first, the signals in the light receiving areas RA and RC rise, the signals in the light receiving areas RB and RD rise later, and the signals in the light receiving areas RA and RC fall, and then the light receiving areas RB, The RD signal falls. The processor 121 detects the timing of this signal, and determines that the user US has performed the gesture operation by moving the hand HD from the right to the left.

図11の例では、まず受光領域RA,RBの信号が立ち上がり、遅れて受光領域RC,RDの信号が立ち上がり、更に受光領域RA,RBの信号が立ち下がった後に、受光領域RC,RDの信号が立ち下がっている。この信号のタイミングをプロセッサー121が検出し、ユーザーUSは手HDを上から下へと移動させてジェスチャー操作を行ったと判断する。   In the example of FIG. 11, the signals of the light receiving areas RA and RB rise first, the signals of the light receiving areas RC and RD rise after a delay, and the signals of the light receiving areas RA and RB further fall, and then the signals of the light receiving areas RC and RD. Is falling. The processor 121 detects the timing of this signal, and determines that the user US has performed the gesture operation by moving the hand HD from the top to the bottom.

尚、近接センサー105からの出力に基づいて、プロセッサー121は、手HDが前後方向に移動したことも検出できる。図12には、縦軸に受光領域RA〜RDの平均信号強度をとり、横軸に時間をとって示した信号波形の一例である。実線で示す波形は、出力直後に強度が高く、時間経過と共に低下している。よって、このような波形が近接センサー105から出力された場合、プロセッサー121は、手HDを顔の近くから遠ざけるよう移動させてジェスチャー操作を行ったと判断する。一方、点線で示す波形は、出力直後に強度が低く、時間経過と共に上昇している。よって、このような波形が近接センサー105から出力された場合、プロセッサー121は、手HDを遠くから顔に近づけるよう移動させてジェスチャー操作を行ったと判断する。   Based on the output from the proximity sensor 105, the processor 121 can also detect that the hand HD has moved in the front-rear direction. FIG. 12 shows an example of a signal waveform in which the vertical axis represents the average signal intensity of the light receiving regions RA to RD and the horizontal axis represents time. The waveform indicated by the solid line is high in intensity immediately after output and decreases with time. Therefore, when such a waveform is output from the proximity sensor 105, the processor 121 determines that the gesture operation is performed by moving the hand HD away from the vicinity of the face. On the other hand, the waveform indicated by the dotted line is low in intensity immediately after output and increases with time. Therefore, when such a waveform is output from the proximity sensor 105, the processor 121 determines that the gesture operation is performed by moving the hand HD so as to approach the face from a distance.

本実施形態によれば、近接センサーを用いて、その検出領域が画像表示部に対向するユーザーの眼の視野内に位置させることで、確実に手HDの存在と移動を検出することができる。従って、ユーザーUSは手の動作と操作を連動させて見ることができ、直感的な操作を実現できる。更に、近接センサーは、小型でカメラより低消費電力であるから、HMD100の連続動作時間を長くすることができる。   According to the present embodiment, the presence and movement of the hand HD can be reliably detected by using the proximity sensor and positioning the detection area within the visual field of the user's eye facing the image display unit. Accordingly, the user US can view the hand operation and the operation in conjunction with each other, and can realize an intuitive operation. Furthermore, since the proximity sensor is small and consumes less power than the camera, the continuous operation time of the HMD 100 can be extended.

ところで、一般的に人間は、筋肉等の負担が小さくなる姿勢(例えば手を下ろした状態)を待機姿勢とする傾向があり、手などを待機姿勢以外の姿勢をとる位置(例えば手を上げた状態)に動かした場合、筋肉等の負担が比較的大きくなるため、長時間にわたってその姿勢を維持することが困難なことが多い。又、待機姿勢以外の姿勢から待機姿勢へと手を戻す場合、一般的には最短経路を通過させることが自然な動作であるとされる。このような人体的特性に鑑みれば、ユーザーが意図しない手の動きを誤ってジェスチャー検出と認識してしまう恐れがある。   By the way, in general, humans tend to be in a standby posture in a posture where the burden on muscles or the like is reduced (for example, a state where the hand is lowered), and a position where the hand or the like takes a posture other than the standby posture (for example, the hand is raised) When it is moved to (state), the burden on muscles and the like becomes relatively large, and it is often difficult to maintain the posture for a long time. Further, when returning the hand from a posture other than the standby posture to the standby posture, it is generally considered that the natural operation is to pass the shortest path. In view of such human characteristics, there is a risk that hand movements that are not intended by the user will be mistakenly recognized as gesture detection.

より具体的には、本実施形態のようなユーザーUSの頭部に装着されるHMD100において、ジェスチャー操作のためユーザーの意図に従って一旦上げた手を待機位置へと下ろす際に、近接センサー105の検出領域内を通過してしまい、これがユーザーの意図しないジェスチャー操作として検出される恐れがある。これに対し、ユーザーUSがジェスチャー操作の為に上げた手を上げたままにしたり、或いは腕を伸ばしたり回したりなどして検出領域を避けながら手を下ろせば、ユーザーの意図しないジェスチャー操作の検出回避が可能になる。しかしながら、これらの動作は人体的特性に基づく自然な動作とは異なっているので、かかる動作を要求することで、ユーザーの負担を増大させたり、使い勝手が悪くなる場合がある。かかる課題に対し、本実施形態では以下のように対処している。   More specifically, in the HMD 100 worn on the head of the user US as in the present embodiment, the proximity sensor 105 is detected when the hand once raised according to the user's intention for the gesture operation is lowered to the standby position. It may pass through the area, and this may be detected as a gesture operation not intended by the user. On the other hand, if the user US keeps his hand raised for gesture operation, or extends his arm or turns it down while avoiding the detection area, the gesture operation unintended by the user is detected. Avoidance is possible. However, since these operations are different from natural operations based on human characteristics, requesting such operations may increase the burden on the user or deteriorate usability. In this embodiment, this problem is dealt with as follows.

より具体的に、プロセッサー121のジェスチャー検出について説明する。図13,14に、ユーザーUSの手HDの動きの例を示すが、点線で示すSAを検出領域とする。以下、「特定方向」を上下方向とし、「正方向」を上から下への方向、「負方向」を下から上への方向とする。ここで、手HDを下ろした位置から正方向に移動させた場合、近接センサー105からは図11の波形が出力されることとなる。一方、手HDを上げた位置から負方向に移動させた場合、図11の波形とは逆に、近接センサー105の受光領域RC,RDからの信号が先行して立ち上がり、続けて受光領域RA,RBからの信号が立ち上がることとなる。   More specifically, gesture detection by the processor 121 will be described. FIGS. 13 and 14 show examples of the movement of the hand HD of the user US, and the SA indicated by the dotted line is the detection area. Hereinafter, the “specific direction” is the vertical direction, the “positive direction” is the direction from the top to the bottom, and the “negative direction” is the direction from the bottom to the top. Here, when the hand HD is moved in the forward direction from the position where the hand HD is lowered, the waveform shown in FIG. On the other hand, when the hand HD is moved in the negative direction from the position where the hand HD is raised, the signals from the light receiving areas RC and RD of the proximity sensor 105 rise up in advance, contrary to the waveform of FIG. The signal from RB will rise.

まず図13(a)において、ユーザーUSが手HDを検出領域SAの上にかざし、この状態から図13(b)に示すように、検出領域SAを通過させつつ下方へと(正方向に)移動させたものとする。このとき、プロセッサー121は近接センサー105の出力に基づいて、ジェスチャー操作により手HDが上から下へ移動したと決定し(入力内容を確定し)、例えば後述する図17を参照して、表示画像の上から下への移動などの入力に基づく制御を実行する。   First, in FIG. 13A, the user US holds the hand HD over the detection area SA, and from this state, as shown in FIG. 13B, while passing through the detection area SA, downward (in the forward direction). It shall be moved. At this time, the processor 121 determines that the hand HD has moved from top to bottom by the gesture operation based on the output of the proximity sensor 105 (confirms the input content), for example, referring to FIG. Control based on input such as movement from top to bottom.

一方、図14(a)に示すように、ユーザーUSが検出領域SAの下方に位置させた手HDを、図14(b)に示すように、検出領域SAを通過させつつ上方へと(負方向に)移動させた場合、プロセッサー121は近接センサー105の出力に基づいて、ジェスチャー操作により手HDが下から上へ移動したものと判断するが、この時点で入力内容を確定せず保留として、プロセッサー121は所定時間(例えば2〜3秒:ユーザーが変更可能であると望ましい)だけ次のジェスチャー操作を待つ。所定時間内に、ユーザーUSが手HDを、検出領域SAを通過させつつ下方へと移動させたときは(図14(c)、(d))、プロセッサー121は近接センサー105の出力に基づいて、ジェスチャー操作により手HDが上から下へ移動したと判断し、保留していた手HDが下から上へ移動したジェスチャー操作(入力内容)を確定する。これによりプロセッサー121は、例えば後述する図17に示す画像の下から上への移動などの入力に基づく制御を実行する。   On the other hand, as shown in FIG. 14 (a), the hand HD positioned below the detection area SA by the user US moves upward (negative) while passing through the detection area SA as shown in FIG. 14 (b). In the case of movement, the processor 121 determines that the hand HD has moved from the bottom to the top by a gesture operation based on the output of the proximity sensor 105. The processor 121 waits for the next gesture operation for a predetermined time (for example, 2 to 3 seconds: it is desirable that the user can change it). When the user US moves the hand HD downward while passing through the detection area SA within a predetermined time (FIGS. 14 (c) and 14 (d)), the processor 121 is based on the output of the proximity sensor 105. Then, it is determined that the hand HD has moved from top to bottom by the gesture operation, and the gesture operation (input content) in which the hand HD that has been suspended has moved from bottom to top is determined. Accordingly, the processor 121 executes control based on an input such as movement from the bottom to the top of the image shown in FIG.

つまり、ユーザーUSが手HDを、図14に示すごとく、所定時間内に検出領域SAを通過するように上下に往復移動させた場合でも、プロセッサー121は、上から下へのジェスチャー操作と、下から上へのジェスチャー操作が繰り返し行われたとは判断しないのである。これにより、同ジェスチャー操作により、例えば後述する図17の画像G1,G2が反復して中央に表示されるごとき不具合が阻止されるので、例えばユーザーUSが複数の画面送りなどを意図して、無意識に手HDを往復動作させた場合にも、誤入力の恐れが減少するというメリットがある。なお、複数の画面送りを正方向の動作で指示するときは、手HDの上下の往復動作のうち、上から下へ下ろす動作は検出領域を通過させ、下から上に上げる動作は検出領域外を通過させることで、往復指示ではなく、連続した正方向指示を入力することができる。   That is, even when the user US reciprocates up and down so as to pass the detection area SA within a predetermined time as shown in FIG. 14, the processor 121 performs the gesture operation from the top to the bottom, It is not determined that the gesture operation from the top to the top has been repeated. Thereby, the gesture operation prevents, for example, a problem that images G1 and G2 shown in FIG. 17 to be described later are repeatedly displayed in the center. For example, the user US intends to move a plurality of screens unconsciously. Even when the hand HD is reciprocated, there is an advantage that the possibility of erroneous input is reduced. When instructing multiple screen feeds in the forward direction, of the up and down reciprocating movements of the hand HD, the downward movement from the top to the bottom is allowed to pass through the detection area, and the upward movement from the bottom to the outside is outside the detection area. By passing the, it is possible to input a continuous forward direction instruction instead of a round-trip instruction.

特にジェスチャー操作にて、ユーザーUSが手HDを上から下に下ろした場合、この位置が待機姿勢となるので、この位置に手HDを留めたとしても、ユーザーUSの負担が少なく自然な動作といえる。よって、正方向は上から下への方向とするのが望ましい。一方、ユーザーUSが手HDを下から上に上げた場合、手を上げた状態は待機姿勢ではないので、例えばジェスチャー操作の検出がタイムアウトするまで、この姿勢を維持するのはユーザーUSの負担が大きくなる。そこで、ジェスチャー操作においてユーザーUSが手HDを下から上に上げた後、再度上から下へ下ろすことで、入力内容を確定することとしたのである。以上より、負方向は下から上への方向とするのが望ましい。但し、ユーザーの好みにより、正負方向を逆にしても良い。   In particular, when the user US lowers the hand HD from the top to the bottom by a gesture operation, this position becomes a standby posture, so even if the hand HD is held at this position, the user US is less burdensome and natural. I can say that. Therefore, it is desirable that the positive direction is a direction from top to bottom. On the other hand, when the user US raises the hand HD from the bottom to the top, the state in which the hand is raised is not the standby posture, so it is a burden on the user US to maintain this posture until, for example, the detection of the gesture operation times out. growing. Therefore, in the gesture operation, the user US raises the hand HD from the bottom to the top and then lowers the hand HD again from the top to the bottom to confirm the input content. From the above, it is desirable that the negative direction is from bottom to top. However, the positive and negative directions may be reversed depending on the user's preference.

同様なことは、特定方向を左右方向として、ユーザーUSが手HDを、検出領域SAを通過するように左右に移動させた場合にもいえる。かかる場合、ジェスチャー操作は利き手(右利きの人は右手)を用いるのが自然であるから、ジェスチャー操作で用いた手が自分の体の利き手側にある状態を待機姿勢とするのが好ましい、従って右利きのユーザーUSが右手を用いることを前提に、手HDが検出領域SAを通過しつつ左から右へと移動したと近接センサー105が検出したときは、プロセッサー121はジェスチャー操作により手HDが左から右へ移動したと直ちに決定することができる。   The same applies to the case where the user US moves the hand HD left and right so as to pass through the detection area SA with the specific direction as the left and right direction. In such a case, since it is natural to use the dominant hand (right-handed person is the right hand) for the gesture operation, it is preferable that the hand used for the gesture operation be on the dominant hand side of the body, so that the standby posture is used. On the assumption that the right-handed user US uses the right hand, when the proximity sensor 105 detects that the hand HD has moved from the left to the right while passing through the detection area SA, the processor 121 moves the hand HD by a gesture operation. You can immediately determine that you have moved from left to right.

一方、手HDが検出領域SAを通過しつつ右から左へと移動したと近接センサー105が検出したときは、プロセッサー121は所定時間待った後に、更に手HDが検出領域SAを通過しつつ左から右へと移動したと近接センサー105が検出した時点で、ジェスチャー操作により手HDが右から左へ移動したと決定することができる。それ以外は、上述の制御と同様である。以上の例では、正方向は左から右への方向とし、負方向は右から左の方向としたが、左利きの人、或いはユーザーの好みにより、正負方向を逆にしても良い。   On the other hand, when the proximity sensor 105 detects that the hand HD has moved from the right to the left while passing through the detection area SA, the processor 121 waits for a predetermined time, and then the hand HD further passes through the detection area SA from the left. When the proximity sensor 105 detects that the hand has moved to the right, it can be determined that the hand HD has moved from the right to the left by a gesture operation. Other than that, it is the same as the above-mentioned control. In the above example, the positive direction is the left-to-right direction and the negative direction is the right-to-left direction. However, the positive / negative direction may be reversed depending on the preference of the left-handed person or the user.

又、特定方向を前後方向とした場合にも同様なことがいえる。上述したように手HDを検出領域SA内で前号方向に移動させると、近接センサー105からは図12の波形が出力される。このとき、ユーザーUSが手HDを近づけている方が待機姿勢に近いので、正方向はユーザーUSに近づく方向(図12の点線の波形)とし、負方向はユーザーUSから遠ざかる方向(図12の実線の波形)とするのが望ましい。更に、特定方向は斜め方向であっても良い。それ以外は、上述の制御と同様である。   The same can be said when the specific direction is the front-rear direction. As described above, when the hand HD is moved in the previous sign direction within the detection area SA, the proximity sensor 105 outputs the waveform of FIG. At this time, since the direction in which the user US is approaching the hand HD is closer to the standby posture, the positive direction is the direction approaching the user US (dotted line waveform in FIG. 12), and the negative direction is the direction away from the user US (in FIG. 12). (Solid line waveform) is desirable. Furthermore, the specific direction may be an oblique direction. Other than that, it is the same as the above-mentioned control.

ところで、特定方向に対して負方向に手を移動させたことを近接センサー105が検出した後に、次のジェスチャー操作をプロセッサー121は所定時間待つことになるが、所定時間を過ぎるまでジェスチャー操作が何ら行われず、近接センサー105から出力が行われない場合も想定される。かかる場合、プロセッサー121は2通りの判断制御のいずれかを実行できる。1つは、所定時間を過ぎるまでジェスチャー操作が何ら行われなかった場合、プロセッサー121が,保留していた負方向へのジェスチャー操作を無効とする判断制御(言い換えると、手HDが負方向へ移動したことに応じた近接センサー105の出力を入力内容の決定に用いない制御)であり、もう1つは保留していた負方向へのジェスチャー操作を直ちに確定する判断制御である。後者の場合、所定時間をおいて負方向へジェスチャー操作をするだけで連続した負方向指示を入力することができる。これらは、好みに応じて選択できる。   By the way, after the proximity sensor 105 detects that the hand is moved in the negative direction with respect to the specific direction, the processor 121 waits for a predetermined gesture operation for a predetermined time. It is also assumed that no output is performed from the proximity sensor 105 without being performed. In such a case, the processor 121 can execute one of two types of determination control. First, if no gesture operation is performed until a predetermined time has elapsed, the processor 121 determines that the suspended gesture operation in the negative direction is invalidated (in other words, the hand HD moves in the negative direction). The other control is a determination control that immediately confirms the suspended gesture operation in the negative direction. In the latter case, a continuous negative direction instruction can be input simply by performing a gesture operation in the negative direction after a predetermined time. These can be selected according to preference.

又、ジェスチャー操作を連続して行う場合も想定されるが、例えば特定方向(例えば上下方向)に対して正方向に手を移動させたことを近接センサー105が検出した場合には、プロセッサー121は直ちに特定方向の正方向のジェスチャー操作による入力内容を確定するので、続けて別のジェスチャー操作(特定方向における正方向のジェスチャー操作を含む)を近接センサー105が検出した場合、プロセッサー121は当該ジェスチャー操作の判断制御を直ちに行える。ところが、特定方向(例えば上下方向)に対して負方向に手を移動させたことを近接センサー105が検出した場合、プロセッサー121は所定時間その判断を保留して、次のジェスチャー操作を待ち受けるため、その所定時間の間に、特定方向における正方向以外の方向(別途方向:特定方向における負方向を含む)のジェスチャー操作を近接センサー105が検出したときに、その判断制御が問題となる。   In addition, although it is assumed that gesture operations are continuously performed, for example, when the proximity sensor 105 detects that the hand is moved in a positive direction with respect to a specific direction (for example, the vertical direction), the processor 121 Since the input content by the gesture operation in the positive direction in the specific direction is immediately determined, when the proximity sensor 105 detects another gesture operation (including the gesture operation in the positive direction in the specific direction), the processor 121 performs the gesture operation. This judgment control can be performed immediately. However, when the proximity sensor 105 detects that the hand is moved in a negative direction with respect to a specific direction (for example, the vertical direction), the processor 121 holds the determination for a predetermined time and waits for the next gesture operation. During the predetermined time, when the proximity sensor 105 detects a gesture operation in a direction other than the positive direction in the specific direction (separate direction: including the negative direction in the specific direction), the determination control becomes a problem.

かかる場合、プロセッサー121は2通りの判断制御のいずれかを実行できる。1つは、所定時間内に別途方向のジェスチャー操作が行われた場合、プロセッサー121が,保留していた負方向へのジェスチャー操作を無効とする判断制御(言い換えると、手HDが負方向へ移動したことに応じた近接センサー105の出力を入力内容の決定に用いない制御)であり、もう1つは保留していた負方向へのジェスチャー操作を直ちに確定する判断制御である。これらは、好みに応じて選択できる。いずれの場合も、プロセッサー121はジェスチャー操作待ちの状態を解除して、新たに別途方向へのジェスチャー操作に基づいて判断制御を続行する。   In such a case, the processor 121 can execute one of two types of determination control. First, when a gesture operation in a separate direction is performed within a predetermined time, the processor 121 determines that the suspended gesture operation in the negative direction is invalidated (in other words, the hand HD moves in the negative direction). The other control is a determination control that immediately confirms the suspended gesture operation in the negative direction. These can be selected according to preference. In any case, the processor 121 cancels the state of waiting for the gesture operation, and continues the determination control based on a new gesture operation in another direction.

図15は、以上の内容にかかるジェスチャー操作による入力方法を実行するためのフローチャートであり、かかる入力方法は、ROM204に格納された入力プログラムにより実行できる。ここで、プロセッサー121は、各ジェスチャー操作の特定方向,及びその正方向、負方向を、予め決めているものとする。以下の実施形態の場合は、特定方向を上下方向とし、正方向を上から下への方向、負方向を下から上への方向とする。上下方向以外は、特定方向としない。但し、上下方向及び左右方向の2方向を特定方向としてもよく、3つ以上の方向を特定方向としても良い。   FIG. 15 is a flowchart for executing the input method by the gesture operation according to the above contents, and this input method can be executed by the input program stored in the ROM 204. Here, it is assumed that the processor 121 predetermines a specific direction of each gesture operation and its positive and negative directions. In the following embodiments, the specific direction is the vertical direction, the positive direction is the direction from top to bottom, and the negative direction is the direction from bottom to top. Other than the vertical direction, no specific direction is set. However, the two directions of the up and down direction and the left and right direction may be specified directions, and three or more directions may be specified directions.

図15のステップS100で、ユーザーUSが指示体(ここでは手HD)をかざし、検出領域SA内を移動させることで、ステップS101で、近接センサー105が反応して信号を出力する。次に、ステップS102で、プロセッサー121が近接センサー105の出力から指示体の移動方向を判定し、特定方向でないと判定すれば、ステップS110で、そのジェスチャー操作に基づいて直ちに入力内容を確定する。一方、指示体の移動方向が特定方向であると判定されれば、続くステップS103で、プロセッサー121が近接センサー105の出力から、指示体の移動方向が特定方向の正方向(上→下)であると認定すれば、ステップS108で、特定方向の正方向のジェスチャー操作が行われたものとして入力内容を確定する。   In step S100 of FIG. 15, the user US holds the indicator (here, the hand HD) and moves it within the detection area SA, and in step S101, the proximity sensor 105 reacts and outputs a signal. Next, in step S102, if the processor 121 determines the moving direction of the indicator from the output of the proximity sensor 105 and determines that it is not the specific direction, in step S110, the input content is immediately determined based on the gesture operation. On the other hand, if it is determined that the moving direction of the indicator is the specific direction, in the subsequent step S103, the processor 121 determines that the moving direction of the indicator is the positive direction (up → down) of the specific direction from the output of the proximity sensor 105. If it is recognized that there is, the input content is determined in step S108 as if a positive gesture operation in a specific direction was performed.

一方、ステップS103で、プロセッサー121が、指示体の移動方向は特定方向ではあるが正方向(上→下)でない(つまり負方向)と認定すれば、ステップS104で、新たなジェスチャー操作が行われたか否かを確認しつつ、所定時間にわたって次のジェスチャー操作を待つ(ステップS105で判定No)。つまり、この時点でプロセッサー121は、負方向へのジェスチャー操作の入力内容の決定を保留する。これに対し、所定時間経過しても次のジェスチャー操作が行われないと判断すれば(ステップS105で判定Yes)、プロセッサー121は、ステップS107で、保留していた特定方向の負方向のジェスチャー操作に対応した入力内容が決定されたものとして入力内容を確定するか、或いは特定方向の負方向のジェスチャー操作が行われなかったものとする。   On the other hand, if the processor 121 determines in step S103 that the moving direction of the indicator is a specific direction but not a positive direction (up → down) (that is, a negative direction), a new gesture operation is performed in step S104. The next gesture operation is waited for a predetermined time while confirming whether or not (No in Step S105). That is, at this time, the processor 121 suspends the determination of the input content of the gesture operation in the negative direction. On the other hand, if it is determined that the next gesture operation is not performed even after a predetermined time has elapsed (Yes in step S105), the processor 121 determines in step S107 that the gesture operation in the negative direction of the specific direction that has been suspended is held. It is assumed that the input content corresponding to is determined, or the input content is confirmed, or a negative gesture operation in a specific direction is not performed.

これに対し、ステップS104で、所定時間内に次のジェスチャー操作が行われたと判断した場合、プロセッサー121は、ステップS106で、特定方向の負方向(下→上)のジェスチャー操作が行われた否かを判断し、行われたと判断した場合、ステップS108で、保留していた特定方向の負方向のジェスチャー操作が行われたものとして入力内容を確定する。   On the other hand, if it is determined in step S104 that the next gesture operation has been performed within the predetermined time, the processor 121 determines whether or not the gesture operation in the negative direction (down → up) in the specific direction has been performed in step S106. If it is determined that it has been performed, the input content is determined in step S108 as a negative gesture operation in a specific direction that has been suspended.

一方、ステップS106で、特定方向の正方向(上→下)のジェスチャー操作が行われなかったと判断した場合、プロセッサー121は、ステップS109で、保留していた特定方向の負方向のジェスチャー操作に対応した入力内容が決定されたものとして入力内容を確定するか、或いは特定方向の負方向のジェスチャー操作が行われなかったものとする。   On the other hand, if it is determined in step S106 that the gesture operation in the positive direction (up to down) in the specific direction has not been performed, the processor 121 responds to the gesture operation in the negative direction in the specific direction that has been suspended in step S109. It is assumed that the input content is confirmed as having been determined, or that a negative gesture operation in a specific direction has not been performed.

図16は、(a)手の動き、(b)近接センサー出力、(c)画面表示制御の例をタイムチャートで表した図である。ここで、特定方向を上下方向とし、上から下への方向を正方向とし、下から上への方向を負方向とする。近接センサーの出力は、検出領域内でオン、検出領域外でオフとなっているものとする。図17は、画像形成部104Aに表示される画像の例を示す図である。   FIG. 16 is a time chart showing an example of (a) hand movement, (b) proximity sensor output, and (c) screen display control. Here, the specific direction is the vertical direction, the direction from the top to the bottom is the positive direction, and the direction from the bottom to the top is the negative direction. The output of the proximity sensor is assumed to be on within the detection area and off outside the detection area. FIG. 17 is a diagram illustrating an example of an image displayed on the image forming unit 104A.

図16において、時間T0〜T1の間に、手が下から上と移動した場合、プロセッサー121は入力内容を確定しないので、ホーム画面(図17(a)に示す画像G1が中央に位置する画面)を表示し続ける。しかし、時間T1〜T2の間に、手が上から下と移動した場合、その手が検出領域外へと移動する時刻T2にてプロセッサー121は入力内容を確定し、ホーム画面から1番目の画面(図17(b)に示す画像G2が中央に位置する画面)へと表示が変更される。   In FIG. 16, when the hand moves from the bottom to the top during the time T0 to T1, the processor 121 does not determine the input content, so the home screen (the screen on which the image G1 shown in FIG. ) Will continue to be displayed. However, if the hand moves from top to bottom during time T1 to T2, the processor 121 determines the input content at time T2 when the hand moves out of the detection area, and the first screen from the home screen. The display is changed to (a screen in which the image G2 shown in FIG. 17B is located at the center).

更に時間T2〜T3の間に、手が下から上と移動した場合、プロセッサー121は入力内容を確定しないので、ホーム画面(図17(b)に示す画像G2が中央に位置する画面)を表示し続ける。しかし、時間T3〜T4において、手が上から下と移動した場合、その手が検出領域外へと移動する時刻T4にてプロセッサー121は入力内容を確定し、ホーム画面から2番目の画面(図17(c)に示す画像G3が中央に位置する画面)へと表示を変更する。   Further, when the hand moves from the bottom to the top during the time T2 to T3, the processor 121 does not determine the input content, so the home screen (screen in which the image G2 shown in FIG. 17B is located at the center) is displayed. Keep doing. However, if the hand moves from top to bottom at times T3 to T4, the processor 121 determines the input content at time T4 when the hand moves out of the detection area, and the second screen from the home screen (FIG. The display is changed to a screen in which an image G3 shown in FIG.

その後、時間T4〜T5の間に、手が上から下と移動した場合、その手が検出領域外へと移動する時刻T5にてプロセッサー121は入力内容を確定し、ホーム画面から1番目の画面(図17(b)に示す画像G2が中央に位置する画面)へと表示を変更する。   Thereafter, if the hand moves from top to bottom during time T4 to T5, the processor 121 determines the input content at time T5 when the hand moves out of the detection area, and the first screen from the home screen. The display is changed to (a screen in which the image G2 shown in FIG. 17B is located at the center).

尚、図17(a)に示すように、各種調整(Settings)の画像G1が中央に表示された状態で、手を左から右へと移動させれば、プロセッサー121によるジェスチャー検出によりOKボタンB1の入力が実行され、各種調整を行うことができるようになる。又、図17(b)に示すように、輝度(Brightness)の画像G2が中央に表示された状態で、手を左から右へと移動させれば、プロセッサー121によるジェスチャー検出によりOKボタンB1の入力が実行され、画像形成部104Aの輝度調整を行うことができる。更に、図17(c)に示すように、スピーカー(Sound)の画像G3が中央に表示された状態で、手を左から右へと移動させれば、プロセッサー121によるジェスチャー検出によりOKボタンB1の入力が実行され、スピーカー111Aの音量調整を行うことができる。   As shown in FIG. 17A, if the hand is moved from the left to the right while the image G1 of various adjustments (Settings) is displayed at the center, the OK button B1 is detected by gesture detection by the processor 121. Is input, and various adjustments can be made. Also, as shown in FIG. 17B, when the hand is moved from left to right with the brightness image G2 displayed in the center, the OK button B1 is detected by gesture detection by the processor 121. Input is executed, and brightness adjustment of the image forming unit 104A can be performed. Further, as shown in FIG. 17 (c), if the hand is moved from left to right in the state where the image G3 of the speaker (Sound) is displayed in the center, the OK button B1 is detected by gesture detection by the processor 121. The input is executed, and the volume of the speaker 111A can be adjusted.

尚、近接センサー105の向いている方向によって、ジェスチャー操作の入力方向が変化する。例えばユーザーUSが上方を仰ぎ見るような状態で、その眼前で顎から額に向かう方向にユーザーUSが略水平に手を動かした場合、これをプロセッサー121が特定方向の負方向として検出してジェスチャー操作を保留とすることになるが、必ずしも保留が必要でない場合もある。そこで、例えば特定方向を上下方向とする場合には、HMD100を装着したユーザーUSの顔面が鉛直面にほぼ正対していることを、加速度センサー110A等により検出した場合に限り、プロセッサー121が上述の制御を実行するようにしても良い。   Note that the input direction of the gesture operation changes depending on the direction in which the proximity sensor 105 is facing. For example, if the user US moves his hand in the direction from the chin to the forehead in front of his eyes while looking up, the processor 121 detects this as a negative direction in a specific direction and performs a gesture. Although the operation is put on hold, there is a case where the hold is not necessarily required. Therefore, for example, when the specific direction is the up-down direction, the processor 121 described above only when the acceleration sensor 110A or the like detects that the face of the user US wearing the HMD 100 is almost directly facing the vertical plane. You may make it perform control.

本発明は、明細書に記載の実施形態に限定されるものではなく、他の実施形態・変形例を含むことは、本明細書に記載された実施形態や技術思想から本分野の当業者にとって明らかである。明細書の記載及び実施形態は、あくまでも例証を目的としており、本発明の範囲は後述するクレームによって示されている。   The present invention is not limited to the embodiments described in the specification, and other embodiments and modifications are included for those skilled in the art from the embodiments and technical ideas described in the present specification. it is obvious. The description and the embodiments are for illustrative purposes only, and the scope of the present invention is indicated by the following claims.

100 HMD
101 フレーム
101a 前方部
101b 側部
101c 側部
101d 長孔
101e 長孔
102 眼鏡レンズ
103 主本体部
104 ディスプレイ
104A 画像形成部
104B 画像表示部
104DR 表示制御部
104a 光源
104b 一方向拡散板
104c 集光レンズ
104d 表示素子
104f 接眼プリズム
104g 偏向プリズム
104h ホログラム光学素子
104i 画面
105 近接センサー
105a 受光部
106 カメラ
106a レンズ
107 右副本体部
107a 突起
108 左副本体部
108a 突起
109 加速度センサー
110 ジャイロ
111A スピーカー
111B マイク
111C イヤホン
113 電源回路
121 プロセッサー
122 操作部
123 GPS受信部
124 通信部
125 ROM
126 RAM
127 バッテリー
128 バッテリー制御部
129 ストレージデバイス
130 電源回路
CD コード
CTU 制御ユニット
HD 手
HS 配線
PL1 基端面
PL2 内側面
PL3 外側面
PL4 傾斜面
PL5 傾斜面
RA-RD 受光領域
SA 検出領域
US ユーザー
100 HMD
101 Frame 101a Front part 101b Side part 101c Side part 101d Long hole 101e Long hole 102 Eyeglass lens 103 Main body part 104 Display 104A Image forming part 104B Image display part 104DR Display control part 104a Light source 104b Unidirectional diffuser 104c Condensing lens 104d Display element 104f Eyepiece prism 104g Deflection prism 104h Hologram optical element 104i Screen 105 Proximity sensor 105a Light receiving part 106 Camera 106a Lens 107 Right sub-main part 107a Protrusion 108 Left sub-main part 108a Protrusion 109 Acceleration sensor 110 Gyro 111A Speaker 111B Microphone 111C Earphone 113 Power supply circuit 121 Processor 122 Operation unit 123 GPS reception unit 124 Communication unit 125 ROM
126 RAM
127 Battery 128 Battery control unit 129 Storage device 130 Power supply circuit CD Code CTU Control unit HD Hand HS Wiring PL1 Base end surface PL2 Inner surface PL3 Outer surface PL4 Inclined surface PL5 Inclined surface RA-RD Light receiving area SA Detection area US User

Claims (13)

検出領域を持ち、ユーザーにより動かされる指示体が前記検出領域を移動する方向を検出して、それに応じた出力を生成する検出装置と、
前記検出装置の出力に応じて入力内容を決定する制御装置と、を備えた入力装置であって、
前記制御装置は、前記指示体が前記検出領域内において特定方向の正方向に移動したことを前記検出装置が検出したときは、前記特定方向の正方向に移動したことに対応する入力内容を決定し、
前記制御装置は、前記指示体が前記検出領域内において前記特定方向の正方向とは反対の負方向に移動したことを前記検出装置が検出したときは、前記特定方向の負方向に移動したことに対応する入力内容の決定を保留にした上で、更に所定時間内に前記指示体が前記検出領域内において前記特定方向の正方向に移動したことを前記検出装置が検出したときは、保留にしていた前記特定方向の負方向に移動したことに対応する入力内容を決定する入力装置。
A detection device having a detection area, detecting a direction in which the indicator moved by the user moves in the detection area, and generating an output corresponding thereto;
A control device for determining input contents according to the output of the detection device, and an input device comprising:
When the detection device detects that the indicator has moved in the positive direction of the specific direction within the detection area, the control device determines an input content corresponding to the movement of the indicator in the positive direction of the specific direction. And
The control device has moved in the negative direction of the specific direction when the detection device detects that the indicator has moved in the negative direction opposite to the positive direction of the specific direction in the detection area. When the detection device detects that the indicator has moved in the positive direction of the specific direction within the detection area within a predetermined time, the input content corresponding to is suspended. An input device for determining an input content corresponding to the movement in the negative direction of the specific direction.
前記制御装置は、前記所定時間の間に、前記指示体が前記検出領域内において前記特定方向の正方向に移動したことを前記検出装置が検出しなかったときは、保留にしていた前記指示体が前記特定方向の負方向に移動したことに対応する入力内容を決定する請求項1に記載の入力装置。   The control device holds the indicator when the detection device does not detect that the indicator has moved in the positive direction of the specific direction within the detection area during the predetermined time. The input device according to claim 1, wherein an input content corresponding to a movement in a negative direction of the specific direction is determined. 前記制御装置は、前記所定時間の間に、前記指示体が前記検出領域内において前記特定方向の正方向に移動したことを前記検出装置が検出しなかったときは、前記指示体が前記特定方向の負方向に移動したことに応じた前記検出装置の出力を入力内容の決定に用いない請求項1に記載の入力装置。   When the detection device does not detect that the indicator has moved in the positive direction of the specific direction within the detection area during the predetermined time, the control device detects that the indicator is in the specific direction. The input device according to claim 1, wherein the output of the detection device according to the movement in the negative direction is not used for determining the input content. 前記制御装置は、前記所定時間の間に、前記指示体が前記検出領域内において前記特定方向における正方向以外の別途方向に移動したことを前記検出装置が検出したときは、保留にしていた前記指示体が前記特定方向の負方向に移動したことに対応する入力内容を決定する請求項1〜3のいずれかに記載の入力装置。   The control device is put on hold when the detection device detects that the indicator has moved in a separate direction other than the positive direction in the specific direction within the detection region during the predetermined time. The input device according to claim 1, wherein the input content corresponding to the movement of the indicator in the negative direction of the specific direction is determined. 前記制御装置は、前記所定時間の間に、前記指示体が前記検出領域内において前記特定方向における正方向以外の別途方向に移動したことを前記検出装置が検出したときは、前記指示体が前記特定方向の負方向に移動したことに応じた前記検出装置の出力を入力内容の決定に用いない請求項1〜3のいずれかに記載の入力装置。   When the detection device detects that the indicator has moved in a separate direction other than the positive direction in the specific direction within the detection region during the predetermined time, the indicator is The input device according to claim 1, wherein the output of the detection device according to the movement in the negative direction of the specific direction is not used for determining the input content. 前記特定方向とは前記検出領域における上下方向であり、前記正方向とは前記検出領域において上から下への方向であり、前記負方向とは前記検出領域において下から上への方向である請求項1〜5のいずれかに記載の入力装置。   The specific direction is a vertical direction in the detection region, the positive direction is a direction from top to bottom in the detection region, and the negative direction is a direction from bottom to top in the detection region. Item 6. The input device according to any one of Items 1 to 5. 前記特定方向とは前記検出領域における左右方向である請求項1〜6のいずれかに記載の入力装置。   The input device according to claim 1, wherein the specific direction is a left-right direction in the detection region. 前記検出装置は、近接範囲にある物体を検出して出力を生成する近接センサーである請求項1〜7のいずれかに記載の入力装置。   The input device according to claim 1, wherein the detection device is a proximity sensor that detects an object in a proximity range and generates an output. 請求項1〜8のいずれかの入力装置を備え、操作者の体に取り付けられる電子機器。   An electronic device comprising the input device according to claim 1 and attached to an operator's body. 前記電子機器は、画像を表示できる画面を備えた表示部材と、前記操作者の頭部に取り付けられる支持部材とを有し、前記支持部材は、前記表示部材を前記操作者の眼前に位置するように支持すると共に、前記入力装置の検出領域が前記操作者の眼前となるように前記入力部材を支持する請求項9に記載の電子機器。   The electronic device includes a display member having a screen capable of displaying an image and a support member attached to the head of the operator, and the support member positions the display member in front of the operator's eyes. The electronic apparatus according to claim 9, wherein the input member is supported so that a detection area of the input device is in front of the operator's eyes. 請求項1〜8のいずれかの入力装置と、画像表示部と、を備え、前記入力装置からの出力によって前記画像表示部の表示画面の操作を行う電子機器。   An electronic apparatus comprising the input device according to claim 1 and an image display unit, and operating a display screen of the image display unit by an output from the input device. 検出領域を持ち、ユーザーにより動かされる指示体が前記検出領域を移動する方向を検出して、それに応じた出力を生成する検出装置を備え、前記検出装置の出力に応じて入力内容を決定する電子機器の入力方法であって、
前記指示体が前記検出領域内において特定方向の正方向に移動したことを前記検出装置が検出したときは、前記特定方向の正方向に移動したことに対応する入力内容を決定し、 前記指示体が前記検出領域内において前記特定方向の正方向とは反対の負方向に移動したことを前記検出装置が検出したときは、前記特定方向の負方向に移動したことに対応する入力内容の決定を保留にした上で、更に所定時間内に前記指示体が前記検出領域内において前記特定方向の正方向に移動したことを前記検出装置が検出したときは、保留にしていた前記特定方向の負方向に移動したことに対応する入力内容を決定する電子機器の入力方法。
An electronic device having a detection area, including a detection device that detects a direction in which the indicator moved by the user moves in the detection region and generates an output corresponding thereto, and determines input contents according to the output of the detection device A device input method,
When the detection device detects that the indicator has moved in the positive direction of the specific direction within the detection area, the input content corresponding to the movement in the positive direction of the specific direction is determined, and the indicator Is detected in the negative direction opposite to the positive direction of the specific direction in the detection area, the input content corresponding to the movement in the negative direction of the specific direction is determined. When the detection device detects that the indicator has moved in the positive direction of the specific direction within the detection area within a predetermined time after being put on hold, the negative direction of the specific direction put on hold The input method of the electronic device which determines the input content corresponding to having moved to.
検出領域を持ち、ユーザーにより動かされる指示体が前記検出領域を移動する方向を検出して、それに応じた出力を生成する検出装置を備え、前記検出装置の出力に応じて入力内容を決定する電子機器の入力プログラムであって、
前記指示体が前記検出領域内において特定方向の正方向に移動したことを前記検出装置が検出したときは、前記特定方向の正方向に移動したことに対応する入力内容を決定し、 前記指示体が前記検出領域内において前記特定方向の正方向とは反対の負方向に移動したことを前記検出装置が検出したときは、前記特定方向の負方向に移動したことに対応する入力内容の決定を保留にした上で、更に所定時間内に前記指示体が前記検出領域内において前記特定方向の正方向に移動したことを前記検出装置が検出したときは、保留にしていた前記特定方向の負方向に移動したことに対応する入力内容を決定する電子機器の入力プログラム。
An electronic device having a detection area, including a detection device that detects a direction in which the indicator moved by the user moves in the detection region and generates an output corresponding thereto, and determines input contents according to the output of the detection device A device input program,
When the detection device detects that the indicator has moved in the positive direction of the specific direction within the detection area, the input content corresponding to the movement in the positive direction of the specific direction is determined, and the indicator Is detected in the negative direction opposite to the positive direction of the specific direction in the detection area, the input content corresponding to the movement in the negative direction of the specific direction is determined. When the detection device detects that the indicator has moved in the positive direction of the specific direction within the detection area within a predetermined time after being put on hold, the negative direction of the specific direction put on hold An input program for an electronic device that determines the input content corresponding to the movement to.
JP2017545160A 2015-10-16 2016-10-04 Input device, electronic device, input method of electronic device, and input program thereof Pending JPWO2017065050A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015204196 2015-10-16
JP2015204196 2015-10-16
PCT/JP2016/079413 WO2017065050A1 (en) 2015-10-16 2016-10-04 Input device, electronic apparatus, electronic apparatus input method, and input program for input device, electronic apparatus, and electronic apparatus input method

Publications (1)

Publication Number Publication Date
JPWO2017065050A1 true JPWO2017065050A1 (en) 2018-08-02

Family

ID=58517312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017545160A Pending JPWO2017065050A1 (en) 2015-10-16 2016-10-04 Input device, electronic device, input method of electronic device, and input program thereof

Country Status (2)

Country Link
JP (1) JPWO2017065050A1 (en)
WO (1) WO2017065050A1 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5187280B2 (en) * 2009-06-22 2013-04-24 ソニー株式会社 Operation control device and operation control method
JP5766957B2 (en) * 2011-01-14 2015-08-19 オリンパス株式会社 Gesture input device
JP5701714B2 (en) * 2011-08-05 2015-04-15 株式会社東芝 Gesture recognition device, gesture recognition method, and gesture recognition program
JP5703194B2 (en) * 2011-11-14 2015-04-15 株式会社東芝 Gesture recognition apparatus, method thereof, and program thereof
JP5610644B2 (en) * 2012-04-27 2014-10-22 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Input device, input support method, and program
JP5372273B2 (en) * 2013-03-07 2013-12-18 富士通テン株式会社 Display device
JP6222830B2 (en) * 2013-12-27 2017-11-01 マクセルホールディングス株式会社 Image projection device

Also Published As

Publication number Publication date
WO2017065050A1 (en) 2017-04-20

Similar Documents

Publication Publication Date Title
JP6617974B2 (en) Electronic device, method for controlling electronic device, and control program therefor
JP5957875B2 (en) Head mounted display
TWI498771B (en) Gesture recognition system and glasses with gesture recognition function
US9360935B2 (en) Integrated bi-sensing optical structure for head mounted display
JP2013125247A (en) Head-mounted display and information display apparatus
JP5927867B2 (en) Display system and operation input method
JP6398870B2 (en) Wearable electronic device and gesture detection method for wearable electronic device
JP6036217B2 (en) Display device, head-mounted display device, and display device control method
JP2014142751A (en) Display device, head-mounted type display device, and method for controlling display device
JP2017182228A (en) Input device, input method, and computer program
WO2016052061A1 (en) Head-mounted display
EP3276448B1 (en) Wearable electronic device, gesture detection method for wearable electronic device, and gesture detection program for wearable electronic device
WO2016072271A1 (en) Display device, method for controlling display device, and control program therefor
JP2014154074A (en) Input device, head-mounted type display device, and method for controlling input device
WO2017065050A1 (en) Input device, electronic apparatus, electronic apparatus input method, and input program for input device, electronic apparatus, and electronic apparatus input method
WO2017065051A1 (en) Input device, electronic apparatus, electronic apparatus input method, and input program for input device, electronic apparatus, and electronic apparatus input method
WO2017094557A1 (en) Electronic device and head-mounted display
CN106155605B (en) Display processing method and electronic equipment
JP6176368B2 (en) Head mounted display and information display device
WO2017104525A1 (en) Input device, electronic device, and head-mounted display
WO2018092674A1 (en) Display apparatus and gesture input method
TWI492099B (en) Glasses with gesture recognition function
JP2017228300A (en) Image display device, head-mounted display, information display device, display processing method, and program
WO2016190057A1 (en) Wearable electronic device and gesture detection method for wearable electronic device
JP6432583B2 (en) Display device, head-mounted display device, and display device control method