JP2017004532A - Head-mounted display and information display - Google Patents

Head-mounted display and information display Download PDF

Info

Publication number
JP2017004532A
JP2017004532A JP2016124526A JP2016124526A JP2017004532A JP 2017004532 A JP2017004532 A JP 2017004532A JP 2016124526 A JP2016124526 A JP 2016124526A JP 2016124526 A JP2016124526 A JP 2016124526A JP 2017004532 A JP2017004532 A JP 2017004532A
Authority
JP
Japan
Prior art keywords
image
display
operation surface
input operation
detection target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016124526A
Other languages
Japanese (ja)
Other versions
JP6176368B2 (en
Inventor
翼 塚原
Tsubasa Tsukahara
翼 塚原
正俊 上野
Masatoshi Ueno
正俊 上野
憲一 樺澤
Kenichi Kabasawa
憲一 樺澤
栗屋 志伸
Yukinobu Kuriya
志伸 栗屋
後藤 哲郎
Tetsuo Goto
哲郎 後藤
尚子 菅野
Naoko Sugano
尚子 菅野
大介 川上
Daisuke Kawakami
大介 川上
中川 俊之
Toshiyuki Nakagawa
俊之 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016124526A priority Critical patent/JP6176368B2/en
Publication of JP2017004532A publication Critical patent/JP2017004532A/en
Application granted granted Critical
Publication of JP6176368B2 publication Critical patent/JP6176368B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a head-mounted display having excellent operability conforming to the intuition of a user, and an information display.SOLUTION: In an information display 100, a head-mounted display 1 comprises a receiving part, an image display element 14, and a display processing part. The receiving part receives an operation signal outputted from an input device 2, and including information regarding a relative position of a detection object in contact with an input operation face 21. The image display element 14 forms an image presented to a user. The display processing part displays an operation image in which an image is superimposed with an auxiliary image for indicating a position of the detection object, on the image display element 14 on the basis of the operation signal.SELECTED DRAWING: Figure 1

Description

本技術は、ヘッドマウントディスプレイ及び情報表示装置に関する。   The present technology relates to a head mounted display and an information display device.

ユーザの頭部に装着され、眼前に配置されたディスプレイ等によってユーザ個人に画像を提示することが可能な、ヘッドマウントディスプレイ(HMD)が知られている。HMDとしては、外光を透過させず、ユーザに所定の画像のみを表示する非透過型HMDと、ユーザに外界を視認させつつ、例えば所定の画像をユーザの視界に重ねて表示する透過型HMDとに分類される。例えば特許文献1には、HMD本体にボタン等の操作入力部を配置した非透過型HMDが記載されている。   2. Description of the Related Art A head mounted display (HMD) is known that is mounted on a user's head and can present an image to the individual user with a display or the like disposed in front of the eyes. As the HMD, a non-transmissive HMD that does not transmit external light and displays only a predetermined image to the user, and a transmissive HMD that displays a predetermined image superimposed on the user's visual field while allowing the user to visually recognize the external environment, for example. And classified. For example, Patent Document 1 describes a non-transparent HMD in which an operation input unit such as a button is disposed on an HMD main body.

一方、近年、情報処理装置等への入力方法として、占有面積が大きく多様化に限界があるボタン等に替わり、指示項目(GUI:Graphical User Interface)を切り替えてユーザに多数のGUIを提示可能なタッチパネル方式が主流となりつつある。そこで、特許文献2には、ユーザの視野範囲にタッチパネルの入力操作面を配置して入力操作を行う、透過型のHMDが記載されている。   On the other hand, in recent years, as an input method to an information processing apparatus or the like, it is possible to present a large number of GUIs to a user by switching indication items (GUI: Graphical User Interface) instead of buttons having a large occupation area and a limit to diversification. The touch panel system is becoming mainstream. Therefore, Patent Document 2 describes a transmissive HMD in which an input operation surface of a touch panel is arranged in a user's visual field range and an input operation is performed.

特開2008−70817号公報JP 2008-70817 A 特開2010−145861号公報JP 2010-145861 A

しかしながら、特許文献2に記載の透過型HMDでは、タッチパネルの入力操作面をHMDを介した視野範囲に配置して使用しなくてはならず、入力操作と画像上の表示との矛盾が生じやすく、操作性に問題があった。   However, in the transmissive HMD described in Patent Document 2, the input operation surface of the touch panel has to be used in the field of view via the HMD and is inconsistent with the input operation and the display on the image. There was a problem with operability.

以上のような事情に鑑み、本技術の目的は、ユーザの直感に即し、優れた操作性を有するヘッドマウントディスプレイ及び情報表示装置を提供することにある。   In view of the circumstances as described above, an object of the present technology is to provide a head mounted display and an information display device having excellent operability in accordance with the user's intuition.

上記目的を達成するため、本技術の一形態に係るヘッドマウントディスプレイは、受信部と、画像表示素子と、表示処理部とを具備する。
上記受信部は、入力デバイスから出力される、入力操作面に接触する検出対象の相対位置に関する情報を含む操作信号を受信する。
上記画像表示素子は、ユーザに提示される画像を形成する。
上記表示処理部は、上記操作信号に基づき、上記画像に上記検出対象の位置を示す補助画像が重畳した操作画像を、上記画像表示素子に表示させる。
In order to achieve the above object, a head mounted display according to an embodiment of the present technology includes a receiving unit, an image display element, and a display processing unit.
The reception unit receives an operation signal that is output from the input device and includes information on a relative position of a detection target that is in contact with the input operation surface.
The image display element forms an image presented to the user.
The display processing unit causes the image display element to display an operation image in which an auxiliary image indicating the position of the detection target is superimposed on the image based on the operation signal.

上記ヘッドマウントディスプレイ(HMD)を装着することで、ユーザは、入力操作面に接触する指等の検出対象の相対位置に関する情報を、HMDによって提示される操作画像中の補助画像によって視認することができる。これにより、ユーザは、入力操作面を確認することなく、HMDによる操作画像を見ながら直感に即した操作を行うことが可能となる。   By wearing the head-mounted display (HMD), the user can visually recognize information on the relative position of a detection target such as a finger that touches the input operation surface with an auxiliary image in the operation image presented by the HMD. it can. Accordingly, the user can perform an intuitive operation while viewing the operation image by the HMD without confirming the input operation surface.

上記ヘッドマウントディスプレイにおいて、上記受信部は、上記入力デバイスから出力される画像信号をさらに受信し、上記表示処理部は、上記画像信号に基づき、上記画像を上記画像表示素子に表示させてもよい。
このような構成のHMDは、専用の入力デバイスだけではなく、例えばタッチパネルが搭載された携帯端末等を入力デバイスとして用いることが可能となる。これにより、上記HMDによって携帯端末等の多様なアプリケーション等を使用することが可能となる。
In the head mounted display, the receiving unit may further receive an image signal output from the input device, and the display processing unit may display the image on the image display element based on the image signal. .
The HMD configured as described above can use not only a dedicated input device but also a mobile terminal equipped with a touch panel, for example, as an input device. Thereby, various applications such as a portable terminal can be used by the HMD.

上記表示処理部は、上記操作信号に基づき、上記画像の表示領域において上記補助画像を移動させてもよい。
これにより、ユーザは、上記操作画像によって、入力操作面上に接触するの検出対象の経時的な相対位置を確認することができ、より操作性を高めることが可能となる。
The display processing unit may move the auxiliary image in the display area of the image based on the operation signal.
As a result, the user can confirm the temporal relative position of the detection target in contact with the input operation surface from the operation image, and the operability can be further improved.

また、上記操作信号は、上記入力操作面に対する上記検出対象の接触圧に関する情報を含み、上記表示処理部は、上記入力操作面に対する上記検出対象の接触圧に応じて上記補助画像の表示形態を変化させてもよい。
これにより、上記HMDは、例えばユーザの入力操作面上での「押し込み」操作を操作画像上に反映することができる。したがって、ユーザは、入力操作面への接触と「押し込み」とを組み合わせた多彩な操作を行うことが可能となる。
The operation signal includes information regarding the contact pressure of the detection target with respect to the input operation surface, and the display processing unit displays a display form of the auxiliary image according to the contact pressure of the detection target with respect to the input operation surface. It may be changed.
Accordingly, the HMD can reflect, for example, a “push” operation on the input operation surface of the user on the operation image. Therefore, the user can perform various operations combining the touch on the input operation surface and “push”.

上記ヘッドマウントディスプレイは、上記操作信号に基づいて、上記入力操作面上の上記検出対象の座標位置を算出する演算部をさらに具備し、上記表示処理部は、上記演算部で算出された上記検出対象の座標位置に基づき、上記操作画像を上記画像表示素子に表示させてもよい。
上記ヘッドマウントディスプレイは、入力デバイスから検出された信号を処理することができ、単純な装置構成の入力デバイスであっても使用することが可能となる。
The head mounted display further includes a calculation unit that calculates the coordinate position of the detection target on the input operation surface based on the operation signal, and the display processing unit is configured to detect the detection calculated by the calculation unit. The operation image may be displayed on the image display element based on the target coordinate position.
The head mounted display can process a signal detected from an input device, and can be used even with an input device having a simple apparatus configuration.

上記目的を達成するため、本技術の一形態に係る情報表示装置は、入力デバイスと、ヘッドマウントディスプレイとを具備する。
上記入力デバイスは、入力操作面と、上記入力操作面に対する検出対象の接触を検出し、上記入力操作面上の上記検出対象の座標位置に関する情報を出力するセンサ部と、を有する。
上記ヘッドマウントディスプレイは、ユーザに提示される画像を形成する画像表示素子と、上記センサ部の出力に基づき、上記画像に上記検出対象の位置を示す補助画像が重畳した操作画像を上記画像表示素子に形成させる表示処理部と、を有する。
In order to achieve the above object, an information display apparatus according to an embodiment of the present technology includes an input device and a head mounted display.
The input device includes an input operation surface and a sensor unit that detects contact of the detection target with the input operation surface and outputs information on the coordinate position of the detection target on the input operation surface.
The head mounted display includes an image display element that forms an image to be presented to a user, and an operation image in which an auxiliary image indicating the position of the detection target is superimposed on the image based on the output of the sensor unit. And a display processing unit to be formed.

上記情報表示装置は、ヘッドマウントディスプレイによって入力デバイスへの入力操作に基づいた画像をユーザに提示することができ、ユーザは、入力操作面を確認することなく直感に即した操作を行うことが可能となる。   The information display device can present an image based on the input operation to the input device to the user by the head-mounted display, and the user can perform an intuitive operation without checking the input operation surface. It becomes.

上記センサ部は、上記検出対象によって上記入力操作面に加えられた接触圧を検出するように構成されてもよい。
さらに、この際、上記ヘッドマウントディスプレイは、上記操作面からの上記検出対象の接触圧に応じて、上記補助画像の表示形態を変化させてもよい。
上記入力デバイスは、入力操作面に対する検出対象による接触圧(押し込み力)を検出することができ、その情報をHMDによる操作画像に反映することが可能となる。これにより、ユーザは、より多様な操作が可能となる。
The sensor unit may be configured to detect a contact pressure applied to the input operation surface by the detection target.
Furthermore, at this time, the head mounted display may change the display form of the auxiliary image according to the contact pressure of the detection target from the operation surface.
The input device can detect a contact pressure (pushing force) by a detection target with respect to the input operation surface, and can reflect the information on an operation image by the HMD. Thereby, the user can perform more various operations.

また、上記センサ部は、上記入力操作面上における上記検出対象の動きを検出し、上記ヘッドマウントディスプレイは、検出された上記検出対象の動きに応じて移動する上記補助画像を表示してもよい。   The sensor unit may detect the movement of the detection target on the input operation surface, and the head mounted display may display the auxiliary image that moves in accordance with the detected movement of the detection target. .

上記入力デバイスは、上記入力操作面に画像を表示させる表示素子をさらに有し、
上記ヘッドマウントディスプレイは、上記入力操作面に表示される画像に上記補助画像を重畳させた画像を上記操作画像として表示してもよい。
The input device further includes a display element that displays an image on the input operation surface,
The head mounted display may display an image obtained by superimposing the auxiliary image on the image displayed on the input operation surface as the operation image.

上記目的を達成するため、本技術の一形態に係る情報表示装置は、入力デバイスと、ヘッドマウントディスプレイとを具備する。
上記入力デバイスは、入力操作面と、上記検出対象による上記入力操作面への接触を検出するセンサ部と、を有する。
上記ヘッドマウントディスプレイは、ユーザに提示される画像を形成する画像表示素子と、上記センサ部の出力に基づいて上記入力操作面上の上記検出対象の座標位置を算出する演算部と、上記演算部で算出された上記検出対象の座標位置に基づき、上記画像に検出対象の位置を示す補助画像が重畳した操作画像を上記画像表示素子に形成させる表示処理部と、を有する。
In order to achieve the above object, an information display apparatus according to an embodiment of the present technology includes an input device and a head mounted display.
The input device includes an input operation surface and a sensor unit that detects contact of the detection target with the input operation surface.
The head-mounted display includes an image display element that forms an image presented to a user, a calculation unit that calculates a coordinate position of the detection target on the input operation surface based on an output of the sensor unit, and the calculation unit And a display processing unit that causes the image display element to form an operation image in which an auxiliary image indicating the position of the detection target is superimposed on the image based on the coordinate position of the detection target calculated in step (1).

上記情報表示装置は、入力デバイスの構成を単純なものとすることができる。これにより、入力デバイスの軽量化等が実現でき、長時間の操作においても疲労感の少ない情報表示装置を提供することができる。   The information display apparatus can simplify the configuration of the input device. Thereby, weight reduction of an input device etc. can be implement | achieved and the information display apparatus with few feelings of fatigue can be provided even for a long time operation.

以上のように、本技術によれば、ユーザの直感に即し、優れた操作性を有するヘッドマウントディスプレイ及び情報表示装置を提供することが可能となる。   As described above, according to the present technology, it is possible to provide a head mounted display and an information display device having excellent operability in accordance with the user's intuition.

本技術の第1の実施形態に係る情報処理装置を示す模式的な斜視図である。It is a typical perspective view showing an information processor concerning a 1st embodiment of this art. 本技術の第1の実施形態に係る入力デバイスの内部構成を示すブロック図である。It is a block diagram showing an internal configuration of an input device concerning a 1st embodiment of this art. 本技術の第1の実施形態に係るヘッドマウントディスプレイ(HMD)の内部構成を示すブロック図である。1 is a block diagram showing an internal configuration of a head mounted display (HMD) according to a first embodiment of the present technology. 本技術の第1の実施形態に係る情報処理装置の一動作例におけるフローチャートである。6 is a flowchart in an operation example of the information processing apparatus according to the first embodiment of the present technology. 本技術の第1の実施形態に係る情報表示装置の典型的な動作例を説明する図であり、(A)は、ユーザが入力操作を行っている入力デバイスの入力操作面を示し、(B)は、HMDを介してユーザに提示される操作画面を示す。It is a figure explaining the typical operation example of the information display apparatus which concerns on 1st Embodiment of this technique, (A) shows the input operation surface of the input device which the user is performing input operation, (B ) Shows an operation screen presented to the user via the HMD. 本技術の第2の実施形態に係る情報表示装置の一動作例を示すフローチャートである。12 is a flowchart illustrating an operation example of the information display device according to the second embodiment of the present technology. 本技術の第3の実施形態に係る入力デバイスの内部構成を示すブロック図である。It is a block diagram showing an internal configuration of an input device concerning a 3rd embodiment of this art. 本技術の第3の実施形態に係るHMDの内部構成を示すブロック図である。It is a block diagram which shows the internal structure of HMD which concerns on the 3rd Embodiment of this technique. 本技術の第3の実施形態に係る情報表示装置の典型的な動作例を説明する図であり、(A)は、ユーザが入力操作を行っている入力デバイスの入力操作面を示し、(B)は、HMDを介してユーザに提示される操作画面を示す。It is a figure explaining the typical operation example of the information display apparatus which concerns on 3rd Embodiment of this technique, (A) shows the input operation surface of the input device which the user is performing input operation, (B ) Shows an operation screen presented to the user via the HMD. 本技術の第4の実施形態に係るHMDの内部構成を示すブロック図である。It is a block diagram showing an internal configuration of HMD concerning a 4th embodiment of this art. 本技術の第5の実施形態において、指による接触圧に応じてHMDの画像上の補助画像が大きくなる例を示す図であり、(A)は、ユーザの指が入力操作面に軽く接触した態様を示し、(B)は、その際のHMDの操作画像を示す。In a 5th embodiment of this art, it is a figure showing an example where an auxiliary picture on a picture of HMD becomes large according to contact pressure with a finger, and (A) is a user's finger lightly touching an input operation side. A mode is shown, (B) shows the operation image of HMD in that case. 本技術の第5の実施形態において、指による接触圧に応じてHMDの画像上の補助画像が大きくなる例を示す図であり、(A)は、ユーザの指が入力操作面上に押し込まれた態様を示し、(B)は、その際のHMDの操作画像を示す。In a 5th embodiment of this art, it is a figure showing an example where an auxiliary picture on a picture of HMD becomes large according to contact pressure with a finger, and (A) is a user's finger pushed on an input operation surface. (B) shows an operation image of the HMD at that time. 本技術の第5の実施形態に係る操作画像の一例を示す図であり、指による接触圧に応じてHMDの画像上の補助画像の色が変化する例を示す。It is a figure which shows an example of the operation image which concerns on 5th Embodiment of this technique, and shows the example from which the color of the auxiliary image on the image of HMD changes according to the contact pressure by a finger | toe. 本技術の第5の実施形態に係る操作画像の一例を示す図であり、指による接触圧に応じてHMDの画像上の補助画像の色が変化する例を示す。It is a figure which shows an example of the operation image which concerns on 5th Embodiment of this technique, and shows the example from which the color of the auxiliary image on the image of HMD changes according to the contact pressure by a finger | toe. 本技術の第2の実施形態の変形例を示す図であり、(A)は、ユーザが入力操作面上で2本の指を押し込みつつこれらの距離を広げた態様を示し、(B)は、この際に操作画像が拡大する態様を示す。It is a figure which shows the modification of 2nd Embodiment of this technique, (A) shows the aspect which extended these distances, while the user pushed two fingers on the input operation surface, (B) is In this case, an operation image is enlarged. 本技術の第2の実施形態の変形例を示す図であり、(A)は、ユーザが入力操作面上で2本の指を押し込みつつこれらの距離を狭めた態様を示し、(B)は、この際に操作画像が縮小する態様を示す。It is a figure which shows the modification of 2nd Embodiment of this technique, (A) shows the aspect which narrowed these distance, while the user pushed two fingers on the input operation surface, (B) In this case, the operation image is reduced.

以下、本技術に係る実施形態を、図面を参照しながら説明する。   Hereinafter, embodiments according to the present technology will be described with reference to the drawings.

<第1の実施形態>
[情報表示装置]
図1は、本技術の一実施形態に係る情報表示装置を示す模式的な斜視図である。本実施形態の情報表示装置100は、ヘッドマウントディスプレイ(HMD)1と、入力デバイス2とを有する。
<First Embodiment>
[Information display device]
FIG. 1 is a schematic perspective view showing an information display device according to an embodiment of the present technology. The information display apparatus 100 according to the present embodiment includes a head mounted display (HMD) 1 and an input device 2.

HMD1は、本実施形態において、透過型HMDとして構成される。HMD1は、全体としてメガネ型の形状を有し、ユーザが頭部に装着して外界を視認しつつ、入力デバイス2から出力された情報に基づく画像をユーザに提示させることが可能に構成される。   The HMD 1 is configured as a transmissive HMD in the present embodiment. The HMD 1 has a glasses-like shape as a whole, and is configured to allow the user to present an image based on information output from the input device 2 while wearing the head and visually recognizing the outside world. .

入力デバイス2は、無線でHMD1と通信可能に接続されているが、ケーブル等によって有線でHMD1と通信可能に構成されてもよい。本実施形態では、入力デバイス2は、例えばタッチパネルを有する携帯端末で構成され、インターネット等にも接続されることが可能に構成される。また、入力デバイス2は、HMD1のいわゆるリモートコントローラとして機能し、HMD1の各種設定等に関する入力操作が可能に構成されることも可能である。   The input device 2 is wirelessly communicably connected to the HMD 1, but may be configured to be communicable with the HMD 1 by a cable or the like. In this embodiment, the input device 2 is comprised with the portable terminal which has a touchscreen, for example, and is comprised so that the internet etc. can be connected. The input device 2 functions as a so-called remote controller of the HMD 1 and can be configured to allow input operations related to various settings of the HMD 1.

以下、入力デバイス2及びHMD1について説明する。   Hereinafter, the input device 2 and the HMD 1 will be described.

[入力デバイス]
入力デバイス2は、例えばユーザが把持できる大きさの筐体2Aを有する。筐体2Aは、x軸方向に長手方向、y軸方向に短手方向、z軸方向に厚み方向を有する略直方体であり、筐体2Aの一方の表面には入力操作面21が形成されている。入力操作面21は、x軸及びこれに直交するy軸に座標軸を有する2次元的な座標系に属し、x軸方向に平行な長辺と、y軸方向に平行な短辺とを有する、z軸に垂直な矩形状を有する。
[Input device]
The input device 2 includes, for example, a housing 2A that can be gripped by the user. The housing 2A is a substantially rectangular parallelepiped having a longitudinal direction in the x-axis direction, a short direction in the y-axis direction, and a thickness direction in the z-axis direction, and an input operation surface 21 is formed on one surface of the housing 2A. Yes. The input operation surface 21 belongs to a two-dimensional coordinate system having a coordinate axis on the x-axis and a y-axis orthogonal thereto, and has a long side parallel to the x-axis direction and a short side parallel to the y-axis direction. It has a rectangular shape perpendicular to the z-axis.

入力デバイス2は、例えばユーザの手指を検出対象とし、入力操作面21上における指のxy座標位置及びその変化を検出する機能を有する。入力デバイス2はさらに、指による入力操作面21のz軸方向の撓み量、すなわち接触圧を検出する機能を有する。これにより、入力操作面21上における指の移動方向、移動速度、移動量等とともに、指による入力操作面21へのz軸方向の接触圧が取得される。なお、検出対象はユーザの指に限られず、スタイラス等とすることもできる。   The input device 2 has a function of detecting the xy coordinate position of a finger on the input operation surface 21 and a change thereof, for example, with a user's finger as a detection target. The input device 2 further has a function of detecting the amount of bending of the input operation surface 21 by the finger in the z-axis direction, that is, the contact pressure. Thereby, the contact pressure in the z-axis direction on the input operation surface 21 by the finger is acquired together with the movement direction, movement speed, movement amount, and the like of the finger on the input operation surface 21. The detection target is not limited to the user's finger, and may be a stylus or the like.

入力操作面21は、本実施形態において、光透過性の表示カバー等で構成され、検出対象による入力操作が行われるとともに、画像を表示させる画面としての機能も有する。入力操作面21は、例えば、筐体2Aの表面に形成された開口部21Aを覆うように配置され、周縁が筐体2Aに固定される。また、入力操作面21は、所定以上の接触圧に対して撓み変形が可能なように、その材料、厚み及び大きさ等が設定される。入力操作面21を構成する材料としては、例えば、アクリル樹脂、ポリカーボネート樹脂、PET(ポリエチレンテレフタレート)等の透明プラスチック板、ガラス板、セラミックス板等が採用される。   In this embodiment, the input operation surface 21 is configured by a light-transmissive display cover or the like, and performs an input operation depending on a detection target and also has a function as a screen for displaying an image. For example, the input operation surface 21 is disposed so as to cover an opening 21A formed on the surface of the housing 2A, and the periphery thereof is fixed to the housing 2A. Further, the material, thickness, size, and the like of the input operation surface 21 are set so that the input operation surface 21 can be bent and deformed with respect to a predetermined contact pressure or more. As a material constituting the input operation surface 21, for example, an acrylic resin, a polycarbonate resin, a transparent plastic plate such as PET (polyethylene terephthalate), a glass plate, a ceramic plate, or the like is employed.

図2は、入力デバイス2の内部構成を示すブロック図である。入力デバイス2は、筐体2Aと、入力操作面21と、タッチセンサ22と、感圧センサ23と、表示素子24と、制御部25と、記憶部26と、送受信器27と、通信部28と、バッテリBTとを有する。タッチセンサ22と、感圧センサ23とは、本実施形態において「センサ部」を構成する。   FIG. 2 is a block diagram showing an internal configuration of the input device 2. The input device 2 includes a housing 2A, an input operation surface 21, a touch sensor 22, a pressure sensor 23, a display element 24, a control unit 25, a storage unit 26, a transceiver 27, and a communication unit 28. And a battery BT. The touch sensor 22 and the pressure sensor 23 constitute a “sensor unit” in the present embodiment.

タッチセンサ22は、入力操作面21とほぼ同一の形状及び大きさのパネル形状を有する。タッチセンサ22は、入力操作面21の直下に配置され、入力操作面21に接触する検出対象(指)を検出する。タッチセンサ22は、入力操作面21上の検出対象のxy平面上での動きに対応する座標位置を検出し、その座標位置に応じた検出信号を出力する。   The touch sensor 22 has a panel shape having substantially the same shape and size as the input operation surface 21. The touch sensor 22 is disposed immediately below the input operation surface 21 and detects a detection target (finger) that contacts the input operation surface 21. The touch sensor 22 detects a coordinate position corresponding to the movement of the detection target on the input operation surface 21 on the xy plane, and outputs a detection signal corresponding to the coordinate position.

タッチセンサ22は、本実施形態において、入力操作面21に接触する検出対象を静電的に検出することが可能な静電容量方式のタッチパネルが用いられる。静電容量方式のタッチパネルは、プロジェクテッドキャパシティブ式(投影型)でもよいし、サーフェイスキャパシティブ式(表面型)でもよい。この種のタッチセンサ22は、典型的には、y軸方向に平行な第1の配線がx軸方向に複数配列されたx位置検出用の第1のセンサ22xと、x軸方向に平行な第2の配線がy軸方向に複数配列された位置検出用の第2のセンサ22yとを有し、これら第1及び第2のセンサ22x,22yはz軸方向に相互に対向して配置される。タッチセンサ22は、例えば後述する制御部25に含まれる駆動回路によって、第1及び第2の配線へ信号電流が順次供給される。   In the present embodiment, the touch sensor 22 is a capacitive touch panel that can electrostatically detect a detection target that contacts the input operation surface 21. The capacitive touch panel may be a projected capacitive type (projection type) or a surface capacitive type (surface type). This type of touch sensor 22 is typically parallel to the x-axis direction and the first sensor 22x for x-position detection in which a plurality of first wirings parallel to the y-axis direction are arranged in the x-axis direction. The second wiring 22 has a plurality of position detection second sensors 22y arranged in the y-axis direction, and the first and second sensors 22x and 22y are arranged to face each other in the z-axis direction. The The touch sensor 22 is sequentially supplied with signal currents to the first and second wirings, for example, by a drive circuit included in the control unit 25 described later.

上記以外にも、タッチセンサ22としては、検出対象の座標位置を検出できるセンサであれば特に限定されず、抵抗膜式、赤外線式、超音波式、表面弾性波式、音響波照合式、赤外線イメージセンサなどの種々のタイプが適用可能である。   In addition to the above, the touch sensor 22 is not particularly limited as long as it can detect the coordinate position of the detection target, and is a resistive film type, an infrared type, an ultrasonic type, a surface acoustic wave type, an acoustic wave matching type, an infrared ray type, and the like. Various types such as an image sensor are applicable.

感圧センサ23としては、本実施形態において、検出対象による入力操作面21のZ軸方向の接触圧を静電的に検出することが可能な感圧センサが用いられる。感圧センサ23は、例えば、入力操作面21と筐体2Aとの間に配置されz軸方向に対向する1対以上の電極を有し、入力操作面21の撓みによって生じた電極間の静電容量の変化によって接触圧を検出する。また感圧センサ23として、上記一対の電極間に弾性体が配置されたものが採用されてもよく、この場合、入力操作面21への押圧操作に伴う上記弾性体の弾性変形によって生じた電極間の静電容量の変化によって上記接触圧が検出される。なお感圧センサ23は、例えば後述する制御部25に含まれる駆動回路によって駆動されることが可能である。   In the present embodiment, a pressure sensor that can electrostatically detect a contact pressure in the Z-axis direction of the input operation surface 21 by a detection target is used as the pressure sensor 23. The pressure-sensitive sensor 23 has, for example, one or more pairs of electrodes that are arranged between the input operation surface 21 and the housing 2 </ b> A and face each other in the z-axis direction. The contact pressure is detected by the change in capacitance. In addition, a sensor in which an elastic body is disposed between the pair of electrodes may be employed as the pressure sensor 23. In this case, an electrode generated by elastic deformation of the elastic body accompanying a pressing operation to the input operation surface 21. The contact pressure is detected by a change in capacitance between the two. Note that the pressure sensor 23 can be driven by, for example, a drive circuit included in a control unit 25 described later.

感圧センサ23としては、上記の構成に限られない。例えば、圧電素子を用いた圧電センサや、ストレインゲージ等を用いることも可能である。   The pressure sensor 23 is not limited to the above configuration. For example, a piezoelectric sensor using a piezoelectric element, a strain gauge, or the like can be used.

表示素子24は、入力操作面21及びタッチセンサ22の直下に配置される。本実施形態における表示素子24としては特に限られず、液晶ディスプレイや有機ELディスプレイ等を用いることが可能である。これにより、入力操作面21に文字や絵柄等の画像を表示させることが可能となる。   The display element 24 is disposed immediately below the input operation surface 21 and the touch sensor 22. The display element 24 in the present embodiment is not particularly limited, and a liquid crystal display, an organic EL display, or the like can be used. As a result, it is possible to display images such as characters and pictures on the input operation surface 21.

制御部25は、典型的には、CPU(Central Processing Unit)あるいはMPU(Micro-Processing Unit)で構成される。本実施形態において制御部25は、演算部251と信号生成部252とを有し、記憶部26に格納されたプログラムに従って各種機能を実行する。演算部251は、タッチセンサ22及び感圧センサ23から出力される電気的な信号に対して所定の演算処理を実行し、入力操作面21に接触する検出対象の相対位置に関する情報を含む操作信号を生成する。信号生成部252は、これらの演算結果に基づいて、表示素子24に画像を表示させるための画像信号を生成する。制御部25は、タッチセンサ22を駆動するための駆動回路を有し、本実施形態において当該駆動回路は演算部251に組み込まれる。   The control unit 25 is typically configured by a CPU (Central Processing Unit) or an MPU (Micro-Processing Unit). In the present embodiment, the control unit 25 includes a calculation unit 251 and a signal generation unit 252, and executes various functions according to programs stored in the storage unit 26. The calculation unit 251 performs a predetermined calculation process on the electrical signals output from the touch sensor 22 and the pressure sensor 23 and includes an operation signal including information on the relative position of the detection target that contacts the input operation surface 21. Is generated. The signal generation unit 252 generates an image signal for displaying an image on the display element 24 based on these calculation results. The control unit 25 has a drive circuit for driving the touch sensor 22, and the drive circuit is incorporated in the calculation unit 251 in the present embodiment.

演算部251は、具体的には、タッチセンサ22及び感圧センサ23から出力される信号に基づいて、入力操作面21上における指のxy座標位置及び接触圧を算出する。さらに、演算部251は、上記算出結果に基づき、例えば、検出対象が所定のxy座標位置にあることが検出され、さらに、その座標位置において所定の閾値以上の接触圧が検出された場合、その座標位置に対応するGUIに割り当てられた所定の処理を実行する。演算部251によるこれらの処理結果は、信号生成部252に送信される。   Specifically, the calculation unit 251 calculates the xy coordinate position and the contact pressure of the finger on the input operation surface 21 based on signals output from the touch sensor 22 and the pressure sensor 23. Further, based on the above calculation result, for example, the calculation unit 251 detects that the detection target is at a predetermined xy coordinate position, and further detects a contact pressure equal to or higher than a predetermined threshold at the coordinate position. A predetermined process assigned to the GUI corresponding to the coordinate position is executed. These processing results by the calculation unit 251 are transmitted to the signal generation unit 252.

信号生成部252では、演算部251から送信された処理結果に基づき、表示素子24に表示させる画像を形成するための画像信号を生成する。この際、信号生成部252は、入力操作面21上の画像の検出対象のxy座標位置に対応する位置にポインタあるいは輝度、彩度の変化した領域等の補助画像を表示させる信号を生成することも可能である。また、信号生成部252は、検出対象の接触圧に応じて、補助画像の表示形態を変化させる信号を生成することも可能である。   The signal generation unit 252 generates an image signal for forming an image to be displayed on the display element 24 based on the processing result transmitted from the calculation unit 251. At this time, the signal generation unit 252 generates a signal for displaying an auxiliary image such as a pointer or a region in which luminance or saturation has changed at a position corresponding to the xy coordinate position of the detection target of the image on the input operation surface 21. Is also possible. The signal generation unit 252 can also generate a signal that changes the display form of the auxiliary image according to the contact pressure of the detection target.

制御部25の演算部251で算出されたxy座標位置及び接触圧に関する操作信号と、信号生成部252で生成された画像信号とは、送受信器27を介してHMD1へ送信されるように構成される。また図示せずとも、入力装置2は、タッチセンサ22や感圧センサ23から出力される検出信号(アナログ信号)をデジタル信号に変換するA/Dコンバータや、デジタル信号をアナログ信号に変換するD/Aコンバータを含む。   The operation signal related to the xy coordinate position and the contact pressure calculated by the calculation unit 251 of the control unit 25 and the image signal generated by the signal generation unit 252 are configured to be transmitted to the HMD 1 via the transceiver 27. The Although not shown, the input device 2 is an A / D converter that converts a detection signal (analog signal) output from the touch sensor 22 or the pressure sensor 23 into a digital signal, or a D that converts a digital signal into an analog signal. Includes / A converter.

記憶部26は、RAM(Random Access Memory)、ROM(Read Only Memory)及びその他の半導体メモリ等で構成され、制御部25による種々の演算に用いられるプログラム等を格納する。例えば、ROMは、不揮発性メモリで構成され、制御部25にxy座標位置及び接触圧の算出等の演算処理を実行させるためのプログラムや設定値を格納する。また、記憶部26は、例えば不揮発性の半導体メモリによって、検出対象のxy座標位置及び接触圧と、これらに対応して割り当てられた機能を実行するためのプログラム等を格納することが可能となる。さらに、半導体メモリ等に予め格納されたこれらのプログラムは、RAMにロードされ、制御部25の演算部251によって実行されるようにしてもよい。   The storage unit 26 includes a RAM (Random Access Memory), a ROM (Read Only Memory), and other semiconductor memories, and stores programs used for various operations by the control unit 25. For example, the ROM is configured by a non-volatile memory, and stores a program and a set value for causing the control unit 25 to perform arithmetic processing such as calculation of the xy coordinate position and the contact pressure. In addition, the storage unit 26 can store, for example, a xy coordinate position and a contact pressure to be detected, and a program for executing a function assigned corresponding to the xy coordinate position to be detected by a nonvolatile semiconductor memory. . Furthermore, these programs stored in advance in a semiconductor memory or the like may be loaded into the RAM and executed by the calculation unit 251 of the control unit 25.

送受信器27は、制御部25によって生成された各種制御信号を、例えば無線でHMD1へ送信可能に構成される。また送受信器27は、HMD2から送信される所定の信号を受信可能に構成される。一方、通信部28は、インターネット等の通信網と接続される。通信部28は、例えばアプリケーション等の所定のプログラムを入力デバイス2にダウンロードする際に用いられる。通信部28における情報の送受信は、LANケーブル等を用いた有線によるものでもよいし、高速データ通信等の無線によるものでもよい。   The transceiver 27 is configured to be able to transmit various control signals generated by the control unit 25 to the HMD 1 wirelessly, for example. The transceiver 27 is configured to be able to receive a predetermined signal transmitted from the HMD 2. On the other hand, the communication unit 28 is connected to a communication network such as the Internet. The communication unit 28 is used when, for example, a predetermined program such as an application is downloaded to the input device 2. Transmission / reception of information in the communication unit 28 may be performed by wire using a LAN cable or the like, or may be performed wirelessly such as high-speed data communication.

バッテリBTは、入力デバイス2の電源を構成し、筐体2A内部の各部へ必要な電力を供給する。バッテリBTは、一次電池でもよいし、二次電池でもよい。またバッテリBTは、太陽電池で構成されてもよい。さらに、入力デバイス2は、押圧により入力デバイス2の起動等を制御する図示しない外部スイッチを有することも可能である。   The battery BT constitutes a power source for the input device 2 and supplies necessary power to each part inside the housing 2A. The battery BT may be a primary battery or a secondary battery. Battery BT may be formed of a solar cell. Furthermore, the input device 2 can also have an external switch (not shown) that controls activation of the input device 2 by pressing.

[HMD]
HMD1は透過型HMDであり、ユーザに外界を視認させつつ、その視野領域に所定の画像を提示することが可能に構成される。本実施形態に係るHMD1は、画像表示装置11と、支持部16とを有し、全体としてメガネ型の形状を有する。例えば、HMD1として透過型のHMDを採用することにより、入力デバイス2の操作中であっても外界を視認することが可能となり、操作中の安全性を向上させることができる。
[HMD]
The HMD 1 is a transmissive HMD, and is configured to be able to present a predetermined image in the visual field region while allowing the user to visually recognize the outside world. The HMD 1 according to the present embodiment includes an image display device 11 and a support unit 16 and has a glasses-like shape as a whole. For example, by adopting a transmissive HMD as the HMD 1, it is possible to visually recognize the outside world even during operation of the input device 2, and safety during operation can be improved.

支持部16は、ユーザの頭部に装着されることが可能であり、装着時に、後述する画像表示素子14がユーザの眼前に支持されるように構成される。支持部16の形状は特に限られないが、本実施形態において、全体としてメガネ型の形状とすることができる。支持部16は、例えば、ユーザの左右の耳に装着されることが可能なテンプル状構造を有する。支持部16の鼻梁付近には、例えばノーズパッド161が取り付けられることも可能である。また、イヤホン162が支持部16に装備されていてもよい。支持部16を構成する材料は、例えば、金属や合金、プラスチック等を採用することができ、特に制限されない。   The support unit 16 can be mounted on the user's head, and is configured such that an image display element 14 described later is supported in front of the user's eyes when mounted. The shape of the support portion 16 is not particularly limited, but in the present embodiment, the shape can be a glasses shape as a whole. The support portion 16 has, for example, a temple-like structure that can be worn on the left and right ears of the user. For example, a nose pad 161 can be attached near the nose bridge of the support portion 16. Further, the earphone 162 may be mounted on the support portion 16. For example, a metal, an alloy, a plastic, or the like can be adopted as the material constituting the support portion 16 and is not particularly limited.

画像表示装置11は、筐体11Aを含み、例えば支持部16の所定位置に配置される。画像表示装置11の配置は特に制限されず、例えば、筐体11Aが、ユーザの視野領域に含まれないように、ユーザの左右の目の外側に配置される。   The image display device 11 includes a housing 11 </ b> A and is disposed at a predetermined position of the support unit 16, for example. The arrangement of the image display device 11 is not particularly limited. For example, the housing 11A is arranged outside the left and right eyes of the user so as not to be included in the user's visual field region.

図3は、画像表示装置11の内部構成を示すブロック図である。画像表示装置11は、本実施形態において、筐体11Aと、送受信器(受信部)12と、制御部13と、画像表示素子14と、記憶部15とを有する。本実施形態においては、制御部13が「表示処理部」を構成する。   FIG. 3 is a block diagram showing an internal configuration of the image display device 11. In the present embodiment, the image display device 11 includes a housing 11A, a transceiver (reception unit) 12, a control unit 13, an image display element 14, and a storage unit 15. In the present embodiment, the control unit 13 constitutes a “display processing unit”.

送受信器12は、入力デバイス2の送受信器27から出力され、入力操作面21に接触する検出対象のxy座標位置及び接触圧に関する情報を含む操作信号を受信する。さらに、入力デバイス2の入力操作面21に表示される画像の画像信号を受信することも可能である。上記信号の伝送方法は特に限定されない。例えば、無線通信として、「Wi Fi」(登録商標)、「ZigBee」(登録商標)、「Bluetooth」(登録商標)などの機器間通信、またインターネットを経由した通信等を用いることができる。また、USB(Universal Serial Bus)、HDMI(登録商標)等を介した有線によるものでも可能である。   The transmitter / receiver 12 receives an operation signal that is output from the transmitter / receiver 27 of the input device 2 and includes information on the xy coordinate position of the detection target that contacts the input operation surface 21 and the contact pressure. Furthermore, it is also possible to receive an image signal of an image displayed on the input operation surface 21 of the input device 2. The signal transmission method is not particularly limited. For example, communication between devices such as “Wi Fi” (registered trademark), “ZigBee” (registered trademark), “Bluetooth” (registered trademark), communication via the Internet, or the like can be used as wireless communication. Also, a wired connection via USB (Universal Serial Bus), HDMI (registered trademark), or the like is possible.

制御部13は、典型的には、CPUあるいはMPUで構成され、記憶部15に格納されたプログラムに従って各種機能を実行する。本実施形態において制御部13は、送受信器12により受信された操作信号及び画像信号に基づき、ユーザに提示される画像を画像表示素子14に形成させるための制御信号を生成する。これにより、例えば入力操作面21に表示された画像と同様の画像に、検出対象の位置を示す補助画像が重畳した操作画像を、画像表示素子14に表示させることが可能となる。補助画像の形状は特に限られず、例えば環状(リング状)のポインタ、あるいは輝度、彩度の変化した領域等で構成される。   The control unit 13 is typically composed of a CPU or MPU, and executes various functions according to a program stored in the storage unit 15. In the present embodiment, the control unit 13 generates a control signal for causing the image display element 14 to form an image presented to the user based on the operation signal and the image signal received by the transceiver 12. Accordingly, for example, an operation image in which an auxiliary image indicating the position of the detection target is superimposed on an image similar to the image displayed on the input operation surface 21 can be displayed on the image display element 14. The shape of the auxiliary image is not particularly limited, and is composed of, for example, an annular (ring-shaped) pointer or a region where luminance and saturation are changed.

画像表示素子14は、本実施形態において、液晶表示素子(LCD)141と、光学系142とを有し、LCD141によって形成された画像を、光学系142を介してユーザに提示するように構成される。   In the present embodiment, the image display element 14 includes a liquid crystal display element (LCD) 141 and an optical system 142, and is configured to present an image formed by the LCD 141 to the user via the optical system 142. The

LCD141は、複数の画素がマトリクス状に配置されている。LCD141は、LED(発光ダイオード)等からなる図示しない光源から入射される光を、制御部13によって生成された制御信号に応じて画素毎に変調し、ユーザに提示される画像を形成する光を出射する。LCD141は、例えば、R(赤),G(緑),B(青)の各色に対応する画像光を同時に出射する単板方式でもよいし、各色に対応する画像光を個々に出射する3板方式でもよい。   The LCD 141 has a plurality of pixels arranged in a matrix. The LCD 141 modulates light incident from a light source (not shown) formed of an LED (light emitting diode) or the like for each pixel according to a control signal generated by the control unit 13, and forms light that forms an image presented to the user. Exit. The LCD 141 may be, for example, a single plate type that simultaneously emits image light corresponding to each color of R (red), G (green), and B (blue), or three plates that individually emit image light corresponding to each color. The method may be used.

光学系142は、LCD141から出射された光を偏向し、ユーザの目に導くことが可能に構成される。光学系142は、例えば、全反射による導光が可能な透明基板からなる導光板と、回折反射が可能な反射型体積ホログラム回折格子等とで構成されることができる。導光板は、例えば、矩形または円形の平板形状等で形成され、メガネのレンズのようにユーザの眼前に配置される。ホログラム回折格子等は、導光板内に適宜配置され、LCD141から出射される光を反射させ、ユーザの目に導くことが可能に作製される。また、ホログラム回折格子以外にも、例えば反射板等を採用することができる。   The optical system 142 is configured to deflect light emitted from the LCD 141 and guide the light to the eyes of the user. The optical system 142 can be composed of, for example, a light guide plate made of a transparent substrate capable of guiding light by total reflection, a reflective volume hologram diffraction grating capable of diffraction reflection, and the like. The light guide plate is formed in, for example, a rectangular or circular flat plate shape, and is disposed in front of the user's eyes like a lens of glasses. A hologram diffraction grating or the like is appropriately disposed in the light guide plate, and is manufactured so as to reflect the light emitted from the LCD 141 and guide it to the eyes of the user. In addition to the hologram diffraction grating, for example, a reflector or the like can be employed.

このような構成の光学系142は、LCD141から出射された光が所定位置で反射されることで、ユーザの視野領域に操作画像を提示することが可能となる。また、導光板が透明基板で形成されることによって、ユーザに外界を視認させつつ、操作画像を視野領域内に重畳的に提示することが可能となる。   The optical system 142 having such a configuration can present an operation image in the visual field area of the user by reflecting the light emitted from the LCD 141 at a predetermined position. In addition, since the light guide plate is formed of a transparent substrate, it is possible to present the operation image in a superimposed manner in the visual field region while allowing the user to visually recognize the outside world.

記憶部15は、RAM、ROM及びその他の半導体メモリ等で構成され、制御部13による種々の演算に用いられるプログラム等を格納する。   The storage unit 15 includes a RAM, a ROM, and other semiconductor memories, and stores programs used for various calculations by the control unit 13.

スピーカ17は、入力デバイス2より送信され、あるいは制御部13等によって生成された電気的な音声信号を物理的な振動に変換し、イヤホン162を介してユーザに音声を提供する。なお、スピーカ17の構成は特に限られない。   The speaker 17 converts an electrical sound signal transmitted from the input device 2 or generated by the control unit 13 or the like into physical vibration, and provides sound to the user via the earphone 162. The configuration of the speaker 17 is not particularly limited.

なお、画像表示装置11は、両目に対応して2個配置される構成に限られない。例えば、左右一方の目のみに対応して1個配置される構成とすることも可能である。   In addition, the image display apparatus 11 is not restricted to the structure arrange | positioned corresponding to both eyes. For example, it is possible to adopt a configuration in which one piece is arranged corresponding to only one of the left and right eyes.

[情報表示装置の動作例]
次に、情報表示装置100の基本的な動作例について説明する。
[Operation example of information display device]
Next, a basic operation example of the information display apparatus 100 will be described.

図4は、HMD1(制御部13)及び入力デバイス2(制御部25)の一動作例におけるフローチャートである。図5は、情報表示装置100の典型的な動作例を説明する図であり、(A)は、ユーザが入力操作を行っている入力デバイス2の入力操作面21を示し、(B)は、HMD1を介してユーザに提示される操作画面を示す。ここでは、ユーザがHMD1を装着し、入力デバイス2の入力操作面21上の所定位置で押し込み操作を行った際の情報表示装置100の動作例を示す。なお、図中のX軸方向及びY軸方向は、入力操作面21のx軸方向及びy軸方向にそれぞれ対応し、いずれも直交する平面方向を示す。Z軸方向は、入力操作面21のz軸方向に対応し、X軸方向及びY軸方向にそれぞれ直交する方向を示す。   FIG. 4 is a flowchart of an operation example of the HMD 1 (control unit 13) and the input device 2 (control unit 25). FIG. 5 is a diagram for explaining a typical operation example of the information display apparatus 100. FIG. 5A shows the input operation surface 21 of the input device 2 on which the user performs an input operation, and FIG. The operation screen shown to a user via HMD1 is shown. Here, an operation example of the information display apparatus 100 when the user wears the HMD 1 and performs a pushing operation at a predetermined position on the input operation surface 21 of the input device 2 is shown. Note that the X-axis direction and the Y-axis direction in the figure correspond to the x-axis direction and the y-axis direction of the input operation surface 21, respectively, and both indicate planar directions that are orthogonal to each other. The Z-axis direction corresponds to the z-axis direction of the input operation surface 21 and indicates directions orthogonal to the X-axis direction and the Y-axis direction, respectively.

起動された入力デバイス2の入力操作面21上には、例えば、GUIが多数表示された画像v1が表示されている(図5(A))。画像v1は、例えばHMD1の各種設定のメニュー選択画面であり、各GUIは、HMD1の消音モードへの切り替え、音量調節、操作画像の拡大・縮小あるいはポインタの表示形態の変更等に対応している。すなわち、入力デバイス2は、ユーザによって特定のGUIが選択されることで、HMD1の設定を変更することが可能に構成される。   For example, an image v1 in which a large number of GUIs are displayed is displayed on the input operation surface 21 of the activated input device 2 (FIG. 5A). The image v1 is, for example, a menu selection screen for various settings of the HMD1, and each GUI corresponds to switching to the mute mode of the HMD1, volume adjustment, enlargement / reduction of the operation image, change of the display form of the pointer, and the like. . That is, the input device 2 is configured to be able to change the setting of the HMD 1 by selecting a specific GUI by the user.

この際、入力デバイス2と接続され、起動されたHMD1を装着したユーザにも、HMD1を介して視野領域に画像v1と同様の画像V1が提示される。   At this time, the user who is connected to the input device 2 and wears the activated HMD1 is also presented with the image V1 similar to the image v1 in the visual field region via the HMD1.

入力デバイス2は、タッチセンサ22によって入力操作面21上でのユーザの指(検出対象)の接触を判定する(ステップST101)。接触が検出された際(ステップST101でYES)、タッチセンサ22は、指が接触した入力操作面21上のxy座標位置に関する検出信号を制御部25へ出力する。   The input device 2 determines contact of the user's finger (detection target) on the input operation surface 21 with the touch sensor 22 (step ST101). When contact is detected (YES in step ST101), the touch sensor 22 outputs a detection signal related to the xy coordinate position on the input operation surface 21 touched by the finger to the control unit 25.

制御部25の演算部251は、上記検出信号に基づいて、入力操作面21上における指のxy座標位置を算出する(ステップST102)。演算部251によって算出されたxy座標位置に関する信号は、送受信器27に出力される。   The computing unit 251 of the control unit 25 calculates the xy coordinate position of the finger on the input operation surface 21 based on the detection signal (step ST102). A signal related to the xy coordinate position calculated by the calculation unit 251 is output to the transceiver 27.

送受信器27は、HMD1の送受信器12に上記xy座標位置に関する操作信号を送信する。   The transceiver 27 transmits an operation signal related to the xy coordinate position to the transceiver 12 of the HMD 1.

HMD1の制御部13は、送受信器12で受信した操作信号及び画像信号に基づいて、画像V1に検出対象の位置を示す補助画像(ポインタP)が重畳した操作画像V10を制御する信号を生成する。この制御信号が出力された画像表示素子14は、ユーザに操作画像V10を提示する(ステップST103、図5(B))。これにより、ユーザは、手元の入力操作面21を見ずとも、HMD1によって提示される操作画像V10上のポインタPの動きを確認することで、所望の操作を行うことが可能となり、ユーザの直感に即した操作を行うことが可能となる。なお、この際、入力操作面21に表示される画像は、画像v1のみであってもよいし、画像v1にポインタ等が重畳された画像であってもよい。   Based on the operation signal and the image signal received by the transceiver 12, the control unit 13 of the HMD 1 generates a signal for controlling the operation image V10 in which the auxiliary image (pointer P) indicating the position of the detection target is superimposed on the image V1. . The image display element 14 to which this control signal has been output presents the operation image V10 to the user (step ST103, FIG. 5B). Thus, the user can perform a desired operation by checking the movement of the pointer P on the operation image V10 presented by the HMD 1 without looking at the input operation surface 21 at hand, and the user's intuition. It is possible to perform an operation in accordance with. At this time, the image displayed on the input operation surface 21 may be only the image v1 or an image in which a pointer or the like is superimposed on the image v1.

また、ユーザの指が入力操作面21上で接触しつつ移動した場合(図5(A)(B)における矢印参照)、経時的に変化するxy座標位置の情報がタッチセンサ22によって取得される。この情報は、入力デバイス2の制御部25によって操作信号として処理され、送受信器27、12を介してHMD1の制御部13へ出力される。これにより、制御部13は、上記操作信号に基づき、ポインタPを移動させるような制御信号をLCD141に出力することができ、ユーザの指の移動に応じて、画像V1の表示領域におけるポインタPを移動させることが可能となる。   Further, when the user's finger moves while touching on the input operation surface 21 (see arrows in FIGS. 5A and 5B), information on the xy coordinate position that changes with time is acquired by the touch sensor 22. . This information is processed as an operation signal by the control unit 25 of the input device 2 and is output to the control unit 13 of the HMD 1 via the transceivers 27 and 12. Accordingly, the control unit 13 can output a control signal for moving the pointer P to the LCD 141 based on the operation signal, and the pointer P in the display area of the image V1 can be displayed according to the movement of the user's finger. It can be moved.

入力デバイス2の制御部25は、算出されたxy座標位置に最も近いGUI(以下、選択GUIとする)を選択候補とする(ステップST104)。これに対応して、入力操作面21及びHMD1に表示される画像v1、V10の選択候補のGUIは、例えば枠の色彩等の表示形態を変化させてもよい。またユーザは、HMD1によって表示された画像V10を視認することで、選択候補のGUIを確認することが可能となる。   The control unit 25 of the input device 2 sets a GUI closest to the calculated xy coordinate position (hereinafter referred to as a selection GUI) as a selection candidate (step ST104). Correspondingly, the GUI of the selection candidates of the images v1 and V10 displayed on the input operation surface 21 and the HMD 1 may change the display form such as the color of the frame. In addition, the user can check the GUI of the selection candidate by visually recognizing the image V10 displayed by the HMD1.

制御部25は、経時的に指と入力操作面21との接触状態を判定する(ステップST105)。ここで、ユーザが入力操作面21から指を離間させると、タッチセンサ22は、指が接触していないときの信号を出力する。制御部25は、当該タッチセンサ22の出力に基づいて、入力操作面21と指との非接触を判定する(ステップST105でYES)。この場合は、HMD1の操作画像V10からポインタPが消滅し、画像V1に戻る。   The controller 25 determines the contact state between the finger and the input operation surface 21 over time (step ST105). Here, when the user moves the finger away from the input operation surface 21, the touch sensor 22 outputs a signal when the finger is not touching. The control unit 25 determines non-contact between the input operation surface 21 and the finger based on the output of the touch sensor 22 (YES in step ST105). In this case, the pointer P disappears from the operation image V10 of the HMD1, and the screen returns to the image V1.

一方、ユーザが入力操作面21から指を離間させていない場合、タッチセンサ22は、指が接触しているときの信号を出力する。制御部25は、当該タッチセンサ22の出力に基づいて、ユーザの指が入力操作面21に接触していると判定し(ステップST105でNO)、その後、感圧センサ21の出力に基づいて入力操作面21に対する指の接触圧を検出する(ステップST106)。   On the other hand, when the user does not move the finger away from the input operation surface 21, the touch sensor 22 outputs a signal when the finger is in contact. Based on the output of the touch sensor 22, the control unit 25 determines that the user's finger is in contact with the input operation surface 21 (NO in step ST105), and then inputs based on the output of the pressure sensor 21. The contact pressure of the finger on the operation surface 21 is detected (step ST106).

選択候補GUIは、当該選択候補GUIの表示位置に対するユーザの押圧操作によって選択(決定)される。制御部25は、感圧センサ23の出力に基いて、演算部251において接触圧を算出する。ここで、算出された接触圧が所定の閾値以上の場合(ステップST106でYES)、制御部25は、当該選択候補のGUIを選択GUIとして判定し、記憶部26に格納されたこの選択GUIに対応するコード情報を取得する(ステップST107)。   The selection candidate GUI is selected (determined) by the user's pressing operation on the display position of the selection candidate GUI. Based on the output of the pressure-sensitive sensor 23, the control unit 25 calculates the contact pressure in the calculation unit 251. If the calculated contact pressure is equal to or greater than the predetermined threshold (YES in step ST106), the control unit 25 determines the selection candidate GUI as the selection GUI, and uses this selection GUI stored in the storage unit 26 as a selection GUI. Corresponding code information is acquired (step ST107).

一方、制御部25は、算出された接触圧が所定の閾値未満の場合(ステップST106でNO)、選択候補のGUIは選択されなかったものと判定する。この場合、制御部25は、ステップST105へ戻り、上述した処理を繰り返す。   On the other hand, when the calculated contact pressure is less than the predetermined threshold (NO in step ST106), the control unit 25 determines that the selection candidate GUI has not been selected. In this case, the control part 25 returns to step ST105, and repeats the process mentioned above.

さらに、制御部25は、取得した上記コード情報を、送受信器27を介してHMD1へ送信する(ステップST108)。HMD1の制御部13は、送受信器12を介して受信した上記コード情報に基づき、選択GUIに対応する処理を実行する。この処理は、例えば記憶部15に格納されたプログラム等に基づいて実行される。例えば、選択GUIに対応する機能が「消音モードへの切り替え」であった場合、制御部13は、当該GUIに対応するコード情報に基づいて処理を実行することにより、HMD1の設定を消音モードに切り替えることが可能となる。   Furthermore, the control unit 25 transmits the acquired code information to the HMD 1 via the transceiver 27 (step ST108). The control unit 13 of the HMD 1 executes processing corresponding to the selected GUI based on the code information received via the transceiver 12. This process is executed based on, for example, a program stored in the storage unit 15. For example, when the function corresponding to the selected GUI is “switching to the mute mode”, the control unit 13 executes the process based on the code information corresponding to the GUI to set the setting of the HMD 1 to the mute mode. It is possible to switch.

また、ステップST107で取得されたコード情報が、例えば音量調整等であれば、制御部13は、このコード情報に基づく画像制御信号を生成し、画像表示素子14へ出力することもできる。これにより、HMD1を装着したユーザには、例えば音量調節バー等が重畳された新たな操作画像(図示せず)が提示される。この場合は、制御部13で生成された画像制御信号が送受信器12から入力デバイス2へ出力されることもできる。これにより、入力デバイス2の入力操作面21上においても、HMD1によって提示される新たな操作画像と同様の画像を表示させることが可能となる。   If the code information acquired in step ST107 is, for example, volume adjustment, the control unit 13 can generate an image control signal based on the code information and output it to the image display element 14. As a result, the user wearing the HMD 1 is presented with a new operation image (not shown) on which, for example, a volume adjustment bar is superimposed. In this case, the image control signal generated by the control unit 13 can be output from the transceiver 12 to the input device 2. As a result, an image similar to the new operation image presented by the HMD 1 can be displayed on the input operation surface 21 of the input device 2.

本実施形態においては、入力デバイス2が感圧センサ23を有している。したがって、ユーザが入力操作面21上で指を押し込むことにより、入力デバイス1及びHMD1に対し、所望のGUIに対応する処理を実行させること等が可能である。これによって、例えば入力デバイス2が鞄やポケット等の内部にある場合でも、これらに入れたまま外側から入力操作することも可能であり、利便性を向上させることができる。また、入力操作面21への接触操作と押し込み操作とを組み合わせることで、多彩な操作を行うことが可能となる。   In the present embodiment, the input device 2 has a pressure sensor 23. Therefore, when the user presses a finger on the input operation surface 21, it is possible to cause the input device 1 and the HMD 1 to execute processing corresponding to a desired GUI. Thereby, for example, even when the input device 2 is inside a bag or a pocket, it is possible to perform an input operation from the outside while being placed in the bag, thereby improving convenience. In addition, various operations can be performed by combining the contact operation with the input operation surface 21 and the push-in operation.

また、入力操作面21上への接触と、押し込みとを組み合わせて上記操作を行うことにより、接触のみで容易にGUIが選択されることがなく、誤動作を防止することが可能となる。   Further, by performing the above-described operation by combining the touch on the input operation surface 21 and the pressing, the GUI is not easily selected only by the touch, and it is possible to prevent malfunction.

さらに、HMD1によって、入力デバイス2の入力操作面21に表示される画像よりも大きな画像を見ながら操作することが可能となるため、小さな画面が見づらい高齢者等にとっても携帯端末の使用を容易にすることが可能となる。   Furthermore, since the HMD 1 can be operated while viewing an image larger than the image displayed on the input operation surface 21 of the input device 2, the portable terminal can be easily used even for an elderly person who is difficult to see a small screen. It becomes possible to do.

また、本実施形態においては、入力デバイス2の入力操作面21にも画像v1が表示さされる。これにより、入力デバイス2がHMD1に専用の機器に限定されず、タッチパネルディスプレイを搭載した携帯端末を接続して利用することが可能である。したがって、この場合は、当該携帯端末の豊富なアプリケーションを利用しつつ、HMD1の上記作用効果を享受することが可能となる。   In the present embodiment, the image v <b> 1 is also displayed on the input operation surface 21 of the input device 2. Thereby, the input device 2 is not limited to a device dedicated to the HMD 1, and a portable terminal equipped with a touch panel display can be connected and used. Therefore, in this case, it is possible to enjoy the above-described effects of the HMD 1 while using abundant applications of the mobile terminal.

<第2の実施形態>
図6は本技術の第2の実施形態に係る情報表示装置の一動作例を示すフローチャートである。本実施形態では、第1の実施形態の構成および作用と同様な部分についてはその説明を省略または簡略化し、第1の実施形態と異なる部分を中心に説明する。
<Second Embodiment>
FIG. 6 is a flowchart illustrating an operation example of the information display apparatus according to the second embodiment of the present technology. In the present embodiment, the description of the same parts as those of the first embodiment will be omitted or simplified, and different parts from the first embodiment will be mainly described.

本実施形態においても、HMD1によってユーザに提示される操作画像及び入力操作面21上に表示される画像は、例えば、多数のGUIが配置されたメニュー選択画像であるとして説明する。第1の実施形態と異なる点は、ステップST207〜212において、制御部25が、ユーザに提示される操作画像中の補助画像(ポインタP)及び選択したGUIを所望の位置に移動させ、GUIの配置を変更等することが可能な点である。すなわち、本実施形態によれば、「ドラッグ アンド ドロップ」の操作が可能となる。   Also in the present embodiment, the operation image presented to the user by the HMD 1 and the image displayed on the input operation surface 21 will be described as, for example, a menu selection image in which a large number of GUIs are arranged. The difference from the first embodiment is that, in steps ST207 to ST212, the control unit 25 moves the auxiliary image (pointer P) in the operation image presented to the user and the selected GUI to a desired position. It is possible to change the arrangement. That is, according to the present embodiment, a “drag and drop” operation is possible.

図6のステップST201〜206は、それぞれ図5のステップST101〜106に対応するため、簡略に説明する。まず、制御部25が、ユーザの指による入力操作面21上への接触を検出し(ステップST201でYES)、指の接触したxy座標位置を算出する(ステップST202)。当該xy座標位置に基づいて、HMD1の制御部13は、画像V1上にポインタPを表示させる(ST203)。   Steps ST201 to ST206 in FIG. 6 correspond to steps ST101 to ST106 in FIG. First, the control unit 25 detects contact of the user's finger on the input operation surface 21 (YES in step ST201), and calculates the xy coordinate position where the finger touches (step ST202). Based on the xy coordinate position, the control unit 13 of the HMD 1 displays the pointer P on the image V1 (ST203).

一方、入力デバイス2の制御部25は、当該xy座標位置に最も近いGUIを選択候補とする(ステップST204)。制御部25は、タッチセンサ22からの出力によって指の接触状態を判定し(ステップST205でNO)、感圧センサ23から出力されるz軸方向の接触圧が閾値以上であると判定した場合(ステップST206でYES)、閾値以上の接触圧が所定時間以上出力されるか否かを判定する(ステップST207)。   On the other hand, the control unit 25 of the input device 2 sets the GUI closest to the xy coordinate position as a selection candidate (step ST204). Control unit 25 determines the contact state of the finger based on the output from touch sensor 22 (NO in step ST205), and determines that the contact pressure in the z-axis direction output from pressure-sensitive sensor 23 is equal to or greater than the threshold ( In step ST206, it is determined whether or not a contact pressure equal to or higher than the threshold is output for a predetermined time or more (step ST207).

ここで、所定時間以下の場合は(ステップST207でNO)、制御部25は、ステップST206へ戻り、上述した処理を繰り返す。   Here, if it is equal to or shorter than the predetermined time (NO in step ST207), control unit 25 returns to step ST206 and repeats the above-described processing.

一方、上記接触圧が一定時間以上検出された場合は(ステップST207でYES)、制御部25は選択候補のGUIをドラッグ可能なGUI(以下ドラッグ可能GUIとする)と判定する(ステップST208)。   On the other hand, when the contact pressure is detected for a certain time or longer (YES in step ST207), the control unit 25 determines that the selection candidate GUI is a draggable GUI (hereinafter referred to as draggable GUI) (step ST208).

制御部25は、入力操作面21上での指の移動に伴い、タッチセンサ22から検出されるxy座標位置を経時的に算出する(ステップST209)。さらに、この信号が送受信器27を介してHMD1の制御部13に経時的に出力される。制御部13は、xy座標位置の変化に基づき、画像V10上でポインタPとドラッグ可能GUIとを移動させるような画像信号を生成する(ステップST210)。   The control unit 25 calculates the xy coordinate position detected from the touch sensor 22 over time as the finger moves on the input operation surface 21 (step ST209). Further, this signal is output over time to the control unit 13 of the HMD 1 via the transceiver 27. The control unit 13 generates an image signal for moving the pointer P and the draggable GUI on the image V10 based on the change in the xy coordinate position (step ST210).

上記移動の際、制御部25は、感圧センサ23から出力される接触圧を経時的に算出し、その接触圧が閾値以上であるか判定し続ける(ステップST211でYES)。ここで、制御部25は、接触圧が閾値未満であり(ステップST211でNO)、さらに指の非接触を判定した場合(ステップST212でYES)、ドラッグ可能GUIを「ドロップ」する処理を実行する(ステップST213)。ドラッグ可能GUIがドロップされる位置は、制御部25によって接触圧が閾値未満であると判定された(ステップST211でNO)時点での、xy座標位置に対応する位置である。   During the movement, the control unit 25 calculates the contact pressure output from the pressure-sensitive sensor 23 over time, and continues to determine whether the contact pressure is greater than or equal to a threshold value (YES in step ST211). Here, when the contact pressure is less than the threshold value (NO in step ST211) and it is further determined that the finger is not in contact (YES in step ST212), the control unit 25 executes a process of “dropping” the draggable GUI. (Step ST213). The position where the draggable GUI is dropped is a position corresponding to the xy coordinate position when the control unit 25 determines that the contact pressure is less than the threshold (NO in step ST211).

一方で、制御部25が非接触を判定しなければ(ステップST214でNO)、制御部25は、ステップST206に戻り、再度感圧センサ23から出力される接触圧が閾値以上であるか判定する。   On the other hand, if the control part 25 does not determine non-contact (it is NO at step ST214), the control part 25 will return to step ST206 and will determine again whether the contact pressure output from the pressure sensor 23 is more than a threshold value. .

以上より、本実施形態に係る情報表示装置100によって、ユーザは、手元の入力操作面21を確認せず、HMD1の操作画像のみを注視することによって、操作画像中のGUI、フォルダ等を移動させることができる。すなわち、タッチセンサ22と感圧センサ23との出力とによって、「ドラッグ アンド ドロップ」操作を行うことが可能となり、ユーザの操作性をより向上させることが可能となる。   As described above, the information display device 100 according to the present embodiment allows the user to move the GUI, the folder, and the like in the operation image by gazing only at the operation image of the HMD 1 without checking the input operation surface 21 at hand. be able to. That is, the “drag and drop” operation can be performed by the outputs of the touch sensor 22 and the pressure sensor 23, and the operability of the user can be further improved.

<第3の実施形態>
図7〜9は、本技術の第3の実施形態を説明する図である。図7は本実施形態に係る入力デバイスの内部構成を示すブロック図であり、図8は、本実施形態のヘッドマウントディスプレイに係る画像表示装置の内部構成を示すブロック図である。図9は、情報表示装置の典型的な動作例を説明する図であり、(A)は、ユーザが入力操作を行っている入力デバイスの入力操作面を示し、(B)は、HMDを介してユーザに提示される操作画面を示す。本実施形態では、第1の実施形態の構成および作用と同様な部分についてはその説明を省略または簡略化し、第1の実施形態と異なる部分を中心に説明する。
<Third Embodiment>
7 to 9 are diagrams illustrating a third embodiment of the present technology. FIG. 7 is a block diagram illustrating an internal configuration of the input device according to the present embodiment, and FIG. 8 is a block diagram illustrating an internal configuration of the image display apparatus according to the head mounted display of the present embodiment. FIG. 9 is a diagram for explaining a typical operation example of the information display device. FIG. 9A shows an input operation surface of an input device on which a user performs an input operation, and FIG. 9B shows an operation via an HMD. The operation screen presented to the user is shown. In the present embodiment, the description of the same parts as those of the first embodiment will be omitted or simplified, and different parts from the first embodiment will be mainly described.

本実施形態の入力デバイス20は、表示素子及び制御部を有さず、入力操作面210には画像が表示されない点で、上述の第1の実施形態と異なる。すなわち、タッチセンサ220によるxy座標位置の検出信号と、感圧センサ230による接触圧の検出信号とが、操作信号として、送受信器270を介してHMD10へ送信されることが可能に構成される。これにより、図9(A)のように、入力操作面210には画像が表示されず、入力デバイス20は、いわゆるタッチパネルのみ有する構成とすることができる。すなわち、本実施形態に係る入力デバイス20は、HMD10に専用のリモートコントローラとすることが可能である。   The input device 20 of the present embodiment does not have a display element and a control unit, and is different from the first embodiment described above in that no image is displayed on the input operation surface 210. That is, the detection signal of the xy coordinate position by the touch sensor 220 and the detection signal of the contact pressure by the pressure sensor 230 can be transmitted to the HMD 10 via the transceiver 270 as operation signals. Thus, as shown in FIG. 9A, no image is displayed on the input operation surface 210, and the input device 20 can be configured to have only a so-called touch panel. That is, the input device 20 according to the present embodiment can be a remote controller dedicated to the HMD 10.

入力デバイス20の入力操作面210は、本実施形態において、検出対象による入力操作が行われるのみであるため、光透過性を有しない材料で構成することが可能である。これにより、第1の実施形態で列挙した材料に加えて、例えば、所定以上の接触圧に対して撓み変形が可能な合成樹脂等を採用することができる。   In this embodiment, the input operation surface 210 of the input device 20 is only subjected to an input operation based on a detection target, and thus can be made of a material that does not have optical transparency. Thereby, in addition to the materials listed in the first embodiment, for example, a synthetic resin that can be bent and deformed with respect to a predetermined contact pressure or more can be employed.

HMD10の画像表示装置110に係る制御部130は、本実施形態において、演算部131と表示処理部132とを有する。演算部131では、タッチセンサ220によるxy座標位置の検出信号と、感圧センサ230による接触圧の検出信号とから、xy座標位置及び接触圧をそれぞれ算出する。表示処理部132では、演算部131から入力された処理結果に基づき、画像表示素子140に表示させる画像を形成するための画像信号を生成する。この際、表示処理部132は、入力操作面210上の画像の検出対象のxy座標位置に対応する位置にポインタ等の補助画像を表示させる信号を生成することも可能である。これにより、図9(B)に示されるように、HMD10は、第1の実施形態に係る操作画像V10と同様の操作画像V30をユーザに表示することが可能となる。   The control unit 130 according to the image display device 110 of the HMD 10 includes a calculation unit 131 and a display processing unit 132 in the present embodiment. The calculation unit 131 calculates the xy coordinate position and the contact pressure from the detection signal of the xy coordinate position by the touch sensor 220 and the detection signal of the contact pressure by the pressure sensor 230, respectively. The display processing unit 132 generates an image signal for forming an image to be displayed on the image display element 140 based on the processing result input from the calculation unit 131. At this time, the display processing unit 132 can also generate a signal for displaying an auxiliary image such as a pointer at a position corresponding to the xy coordinate position of the image detection target on the input operation surface 210. As a result, as shown in FIG. 9B, the HMD 10 can display an operation image V30 similar to the operation image V10 according to the first embodiment to the user.

さらに、HMD10によってユーザに提示される画像は、インターネット等から入力デバイス20の通信部280を介して取得されることも可能である。また、HMD10に通信部170を設けて、HMD10によって直接取得された情報に基づいて画像を生成することも可能である。   Furthermore, the image presented to the user by the HMD 10 can be acquired via the communication unit 280 of the input device 20 from the Internet or the like. It is also possible to provide the communication unit 170 in the HMD 10 and generate an image based on information directly acquired by the HMD 10.

本実施形態においては、入力デバイス20の構成を簡略化することが可能である。これにより、入力デバイス20を小型化、軽量化することが可能となり、長時間のタッチ操作でも疲れにくく、持ち運びも容易な入力デバイス20を提供することが可能となる。   In the present embodiment, the configuration of the input device 20 can be simplified. As a result, the input device 20 can be reduced in size and weight, and it is possible to provide the input device 20 that is less likely to get tired and easy to carry even with a long touch operation.

<第4の実施形態>
図10は、本技術の第4の実施形態に係る入力デバイスの内部構成を示すブロック図である。本実施形態では、第1の実施形態の構成および作用と同様な部分については同一の符号を付してその説明を省略または簡略化し、第1の実施形態と異なる部分を中心に説明する。
<Fourth Embodiment>
FIG. 10 is a block diagram illustrating an internal configuration of the input device according to the fourth embodiment of the present technology. In the present embodiment, parts similar to those in the configuration and operation of the first embodiment are denoted by the same reference numerals, description thereof will be omitted or simplified, and description will be focused on parts different from the first embodiment.

本実施形態に係る入力デバイス200は、感圧センサを有さない点で上述の第1の実施形態と異なる。すなわち、本実施形態において、入力デバイス200は、タッチセンサ2200によって、入力操作面21上の検出対象のxy平面上での動きに対応する座標位置を検出するとともに、接触圧を検出することが可能に構成される。タッチセンサ2200は、本実施形態において、「センサ部」を構成する。   The input device 200 according to the present embodiment is different from the first embodiment described above in that it does not have a pressure sensor. That is, in the present embodiment, the input device 200 can detect the coordinate position corresponding to the movement of the detection target on the input operation surface 21 on the xy plane and the contact pressure by the touch sensor 2200. Configured. The touch sensor 2200 constitutes a “sensor unit” in the present embodiment.

タッチセンサ2200としては、例えば、第1の実施形態と同様に、入力操作面21に接触する検出対象を静電的に検出することが可能な静電容量方式のタッチパネルを用いることができる。タッチセンサ2200は、入力操作面21上の検出対象のxy平面上での動きに対応する座標位置を検出し、その座標位置に応じた検出信号を制御部2500へ出力する。さらに、タッチセンサ2200は、例えば検出対象により当該座標位置において押圧操作がなされた場合、検出対象の接触圧に応じた静電容量又はその変化量を検出する。これにより、タッチセンサ2200は、当該座標位置における接触圧に応じた検出信号を出力することが可能となる。   As the touch sensor 2200, for example, as in the first embodiment, a capacitive touch panel capable of electrostatically detecting a detection target in contact with the input operation surface 21 can be used. The touch sensor 2200 detects a coordinate position corresponding to the movement of the detection target on the input operation surface 21 on the xy plane, and outputs a detection signal corresponding to the coordinate position to the control unit 2500. Furthermore, for example, when a pressing operation is performed at the coordinate position by the detection target, the touch sensor 2200 detects the capacitance according to the contact pressure of the detection target or the amount of change thereof. As a result, the touch sensor 2200 can output a detection signal corresponding to the contact pressure at the coordinate position.

なお上記以外にも、例えば抵抗膜式のタッチパネルを用いることも可能である。抵抗膜式のタッチセンサ2200は、典型的には、入力操作面21の直下に所定の間隙を介して対向配置される2枚の透明電極等を有し、検出対象の接触圧に応じた大きさの電圧(接触抵抗)を出力する。これによって、制御部2500は、検出対象による接触圧を算出することが可能となる。また、抵抗膜式の他にも、本実施形態に係るタッチセンサとして、赤外線式、超音波式、表面弾性波式、など種々のタッチパネルセンサを適用することが可能である。   In addition to the above, for example, a resistive film type touch panel may be used. The resistive film type touch sensor 2200 typically has two transparent electrodes or the like disposed opposite to each other with a predetermined gap immediately below the input operation surface 21 and has a size corresponding to the contact pressure of the detection target. The voltage (contact resistance) is output. Thus, the control unit 2500 can calculate the contact pressure depending on the detection target. In addition to the resistive film type, various touch panel sensors such as an infrared type, an ultrasonic type, and a surface acoustic wave type can be applied as the touch sensor according to the present embodiment.

制御部2500は、演算部2510において、タッチセンサ2200からの出力に基づき、検出対象のxy座標位置及びその位置での接触圧を算出することが可能に構成される。   The control unit 2500 is configured such that the calculation unit 2510 can calculate the xy coordinate position of the detection target and the contact pressure at the position based on the output from the touch sensor 2200.

以下、入力デバイス200(制御部2500)の一動作例について簡略に説明する。ここでは、第1の実施形態で説明した動作例と同様に、ユーザによって入力操作面21及びHMD1に表示される画像上の特定のGUIが選択される例について示す。   Hereinafter, an operation example of the input device 200 (control unit 2500) will be briefly described. Here, similarly to the operation example described in the first embodiment, an example in which a specific GUI on the image displayed on the input operation surface 21 and the HMD 1 is selected by the user will be described.

まず、制御部2500は、タッチセンサ2200からのxy座標位置の検出信号を取得する。これにより、制御部2500は、xy座標位置に最も近いGUI等を選択候補GUI等と判定する(図4ステップST104参照)。   First, the control unit 2500 acquires a detection signal of the xy coordinate position from the touch sensor 2200. Thereby, control unit 2500 determines the GUI or the like closest to the xy coordinate position as the selection candidate GUI or the like (see step ST104 in FIG. 4).

続いて、制御部2500は、タッチセンサ2200から出力される静電容量の変化量を接触圧の検出信号として、当該変化量が所定の閾値以上であるか判定する(図4ステップST106参照)。閾値以上の場合は、第1の実施形態と同様に、選択GUI等に対応する処理の実行等を行う(図4ステップST107参照)。   Subsequently, the control unit 2500 determines whether the change amount is equal to or greater than a predetermined threshold using the change amount of the capacitance output from the touch sensor 2200 as a contact pressure detection signal (see step ST106 in FIG. 4). If it is equal to or greater than the threshold value, the processing corresponding to the selection GUI or the like is executed as in the first embodiment (see step ST107 in FIG. 4).

一方、制御部2500は、タッチセンサ2200から出力される静電容量値あるいはその変化量自体を接触圧の検出信号として、静電容量値が所定の閾値以上であるか判定するよう構成されることも可能である。   On the other hand, the control unit 2500 is configured to determine whether the capacitance value is equal to or greater than a predetermined threshold, using the capacitance value output from the touch sensor 2200 or its change amount itself as a contact pressure detection signal. Is also possible.

以上のような構成の入力デバイス200を有する情報表示装置は、低コスト化及び生産性の向上等に貢献することができ、かつ、入力デバイス200を軽量化、小型化させることが可能となる。   The information display apparatus having the input device 200 configured as described above can contribute to cost reduction and productivity improvement, and the input device 200 can be reduced in weight and size.

<第5の実施形態>
図11〜14は本技術の第4の実施形態を説明する図である。本実施形態では、第1の実施形態の構成および作用と同様な部分については同一の符号を付すとともにその説明を省略または簡略化し、第1の実施形態と異なる部分を中心に説明する。
<Fifth Embodiment>
FIGS. 11-14 is a figure explaining 4th Embodiment of this technique. In the present embodiment, the same components as those in the first embodiment will be denoted by the same reference numerals, the description thereof will be omitted or simplified, and the description will focus on portions that are different from the first embodiment.

本実施形態においては、入力操作面21に対する検出対象(指)の接触圧に応じて補助画像(ポインタ)P4(P411〜422)の表示形態を変化させる点で第1の実施形態と異なる。   This embodiment is different from the first embodiment in that the display form of the auxiliary image (pointer) P4 (P411 to 422) is changed according to the contact pressure of the detection target (finger) with respect to the input operation surface 21.

図11、12は、指による接触圧に応じて画像V4上の環状のポインタP411が大きくなる例を示している。例えば、ユーザの指が入力操作面21に軽く接触した場合(図11(A))、所定の大きさでポインタP411が重畳された操作画像V411が表示される(図11(B))。さらにその状態から、ユーザが入力操作面212に対して指を押し込んだ場合(図12(A))、ポインタP411よりも大きなポインタP412が画像V4上に重畳された操作画像V412が表示される(図12(B))。   11 and 12 show an example in which the annular pointer P411 on the image V4 increases in accordance with the contact pressure by the finger. For example, when the user's finger lightly touches the input operation surface 21 (FIG. 11A), the operation image V411 on which the pointer P411 is superimposed with a predetermined size is displayed (FIG. 11B). Further, from this state, when the user presses the finger on the input operation surface 212 (FIG. 12A), an operation image V412 in which a pointer P412 larger than the pointer P411 is superimposed on the image V4 is displayed ( FIG. 12 (B)).

情報表示装置100の動作としては、例えば、制御部25は、感圧センサ23によって取得された接触圧が所定の閾値以上であると判定した場合、その情報をHMD1の制御部13に出力する。これにより、制御部13は、接触圧に応じた大きさのポインタを表示させる制御信号を生成する。その結果、操作画像V411,412には、接触圧に応じた大きさのポインタP411、P412が入力操作面21の指の接触位置に対応する位置に表示される。   As an operation of the information display device 100, for example, when the control unit 25 determines that the contact pressure acquired by the pressure sensor 23 is equal to or higher than a predetermined threshold value, the control unit 25 outputs the information to the control unit 13 of the HMD 1. Thereby, the control part 13 produces | generates the control signal which displays the pointer of the magnitude | size according to contact pressure. As a result, pointers P411 and P412 having a size corresponding to the contact pressure are displayed on the operation images V411 and 412 at positions corresponding to the finger contact positions on the input operation surface 21.

また、図13、14は、指による接触圧に応じて、画像V4上の環状のポインタP421、P422の色が変化する例を示している。例えば、入力操作面21上にユーザの指が軽く接触した場合、ポインタP421が黒色の操作画像V421となり(図13)、さらにその状態からユーザが入力操作面212に対して指を押し込んだ場合、灰色のポインタP422が画像V4上に重畳された操作画像V422が表示される(図14)。   13 and 14 show an example in which the colors of the annular pointers P421 and P422 on the image V4 change according to the contact pressure by the finger. For example, when the user's finger touches lightly on the input operation surface 21, the pointer P421 becomes a black operation image V421 (FIG. 13), and when the user presses the finger on the input operation surface 212 from that state, An operation image V422 in which a gray pointer P422 is superimposed on the image V4 is displayed (FIG. 14).

また、指による接触圧に応じて、画像V4上の環状のポインタP4の透過率が変化するように構成されることも可能である。   It is also possible to configure the transmittance of the annular pointer P4 on the image V4 to change according to the contact pressure by the finger.

以上のような情報表示装置100によって、ユーザは、自身の押し込み量(接触圧)を視覚的に確認することができる。これにより、ユーザは、HMD1による操作画像を確認することで、接触と押し込みとを組み合わせた操作をより正確に行うことが可能となる。   With the information display device 100 as described above, the user can visually confirm his / her push-in amount (contact pressure). As a result, the user can more accurately perform the operation combining the contact and the push-in by confirming the operation image by the HMD 1.

以上、本技術の実施形態について説明したが、本技術はこれに限定されることはなく、本技術の技術的思想に基づいて種々の変形が可能である。   The embodiment of the present technology has been described above, but the present technology is not limited to this, and various modifications can be made based on the technical idea of the present technology.

例えば、図15、16は第2の実施形態の変形例を説明する図である。情報表示装置100は、入力デバイス2のタッチセンサ22及び感圧センサ23が入力操作面21上の2箇所以上の接触位置をそれぞれ検出することが可能に構成されている。さらに、これらの指を入力操作面21へ押し込みつつ移動させることにより、画像V21、22を拡大または縮小させる、いわゆる「ピンチズーム」の操作を行うことが可能となる。   For example, FIGS. 15 and 16 are diagrams illustrating a modification of the second embodiment. The information display apparatus 100 is configured such that the touch sensor 22 and the pressure sensor 23 of the input device 2 can detect two or more contact positions on the input operation surface 21, respectively. Furthermore, by moving these fingers while pressing them into the input operation surface 21, it is possible to perform a so-called “pinch zoom” operation for enlarging or reducing the images V21 and V22.

例えば、制御部25が、感圧センサ23によって取得された接触圧を所定の閾値以上と判定した際は、「ピンチズーム」を開始する。例えば、図15(A)のように、ユーザが入力操作面21上で2本の指を押し込みつつこれらの距離を広げた場合、図15(B)のように、検出された距離及びその変化に応じて、画像V21を拡大することが可能となる。一方、図16(A)のように、ユーザが入力操作面211上で2本の指を押し込みつつこれらの距離を狭めた場合、図16(B)のように、検出された距離及びその変化に応じて、画像V22を縮小することが可能となる。   For example, when the control unit 25 determines that the contact pressure acquired by the pressure-sensitive sensor 23 is equal to or higher than a predetermined threshold, “pinch zoom” is started. For example, when the user widens these distances while pressing two fingers on the input operation surface 21 as shown in FIG. 15A, the detected distance and its change are shown as shown in FIG. Accordingly, the image V21 can be enlarged. On the other hand, when the user narrows these distances while pressing two fingers on the input operation surface 211 as shown in FIG. 16A, the detected distance and its change are shown in FIG. 16B. Accordingly, the image V22 can be reduced.

以上のように、上記変形例によれば、入力操作面21を見ずに画像の表示領域を変化させることが可能となる。これにより、例えば画像V21が小さくて見にくい場合は、表示領域を大きくすることが容易となる。さらに、外界に注視したい場合は、画像V22を小さくすることにより、外界をより視認しやすくすることも可能となる。したがって、ユーザにとって長時間の装着でもより使用しやすい情報表示装置100を提供することが可能となる。   As described above, according to the modified example, it is possible to change the display area of the image without looking at the input operation surface 21. Thus, for example, when the image V21 is small and difficult to see, it is easy to enlarge the display area. Furthermore, when it is desired to watch the outside world, it is possible to make the outside world easier to see by reducing the image V22. Therefore, it is possible to provide the information display device 100 that is easier for the user to use even when worn for a long time.

また、同様の「ピンチズーム」操作によって、表示領域の拡大、縮小のみならず、画像の一部(例えば特定のコマンド等)の拡大、縮小も行うことが可能となる。   Further, by the same “pinch zoom” operation, not only enlargement / reduction of the display area but also enlargement / reduction of a part of the image (for example, a specific command) can be performed.

例えば、第1の実施形態の変形例として、入力操作面21上の指の位置に対応する領域の輝度、彩度等を変化させた操作画像を形成することも可能である。この場合、「補助画像」は、輝度、彩度等を変化させた領域の画像とすることができる。   For example, as a modification of the first embodiment, it is possible to form an operation image in which the luminance, saturation, and the like of the region corresponding to the position of the finger on the input operation surface 21 are changed. In this case, the “auxiliary image” can be an image of a region in which luminance, saturation, and the like are changed.

上記変形例における情報表示装置100の具体的な動作例について説明する。例えば、制御部25は、タッチセンサ22からの検出信号に基づいて、入力操作面21上における指のxy座標位置を算出し、その情報をHMD1の制御部13へ出力する。制御部13は、その情報に基づいて、対応するXY座標位置の輝度、彩度を変化させる制御信号を生成する。   A specific operation example of the information display apparatus 100 according to the modification will be described. For example, the control unit 25 calculates the xy coordinate position of the finger on the input operation surface 21 based on the detection signal from the touch sensor 22 and outputs the information to the control unit 13 of the HMD 1. Based on the information, the control unit 13 generates a control signal for changing the luminance and saturation of the corresponding XY coordinate position.

これにより、HMD1は、指の接触位置に対応する領域と他の領域とで輝度、彩度等が異なる操作画像をユーザに提示することが可能となる。したがって、上記変形例によっても、ユーザは、HMD1によって表示された操作画像を視認することで、入力操作面上の指等の接触位置を確認することが可能となる。   As a result, the HMD 1 can present the user with operation images having different brightness, saturation, and the like in the area corresponding to the finger contact position and other areas. Therefore, the user can also confirm the contact position of a finger or the like on the input operation surface by visually recognizing the operation image displayed by the HMD 1 according to the above modification.

例えば、以上の実施形態において、入力デバイスがユーザが把持して使用する携帯端末等であると説明したが、これに限られない。例えば、ユーザの手首に装着される腕時計型であってもよいし、ユーザの腕に装着されるリストバンド型であってもよい。また、衣服に装着または付着する形態であってもよい。このように、本技術においては、入力操作面に対して検出対象が接触することができる機器であれば、様々な形態の入力デバイスを用いることが可能である。   For example, in the above embodiments, the input device is described as a portable terminal or the like that is held and used by the user, but the present invention is not limited to this. For example, it may be a wristwatch type worn on the user's wrist or a wristband type worn on the user's arm. Further, it may be in the form of being attached to or attached to clothes. As described above, in the present technology, various types of input devices can be used as long as the detection target can contact the input operation surface.

また、以上の実施形態では透過型のHMDとして説明したが、これに限られず、非透過型のHMDとすることも可能である。この場合も、ユーザは、HMDによって提示される画像を視認しつつ操作を行うことによって、入力デバイスの入力操作面を見ずとも直感に即した操作が可能となる。   Moreover, although the above embodiment demonstrated as a transmissive | pervious HMD, it is not restricted to this, It can also be set as a non-transmissive | pervious HMD. Also in this case, the user can perform an operation in an intuitive manner without looking at the input operation surface of the input device by performing the operation while visually recognizing the image presented by the HMD.

また、HMDに撮像素子を搭載し、外部を撮影可能に構成することもできる。これにより、例えば撮影した画像をHMD及び入力デバイスに表示させることも可能となる。   In addition, an image sensor can be mounted on the HMD so that the outside can be imaged. As a result, for example, a captured image can be displayed on the HMD and the input device.

以上の実施形態においては、ポインタの形状を環状の例で説明したが、勿論これに限られない。例えば、矢印、三角形、四角形、円形等の任意の形状を採用することが可能である。   In the embodiment described above, the shape of the pointer has been described as an annular example, but of course it is not limited to this. For example, any shape such as an arrow, a triangle, a quadrangle, and a circle can be employed.

なお、本技術は以下のような構成も採ることができる。
(1)入力デバイスから出力される、入力操作面に接触する検出対象の相対位置に関する情報を含む操作信号を受信する受信部と、
ユーザに提示される画像を形成する画像表示素子と、
上記操作信号に基づき、上記画像に上記検出対象の位置を示す補助画像が重畳した操作画像を、上記画像表示素子に表示させる表示処理部と
を具備するヘッドマウントディスプレイ。
(2)上記(1)に記載のヘッドマウントディスプレイであって、
上記受信部は、上記入力デバイスから出力される画像信号をさらに受信し、
上記表示処理部は、上記画像信号に基づき、上記画像を上記画像表示素子に表示させる
ヘッドマウントディスプレイ。
(3)上記(1)または(2)に記載のヘッドマウントディスプレイであって、
上記表示処理部は、上記操作信号に基づき、上記画像の表示領域において上記補助画像を移動させる
ヘッドマウントディスプレイ。
(4)上記(1)から(3)のうちいずれか1つに記載のヘッドマウントディスプレイであって、
上記操作信号は、上記入力操作面に対する上記検出対象の接触圧に関する情報を含み、
上記表示処理部は、上記入力操作面に対する上記検出対象の接触圧に応じて上記補助画像の表示形態を変化させる
ヘッドマウントディスプレイ。
(5)上記(3)または(4)に記載のヘッドマウントディスプレイであって、
上記操作信号に基づいて、上記入力操作面上の上記検出対象の座標位置を算出する演算部をさらに具備し、
上記表示処理部は、上記演算部で算出された上記検出対象の座標位置に基づき、上記操作画像を上記画像表示素子に表示させる
ヘッドマウントディスプレイ。
(6)入力操作面と、上記入力操作面に対する検出対象の接触を検出し、上記入力操作面上の上記検出対象の座標位置に関する情報を出力するセンサ部と、を有する入力デバイスと、
ユーザに提示される画像を形成する画像表示素子と、上記センサ部の出力に基づき、上記画像に上記検出対象の位置を示す補助画像が重畳した操作画像を上記画像表示素子に形成させる表示処理部と、を有するヘッドマウントディスプレイと
を具備する情報表示装置。
(7)上記(6)に記載の情報表示装置であって、
上記入力デバイスは、
上記入力操作面に画像を表示させる表示素子をさらに有し、
上記ヘッドマウントディスプレイは、上記入力操作面に表示される画像に上記補助画像を重畳させた画像を上記操作画像として表示する
情報表示装置。
(8)上記(6)または(7)に記載の情報表示装置であって、
上記センサ部は、上記検出対象によって上記入力操作面に加えられた接触圧を検出する
情報表示装置。
(9)上記(8)に記載の情報表示装置であって、
上記ヘッドマウントディスプレイは、上記操作面からの上記検出対象の接触圧に応じて、上記補助画像の表示形態を変化させる
情報表示装置。
(10)上記(6)から(9)のうちいずれか1つに記載の情報表示装置であって、
上記センサ部は、上記入力操作面上における上記検出対象の動きを検出し、
上記ヘッドマウントディスプレイは、検出された上記検出対象の動きに応じて移動する上記補助画像を表示する
情報表示装置。
(11)入力操作面と、上記検出対象による上記入力操作面への接触を検出するセンサ部と、を有する入力デバイスと、
ユーザに提示される画像を形成する画像表示素子と、上記センサ部の出力に基づいて上記入力操作面上の上記検出対象の座標位置を算出する演算部と、上記演算部で算出された上記検出対象の座標位置に基づき、上記画像に検出対象の位置を示す補助画像が重畳した操作画像を上記画像表示素子に形成させる表示処理部と、を有するヘッドマウントディスプレイと
を具備する情報表示装置。
In addition, this technique can also take the following structures.
(1) a receiving unit that receives an operation signal that is output from the input device and includes information related to a relative position of a detection target that contacts the input operation surface;
An image display element for forming an image presented to a user;
And a display processing unit that displays, on the image display element, an operation image obtained by superimposing an auxiliary image indicating the position of the detection target on the image based on the operation signal.
(2) The head mounted display according to (1) above,
The receiving unit further receives an image signal output from the input device,
The display processing unit displays the image on the image display element based on the image signal.
(3) The head mounted display according to (1) or (2) above,
The display processing unit moves the auxiliary image in the image display area based on the operation signal.
(4) The head mounted display according to any one of (1) to (3) above,
The operation signal includes information on the contact pressure of the detection target with respect to the input operation surface,
The display processing unit changes a display form of the auxiliary image according to a contact pressure of the detection target with respect to the input operation surface.
(5) The head mounted display according to (3) or (4) above,
Based on the operation signal, further comprising a calculation unit for calculating the coordinate position of the detection target on the input operation surface,
The display processing unit displays the operation image on the image display element based on the coordinate position of the detection target calculated by the calculation unit.
(6) An input device having an input operation surface and a sensor unit that detects a contact of the detection target on the input operation surface and outputs information on the coordinate position of the detection target on the input operation surface;
An image display element that forms an image to be presented to the user, and a display processing unit that forms, on the image display element, an operation image in which an auxiliary image indicating the position of the detection target is superimposed on the image based on the output of the sensor unit An information display device comprising: a head-mounted display comprising:
(7) The information display device according to (6) above,
The input device is
A display element for displaying an image on the input operation surface;
The head mounted display displays an image obtained by superimposing the auxiliary image on an image displayed on the input operation surface as the operation image.
(8) The information display device according to (6) or (7) above,
The information display device, wherein the sensor unit detects a contact pressure applied to the input operation surface by the detection target.
(9) The information display device according to (8) above,
The head mounted display changes the display mode of the auxiliary image according to the contact pressure of the detection target from the operation surface.
(10) The information display device according to any one of (6) to (9) above,
The sensor unit detects the movement of the detection target on the input operation surface,
The head-mounted display displays the auxiliary image that moves according to the detected movement of the detection target.
(11) An input device having an input operation surface and a sensor unit that detects contact of the detection target with the input operation surface;
An image display element that forms an image presented to the user, a calculation unit that calculates the coordinate position of the detection target on the input operation surface based on an output of the sensor unit, and the detection calculated by the calculation unit An information display device, comprising: a display processing unit configured to form, on the image display element, an operation image in which an auxiliary image indicating a position of a detection target is superimposed on the image based on a coordinate position of the target.

1・・・HMD(ヘッドマウントディスプレイ)
2,20・・・入力デバイス
12,120・・・送受信器(受信部)
13・・・制御部(表示処理部)
131・・・演算部
132・・・表示処理部
14,140・・・画像表示素子
21,210・・・入力操作面
22,220・・・タッチセンサ(センサ部)
23,230・・・感圧センサ(センサ部)
24・・・表示素子
100・・・情報表示装置
P,P411,P412,P421,P422・・・ポインタ(補助画像)
V10,V30,V411,V412,V421,V422・・・操作画像
1 ... HMD (Head Mounted Display)
2,20 ... Input device 12,120 ... Transmitter / receiver (receiver)
13: Control unit (display processing unit)
131 ... Calculation unit 132 ... Display processing unit 14,140 ... Image display element 21,210 ... Input operation surface 22,220 ... Touch sensor (sensor unit)
23, 230 ... Pressure-sensitive sensor (sensor part)
24 ... display element 100 ... information display device P, P411, P412, P421, P422 ... pointer (auxiliary image)
V10, V30, V411, V412, V421, V422 ... Operation image

Claims (11)

入力デバイスから出力される、入力操作面に接触する検出対象の相対位置に関する情報を含む操作信号を受信する受信部と、
ユーザに提示される画像を形成する画像表示素子と、
前記操作信号に基づき、前記画像に前記検出対象の位置を示す補助画像が重畳した操作画像を、前記画像表示素子に表示させる表示処理部と
を具備するヘッドマウントディスプレイ。
A receiving unit that receives an operation signal that is output from the input device and includes information on a relative position of a detection target that touches the input operation surface;
An image display element for forming an image presented to a user;
And a display processing unit configured to display, on the image display element, an operation image in which an auxiliary image indicating the position of the detection target is superimposed on the image based on the operation signal.
請求項1に記載のヘッドマウントディスプレイであって、
前記受信部は、前記入力デバイスから出力される画像信号をさらに受信し、
前記表示処理部は、前記画像信号に基づき、前記画像を前記画像表示素子に表示させる
ヘッドマウントディスプレイ。
The head mounted display according to claim 1,
The receiving unit further receives an image signal output from the input device,
The display processing unit displays the image on the image display element based on the image signal.
請求項1又は2に記載のヘッドマウントディスプレイであって、
前記表示処理部は、前記操作信号に基づき、前記画像の表示領域において前記補助画像を移動させる
ヘッドマウントディスプレイ。
The head mounted display according to claim 1 or 2,
The display processing unit moves the auxiliary image in a display area of the image based on the operation signal.
請求項1〜3のいずれか1つに記載のヘッドマウントディスプレイであって、
前記操作信号は、前記入力操作面に対する前記検出対象の接触圧に関する情報を含み、
前記表示処理部は、前記入力操作面に対する前記検出対象の接触圧に応じて前記補助画像の表示形態を変化させる
ヘッドマウントディスプレイ。
The head mounted display according to any one of claims 1 to 3,
The operation signal includes information on the contact pressure of the detection target with respect to the input operation surface,
The display processing unit changes a display form of the auxiliary image according to a contact pressure of the detection target with respect to the input operation surface.
請求項1〜4のいずれか1つに記載のヘッドマウントディスプレイであって、
前記操作信号に基づいて、前記入力操作面上の前記検出対象の座標位置を算出する演算部をさらに具備し、
前記表示処理部は、前記演算部で算出された前記検出対象の座標位置に基づき、前記操作画像を前記画像表示素子に表示させる
ヘッドマウントディスプレイ。
The head mounted display according to any one of claims 1 to 4,
Based on the operation signal, further comprising a calculation unit for calculating the coordinate position of the detection target on the input operation surface,
The display processing unit displays the operation image on the image display element based on the coordinate position of the detection target calculated by the calculation unit.
入力操作面と、前記入力操作面に対する検出対象の接触を検出し、前記入力操作面上の前記検出対象の座標位置に関する情報を出力するセンサ部と、を有する入力デバイスと、
ユーザに提示される画像を形成する画像表示素子と、前記センサ部の出力に基づき、前記画像に前記検出対象の位置を示す補助画像が重畳した操作画像を前記画像表示素子に形成させる表示処理部と、を有するヘッドマウントディスプレイと
を具備する情報表示装置。
An input device comprising: an input operation surface; and a sensor unit that detects a contact of the detection target on the input operation surface and outputs information on the coordinate position of the detection target on the input operation surface;
An image display element that forms an image presented to the user, and a display processing unit that forms an operation image in which an auxiliary image indicating the position of the detection target is superimposed on the image on the image display element based on the output of the sensor unit An information display device comprising: a head-mounted display comprising:
請求項6に記載の情報表示装置であって、
前記入力デバイスは、
前記入力操作面に画像を表示させる表示素子をさらに有し、
前記ヘッドマウントディスプレイは、前記入力操作面に表示される画像に前記補助画像を重畳させた画像を前記操作画像として表示する
情報表示装置。
The information display device according to claim 6,
The input device is
A display element for displaying an image on the input operation surface;
The head mounted display displays an image obtained by superimposing the auxiliary image on an image displayed on the input operation surface as the operation image.
請求項6又は7に記載の情報表示装置であって、
前記センサ部は、前記検出対象によって前記入力操作面に加えられた接触圧を検出する
情報表示装置。
The information display device according to claim 6 or 7,
The sensor unit detects an contact pressure applied to the input operation surface by the detection target.
請求項8に記載の情報表示装置であって、
前記ヘッドマウントディスプレイは、前記操作面からの前記検出対象の接触圧に応じて、前記補助画像の表示形態を変化させる
情報表示装置。
The information display device according to claim 8, wherein
The head mounted display changes the display form of the auxiliary image according to the contact pressure of the detection target from the operation surface.
請求項6〜9のいずれか1つに記載の情報表示装置であって、
前記センサ部は、前記入力操作面上における前記検出対象の動きを検出し、
前記ヘッドマウントディスプレイは、検出された前記検出対象の動きに応じて移動する前記補助画像を表示する
情報表示装置。
An information display device according to any one of claims 6 to 9,
The sensor unit detects a movement of the detection target on the input operation surface;
The head mounted display displays the auxiliary image that moves in accordance with the detected movement of the detection target.
入力操作面と、前記検出対象による前記入力操作面への接触を検出するセンサ部と、を有する入力デバイスと、
ユーザに提示される画像を形成する画像表示素子と、前記センサ部の出力に基づいて前記入力操作面上の前記検出対象の座標位置を算出する演算部と、前記演算部で算出された前記検出対象の座標位置に基づき、前記画像に検出対象の位置を示す補助画像が重畳した操作画像を前記画像表示素子に形成させる表示処理部と、を有するヘッドマウントディスプレイと
を具備する情報表示装置。
An input device having an input operation surface and a sensor unit that detects contact of the detection target with the input operation surface;
An image display element that forms an image presented to a user, a calculation unit that calculates the coordinate position of the detection target on the input operation surface based on an output of the sensor unit, and the detection calculated by the calculation unit An information display device, comprising: a display processing unit configured to form, on the image display element, an operation image in which an auxiliary image indicating a position of a detection target is superimposed on the image based on a coordinate position of the target.
JP2016124526A 2016-06-23 2016-06-23 Head mounted display and information display device Active JP6176368B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016124526A JP6176368B2 (en) 2016-06-23 2016-06-23 Head mounted display and information display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016124526A JP6176368B2 (en) 2016-06-23 2016-06-23 Head mounted display and information display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011282869A Division JP5957875B2 (en) 2011-12-26 2011-12-26 Head mounted display

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017137445A Division JP6754329B2 (en) 2017-07-13 2017-07-13 Image display device, head-mounted display, information display device, display processing method and program

Publications (2)

Publication Number Publication Date
JP2017004532A true JP2017004532A (en) 2017-01-05
JP6176368B2 JP6176368B2 (en) 2017-08-09

Family

ID=57752638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016124526A Active JP6176368B2 (en) 2016-06-23 2016-06-23 Head mounted display and information display device

Country Status (1)

Country Link
JP (1) JP6176368B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018198049A (en) * 2017-05-22 2018-12-13 株式会社 ハイディープHiDeep Inc. Touch input device including light shielding layer and fabrication method for touch input device including light shielding layer

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06202776A (en) * 1992-10-29 1994-07-22 Internatl Business Mach Corp <Ibm> Method and system for display of pressure on input device
JPH08251442A (en) * 1995-03-10 1996-09-27 Sony Corp Display controller and display method
JPH10240491A (en) * 1997-02-26 1998-09-11 Olympus Optical Co Ltd Information processor
JP2004070492A (en) * 2002-08-02 2004-03-04 Hitachi Ltd Display equipped with touch panel, and method of processing information
JP2009042967A (en) * 2007-08-08 2009-02-26 Nikon Corp Information input display system, information terminal and display device
JP2012164047A (en) * 2011-02-04 2012-08-30 Seiko Epson Corp Information processor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06202776A (en) * 1992-10-29 1994-07-22 Internatl Business Mach Corp <Ibm> Method and system for display of pressure on input device
JPH08251442A (en) * 1995-03-10 1996-09-27 Sony Corp Display controller and display method
JPH10240491A (en) * 1997-02-26 1998-09-11 Olympus Optical Co Ltd Information processor
JP2004070492A (en) * 2002-08-02 2004-03-04 Hitachi Ltd Display equipped with touch panel, and method of processing information
JP2009042967A (en) * 2007-08-08 2009-02-26 Nikon Corp Information input display system, information terminal and display device
JP2012164047A (en) * 2011-02-04 2012-08-30 Seiko Epson Corp Information processor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018198049A (en) * 2017-05-22 2018-12-13 株式会社 ハイディープHiDeep Inc. Touch input device including light shielding layer and fabrication method for touch input device including light shielding layer

Also Published As

Publication number Publication date
JP6176368B2 (en) 2017-08-09

Similar Documents

Publication Publication Date Title
JP5957875B2 (en) Head mounted display
JP2013125247A (en) Head-mounted display and information display apparatus
US9632318B2 (en) Head-mounted display including an operating element having a longitudinal direction in a direction of a first axis, display apparatus, and input apparatus
JP6206099B2 (en) Image display system, method for controlling image display system, and head-mounted display device
JP5884502B2 (en) Head mounted display
CN106168848B (en) Display device and control method of display device
JP6251957B2 (en) Display device, head-mounted display device, and display device control method
JP6064988B2 (en) Head mounted display
WO2015102069A1 (en) Operating device
JP6264871B2 (en) Information processing apparatus and information processing apparatus control method
US20190095077A1 (en) Electronic apparatus
KR102360176B1 (en) Method and wearable device for providing a virtual input interface
US10884498B2 (en) Display device and method for controlling display device
JP2018022426A (en) Display device, head-mounted display device, and method for controlling display device
JP6176368B2 (en) Head mounted display and information display device
JP6754329B2 (en) Image display device, head-mounted display, information display device, display processing method and program
JP6740613B2 (en) Display device, display device control method, and program
JP2014154074A (en) Input device, head-mounted type display device, and method for controlling input device
WO2016052061A1 (en) Head-mounted display
WO2016072271A1 (en) Display device, method for controlling display device, and control program therefor
JP2018151852A (en) Input device, input control method, and computer program
WO2017065050A1 (en) Input device, electronic apparatus, electronic apparatus input method, and input program for input device, electronic apparatus, and electronic apparatus input method
WO2017065051A1 (en) Input device, electronic apparatus, electronic apparatus input method, and input program for input device, electronic apparatus, and electronic apparatus input method
WO2017104525A1 (en) Input device, electronic device, and head-mounted display
JP2018081415A (en) Input device, input method and computer program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160722

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170626

R151 Written notification of patent or utility model registration

Ref document number: 6176368

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250