JP2007310599A - Video display device - Google Patents
Video display device Download PDFInfo
- Publication number
- JP2007310599A JP2007310599A JP2006138317A JP2006138317A JP2007310599A JP 2007310599 A JP2007310599 A JP 2007310599A JP 2006138317 A JP2006138317 A JP 2006138317A JP 2006138317 A JP2006138317 A JP 2006138317A JP 2007310599 A JP2007310599 A JP 2007310599A
- Authority
- JP
- Japan
- Prior art keywords
- display device
- video display
- area
- unit
- operation member
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、映像表示装置に関するものである。 The present invention relates to a video display device.
近年、液晶パネル(LCD)等のディスプレイ上に表示された映像を、接眼レンズやハーフミラー等を有する光学系を介して拡大した虚像として観察する眼鏡タイプの映像表示装置が種々と提案され、ヘッドマウントディスプレイと呼ばれている。このようなヘッドマウントディスプレイの例は、例えばWO2004/061519A1公報(特許文献1)に記載されている。 In recent years, various glasses-type image display devices for observing an image displayed on a display such as a liquid crystal panel (LCD) as a virtual image enlarged through an optical system having an eyepiece, a half mirror, and the like have been proposed. It is called a mount display. An example of such a head mounted display is described in, for example, WO 2004/061519 A1 (Patent Document 1).
この映像表示装置は、多くの場合、頭に巻いた形で顔面に装着する構成とされ、両眼に対応する位置に映像表示系を形成した両眼タイプと左右眼の一方の眼に対応する位置に映像表示系を形成した片眼タイプとがある。このようなヘッドマウントディスプレイは、通常は、映像を表示する表示部と音声を出力するヘッドホーンとを有している。
このような、目に映像を直接表示するヘッドマウントディスプレイでは、視界の一部が遮られるため、ユーザが入力するボタンなどの操作部材の位置を確認するのが難しいという問題があった。又、操作部材をケーブルや無線で接続されたコントローラに配置した場合、ケーブルがじゃまになったり、コントローラを紛失するといった問題が発生するため、ヘッドマウントディスプレイ本体に操作部材を配置することが望ましいが、その場合には、使用者は操作部材の位置が一切見えないという問題があった。 In such a head-mounted display that directly displays an image on the eyes, there is a problem that it is difficult to confirm the position of an operation member such as a button input by the user because a part of the field of view is blocked. In addition, when the operation member is arranged on a cable or a controller connected wirelessly, there is a problem that the cable gets in the way or the controller is lost. Therefore, it is desirable to arrange the operation member on the head mounted display main body. In this case, there is a problem that the user cannot see the position of the operation member at all.
特開2004−233776号公報(特許文献2)では、ユーザがボタンを触った場合に、そのボタンの位置を映像として表示することが開示されているが、ボタンの場合は位置や形状が制限され、又、使用中のレイアウト変更などができず、様々な画面や動作状態に対応できないという問題があった。 Japanese Patent Laying-Open No. 2004-233776 (Patent Document 2) discloses that when a user touches a button, the position of the button is displayed as an image. However, in the case of a button, the position and shape are limited. Also, there is a problem that the layout cannot be changed during use, and various screens and operation states cannot be handled.
本発明は、このような事情に鑑みてなされたもので、フレキシビリティに富んだ操作部を有する映像表示装置を提供することを課題とする。 The present invention has been made in view of such circumstances, and it is an object of the present invention to provide an image display apparatus having an operation unit rich in flexibility.
前記課題を解決するための第1の手段は、頭部に装着して表示される映像を観察する映像表示装置であって、目に映像を投影する映像表示部と、当該映像表示装置又は当該映像表示装置に接続して使用する装置を操作するための操作部材とを有し、当該操作部材は人体の一部が接触又は近接した場合に、接触又は近接した位置を検出する位置検出機能を持ち、前記操作部材に人体の一部が接触又は近接した場合に、使用者の入力を受け付ける前記操作部材の有効領域の映像を前記映像表示部に表示する機能を有することを特徴とするものである。 A first means for solving the above problem is a video display device for observing video displayed on the head, the video display unit for projecting video to the eye, the video display device, or the video display device. And an operation member for operating a device used by connecting to the image display device, and the operation member has a position detection function for detecting a contact or proximity position when a part of a human body is in contact or proximity. And having a function of displaying an image of an effective area of the operation member that receives a user's input on the image display unit when a part of a human body is in contact with or close to the operation member. is there.
本手段においては、操作部材に人体の一部が接触又は近接した場合に、使用者の入力を受け付ける前記操作部材の有効領域の映像を前記映像表示部に表示する機能を有するので、その後は、有効領域の映像を見ながら、操作部材の適当な位置に、人体の一部を接触又は近接させることにより適当な入力を行うことができる。 In this means, when a part of the human body is in contact with or close to the operation member, it has a function of displaying an image of the effective area of the operation member that receives a user input on the image display unit. Appropriate input can be performed by bringing a part of the human body into contact with or close to an appropriate position of the operation member while viewing the image of the effective area.
前記課題を解決するための第2の手段は、前記第1の手段であって前記操作部材の有効領域は、単数の単位領域又は複数の領域に分割された単位領域から構成されており、前記単位領域に人体の一部が接触又は近接した場合に、接触又は近接した単位領域の映像を変化させることを特徴とするものである。 The second means for solving the problem is the first means, wherein the effective area of the operation member is composed of a single unit area or a unit area divided into a plurality of areas, When a part of a human body comes into contact with or close to the unit area, the image of the unit area in contact with or close to the unit area is changed.
本手段においては、単位領域に人体の一部が接触又は近接した場合に、接触又は近接した単位領域の映像を変化させる機能を有するので、操作の状態を眼で確認することができる。 This means has a function of changing the image of the unit area that is in contact with or close to the unit area when a part of the human body is in contact with or close to the unit area, so that the operation state can be visually confirmed.
前記課題を解決するための第3の手段は、前記第2の手段であって、前記操作部材は前記有効領域と使用者の入力を受け付けない無効領域とを有し、前記無効領域に人体の一部が接触又は近接した場合にも、前記有効領域の映像を前記映像表示部に表示することを特徴とするものである。 The third means for solving the problem is the second means, wherein the operation member includes the effective area and an invalid area that does not accept a user input, and the invalid area includes a human body. The video of the effective area is displayed on the video display unit even when a part of the screen touches or approaches.
本手段においては、無効領域に人体の一部が接触又は近接した場合に、有効領域の映像を前記映像表示部に表示するようにしている。よって、最初に無効領域に人体の一部を接触又は近接させることにより、有効領域の映像を映像表示部に表示させ、その後、映像表示部の映像を見ながら、有効領域に人体の一部が接触又は近接させることで操作を行うことができ、入力ミスを少なくすることができる。 In this means, when a part of the human body is in contact with or close to the invalid area, the video of the valid area is displayed on the video display unit. Therefore, by first bringing a part of the human body into contact with or close to the invalid area, the video of the effective area is displayed on the video display unit, and then, while viewing the video of the video display unit, a part of the human body is present in the valid area. An operation can be performed by making contact or proximity, and input errors can be reduced.
前記課題を解決するための第4の手段は、前記第2の手段又は第3の手段であって、前記単位領域の少なくとも一つを使用者が選択した場合に、選択した単位領域に割り当てられた動作指令入力を当該映像表示装置又は当該映像表示装置に接続された装置に送ることを特徴とするものである。 A fourth means for solving the problem is the second means or the third means, and is assigned to the selected unit area when the user selects at least one of the unit areas. The operation command input is sent to the video display device or a device connected to the video display device.
本手段においては、単位領域の少なくとも一つを使用者が選択(人体の一部を接触又は近接させる)することにより、単位領域に割り当てられた動作指令入力を当該映像表示装置又は当該映像表示装置に接続された装置に送り、対応する動作をさせることができる。 In this means, when the user selects at least one of the unit areas (a part of the human body is brought into contact with or close to the unit area), the operation command input assigned to the unit area is input to the video display apparatus or the video display apparatus. Can be sent to a device connected to the device to perform the corresponding operation.
前記課題を解決するための第5の手段は、前記第2の手段から第4の手段のいずれかであって、音声出力部を持ち、前記単位領域の少なくとも一つを使用者が選択した場合、又は人体の一部が接触又は近接している単位領域が変化した場合に、単位領域が選択されたことを通知する音声を発生することを特徴とするものである。 The fifth means for solving the problem is any one of the second to fourth means, having an audio output unit, and a user selecting at least one of the unit areas Alternatively, when a unit area in which a part of the human body is in contact with or close to the body area changes, a sound for notifying that the unit area has been selected is generated.
これらの手段においては、操作部材を操作するとき、人体の一部が操作部材に触ったり近接したりするだけなので、操作が行われたことを感覚として関知しにくい。そこで、本手段においては、操作が行われたときに音声を発するようにして、操作が行われたことを認識し易くしている。 In these means, when operating the operation member, a part of the human body only touches or approaches the operation member, so that it is difficult to know that the operation has been performed. Therefore, in this means, a sound is emitted when the operation is performed, so that it is easy to recognize that the operation has been performed.
前記課題を解決するための第6の手段は、前記第2の手段から第5の手段のいずれかであって、当該映像表示装置又は当該映像表示装置に接続された装置の動作状態によって、前記有効領域、前記単位領域、前記単位領域に割り当てられた動作指令の少なくとも一つが変化することを特徴とするものである。 Sixth means for solving the problem is any one of the second means to the fifth means, and the video display device or the operation state of the device connected to the video display device At least one of the effective area, the unit area, and the operation command assigned to the unit area changes.
映像表示装置又は当該映像表示装置に接続された装置の動作状態が、複数あることがある。本手段においては、映像表示装置又は映像表示装置に接続された装置の動作状態によって、有効領域、単位領域、単位領域に割り当てられた動作指令の少なくとも一つが変化するので、映像表示装置又は当該映像表示装置に接続された装置の動作状態に応じた適当な操作を行わせることができる。 There may be a plurality of operation states of the video display device or a device connected to the video display device. In this means, at least one of the effective area, the unit area, and the operation command assigned to the unit area changes depending on the operation state of the video display apparatus or the apparatus connected to the video display apparatus. An appropriate operation can be performed in accordance with the operating state of the device connected to the display device.
前記課題を解決するための第7の手段は、前記第2の手段から第6の手段のいずれかであって、前記操作部材に人体の一部が接触又は近接することによって前記有効領域の映像を表示した場合に、前記有効領域、前記単位領域の位置が、前記操作部材に人体の一部が接触又は近接したときの位置を基準として決定されることを特徴とするものである。 A seventh means for solving the above problem is any one of the second means to the sixth means, wherein an image of the effective area is obtained when a part of a human body contacts or approaches the operation member. Is displayed, the positions of the effective area and the unit area are determined on the basis of the position when a part of the human body comes into contact with or close to the operation member.
本手段における操作部材は、例えばタッチパッドのようなものであり、有効領域、単位領域の位置が表示されているものではない。よって、その位置を正確に知ることができない。本手段においては、最初に操作部材に人体の一部が接触又は近接して、その映像の表示がなされたとき、人体の一部が接触又は近接した操作部材の位置を、有効領域、単位領域の位置の基準として、この基準位置を基準にして、各有効領域、単位領域の位置を決定する。よって、使用者は、最初に操作を行った操作部材の位置を基準にして各有効領域、単位領域の位置を認識することができるので、各有効領域、単位領域の位置の認識が容易である。 The operation member in this means is a touch pad, for example, and does not display the positions of the effective area and the unit area. Therefore, the position cannot be accurately known. In this means, when a part of the human body first comes into contact with or approaches the operation member and the image is displayed, the position of the operation member that comes in contact with or close to the part of the human body is determined as the effective region, unit region. The position of each effective area and unit area is determined with reference to this reference position. Therefore, the user can recognize the position of each effective area and unit area based on the position of the operation member that performed the operation first, so that the position of each effective area and unit area can be easily recognized. .
前記課題を解決するための第8の手段は、前記第1の手段から第7の手段のいずれかであって、前記単位領域に対応する前記操作部材上の位置を使用者が指定し、指定された位置を記憶する記憶部を有することを特徴とするものである。 The eighth means for solving the problem is any one of the first to seventh means, wherein a user designates a position on the operation member corresponding to the unit area, and designates It has a storage part which memorizes the done position.
本手段においては、単位領域に対応する操作部材上の位置を使用者が指定し、指定された位置を記憶する記憶部を有するので、使用者は、自分で使い易い操作部材上の位置に、単位領域を設けることができる。 In this means, the user designates the position on the operation member corresponding to the unit area, and has a storage unit for storing the designated position, so that the user can easily use the position on the operation member by himself / herself. A unit area can be provided.
本発明によれば、フレキシビリティに富んだ操作部を有する映像表示装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the video display apparatus which has an operation part with sufficient flexibility can be provided.
以下、本発明の実施の形態の例を、図を用いて説明する。図1は、本発明の実施の形態であるヘッドマウントディスプレイの概要を示す図である。2つのヘッドホーン1、2は、連結部3によって連結されている。そして、ヘッドホーン1には、支持アーム4が取り付けられ、支持アーム4の先端部には、人間の目に画像を表示する表示部5が取り付けられている。
Hereinafter, an example of an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing an outline of a head mounted display according to an embodiment of the present invention. The two
このヘッドマウントディスプレイを、頭部に挿着するときは、ヘッドホーン1、2を、両耳を挟むようにして挿着し、固定する。すなわち、ヘッドホーン1、2が固定部となり、連結部3は弾力性を有し、この弾力によりヘッドマウントディスプレイが固定される。ヘッドホーン1には、その外側にタッチパッド6が設けられ、操作部材とされている。
When the head mounted display is inserted into the head, the
使用者が、タッチパッド6に指を触れると、表示部5に7aに示すような表示がなされる。表示7aは、タッチパッド6の領域の分割を示しており、次に、対応するタッチパッド6の部分に指を触れると、対応する機能が入力されて作動する。表示7aにおいては、タッチパッド6の右上の部分に指を触れ、MENUに対応する機能が選択された状態を表しており、表示7aのMENUに対応する部分が反転表示されている。これから所定の時間がたつと、MENUに対応する表示画面が表示され、タッチパッド6の入力機能もその表示画面に対応するものに切り替わる。
When the user touches his / her finger on the
この実施の形態においては、タッチパッド6を操作部材として使用しているので、タッチパッドを押したとか、タッチパッド6上で触っている部分が変化して異なる入力の部分に移ったといった状態を手感として得ることが困難である。よって、タッチパッド6を押したときや、タッチパッド6上で触っている部分が変化して異なる入力の部分に移ったような場合には、ヘッドホーン1から音を発して、使用者に通知することが好ましい。
In this embodiment, since the
タッチパッド6への入力は、タッチパッド6を感圧式のものとして、一定以上の圧力が加わったときに押したと判断してもよいし、2度連続して接触したり、所定時間連続して接触したときに押したと判断してもよい。例えば、単にタッチパッド6に指が接触しているだけでは、表示7aの対応する部分が反転表示されるだけであり、2度連続して接触したり、所定時間連続して接触したときに入力があったと判断するようにすれば、使用者は表示7aで指の位置を確認しながら入力を行うことができ、入力ミスを無くすることができる。又、操作部材を近接型のものとして、指等の人体の一部が接触したり近接したときに入力があったと判断するようにしてもよい。
Input to the
入力エリアとしてはタッチパッド6の全面を使用する必要はなく、その一部分を使用するようにしてもよい。例えば図2に示す本発明の実施の形態の例のように、タッチパッド6の中央の十字の部分だけを使用して、十字キーに対応する入力を行わせるようにしてもよい。この場合には、表示部には、7bに示されるように十字キーに対応する表示がなされる。使用者は、表示7bに示された十字キーを見ながら入力を行う。この場合でも、十字キーに対応していない入力エリア以外の部分(無効部分)に指で接触したときにも、7bに示すような表示を行い、その後、入力が可能になるようにしておくことが好ましい。これにより、使用者は初期状態において、タッチパッド6の何処に接触しても、表示7bを表示して入力状態とすることができ、かつ、入力エリアの位置を知ることができる。
It is not necessary to use the entire surface of the
タッチパッド6等による入力の場合、使用するキーのレイアウトを自由に変更することができる。たとえば、メニュー表示中の場合は、図3(a)に示すように、上下左右にカーソルを動かすため十字キーを表示7cとして表示し、音楽再生中の場合は早送り、巻き戻し等の操作しか行わないために、図3(b)に示すように、2方向キーを表示7dとして表示すれば、不要なキーを表示しないため使用者の混乱を押さえることができる。
In the case of input using the
又、使用者がタッチパッド6上で入力する位置は、同じボタンを入力することを意図した場合でも同じ位置を触るとは限らない。そこで最初に接触した位置を基準(たとえばOKキー)とし、その位置に対してタッチパッド6上での他のキーの位置を決定することで、入力ミスを減らすことができる。
Further, even if the user intends to input the same button, the position on the
又、画面に表示されたボタンに相当する位置を、ユーザがタッチパッド上で指示し、その位置を記憶することで、使用者毎に最適なキー配置を設定することができる。その際、最初に指示した位置(たとえばOKキー)を基準として他のキーの位置を記憶することで、入力ミスの少ないインタフェースとすることができるのはいうまでもない。 In addition, the user can designate a position corresponding to the button displayed on the screen on the touch pad and store the position, so that an optimal key arrangement can be set for each user. In this case, it is needless to say that an interface with few input mistakes can be obtained by storing the positions of other keys with reference to the first designated position (for example, the OK key).
1…ヘッドホーン、2…ヘッドホーン、3…連結部、4…支持アーム、5…表示部、6…タッチパッド、7a〜7d:表示
DESCRIPTION OF
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006138317A JP2007310599A (en) | 2006-05-17 | 2006-05-17 | Video display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006138317A JP2007310599A (en) | 2006-05-17 | 2006-05-17 | Video display device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007310599A true JP2007310599A (en) | 2007-11-29 |
Family
ID=38843402
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006138317A Pending JP2007310599A (en) | 2006-05-17 | 2006-05-17 | Video display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007310599A (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009229859A (en) * | 2008-03-24 | 2009-10-08 | Nikon Corp | Head mounted display |
JP2010263324A (en) * | 2009-04-30 | 2010-11-18 | Olympus Imaging Corp | Image capturing apparatus, display device and imaging system |
JP2011249906A (en) * | 2010-05-24 | 2011-12-08 | Nikon Corp | Head-mounted display |
JP2013093768A (en) * | 2011-10-26 | 2013-05-16 | Sony Corp | Head-mounted display and display control method |
EP2293598A3 (en) * | 2009-07-31 | 2013-07-31 | Carlos De La Fe Dahlin | Menusystem |
JP2014021708A (en) * | 2012-07-18 | 2014-02-03 | Nikon Corp | Head-mounted information input/output device and head-mounted information input/output method |
JP2014042279A (en) * | 2013-09-26 | 2014-03-06 | Olympus Imaging Corp | Display device, imaging system, display method, and display program |
JP2015141686A (en) * | 2014-01-30 | 2015-08-03 | 株式会社リコー | Pointing device, information processing device, information processing system, and method for controlling pointing device |
JP2016026311A (en) * | 2015-09-01 | 2016-02-12 | 株式会社ニコン | Head-mounted display |
WO2016063801A1 (en) * | 2014-10-22 | 2016-04-28 | 株式会社ソニー・インタラクティブエンタテインメント | Head mounted display, mobile information terminal, image processing device, display control program, and display control method |
EP3125102A1 (en) | 2012-06-13 | 2017-02-01 | Sony Corporation | Head-mounted display |
JP2017188149A (en) * | 2017-06-26 | 2017-10-12 | 株式会社ニコン | Head-mounted display |
CN108475085A (en) * | 2017-05-16 | 2018-08-31 | 深圳市柔宇科技有限公司 | Head-mounted display apparatus and its interaction input method |
US10299026B2 (en) | 2010-10-01 | 2019-05-21 | Sony Corporation | Input device |
JP2019516153A (en) * | 2016-05-12 | 2019-06-13 | サーク・コーポレーション | Controller Signs with Capacitive Sensing |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03139075A (en) * | 1989-10-24 | 1991-06-13 | Mazda Motor Corp | Channel display device of receiver |
JPH0876919A (en) * | 1994-09-06 | 1996-03-22 | Fujitsu General Ltd | Device for informing cursor position |
JPH0934645A (en) * | 1995-07-21 | 1997-02-07 | Smk Corp | Pointing device |
JPH11174987A (en) * | 1997-12-10 | 1999-07-02 | Shimadzu Corp | Display device |
-
2006
- 2006-05-17 JP JP2006138317A patent/JP2007310599A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03139075A (en) * | 1989-10-24 | 1991-06-13 | Mazda Motor Corp | Channel display device of receiver |
JPH0876919A (en) * | 1994-09-06 | 1996-03-22 | Fujitsu General Ltd | Device for informing cursor position |
JPH0934645A (en) * | 1995-07-21 | 1997-02-07 | Smk Corp | Pointing device |
JPH11174987A (en) * | 1997-12-10 | 1999-07-02 | Shimadzu Corp | Display device |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009229859A (en) * | 2008-03-24 | 2009-10-08 | Nikon Corp | Head mounted display |
JP2010263324A (en) * | 2009-04-30 | 2010-11-18 | Olympus Imaging Corp | Image capturing apparatus, display device and imaging system |
EP2293598A3 (en) * | 2009-07-31 | 2013-07-31 | Carlos De La Fe Dahlin | Menusystem |
JP2011249906A (en) * | 2010-05-24 | 2011-12-08 | Nikon Corp | Head-mounted display |
US10645482B2 (en) | 2010-10-01 | 2020-05-05 | Sony Corporation | Input device |
US10299026B2 (en) | 2010-10-01 | 2019-05-21 | Sony Corporation | Input device |
JP2013093768A (en) * | 2011-10-26 | 2013-05-16 | Sony Corp | Head-mounted display and display control method |
US9495029B2 (en) | 2011-10-26 | 2016-11-15 | Sony Corporation | Head mount display and display control method |
EP3125102A1 (en) | 2012-06-13 | 2017-02-01 | Sony Corporation | Head-mounted display |
JP2014021708A (en) * | 2012-07-18 | 2014-02-03 | Nikon Corp | Head-mounted information input/output device and head-mounted information input/output method |
JP2014042279A (en) * | 2013-09-26 | 2014-03-06 | Olympus Imaging Corp | Display device, imaging system, display method, and display program |
JP2015141686A (en) * | 2014-01-30 | 2015-08-03 | 株式会社リコー | Pointing device, information processing device, information processing system, and method for controlling pointing device |
JP2016081476A (en) * | 2014-10-22 | 2016-05-16 | 株式会社ソニー・コンピュータエンタテインメント | Head-mounted display, mobile information terminal, image processing apparatus, display control program, display control method, and display system |
EP3211513A4 (en) * | 2014-10-22 | 2018-07-25 | Sony Interactive Entertainment Inc. | Head mounted display, mobile information terminal, image processing device, display control program, and display control method |
WO2016063801A1 (en) * | 2014-10-22 | 2016-04-28 | 株式会社ソニー・インタラクティブエンタテインメント | Head mounted display, mobile information terminal, image processing device, display control program, and display control method |
US10379605B2 (en) | 2014-10-22 | 2019-08-13 | Sony Interactive Entertainment Inc. | Head mounted display, mobile information terminal, image processing apparatus, display control program, display control method, and display system |
US10620699B2 (en) | 2014-10-22 | 2020-04-14 | Sony Interactive Entertainment Inc. | Head mounted display, mobile information terminal, image processing apparatus, display control program, display control method, and display system |
JP2016026311A (en) * | 2015-09-01 | 2016-02-12 | 株式会社ニコン | Head-mounted display |
JP2019516153A (en) * | 2016-05-12 | 2019-06-13 | サーク・コーポレーション | Controller Signs with Capacitive Sensing |
CN108475085A (en) * | 2017-05-16 | 2018-08-31 | 深圳市柔宇科技有限公司 | Head-mounted display apparatus and its interaction input method |
JP2017188149A (en) * | 2017-06-26 | 2017-10-12 | 株式会社ニコン | Head-mounted display |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007310599A (en) | Video display device | |
JP6408156B2 (en) | Multi surface controller | |
ES2858520T3 (en) | Multi-touch interactions on eye elements | |
KR102138503B1 (en) | Smart watch | |
KR102034584B1 (en) | Portable device and controlling method thereof | |
KR101984590B1 (en) | Display device and controlling method thereof | |
JPWO2008013111A1 (en) | Output device | |
JP5514683B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method | |
US10514796B2 (en) | Electronic apparatus | |
EP2791725A1 (en) | Head-mounted display and information display apparatus | |
JP2009042967A (en) | Information input display system, information terminal and display device | |
JP5071387B2 (en) | Display device | |
JP2013084246A (en) | Protective cover and information processor | |
JP2013150118A (en) | Head-mounted display | |
US8823603B1 (en) | Head mounted display and method of controlling therefor | |
JP5055585B2 (en) | Head mounted display | |
JP2011170585A (en) | Pointing device and information processing system | |
JP2004233776A (en) | Head-mounted display | |
EP1827054A1 (en) | Video display apparatus, remote controller for reproduction apparatus, and reproduction apparatus | |
JP2012194626A (en) | Display device | |
KR101603551B1 (en) | Method for executing vehicle function using wearable device and vehicle for carrying out the same | |
JP2007329640A (en) | Output device | |
JP4893090B2 (en) | Output device | |
CN103677579A (en) | Electronic equipment and control method | |
JP2011197750A (en) | Input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090313 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110214 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110309 |