JP2007310599A - Video display device - Google Patents

Video display device Download PDF

Info

Publication number
JP2007310599A
JP2007310599A JP2006138317A JP2006138317A JP2007310599A JP 2007310599 A JP2007310599 A JP 2007310599A JP 2006138317 A JP2006138317 A JP 2006138317A JP 2006138317 A JP2006138317 A JP 2006138317A JP 2007310599 A JP2007310599 A JP 2007310599A
Authority
JP
Japan
Prior art keywords
display device
video display
area
unit
operation member
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006138317A
Other languages
Japanese (ja)
Inventor
Masaki Otsuki
正樹 大槻
Shigeru Kato
茂 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006138317A priority Critical patent/JP2007310599A/en
Publication of JP2007310599A publication Critical patent/JP2007310599A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video display device having an operation part which is rich in flexibility. <P>SOLUTION: A head phone 1 is provided with a touch pad 6 at the outside as an operating member. When a user touches the touch pad 6 with the finger, display 7a is displayed at a display part 5. The display 7a shows the division of the region of the touch pad 6, and when the user touches the corresponding part of the touch pad 6, the corresponding function is input and operated. The display 7a shows such a status that the user has touched the upper right part of the touch pad 6 with the finger, and that the function corresponding to MENU has been selected, and the part corresponding to MENU of the display 7a is inversely displayed. After the lapse of a predetermined time, the display screen corresponding to MENU is displayed, and the input function of the touch pad 6 is switched to that corresponding to the display screen. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、映像表示装置に関するものである。   The present invention relates to a video display device.

近年、液晶パネル(LCD)等のディスプレイ上に表示された映像を、接眼レンズやハーフミラー等を有する光学系を介して拡大した虚像として観察する眼鏡タイプの映像表示装置が種々と提案され、ヘッドマウントディスプレイと呼ばれている。このようなヘッドマウントディスプレイの例は、例えばWO2004/061519A1公報(特許文献1)に記載されている。   In recent years, various glasses-type image display devices for observing an image displayed on a display such as a liquid crystal panel (LCD) as a virtual image enlarged through an optical system having an eyepiece, a half mirror, and the like have been proposed. It is called a mount display. An example of such a head mounted display is described in, for example, WO 2004/061519 A1 (Patent Document 1).

この映像表示装置は、多くの場合、頭に巻いた形で顔面に装着する構成とされ、両眼に対応する位置に映像表示系を形成した両眼タイプと左右眼の一方の眼に対応する位置に映像表示系を形成した片眼タイプとがある。このようなヘッドマウントディスプレイは、通常は、映像を表示する表示部と音声を出力するヘッドホーンとを有している。
WO2004/061519A1公報 特開2004−233776号公報
In many cases, the video display device is configured to be worn on the face in a form wound around the head, and corresponds to one eye of the binocular type in which a video display system is formed at a position corresponding to both eyes and one of the left and right eyes. There is a one-eye type in which an image display system is formed at a position. Such a head-mounted display usually has a display unit for displaying video and a headphone for outputting sound.
WO2004 / 061519A1 publication Japanese Patent Laid-Open No. 2004-233776

このような、目に映像を直接表示するヘッドマウントディスプレイでは、視界の一部が遮られるため、ユーザが入力するボタンなどの操作部材の位置を確認するのが難しいという問題があった。又、操作部材をケーブルや無線で接続されたコントローラに配置した場合、ケーブルがじゃまになったり、コントローラを紛失するといった問題が発生するため、ヘッドマウントディスプレイ本体に操作部材を配置することが望ましいが、その場合には、使用者は操作部材の位置が一切見えないという問題があった。   In such a head-mounted display that directly displays an image on the eyes, there is a problem that it is difficult to confirm the position of an operation member such as a button input by the user because a part of the field of view is blocked. In addition, when the operation member is arranged on a cable or a controller connected wirelessly, there is a problem that the cable gets in the way or the controller is lost. Therefore, it is desirable to arrange the operation member on the head mounted display main body. In this case, there is a problem that the user cannot see the position of the operation member at all.

特開2004−233776号公報(特許文献2)では、ユーザがボタンを触った場合に、そのボタンの位置を映像として表示することが開示されているが、ボタンの場合は位置や形状が制限され、又、使用中のレイアウト変更などができず、様々な画面や動作状態に対応できないという問題があった。   Japanese Patent Laying-Open No. 2004-233776 (Patent Document 2) discloses that when a user touches a button, the position of the button is displayed as an image. However, in the case of a button, the position and shape are limited. Also, there is a problem that the layout cannot be changed during use, and various screens and operation states cannot be handled.

本発明は、このような事情に鑑みてなされたもので、フレキシビリティに富んだ操作部を有する映像表示装置を提供することを課題とする。   The present invention has been made in view of such circumstances, and it is an object of the present invention to provide an image display apparatus having an operation unit rich in flexibility.

前記課題を解決するための第1の手段は、頭部に装着して表示される映像を観察する映像表示装置であって、目に映像を投影する映像表示部と、当該映像表示装置又は当該映像表示装置に接続して使用する装置を操作するための操作部材とを有し、当該操作部材は人体の一部が接触又は近接した場合に、接触又は近接した位置を検出する位置検出機能を持ち、前記操作部材に人体の一部が接触又は近接した場合に、使用者の入力を受け付ける前記操作部材の有効領域の映像を前記映像表示部に表示する機能を有することを特徴とするものである。   A first means for solving the above problem is a video display device for observing video displayed on the head, the video display unit for projecting video to the eye, the video display device, or the video display device. And an operation member for operating a device used by connecting to the image display device, and the operation member has a position detection function for detecting a contact or proximity position when a part of a human body is in contact or proximity. And having a function of displaying an image of an effective area of the operation member that receives a user's input on the image display unit when a part of a human body is in contact with or close to the operation member. is there.

本手段においては、操作部材に人体の一部が接触又は近接した場合に、使用者の入力を受け付ける前記操作部材の有効領域の映像を前記映像表示部に表示する機能を有するので、その後は、有効領域の映像を見ながら、操作部材の適当な位置に、人体の一部を接触又は近接させることにより適当な入力を行うことができる。   In this means, when a part of the human body is in contact with or close to the operation member, it has a function of displaying an image of the effective area of the operation member that receives a user input on the image display unit. Appropriate input can be performed by bringing a part of the human body into contact with or close to an appropriate position of the operation member while viewing the image of the effective area.

前記課題を解決するための第2の手段は、前記第1の手段であって前記操作部材の有効領域は、単数の単位領域又は複数の領域に分割された単位領域から構成されており、前記単位領域に人体の一部が接触又は近接した場合に、接触又は近接した単位領域の映像を変化させることを特徴とするものである。   The second means for solving the problem is the first means, wherein the effective area of the operation member is composed of a single unit area or a unit area divided into a plurality of areas, When a part of a human body comes into contact with or close to the unit area, the image of the unit area in contact with or close to the unit area is changed.

本手段においては、単位領域に人体の一部が接触又は近接した場合に、接触又は近接した単位領域の映像を変化させる機能を有するので、操作の状態を眼で確認することができる。   This means has a function of changing the image of the unit area that is in contact with or close to the unit area when a part of the human body is in contact with or close to the unit area, so that the operation state can be visually confirmed.

前記課題を解決するための第3の手段は、前記第2の手段であって、前記操作部材は前記有効領域と使用者の入力を受け付けない無効領域とを有し、前記無効領域に人体の一部が接触又は近接した場合にも、前記有効領域の映像を前記映像表示部に表示することを特徴とするものである。   The third means for solving the problem is the second means, wherein the operation member includes the effective area and an invalid area that does not accept a user input, and the invalid area includes a human body. The video of the effective area is displayed on the video display unit even when a part of the screen touches or approaches.

本手段においては、無効領域に人体の一部が接触又は近接した場合に、有効領域の映像を前記映像表示部に表示するようにしている。よって、最初に無効領域に人体の一部を接触又は近接させることにより、有効領域の映像を映像表示部に表示させ、その後、映像表示部の映像を見ながら、有効領域に人体の一部が接触又は近接させることで操作を行うことができ、入力ミスを少なくすることができる。   In this means, when a part of the human body is in contact with or close to the invalid area, the video of the valid area is displayed on the video display unit. Therefore, by first bringing a part of the human body into contact with or close to the invalid area, the video of the effective area is displayed on the video display unit, and then, while viewing the video of the video display unit, a part of the human body is present in the valid area. An operation can be performed by making contact or proximity, and input errors can be reduced.

前記課題を解決するための第4の手段は、前記第2の手段又は第3の手段であって、前記単位領域の少なくとも一つを使用者が選択した場合に、選択した単位領域に割り当てられた動作指令入力を当該映像表示装置又は当該映像表示装置に接続された装置に送ることを特徴とするものである。   A fourth means for solving the problem is the second means or the third means, and is assigned to the selected unit area when the user selects at least one of the unit areas. The operation command input is sent to the video display device or a device connected to the video display device.

本手段においては、単位領域の少なくとも一つを使用者が選択(人体の一部を接触又は近接させる)することにより、単位領域に割り当てられた動作指令入力を当該映像表示装置又は当該映像表示装置に接続された装置に送り、対応する動作をさせることができる。   In this means, when the user selects at least one of the unit areas (a part of the human body is brought into contact with or close to the unit area), the operation command input assigned to the unit area is input to the video display apparatus or the video display apparatus. Can be sent to a device connected to the device to perform the corresponding operation.

前記課題を解決するための第5の手段は、前記第2の手段から第4の手段のいずれかであって、音声出力部を持ち、前記単位領域の少なくとも一つを使用者が選択した場合、又は人体の一部が接触又は近接している単位領域が変化した場合に、単位領域が選択されたことを通知する音声を発生することを特徴とするものである。   The fifth means for solving the problem is any one of the second to fourth means, having an audio output unit, and a user selecting at least one of the unit areas Alternatively, when a unit area in which a part of the human body is in contact with or close to the body area changes, a sound for notifying that the unit area has been selected is generated.

これらの手段においては、操作部材を操作するとき、人体の一部が操作部材に触ったり近接したりするだけなので、操作が行われたことを感覚として関知しにくい。そこで、本手段においては、操作が行われたときに音声を発するようにして、操作が行われたことを認識し易くしている。   In these means, when operating the operation member, a part of the human body only touches or approaches the operation member, so that it is difficult to know that the operation has been performed. Therefore, in this means, a sound is emitted when the operation is performed, so that it is easy to recognize that the operation has been performed.

前記課題を解決するための第6の手段は、前記第2の手段から第5の手段のいずれかであって、当該映像表示装置又は当該映像表示装置に接続された装置の動作状態によって、前記有効領域、前記単位領域、前記単位領域に割り当てられた動作指令の少なくとも一つが変化することを特徴とするものである。   Sixth means for solving the problem is any one of the second means to the fifth means, and the video display device or the operation state of the device connected to the video display device At least one of the effective area, the unit area, and the operation command assigned to the unit area changes.

映像表示装置又は当該映像表示装置に接続された装置の動作状態が、複数あることがある。本手段においては、映像表示装置又は映像表示装置に接続された装置の動作状態によって、有効領域、単位領域、単位領域に割り当てられた動作指令の少なくとも一つが変化するので、映像表示装置又は当該映像表示装置に接続された装置の動作状態に応じた適当な操作を行わせることができる。   There may be a plurality of operation states of the video display device or a device connected to the video display device. In this means, at least one of the effective area, the unit area, and the operation command assigned to the unit area changes depending on the operation state of the video display apparatus or the apparatus connected to the video display apparatus. An appropriate operation can be performed in accordance with the operating state of the device connected to the display device.

前記課題を解決するための第7の手段は、前記第2の手段から第6の手段のいずれかであって、前記操作部材に人体の一部が接触又は近接することによって前記有効領域の映像を表示した場合に、前記有効領域、前記単位領域の位置が、前記操作部材に人体の一部が接触又は近接したときの位置を基準として決定されることを特徴とするものである。   A seventh means for solving the above problem is any one of the second means to the sixth means, wherein an image of the effective area is obtained when a part of a human body contacts or approaches the operation member. Is displayed, the positions of the effective area and the unit area are determined on the basis of the position when a part of the human body comes into contact with or close to the operation member.

本手段における操作部材は、例えばタッチパッドのようなものであり、有効領域、単位領域の位置が表示されているものではない。よって、その位置を正確に知ることができない。本手段においては、最初に操作部材に人体の一部が接触又は近接して、その映像の表示がなされたとき、人体の一部が接触又は近接した操作部材の位置を、有効領域、単位領域の位置の基準として、この基準位置を基準にして、各有効領域、単位領域の位置を決定する。よって、使用者は、最初に操作を行った操作部材の位置を基準にして各有効領域、単位領域の位置を認識することができるので、各有効領域、単位領域の位置の認識が容易である。   The operation member in this means is a touch pad, for example, and does not display the positions of the effective area and the unit area. Therefore, the position cannot be accurately known. In this means, when a part of the human body first comes into contact with or approaches the operation member and the image is displayed, the position of the operation member that comes in contact with or close to the part of the human body is determined as the effective region, unit region. The position of each effective area and unit area is determined with reference to this reference position. Therefore, the user can recognize the position of each effective area and unit area based on the position of the operation member that performed the operation first, so that the position of each effective area and unit area can be easily recognized. .

前記課題を解決するための第8の手段は、前記第1の手段から第7の手段のいずれかであって、前記単位領域に対応する前記操作部材上の位置を使用者が指定し、指定された位置を記憶する記憶部を有することを特徴とするものである。   The eighth means for solving the problem is any one of the first to seventh means, wherein a user designates a position on the operation member corresponding to the unit area, and designates It has a storage part which memorizes the done position.

本手段においては、単位領域に対応する操作部材上の位置を使用者が指定し、指定された位置を記憶する記憶部を有するので、使用者は、自分で使い易い操作部材上の位置に、単位領域を設けることができる。   In this means, the user designates the position on the operation member corresponding to the unit area, and has a storage unit for storing the designated position, so that the user can easily use the position on the operation member by himself / herself. A unit area can be provided.

本発明によれば、フレキシビリティに富んだ操作部を有する映像表示装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the video display apparatus which has an operation part with sufficient flexibility can be provided.

以下、本発明の実施の形態の例を、図を用いて説明する。図1は、本発明の実施の形態であるヘッドマウントディスプレイの概要を示す図である。2つのヘッドホーン1、2は、連結部3によって連結されている。そして、ヘッドホーン1には、支持アーム4が取り付けられ、支持アーム4の先端部には、人間の目に画像を表示する表示部5が取り付けられている。   Hereinafter, an example of an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing an outline of a head mounted display according to an embodiment of the present invention. The two headphones 1 and 2 are connected by a connecting portion 3. A support arm 4 is attached to the headphone 1, and a display unit 5 that displays an image to the human eye is attached to the tip of the support arm 4.

このヘッドマウントディスプレイを、頭部に挿着するときは、ヘッドホーン1、2を、両耳を挟むようにして挿着し、固定する。すなわち、ヘッドホーン1、2が固定部となり、連結部3は弾力性を有し、この弾力によりヘッドマウントディスプレイが固定される。ヘッドホーン1には、その外側にタッチパッド6が設けられ、操作部材とされている。   When the head mounted display is inserted into the head, the headphones 1 and 2 are inserted and fixed so as to sandwich both ears. That is, the headphone 1 and 2 become a fixing part, and the connection part 3 has elasticity, and the head mounted display is fixed by this elasticity. The headphone 1 is provided with a touch pad 6 on the outside thereof, and serves as an operation member.

使用者が、タッチパッド6に指を触れると、表示部5に7aに示すような表示がなされる。表示7aは、タッチパッド6の領域の分割を示しており、次に、対応するタッチパッド6の部分に指を触れると、対応する機能が入力されて作動する。表示7aにおいては、タッチパッド6の右上の部分に指を触れ、MENUに対応する機能が選択された状態を表しており、表示7aのMENUに対応する部分が反転表示されている。これから所定の時間がたつと、MENUに対応する表示画面が表示され、タッチパッド6の入力機能もその表示画面に対応するものに切り替わる。   When the user touches his / her finger on the touch pad 6, a display as shown in 7a is made on the display unit 5. The display 7a shows the division of the area of the touch pad 6. Next, when the corresponding touch pad 6 is touched with a finger, the corresponding function is input and activated. In the display 7a, a finger is touched on the upper right portion of the touch pad 6 to indicate a state in which a function corresponding to the MENU is selected, and a portion corresponding to the MENU in the display 7a is highlighted. When a predetermined time elapses from now, a display screen corresponding to the MENU is displayed, and the input function of the touch pad 6 is switched to the one corresponding to the display screen.

この実施の形態においては、タッチパッド6を操作部材として使用しているので、タッチパッドを押したとか、タッチパッド6上で触っている部分が変化して異なる入力の部分に移ったといった状態を手感として得ることが困難である。よって、タッチパッド6を押したときや、タッチパッド6上で触っている部分が変化して異なる入力の部分に移ったような場合には、ヘッドホーン1から音を発して、使用者に通知することが好ましい。   In this embodiment, since the touch pad 6 is used as an operation member, a state in which the touch pad is pressed or a part touched on the touch pad 6 is changed to a different input part. It is difficult to obtain as a hand feeling. Therefore, when the touch pad 6 is pressed or when the part touched on the touch pad 6 changes and moves to a different input part, a sound is emitted from the headphones 1 to notify the user. It is preferable to do.

タッチパッド6への入力は、タッチパッド6を感圧式のものとして、一定以上の圧力が加わったときに押したと判断してもよいし、2度連続して接触したり、所定時間連続して接触したときに押したと判断してもよい。例えば、単にタッチパッド6に指が接触しているだけでは、表示7aの対応する部分が反転表示されるだけであり、2度連続して接触したり、所定時間連続して接触したときに入力があったと判断するようにすれば、使用者は表示7aで指の位置を確認しながら入力を行うことができ、入力ミスを無くすることができる。又、操作部材を近接型のものとして、指等の人体の一部が接触したり近接したときに入力があったと判断するようにしてもよい。   Input to the touch pad 6 may be determined to be a pressure-sensitive touch pad 6 that has been pressed when a certain pressure or more is applied. It may be determined that the button has been pressed when touched. For example, if the finger simply touches the touch pad 6, the corresponding portion of the display 7 a is only displayed in reverse, and it is input when touching twice or touching continuously for a predetermined time. If it is determined that there is an error, the user can make an input while confirming the position of the finger on the display 7a, and an input error can be eliminated. Further, the operation member may be a proximity type, and it may be determined that there is an input when a part of a human body such as a finger comes into contact with or approaches.

入力エリアとしてはタッチパッド6の全面を使用する必要はなく、その一部分を使用するようにしてもよい。例えば図2に示す本発明の実施の形態の例のように、タッチパッド6の中央の十字の部分だけを使用して、十字キーに対応する入力を行わせるようにしてもよい。この場合には、表示部には、7bに示されるように十字キーに対応する表示がなされる。使用者は、表示7bに示された十字キーを見ながら入力を行う。この場合でも、十字キーに対応していない入力エリア以外の部分(無効部分)に指で接触したときにも、7bに示すような表示を行い、その後、入力が可能になるようにしておくことが好ましい。これにより、使用者は初期状態において、タッチパッド6の何処に接触しても、表示7bを表示して入力状態とすることができ、かつ、入力エリアの位置を知ることができる。   It is not necessary to use the entire surface of the touch pad 6 as the input area, and a part of it may be used. For example, as in the example of the embodiment of the present invention shown in FIG. 2, only the cross portion at the center of the touch pad 6 may be used to input corresponding to the cross key. In this case, a display corresponding to the cross key is made on the display unit as shown in 7b. The user performs input while looking at the cross key shown on the display 7b. Even in this case, when a finger touches a portion (invalid portion) other than the input area that does not support the cross key, the display as shown in 7b is performed so that input can be performed thereafter. Is preferred. Thereby, in the initial state, the user can display the display 7b to be in the input state regardless of where the touch pad 6 is touched, and can know the position of the input area.

タッチパッド6等による入力の場合、使用するキーのレイアウトを自由に変更することができる。たとえば、メニュー表示中の場合は、図3(a)に示すように、上下左右にカーソルを動かすため十字キーを表示7cとして表示し、音楽再生中の場合は早送り、巻き戻し等の操作しか行わないために、図3(b)に示すように、2方向キーを表示7dとして表示すれば、不要なキーを表示しないため使用者の混乱を押さえることができる。   In the case of input using the touch pad 6 or the like, the layout of keys to be used can be freely changed. For example, when the menu is being displayed, as shown in FIG. 3A, the cross key is displayed as the display 7c to move the cursor up, down, left, and right. When music is being played, only fast forward and rewind operations are performed. Therefore, if the two-way key is displayed as the display 7d as shown in FIG. 3B, unnecessary keys are not displayed, and the user's confusion can be suppressed.

又、使用者がタッチパッド6上で入力する位置は、同じボタンを入力することを意図した場合でも同じ位置を触るとは限らない。そこで最初に接触した位置を基準(たとえばOKキー)とし、その位置に対してタッチパッド6上での他のキーの位置を決定することで、入力ミスを減らすことができる。   Further, even if the user intends to input the same button, the position on the touch pad 6 is not always touched. Thus, by making the position of the first contact as a reference (for example, an OK key) and determining the position of another key on the touch pad 6 with respect to that position, input errors can be reduced.

又、画面に表示されたボタンに相当する位置を、ユーザがタッチパッド上で指示し、その位置を記憶することで、使用者毎に最適なキー配置を設定することができる。その際、最初に指示した位置(たとえばOKキー)を基準として他のキーの位置を記憶することで、入力ミスの少ないインタフェースとすることができるのはいうまでもない。   In addition, the user can designate a position corresponding to the button displayed on the screen on the touch pad and store the position, so that an optimal key arrangement can be set for each user. In this case, it is needless to say that an interface with few input mistakes can be obtained by storing the positions of other keys with reference to the first designated position (for example, the OK key).

本発明の実施の形態であるヘッドマウントディスプレイの概要を示す図である。It is a figure which shows the outline | summary of the head mounted display which is embodiment of this invention. 本発明の実施の形態であるヘッドマウントディスプレイの概要を示す図である。It is a figure which shows the outline | summary of the head mounted display which is embodiment of this invention. 本発明の実施の形態であるヘッドマウントディスプレイの概要を示す図である。It is a figure which shows the outline | summary of the head mounted display which is embodiment of this invention.

符号の説明Explanation of symbols

1…ヘッドホーン、2…ヘッドホーン、3…連結部、4…支持アーム、5…表示部、6…タッチパッド、7a〜7d:表示
DESCRIPTION OF SYMBOLS 1 ... Headphone, 2 ... Headphone, 3 ... Connection part, 4 ... Support arm, 5 ... Display part, 6 ... Touchpad, 7a-7d: Display

Claims (8)

頭部に装着して表示される映像を観察する映像表示装置であって、目に映像を投影する映像表示部と、当該映像表示装置又は当該映像表示装置に接続して使用する装置を操作するための操作部材とを有し、当該操作部材は人体の一部が接触又は近接した場合に、接触又は近接した位置を検出する位置検出機能を持ち、前記操作部材に人体の一部が接触又は近接した場合に、使用者の入力を受け付ける前記操作部材の有効領域の映像を前記映像表示部に表示する機能を有することを特徴とする映像表示装置。   A video display device for observing video displayed on the head, and operating a video display unit for projecting video to the eye and the video display device or a device used by connecting to the video display device An operation member for detecting the position of the human body when a part of the human body comes into contact with or close to the operation member. An image display device having a function of displaying, on the image display unit, an image of an effective area of the operation member that receives a user's input when approaching. 請求項1に記載の映像表示装置であって、前記操作部材の有効領域は、単数の単位領域又は複数の領域に分割された単位領域から構成されており、前記単位領域に人体の一部が接触又は近接した場合に、接触又は近接した単位領域の映像を変化させることを特徴とする映像表示装置。   2. The video display device according to claim 1, wherein the effective area of the operation member includes a single unit area or a unit area divided into a plurality of areas, and a part of a human body is included in the unit area. An image display device characterized by changing an image of a unit area in contact or proximity when touching or approaching. 請求項2に記載の映像表示装置であって、前記操作部材は前記有効領域と使用者の入力を受け付けない無効領域とを有し、前記無効領域に人体の一部が接触又は近接した場合にも、前記有効領域の映像を前記映像表示部に表示することを特徴とする映像表示装置。   The video display device according to claim 2, wherein the operation member includes the effective area and an invalid area that does not accept a user input, and a part of a human body is in contact with or close to the invalid area. And a video display device that displays the video of the effective area on the video display unit. 請求項2又は請求項3に記載の映像表示装置であって、前記単位領域の少なくとも一つを使用者が選択した場合に、選択した単位領域に割り当てられた動作指令入力を当該映像表示装置又は当該映像表示装置に接続された装置に送ることを特徴とする映像表示装置。   4. The video display device according to claim 2, wherein when a user selects at least one of the unit areas, an operation command input assigned to the selected unit area is input to the video display apparatus or A video display device, wherein the video display device is sent to a device connected to the video display device. 請求項2から請求項4のうちいずれか1項に記載の映像表示装置であって、音声出力部を持ち、前記単位領域の少なくとも一つを使用者が選択した場合、又は人体の一部が接触又は近接している単位領域が変化した場合に、それらを通知する音声を発生することを特徴とする映像表示装置。   5. The video display device according to claim 2, wherein the video display device has an audio output unit and a user selects at least one of the unit areas, or a part of the human body is An image display device that generates sound for notifying a unit area that is in contact with or close to the unit area when it changes. 請求項2から請求項5のうちいずれか1項に記載の映像表示装置であって、当該映像表示装置又は当該映像表示装置に接続された装置の動作状態によって、前記有効領域、前記単位領域、前記単位領域に割り当てられた動作指令の少なくとも一つが変化することを特徴とする映像表示装置。   The video display device according to any one of claims 2 to 5, wherein the effective area, the unit area, and the unit area, depending on an operation state of the video display apparatus or a device connected to the video display apparatus. An image display device characterized in that at least one of operation commands assigned to the unit area changes. 請求項2から請求項6のうちいずれか1項に記載の映像表示装置であって、前記操作部材に人体の一部が接触又は近接することによって前記有効領域の映像を表示した場合に、前記有効領域、前記単位領域の位置が、前記操作部材に人体の一部が接触又は近接したときの位置を基準として決定されることを特徴とする映像表示装置。   The image display device according to any one of claims 2 to 6, wherein when the image of the effective area is displayed when a part of a human body contacts or approaches the operation member, The position of the effective area and the unit area is determined based on the position when a part of a human body comes into contact with or close to the operation member. 請求項2から請求項7のうちいずれか1項に記載の映像表示装置であって、前記単位領域に対応する前記操作部材上の位置を使用者が指定し、指定された位置を記憶する記憶部を有することを特徴とする映像表示装置。   8. The video display device according to claim 2, wherein a user designates a position on the operation member corresponding to the unit area, and stores the designated position. A video display device comprising a portion.
JP2006138317A 2006-05-17 2006-05-17 Video display device Pending JP2007310599A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006138317A JP2007310599A (en) 2006-05-17 2006-05-17 Video display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006138317A JP2007310599A (en) 2006-05-17 2006-05-17 Video display device

Publications (1)

Publication Number Publication Date
JP2007310599A true JP2007310599A (en) 2007-11-29

Family

ID=38843402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006138317A Pending JP2007310599A (en) 2006-05-17 2006-05-17 Video display device

Country Status (1)

Country Link
JP (1) JP2007310599A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009229859A (en) * 2008-03-24 2009-10-08 Nikon Corp Head mounted display
JP2010263324A (en) * 2009-04-30 2010-11-18 Olympus Imaging Corp Image capturing apparatus, display device and imaging system
JP2011249906A (en) * 2010-05-24 2011-12-08 Nikon Corp Head-mounted display
JP2013093768A (en) * 2011-10-26 2013-05-16 Sony Corp Head-mounted display and display control method
EP2293598A3 (en) * 2009-07-31 2013-07-31 Carlos De La Fe Dahlin Menusystem
JP2014021708A (en) * 2012-07-18 2014-02-03 Nikon Corp Head-mounted information input/output device and head-mounted information input/output method
JP2014042279A (en) * 2013-09-26 2014-03-06 Olympus Imaging Corp Display device, imaging system, display method, and display program
JP2015141686A (en) * 2014-01-30 2015-08-03 株式会社リコー Pointing device, information processing device, information processing system, and method for controlling pointing device
JP2016026311A (en) * 2015-09-01 2016-02-12 株式会社ニコン Head-mounted display
WO2016063801A1 (en) * 2014-10-22 2016-04-28 株式会社ソニー・インタラクティブエンタテインメント Head mounted display, mobile information terminal, image processing device, display control program, and display control method
EP3125102A1 (en) 2012-06-13 2017-02-01 Sony Corporation Head-mounted display
JP2017188149A (en) * 2017-06-26 2017-10-12 株式会社ニコン Head-mounted display
CN108475085A (en) * 2017-05-16 2018-08-31 深圳市柔宇科技有限公司 Head-mounted display apparatus and its interaction input method
US10299026B2 (en) 2010-10-01 2019-05-21 Sony Corporation Input device
JP2019516153A (en) * 2016-05-12 2019-06-13 サーク・コーポレーション Controller Signs with Capacitive Sensing

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03139075A (en) * 1989-10-24 1991-06-13 Mazda Motor Corp Channel display device of receiver
JPH0876919A (en) * 1994-09-06 1996-03-22 Fujitsu General Ltd Device for informing cursor position
JPH0934645A (en) * 1995-07-21 1997-02-07 Smk Corp Pointing device
JPH11174987A (en) * 1997-12-10 1999-07-02 Shimadzu Corp Display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03139075A (en) * 1989-10-24 1991-06-13 Mazda Motor Corp Channel display device of receiver
JPH0876919A (en) * 1994-09-06 1996-03-22 Fujitsu General Ltd Device for informing cursor position
JPH0934645A (en) * 1995-07-21 1997-02-07 Smk Corp Pointing device
JPH11174987A (en) * 1997-12-10 1999-07-02 Shimadzu Corp Display device

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009229859A (en) * 2008-03-24 2009-10-08 Nikon Corp Head mounted display
JP2010263324A (en) * 2009-04-30 2010-11-18 Olympus Imaging Corp Image capturing apparatus, display device and imaging system
EP2293598A3 (en) * 2009-07-31 2013-07-31 Carlos De La Fe Dahlin Menusystem
JP2011249906A (en) * 2010-05-24 2011-12-08 Nikon Corp Head-mounted display
US10645482B2 (en) 2010-10-01 2020-05-05 Sony Corporation Input device
US10299026B2 (en) 2010-10-01 2019-05-21 Sony Corporation Input device
JP2013093768A (en) * 2011-10-26 2013-05-16 Sony Corp Head-mounted display and display control method
US9495029B2 (en) 2011-10-26 2016-11-15 Sony Corporation Head mount display and display control method
EP3125102A1 (en) 2012-06-13 2017-02-01 Sony Corporation Head-mounted display
JP2014021708A (en) * 2012-07-18 2014-02-03 Nikon Corp Head-mounted information input/output device and head-mounted information input/output method
JP2014042279A (en) * 2013-09-26 2014-03-06 Olympus Imaging Corp Display device, imaging system, display method, and display program
JP2015141686A (en) * 2014-01-30 2015-08-03 株式会社リコー Pointing device, information processing device, information processing system, and method for controlling pointing device
JP2016081476A (en) * 2014-10-22 2016-05-16 株式会社ソニー・コンピュータエンタテインメント Head-mounted display, mobile information terminal, image processing apparatus, display control program, display control method, and display system
EP3211513A4 (en) * 2014-10-22 2018-07-25 Sony Interactive Entertainment Inc. Head mounted display, mobile information terminal, image processing device, display control program, and display control method
WO2016063801A1 (en) * 2014-10-22 2016-04-28 株式会社ソニー・インタラクティブエンタテインメント Head mounted display, mobile information terminal, image processing device, display control program, and display control method
US10379605B2 (en) 2014-10-22 2019-08-13 Sony Interactive Entertainment Inc. Head mounted display, mobile information terminal, image processing apparatus, display control program, display control method, and display system
US10620699B2 (en) 2014-10-22 2020-04-14 Sony Interactive Entertainment Inc. Head mounted display, mobile information terminal, image processing apparatus, display control program, display control method, and display system
JP2016026311A (en) * 2015-09-01 2016-02-12 株式会社ニコン Head-mounted display
JP2019516153A (en) * 2016-05-12 2019-06-13 サーク・コーポレーション Controller Signs with Capacitive Sensing
CN108475085A (en) * 2017-05-16 2018-08-31 深圳市柔宇科技有限公司 Head-mounted display apparatus and its interaction input method
JP2017188149A (en) * 2017-06-26 2017-10-12 株式会社ニコン Head-mounted display

Similar Documents

Publication Publication Date Title
JP2007310599A (en) Video display device
JP5163493B2 (en) Output device
JP6408156B2 (en) Multi surface controller
KR102138503B1 (en) Smart watch
KR102034584B1 (en) Portable device and controlling method thereof
KR101984590B1 (en) Display device and controlling method thereof
JP2018156673A (en) Terminal device, control method for terminal device, and program
EP2791725A1 (en) Head-mounted display and information display apparatus
JP2009042967A (en) Information input display system, information terminal and display device
JP5071387B2 (en) Display device
JP2013084246A (en) Protective cover and information processor
US10514796B2 (en) Electronic apparatus
JP2013258573A (en) Head-mounted video display device
US8823603B1 (en) Head mounted display and method of controlling therefor
JP5055585B2 (en) Head mounted display
JP2004233776A (en) Head-mounted display
JP2011170585A (en) Pointing device and information processing system
EP1827054A1 (en) Video display apparatus, remote controller for reproduction apparatus, and reproduction apparatus
JP2012194626A (en) Display device
JP2007329640A (en) Output device
JP4893090B2 (en) Output device
JP2012252663A (en) Operation panel device and electronic information equipment
CN103677579A (en) Electronic equipment and control method
JP2018063522A (en) Display control system and display control program
JP2009225008A (en) Head mounted display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110309