JP2008009490A - Information input device - Google Patents

Information input device Download PDF

Info

Publication number
JP2008009490A
JP2008009490A JP2006176294A JP2006176294A JP2008009490A JP 2008009490 A JP2008009490 A JP 2008009490A JP 2006176294 A JP2006176294 A JP 2006176294A JP 2006176294 A JP2006176294 A JP 2006176294A JP 2008009490 A JP2008009490 A JP 2008009490A
Authority
JP
Japan
Prior art keywords
video
pointer
display frame
input device
virtual display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006176294A
Other languages
Japanese (ja)
Inventor
Tsutomu Ichikawa
勉 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2006176294A priority Critical patent/JP2008009490A/en
Publication of JP2008009490A publication Critical patent/JP2008009490A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information input device for easily and accurately inputting information to a virtually displayed video in an information input device using an HMD. <P>SOLUTION: This information input device is provided with a display means mounted on the head or the face for displaying a video, and for making an external world see-through; a virtual display frame for virtually displaying a video; and a pointer for inputting information to a virtually displayed video. This information input device is provided with a position detection means for detecting the position of the virtual display frame and the position of a pointer; a composition means for combining the orbit of the position of the pointer detected by the position detection means with the video; and a display position control means for controlling the position where the video is virtually displayed according to the position of the virtual display frame detected by the position detection means. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、情報入力装置に関し、特に頭部装着式映像表示装置を用いた情報入力装置に関する。   The present invention relates to an information input device, and more particularly to an information input device using a head-mounted video display device.

従来、VR(Virtual reality:仮想現実)の分野においては、頭部装着式映像表示装置、すなわちHMD(Head Mount Display)を用いた情報入力装置が知られている。   2. Description of the Related Art Conventionally, in the field of VR (Virtual Reality), a head-mounted video display device, that is, an information input device using an HMD (Head Mount Display) is known.

情報入力装置は、HMDによって仮想表示されたDVD、ビデオ等のコンテンツ映像やテキスト映像等に対して、例えばタッチパネルやポインター等の入力装置を用いて、文字等の情報を入力することができるようになされている。これにより現実世界における操作と同様の操作で仮想現実の世界において所望の情報を入力することが可能となる。そして、近年このような情報入力装置が種々提案されている。   The information input device can input information such as characters to content video such as DVD and video, text video, and the like virtually displayed by the HMD using an input device such as a touch panel or a pointer. Has been made. This makes it possible to input desired information in the virtual reality world by the same operation as in the real world. In recent years, various information input devices have been proposed.

例えば、情報入力を行う指の位置を3次元座標測定装置を用いて検出し、検出した座標に基づいて仮想表示された映像に情報入力を行う様にした情報入力装置の技術(特許文献1参照)、また、入力装置にタッチパネルを用い、タッチパネルの位置を検出する為にタッチパネルの周縁に複数の光源を設け、各光源を異なる点滅パターンで点滅制御することにより、タッチパネルを流し撮りした場合においても光源の位置、すなわちタッチパネルの位置を容易に検出することができる様にした情報入力装置の技術(特許文献2参照)が知られている。
特開平7−5978号公報 特開2000−172430号公報
For example, a technology of an information input device that detects the position of a finger for inputting information using a three-dimensional coordinate measuring device and inputs information to a virtually displayed video based on the detected coordinates (see Patent Document 1). ) In addition, even when a touch panel is taken by using a touch panel as an input device, a plurality of light sources are provided at the periphery of the touch panel to detect the position of the touch panel, and each light source is controlled to blink with different blink patterns. There is known an information input device technology (see Patent Document 2) that can easily detect the position of a light source, that is, the position of a touch panel.
Japanese Patent Laid-Open No. 7-5978 JP 2000-172430 A

しかしながら、特許文献1に開示されている情報入力装置においては、情報入力を行う指の位置を3次元座標測定装置を用いて検出する様にしているので、装置の複雑化と高価格化を招く恐れがあり、また、高い精度で指の位置を検出することは困難なものと考えられる。また、特許文献2に開示されている情報入力装置においては、入力装置としてのタッチパネルや、タッチパネルの位置を検出する為にタッチパネルの周縁に設けられた複数の光源を異なる点滅パターンで点滅制御を行う点滅制御装置を必要とする。したがって、装置の複雑化と高価格化を招く恐れがある。また、HMDは外界をシースルー不能であり、装着者の頭の動きといっしょに仮想表示された映像も移動することから、現実世界と仮想世界との位置にずれが生じる。これにより適切な位置に情報を入力することができなくなる。   However, in the information input device disclosed in Patent Document 1, since the position of a finger for inputting information is detected using a three-dimensional coordinate measuring device, the device is complicated and expensive. In addition, it is considered difficult to detect the finger position with high accuracy. Further, in the information input device disclosed in Patent Document 2, the touch panel as the input device and a plurality of light sources provided at the periphery of the touch panel are controlled to blink with different blink patterns in order to detect the position of the touch panel. Requires a flashing controller. Therefore, there is a risk that the apparatus will be complicated and expensive. In addition, the HMD cannot see through the outside world, and the image that is virtually displayed together with the movement of the wearer's head moves, so that there is a shift in the position between the real world and the virtual world. This makes it impossible to input information at an appropriate position.

本発明は、上記課題を鑑みてなされたもので、HMDを用いた情報入力装置において、装置の複雑化と高価格化を招くことなく、仮想表示された映像に、容易に、且つ正確に情報を入力することが可能な情報入力装置を提供することを目的とする。   The present invention has been made in view of the above problems, and in an information input device using an HMD, information can be easily and accurately displayed on a virtually displayed image without increasing the complexity and cost of the device. It is an object of the present invention to provide an information input device that can input.

上記目的は、下記の1乃至9のいずれか1項に記載の発明によって達成される。   The above object is achieved by the invention described in any one of 1 to 9 below.

1.頭部や顔面に装着され映像を表示し外界をシースルー可能な表示手段と、前記映像が仮想表示される仮想表示枠と、仮想表示された前記映像に情報を入力するポインターと、を備えた情報入力装置であって、
前記仮想表示枠の位置および前記ポインターの位置を検出する位置検出手段と、
前記位置検出手段で検出された前記ポインターの位置の軌跡を前記映像に合成する合成手段と、
前記位置検出手段で検出された前記仮想表示枠の位置に応じて前記映像が仮想表示される位置を制御する表示位置制御手段と、を有することを特徴とする情報入力装置。
1. Information comprising display means mounted on the head or face and capable of displaying an image and see-through the outside, a virtual display frame in which the image is virtually displayed, and a pointer for inputting information to the virtually displayed image An input device,
Position detecting means for detecting the position of the virtual display frame and the position of the pointer;
Synthesizing means for synthesizing the locus of the position of the pointer detected by the position detecting means with the video;
An information input device comprising: display position control means for controlling a position where the video is virtually displayed according to the position of the virtual display frame detected by the position detection means.

2.前記位置検出手段は、外界を撮影しズーム機能を備えたカメラユニットを有することを特徴とする前記1に記載の情報入力装置。   2. 2. The information input device according to 1 above, wherein the position detection unit includes a camera unit that captures an outside world and has a zoom function.

3.前記位置検出手段は、前記カメラユニットで撮影された映像のコントラストに基づいて前記仮想表示枠の位置および前記ポインターの位置を検出することを特徴とする前記1または2に記載の情報入力装置。   3. 3. The information input device according to claim 1 or 2, wherein the position detecting unit detects the position of the virtual display frame and the position of the pointer based on a contrast of an image captured by the camera unit.

4.前記仮想表示枠は、その面上に枠が設けられたシートであり、
前記枠と前記シートの光の反射率は異なることを特徴とする前記1乃至3のいずれか1項に記載の情報入力装置。
4). The virtual display frame is a sheet provided with a frame on its surface,
4. The information input device according to any one of 1 to 3, wherein the light reflectance of the frame and the sheet is different.

5.前記合成手段は、前記位置検出手段で検出された前記仮想表示枠の位置に基づいて、所定の映像や情報を前記表示手段に出力することを特徴とする前記1乃至4のいずれか1項に記載の情報入力装置。   5. 5. The method according to any one of 1 to 4, wherein the synthesizing unit outputs a predetermined video or information to the display unit based on the position of the virtual display frame detected by the position detecting unit. The information input device described.

6.前記ポインターは、ペン型形状に形成されていることを特徴とする前記1に記載の情報入力装置。   6). 2. The information input device according to 1, wherein the pointer is formed in a pen shape.

7.前記ポインターは、一方の端に光源を備え、
前記光源が対象物に加圧接触されると該光源は点灯することを特徴とする前記6に記載の情報入力装置。
7). The pointer has a light source at one end,
7. The information input device according to 6, wherein the light source is turned on when the light source comes into pressure contact with an object.

8.前記合成手段で前記ポインターの位置の軌跡を前記映像に合成する入力モードと前記映像に合成された前記ポインターの位置の軌跡の全てを消去する全消去モードとその一部を消去する部分消去モードのいずれかを選択するモード切替えスイッチを有することを特徴とする前記1乃至7のいずれか1項に記載の情報入力装置。   8). An input mode for combining the locus of the pointer position with the image by the combining means, a full erasing mode for erasing all the locus of the pointer position combined with the image, and a partial erasing mode for erasing a part thereof. 8. The information input device according to any one of 1 to 7, further comprising a mode changeover switch for selecting one of them.

9.前記モード切替えスイッチによって、前記部分消去モードが選択されている場合、前記合成手段によって前記映像に合成され前記仮想表示枠に仮想表示された前記ポインターの位置の軌跡を前記ポインターでトレースすることにより、該軌跡のトレースされた部位が消去されることを特徴とする前記1乃至8のいずれか1項に記載の情報入力装置。   9. When the partial erasure mode is selected by the mode changeover switch, by tracing the locus of the position of the pointer synthesized with the video and virtually displayed in the virtual display frame by the pointer by the pointer, 9. The information input device according to any one of 1 to 8, wherein the traced part of the locus is deleted.

本発明によれば、表示位置制御手段は、位置検出手段で検出された仮想表示枠の位置に応じて映像が仮想表示される位置を制御する様にした。すなわち、装着者が頭部を動かすことにより、仮想表示枠の位置と仮想表示される映像の位置にずれが生じた場合においても、表示位置制御手段は、位置検出手段で検出された仮想表示枠の位置に応じて映像が仮想表示される位置を移動させることができる。したがって、装着者の頭部の移動に影響されることなく、仮想表示枠の位置と仮想表示される映像の位置を一致させることができる。これにより、現実世界と仮想世界との位置のずれがなくなり、装着者は、仮想表示された映像に、容易に、且つ正確に情報を入力することができる。   According to the present invention, the display position control means controls the position where the video is virtually displayed according to the position of the virtual display frame detected by the position detection means. That is, even when the wearer moves his / her head and the position of the virtual display frame deviates from the position of the virtually displayed image, the display position control unit is configured to detect the virtual display frame detected by the position detection unit. The position where the video is virtually displayed can be moved according to the position of the image. Therefore, the position of the virtual display frame and the position of the virtually displayed video can be matched without being affected by the movement of the wearer's head. Thereby, the position shift between the real world and the virtual world is eliminated, and the wearer can easily and accurately input information to the virtually displayed video.

また、位置検出手段は、外界を撮影しズーム機能を備えたカメラユニットを備える様にした。したがって、カメラユニットで撮影された映像データに基づいて仮想表示枠の位置およびポインターの位置を容易に検出することができる。また、装着者の頭部の位置と仮想表示枠の距離に係らず光学ズームや電子ズーム等のズーム機能により、シースルーで観察できる仮想表示枠の大きさと仮想表示枠をカメラユニットで撮影し仮想表示する映像表示枠の大きさを一致させることができる。   In addition, the position detection means includes a camera unit that captures the outside world and has a zoom function. Therefore, the position of the virtual display frame and the position of the pointer can be easily detected based on the video data photographed by the camera unit. In addition, the virtual display frame size and virtual display frame that can be seen through with a zoom function such as optical zoom and electronic zoom, regardless of the distance between the wearer's head position and the virtual display frame, are captured by the camera unit and displayed virtually. The size of the video display frame to be matched can be made coincident.

また、位置検出手段は、カメラユニットで撮影された映像のコントラストに基づいて仮想表示枠の位置およびポインターの位置を検出する様にした。したがって、高い精度で容易に対象物を検出することができる。   Further, the position detection means detects the position of the virtual display frame and the position of the pointer based on the contrast of the video imaged by the camera unit. Therefore, it is possible to easily detect the object with high accuracy.

また、仮想表示枠の枠とシートの光の反射率は異なる様にしたので、コントラストを設けることができる。   Further, since the reflectance of the light of the virtual display frame and the sheet is different, contrast can be provided.

また、合成手段は、前記位置検出手段で検出された仮想表示枠の位置に基づいて、所定の映像や情報を表示手段に出力する様にした。したがって、例えば、位置検出手段が仮想表示枠を検出した場合、仮想表示される映像表示枠を点滅させたり、ズーミングによりシースルーで観察できる仮想表示枠の大きさに仮想表示枠をカメラユニットで撮影し仮想表示する映像表示枠の大きさが一致した場合、仮想表示される映像表示枠を点灯させたりすることにより、装着者は容易に撮影画角を最適化することができる。また、シースルーで観察できる仮想表示枠がカメラユニットの撮影画角からはみ出した場合、警告を表示させることにより、装着者は撮影画角の調整が不適切であり、位置検出精度が低下することを認知することができる。   Further, the synthesizing means outputs predetermined video and information to the display means based on the position of the virtual display frame detected by the position detecting means. Therefore, for example, when the position detection means detects a virtual display frame, the virtual display frame is flashed, or the virtual display frame is photographed with the camera unit to the size of the virtual display frame that can be viewed through by zooming. When the size of the video display frame to be virtually displayed matches, the wearer can easily optimize the shooting angle of view by lighting the video display frame to be virtually displayed. In addition, if the virtual display frame that can be observed through see-through protrudes from the shooting angle of view of the camera unit, a warning is displayed, which indicates that the wearer is improperly adjusting the shooting angle of view and that the position detection accuracy decreases. Can be recognized.

また、ポインターは、ペン型形状に形成されているので、容易に保持することができ操作性に優れている。   Moreover, since the pointer is formed in a pen shape, it can be easily held and has excellent operability.

また、ポインターの光源は、対象物に加圧接触されると点灯する様にした。すなわち、情報入力動作を行わずポインターが対象物に接触していない場合は、光源を点灯させない様にしているので、位置検出手段は、ポインターの位置を検出することなく誤入力を防止することができる。   The light source of the pointer is turned on when the object is pressed against the object. In other words, when the information input operation is not performed and the pointer is not in contact with the object, the light source is not turned on. Therefore, the position detection unit can prevent erroneous input without detecting the position of the pointer. it can.

また、入力モード、全消去モード、部分消去モードのいずれかを選択するモード切替えスイッチを備える様にした。したがって、装着者は、目的に応じて所望の動作モードを選択することができる。   In addition, a mode changeover switch for selecting any one of the input mode, the full erase mode, and the partial erase mode is provided. Therefore, the wearer can select a desired operation mode according to the purpose.

また、部分消去モードが選択されている場合、仮想表示されたポインターの位置の軌跡をポインターでトレースすることにより、該軌跡のトレースされた部位が消去される様にした。したがって、装着者は目的に応じて所望の情報のみを容易に消去することができる。   Further, when the partial deletion mode is selected, the traced portion of the locus is erased by tracing the locus of the virtually displayed pointer position with the pointer. Therefore, the wearer can easily delete only desired information according to the purpose.

以下図面に基づいて、本発明に係る情報入力装置の実施の形態を説明する。   Embodiments of an information input device according to the present invention will be described below with reference to the drawings.

最初に、情報入力装置1の構成を図1を用いて説明する。図1は、本発明に係る情報入力装置1の全体構成の概要を示す図である。   First, the configuration of the information input device 1 will be described with reference to FIG. FIG. 1 is a diagram showing an outline of the overall configuration of an information input device 1 according to the present invention.

情報入力装置1は、図1に示す様に、HMD2、制御ユニット3、仮想表示シート4、及びポインター5等を有し、HMD2に設けられた後述の表示ユニット25に表示され仮想表示シート4に仮想表示された映像に、ポインター5を用いて文字等の情報を入力するものである。   As shown in FIG. 1, the information input device 1 includes an HMD 2, a control unit 3, a virtual display sheet 4, a pointer 5, and the like, and is displayed on a display unit 25 described later provided in the HMD 2 and displayed on the virtual display sheet 4. Information such as characters is input to the virtually displayed video using the pointer 5.

最初に、HMD2の外観を説明する。HMD2は、使用者の眼球の近傍に配置されて使用される頭部装着式映像表示装置であり、図1に示す様に、テンプル21R,21L、ブリッジ22、鼻当て23R,23L、透明基板24R,24L、表示ユニット25(LCD表示部26、接眼光学系27)、カメラユニット28、及びイヤホン29R、29L等を有している。HMD2は、制御ユニット3に装填された後述のメモリカード39から取り込まれたDVD、ビデオ等のコンテンツ映像やテキスト映像等を、表示ユニット25に設けられたLCD表示部26に表示させ、該LCD表示部26から得らた映像を、接眼光学系27によって装着者の眼球に直接投影させることで、恰も該映像が空中に拡大投影されているかの様な虚像の観察を可能にしている。そして、本発明においては、該虚像が仮想表示シート4に仮想表示される様にしている。   First, the external appearance of the HMD 2 will be described. The HMD 2 is a head-mounted image display device that is used in the vicinity of the user's eyeball. As shown in FIG. 1, the temples 21R and 21L, the bridge 22, the nose pads 23R and 23L, and the transparent substrate 24R. 24L, display unit 25 (LCD display unit 26, eyepiece optical system 27), camera unit 28, earphones 29R, 29L, and the like. The HMD 2 displays content video such as DVD and video, text video, and the like captured from a memory card 39 (described later) loaded in the control unit 3 on the LCD display unit 26 provided in the display unit 25, and displays the LCD display. By directly projecting the image obtained from the unit 26 onto the eyeball of the wearer by the eyepiece optical system 27, it is possible to observe a virtual image as if the image was magnified and projected in the air. In the present invention, the virtual image is virtually displayed on the virtual display sheet 4.

テンプル21R,21Lは、可撓性を有する弾性材等により構成された長尺状の部材であり、装着者の耳や側頭部に掛止され、HMD2の装着者に対する頭部への保持及び装着位置の調整を行うためのものである。尚、テンプル21R,21Lは、回動部21Ra,a,21Laにおいて矢印P,Q方向に回動可能に構成されており、HMD2を使用しない場合には、テンプル21R,21Lを矢印P,Q方向に回動させて透明基板24R,24Lに沿わせることにより、コンパクト化することができる。   The temples 21R and 21L are long members made of a flexible elastic material or the like. The temples 21R and 21L are hooked on the wearer's ears or the temporal region and are held on the head of the wearer by the wearer. This is for adjusting the mounting position. The temples 21R and 21L are configured to be rotatable in the directions of arrows P and Q in the rotating portions 21Ra, a and 21La. When the HMD 2 is not used, the temples 21R and 21L are arranged in the directions of the arrows P and Q. It can be made compact by rotating it along the transparent substrates 24R and 24L.

ブリッジ22は、HMD2の装着者に対する顔面への保持を行う鼻当て23R,23Lを備え、透明基板24R,24Lの互いに対向する所定位置に架け渡された短尺の棒状部材であり、透明基板24Rと透明基板24Lとを一定の間隙を介した相対位置関係に保持するものである。   The bridge 22 includes nose pads 23R and 23L that hold the HMD 2 on the face of the wearer, and is a short rod-like member that is stretched over a predetermined position on the transparent substrates 24R and 24L facing each other. The transparent substrate 24L is held in a relative positional relationship with a fixed gap.

透明基板24R,24Lは、一方の眼球に対応した位置にU字型のスペース24Rsを形成する略平板状の透明体である。また、透明基板24Rに囲まれて形成されるU字型のスペース24Rsには、接眼光学系27が嵌め込まれている。   The transparent substrates 24R and 24L are substantially flat transparent bodies that form a U-shaped space 24Rs at a position corresponding to one eyeball. An eyepiece optical system 27 is fitted in a U-shaped space 24Rs formed by being surrounded by the transparent substrate 24R.

表示ユニット25は、本発明における表示手段に該当し、LCD表示部26、及び接眼光学系27等を有し、制御ユニット3に装填された後述のメモリカード39から取り込まれたDVD、ビデオ等のコンテンツ映像やテキスト映像等を表示する。   The display unit 25 corresponds to the display means in the present invention, and includes an LCD display unit 26, an eyepiece optical system 27, and the like. The display unit 25 is a DVD, a video, or the like captured from a memory card 39 described later loaded in the control unit 3. Display content video, text video, etc.

カメラユニット28は、図示しない後述のズームレンズ281、CCD(Charge Coupled Device)282、及び画像処理部284等を有し、装着者の周囲の外界情景を撮影するものであり、ズームレンズ281によって結像された被写体光学像を、CCD282によって光電変換して画像信号(映像信号)を生成し、画像処理部284等により画像信号に所定の画像処理を施し画像(映像)を生成する。   The camera unit 28 includes a zoom lens 281 (not shown), a CCD (Charge Coupled Device) 282, an image processing unit 284, and the like. The camera unit 28 captures an external scene around the wearer. The imaged subject optical image is photoelectrically converted by the CCD 282 to generate an image signal (video signal), and the image processing unit 284 or the like performs predetermined image processing on the image signal to generate an image (video).

イヤホン29R,29Lは、装着者の耳に挿入され、装着者に音声を提供する。   Earphones 29R and 29L are inserted into the ears of the wearer and provide sound to the wearer.

ここで、表示ユニット25の構成を、図2を用いて説明する。図2は、本発明に係る情報入力装置2における表示ユニット25の左側面からの側断面図であり、主に表示ユニット25の内部構成を示している。   Here, the configuration of the display unit 25 will be described with reference to FIG. FIG. 2 is a side sectional view from the left side surface of the display unit 25 in the information input device 2 according to the present invention, and mainly shows the internal configuration of the display unit 25.

図2に示す様に、表示ユニット25は、筐体261、LED(Light Emitting Diode)262、コリメータレンズ263、LCD(Liquid Crystal Display)264からなるLCD表示部26、及びプリズム271、HOE(Holographic Optical Element)272からなる接眼光学系27から構成される。   As shown in FIG. 2, the display unit 25 includes a housing 261, an LED (Light Emitting Diode) 262, a collimator lens 263, an LCD (Liquid Crystal Display) 264 LCD display unit 26, a prism 271, and HOE (Holographic Optical). Element) 272 and an eyepiece optical system 27.

LCD表示部26の筐体261の内部には、LED262、コリメータレンズ263、及びLCD264が内蔵された状態で、該筐体261が接眼光学系27のプリズム271の上端部において上斜め前方(図2では右斜め上方向)に突出する態様で取り付けられている。   With the LED 262, the collimator lens 263, and the LCD 264 built in the housing 261 of the LCD display unit 26, the housing 261 is diagonally upward and forward at the upper end of the prism 271 of the eyepiece optical system 27 (FIG. 2). Then, it is attached in such a manner as to protrude obliquely upward to the right.

LED262は、所定波長色を含む白色発光ダイオード(LED)からなる点光源である。   The LED 262 is a point light source composed of a white light emitting diode (LED) including a predetermined wavelength color.

コリメータレンズ263は、LED262の光をほぼ平行光にしてLCD264に投光するものである。   The collimator lens 263 converts the light from the LED 262 into substantially parallel light and projects it onto the LCD 264.

LCD264は、制御ユニット3に装填された後述のメモリカード39から取り込まれたDVD、ビデオ等のコンテンツ映像信号やテキスト映像信号等に基づき映像を生成するものであり、例えば透過型の液晶表示パネルである。   The LCD 264 generates a video based on a content video signal such as a DVD or video, a text video signal, etc. taken from a memory card 39 (described later) loaded in the control unit 3, and is, for example, a transmissive liquid crystal display panel. is there.

プリズム271は、ガラスや透明樹脂等からなる略板状の透明部材であり、LCD264からの光を内部で複数回の反射を行わせるものである。プリズム271の上端部は、LCD264からの光の大部分を内部に採光できるように、上方に向かってより肉厚となるように前面側(接眼面と反対側)が突き出るように楔形状に形成された肉厚部271bが形成されている。   The prism 271 is a substantially plate-shaped transparent member made of glass, transparent resin, or the like, and causes light from the LCD 264 to be reflected a plurality of times inside. The upper end portion of the prism 271 is formed in a wedge shape so that the front side (opposite side of the eyepiece surface) protrudes to be thicker upward so that most of the light from the LCD 264 can be collected inside. The thick part 271b thus formed is formed.

また、プリズム271の下端部には、傾斜面271aが形成されており、プリズム271は、透明基板24Rに形成された傾斜面24Raに対しHOE272を介して接合(例えば接着)されている。また、プリズム271の表裏面は、透明基板24Rの表裏面に対して面一とされている。これにより、プリズム271は、透明基板24Rと一枚の板状に一体化されている。   An inclined surface 271a is formed at the lower end of the prism 271. The prism 271 is bonded (for example, bonded) to the inclined surface 24Ra formed on the transparent substrate 24R via the HOE 272. The front and back surfaces of the prism 271 are flush with the front and back surfaces of the transparent substrate 24R. Thereby, the prism 271 is integrated with the transparent substrate 24R in a single plate shape.

HOE272は、光学的に軸非対称な所謂自由曲面で構成されて正のパワーを有する体積位相型のホログラム光学素子であり、プリズム271の下端部において所定の傾斜角を有して支持されている。HOE272は、プリズム271により導光された光が照射されることにより、光の干渉現象を用いてホログラム映像を眼球Eに提供する。   The HOE 272 is a volume phase type holographic optical element having a positive power, which is constituted by a so-called free-form surface that is optically asymmetric with respect to the axis, and is supported at a lower end portion of the prism 271 with a predetermined inclination angle. The HOE 272 provides a hologram image to the eyeball E using the light interference phenomenon when irradiated with the light guided by the prism 271.

以上のような構成を有する表示ユニット25においては、LED262から射出された光は、コリメータレンズ263を通してLCD264を照明し、この照明によりLCD264で生成された像光は、プリズム271内で複数回の全反射を行った後、HOE272により回折し虚像として使用者の眼球Eに導かれる。   In the display unit 25 having the above-described configuration, the light emitted from the LED 262 illuminates the LCD 264 through the collimator lens 263, and the image light generated by the LCD 264 by this illumination is reflected in the prism 271 a plurality of times. After reflection, the light is diffracted by the HOE 272 and guided to the user's eyeball E as a virtual image.

さらに、プリズム271は、前方から入射する光を使用者の眼球Eに導くようになっている。これにより、使用者は、外界(前方の被写体)をシースルー可能となり、後述のメモリカード39から取り込まれたDVD、ビデオ等のコンテンツ映像やテキスト映像等を外界(前方の被写体)と重畳して視認することとなる。   Further, the prism 271 guides light incident from the front to the user's eyeball E. As a result, the user can see-through the outside world (front subject), and content videos such as DVDs and videos, text images, etc. captured from the memory card 39 described later are superimposed on the outside world (front subject) for visual recognition. Will be.

尚、透明基板24Rに形成された傾斜面24Raは、プリズム271の傾斜面271aでの光の屈折をキャンセル(相殺)する、すなわち、傾斜面271aにおけるプリズム効果により矢印W側からの光が上方に屈曲するのを防止する為、装着者は、プリズム271、透明基板24R、及びHOE272を通して、外界光を歪むことなく観察することができる。   The inclined surface 24Ra formed on the transparent substrate 24R cancels (cancels) the light refraction at the inclined surface 271a of the prism 271. That is, the light from the arrow W side upwards due to the prism effect on the inclined surface 271a. In order to prevent bending, the wearer can observe outside light through the prism 271, the transparent substrate 24R, and the HOE 272 without distortion.

図1に戻って、制御ユニット3は、マイクロコンピュータからなり、電源スイッチ31、ズームスイッチ32、音声ボリューム33、初期設定スイッチ34、及びモード切替えスイッチ35等を有し、これら各種操作スイッチからの信号を受けて、表示ユニット25の表示動作やカメラユニット28の撮影動作、及び画像信号処理動作を統括的に制御するものである。   Returning to FIG. 1, the control unit 3 is composed of a microcomputer, and includes a power switch 31, a zoom switch 32, an audio volume 33, an initial setting switch 34, a mode changeover switch 35, etc., and signals from these various operation switches. Accordingly, the display operation of the display unit 25, the photographing operation of the camera unit 28, and the image signal processing operation are comprehensively controlled.

初期設定スイッチ34は、仮想表示シート4に仮想表示された映像に、ポインター5を用いて文字等の情報の入力動作を行うに先立ち、シースルーで観察できる仮想表示枠41の大きさに対し仮想表示枠41をカメラユニット28で撮影し仮想表示する映像表示枠の大きさを適正化させる動作を行う際に用いるものである。   The initial setting switch 34 performs virtual display for the size of the virtual display frame 41 that can be observed through a see-through prior to performing an input operation of information such as characters on the video virtually displayed on the virtual display sheet 4 using the pointer 5. The frame 41 is used when performing an operation of optimizing the size of the video display frame that is photographed by the camera unit 28 and virtually displayed.

モード切替えスイッチ35は、ポインター5の位置の軌跡を仮想表示された映像に合成する入力モード、合成された映像からポインター5の位置の軌跡の全てを消去する全消去モード、及びその一部を消去する部分消去モードのいずれかを選択するものである。尚、初期設定スイッチ34、及びモード切替えスイッチ35による動作の詳細は後述する。   The mode changeover switch 35 is an input mode for combining the locus of the pointer 5 with the virtually displayed image, an all erasing mode for erasing all of the locus of the pointer 5 from the synthesized image, and erasing a part thereof. One of the partial erase modes to be selected is selected. Details of operations by the initial setting switch 34 and the mode changeover switch 35 will be described later.

仮想表示シート4は、その面上に例えば黒色で矩形状の仮想表示枠41が描かれた白色のシートであり、表示ユニット25に表示された映像が仮想表示される。   The virtual display sheet 4 is a white sheet in which, for example, a black and rectangular virtual display frame 41 is drawn on the surface, and the video displayed on the display unit 25 is virtually displayed.

ポインター5は、その先端に、本発明における光源に該当するLED51を備えたペン型形状の情報入力器であり、仮想表示シート4にLED51を加圧接触させると、LED51は点灯する。尚、後述の制御部37中の仮想表示枠・ポインター座標検出部371は、カメラユニット28で撮影された映像データにおける被写体のコントラスト(輝度差)に基づいて、仮想表示枠41やポインター5の座標を検出する。   The pointer 5 is a pen-shaped information input device having an LED 51 corresponding to the light source of the present invention at the tip thereof. When the LED 51 is brought into pressure contact with the virtual display sheet 4, the LED 51 is lit. A virtual display frame / pointer coordinate detection unit 371 in the control unit 37 to be described later is based on the coordinates of the virtual display frame 41 and the pointer 5 based on the contrast (luminance difference) of the subject in the video data captured by the camera unit 28. Is detected.

次に、情報入力装置1の電気回路構成について図3を用いて説明する。図3は、本発明に係わる情報入力装置1の電気回路のブロック図である。尚、図3では、図1乃至図2に示した部材と同じ部材には同一の番号を付与した。   Next, the electric circuit configuration of the information input device 1 will be described with reference to FIG. FIG. 3 is a block diagram of an electric circuit of the information input device 1 according to the present invention. In FIG. 3, the same members as those shown in FIGS.

情報入力装置1の要部電気回路ブロックは、表示ユニット25、カメラユニット28、及び制御ユニット3等から構成される。   The main electric circuit block of the information input device 1 includes a display unit 25, a camera unit 28, a control unit 3, and the like.

表示ユニット25は、LCD表示部26、接眼光学系27から構成され、各部位で行われる動作については前述したので説明は省略する。   The display unit 25 includes an LCD display unit 26 and an eyepiece optical system 27. Since the operations performed in each part have been described above, the description thereof will be omitted.

カメラユニット28は、ズームレンズ281、CCD(Charge Coupled Device)282、AFE(Analog Front End)283、及び画像処理部284等を有する。   The camera unit 28 includes a zoom lens 281, a CCD (Charge Coupled Device) 282, an AFE (Analog Front End) 283, an image processing unit 284, and the like.

CCD282は、R(赤)光、G(緑)光、B(青)光の各色透過フィルタをピクセル単位(画素単位)で市松模様状に配置させたカラーエリア撮像センサで、ズームレンズ281により結像された被写体光像を、R(赤)光、G(緑)光、B(青)光の各色成分の画像信号(各画素単位で受光された画素信号の信号列からなる信号)に光電変換するものである。   The CCD 282 is a color area imaging sensor in which R (red) light, G (green) light, and B (blue) light transmission filters are arranged in a checkered pattern in pixel units (pixel units), and is connected by a zoom lens 281. The imaged subject light image is photoelectrically converted into image signals (signals consisting of a signal sequence of pixel signals received in units of pixels) of each color component of R (red) light, G (green) light, and B (blue) light. To convert.

AFE283は、制御ユニット3から送信される基準クロックに基づいて、CCD282の駆動を制御し、CCD282から読み出された映像信号(画像信号)に周知のアナログ信号処理を施した後にデジタル映像信号に変換する。   The AFE 283 controls the drive of the CCD 282 based on the reference clock transmitted from the control unit 3, performs a well-known analog signal processing on the video signal (image signal) read from the CCD 282, and converts it into a digital video signal To do.

この様に、CCD282で読み出された映像信号は、AFE283で所定の処理が施されて、デジタル映像信号に変換される。デジタル化された映像信号は、画像処理部284に取り込まれて所定の処理が行われる。以下、画像処理部284で行われるデジタル映像信号への処理について説明する。   In this manner, the video signal read by the CCD 282 is subjected to predetermined processing by the AFE 283 and converted into a digital video signal. The digitized video signal is captured by the image processing unit 284 and subjected to predetermined processing. Hereinafter, the process for the digital video signal performed by the image processing unit 284 will be described.

最初に、画像処理部284に取り込まれたデジタル映像信号は、CCD282から出力される映像信号の読出しに同期して後述の制御ユニット3中の画像メモリ381に書き込まれる。すなわち、画像処理部284で行われる処理に使用されるデジタル映像信号は、画像メモリ381にいったん記録したものを画像メモリ381から取り出し、画像処理部284中の各部位における処理に使用される。   First, the digital video signal captured by the image processing unit 284 is written into an image memory 381 in the control unit 3 described later in synchronization with the reading of the video signal output from the CCD 282. That is, a digital video signal used for processing performed in the image processing unit 284 is once recorded in the image memory 381 and is taken out from the image memory 381 and used for processing in each part in the image processing unit 284.

画像処理部284は、図示しない例えば、黒レベル補正部、画素補間部、ホワイトバランス制御部、ガンマ補正部、マトリックス演算部、シェーディング補正部、及び画像圧縮部等を有し、画像メモリ381より取り出したデジタル映像信号に周知の画像信号処理を施すものである。そして、これらの部位で所定の処理を施されたデジタル映像信号は、再度、画像メモリ381に格納される。   The image processing unit 284 includes, for example, a black level correction unit, a pixel interpolation unit, a white balance control unit, a gamma correction unit, a matrix calculation unit, a shading correction unit, and an image compression unit (not shown). The digital video signal is subjected to known image signal processing. Then, the digital video signal that has undergone predetermined processing at these parts is stored again in the image memory 381.

尚、撮影待機状態では、デジタル映像信号が例えば1/30秒毎等の所定間隔でカメラユニット28より画像メモリ381に取り込まれている。すなわち、画像メモリ381に書き込まれる映像データ(デジタル映像信号)は例えば1/30秒毎に更新されている。   In the photographing standby state, the digital video signal is taken into the image memory 381 from the camera unit 28 at a predetermined interval such as every 1/30 seconds. That is, the video data (digital video signal) written in the image memory 381 is updated every 1/30 seconds, for example.

次に、制御ユニット3は、制御部37、画像メモリ381、VRAM(Video Random Access Memory)382等から構成される。   Next, the control unit 3 includes a control unit 37, an image memory 381, a VRAM (Video Random Access Memory) 382, and the like.

制御部37は、図示しない各制御プログラム等を記憶するROM(Read Only Memory)、演算処理や制御処理等のデータを一時的に格納するRAM(Random Access Memory)、及び制御プログラム等をROMから読み出して実行するCPU(中央演算処理装置)等からなり、前述の各操作スイッチからの信号を受けて、表示ユニット25の表示動作やカメラユニット28の撮影動作、及び画像信号処理動作を統括的に制御するものである。   The control unit 37 reads a ROM (Read Only Memory) that stores each control program (not shown), a RAM (Random Access Memory) that temporarily stores data such as arithmetic processing and control processing, and a control program from the ROM. CPU (central processing unit) etc. that execute the above, and in response to signals from the aforementioned operation switches, control the display operation of the display unit 25, the photographing operation of the camera unit 28, and the image signal processing operation. To do.

制御部37の要部は、図3に示す様に、仮想表示枠・ポインター座標検出部371、映像生成部372、映像合成部373、枠位置変動量検出部374、ポインター相対位置座標算出部375、バッファメモリ376、及び表示エリア補正部377等から構成される。   As shown in FIG. 3, the main part of the control unit 37 includes a virtual display frame / pointer coordinate detection unit 371, a video generation unit 372, a video synthesis unit 373, a frame position variation detection unit 374, and a pointer relative position coordinate calculation unit 375. , A buffer memory 376, a display area correction unit 377, and the like.

仮想表示枠・ポインター座標検出部371は、カメラユニット28で取り込まれて画像メモリ381に書き込まれた映像データを読出し、読み出した映像データにおける被写体のコントラスト(輝度差)に基づいて、仮想表示枠41やポインター5の座標を検出する。   The virtual display frame / pointer coordinate detection unit 371 reads the video data captured by the camera unit 28 and written to the image memory 381, and based on the contrast (luminance difference) of the subject in the read video data, the virtual display frame 41. And the coordinates of the pointer 5 are detected.

映像生成部372は、仮想表示枠・ポインター座標検出部371で検出された仮想表示枠41の座標や後述のバッファメモリ376に書き込まれたポインター5の座標の軌跡に基づいて仮想表示枠41を示す映像(映像表示枠)やポインター5の軌跡を示す映像を生成する。   The video generation unit 372 shows the virtual display frame 41 based on the coordinates of the virtual display frame 41 detected by the virtual display frame / pointer coordinate detection unit 371 and the locus of the coordinates of the pointer 5 written in the buffer memory 376 described later. The video (video display frame) and the video showing the locus of the pointer 5 are generated.

映像合成部373は、メモリカード39から取り込まれたDVD、ビデオ等のコンテンツ映像やテキスト映像等と映像生成部372で生成された仮想表示枠41を示す映像(映像表示枠)やポインター5の軌跡を示す映像とを合成する。   The video composition unit 373 includes a video (video display frame) showing the virtual video display frame 41 generated by the video generation unit 372 and a content video such as a DVD and a video captured from the memory card 39 and a text video. Is combined with the video showing.

枠位置変動量算出部374は、仮想表示枠・ポインター座標検出部371で検出されて例えば1/30秒毎に更新される仮想表示枠41の座標を所定間隔で読出し、前回読み出した座標からの変動量を算出する。この様に、枠位置変動量算出部374、及び前述のカメラユニット28、仮想表示枠・ポインター座標検出部371は、本発明に係る情報入力装置における位置検出手段として機能する。   The frame position variation calculation unit 374 reads the coordinates of the virtual display frame 41 detected by the virtual display frame / pointer coordinate detection unit 371 and updated every 1/30 seconds, for example, at predetermined intervals, and from the previously read coordinates. Calculate the amount of variation. As described above, the frame position variation calculation unit 374, the camera unit 28, and the virtual display frame / pointer coordinate detection unit 371 function as a position detection unit in the information input device according to the present invention.

ポインター相対位置座標算出部375は、仮想表示枠・ポインター座標検出部371で検出された仮想表示枠41の座標とポインター5の座標よりポインター5の仮想表示枠41に対する相対座標を算出する。   The pointer relative position coordinate calculation unit 375 calculates the relative coordinates of the pointer 5 with respect to the virtual display frame 41 based on the coordinates of the virtual display frame 41 detected by the virtual display frame / pointer coordinate detection unit 371 and the coordinates of the pointer 5.

バッファメモリ376は、ポインター相対位置座標算出部375で算出され、ポインター5の移動に伴い時間的に変化するポインター5の座標の軌跡を記憶する。この様に、バッファメモリ376、及び前述の映像生成部372、映像合成部373は、本発明に係る情報入力装置における合成手段として機能する。   The buffer memory 376 stores a locus of the coordinates of the pointer 5 that is calculated by the pointer relative position coordinate calculation unit 375 and changes with time as the pointer 5 moves. As described above, the buffer memory 376, the above-described video generation unit 372, and video synthesis unit 373 function as a synthesis unit in the information input device according to the present invention.

表示エリア補正部377は、メモリカード39から取り込まれたDVD、ビデオ等のコンテンツ映像やテキスト映像等がLCD表示部26に表示される位置を、枠位置変動量算出部374で算出された仮想表示枠41の座標の変動量に応じて移動させる。この様に、表示エリア補正部377、及び前述の枠位置変動量算出部374は、本発明に係る情報入力装置における表示位置制御手段として機能する。   The display area correction unit 377 is a virtual display calculated by the frame position fluctuation amount calculation unit 374, where the content video such as DVD and video captured from the memory card 39 and the text video are displayed on the LCD display unit 26. The frame 41 is moved in accordance with the amount of change in coordinates. Thus, the display area correction unit 377 and the frame position variation calculation unit 374 described above function as display position control means in the information input device according to the present invention.

次に、画像メモリ381は、カメラユニット28中の画像処理部284や制御ユニット3中の制御部37によりデジタル映像信号に対する各種処理を行う為の作業領域として用いられる一時メモリである。   Next, the image memory 381 is a temporary memory used as a work area for performing various processing on the digital video signal by the image processing unit 284 in the camera unit 28 and the control unit 37 in the control unit 3.

VRAM382は、LCD表示部26中のLCD264の画素数に対応した映像信号の記録容量を有し、LCD264に再生表示される映像を構成する映像信号のバッファメモリである。   The VRAM 382 has a video signal recording capacity corresponding to the number of pixels of the LCD 264 in the LCD display unit 26, and is a video signal buffer memory that constitutes a video to be reproduced and displayed on the LCD 264.

この様な構成の情報入力装置1において、本発明は、仮想表示枠41に仮想表示されたDVD、ビデオ等のコンテンツ映像やテキスト映像等に、容易に、且つ正確に情報を入力することを可能にするものである。具体的には、装着者が頭部を動かすことにより、仮想表示枠41の位置と仮想表示される映像の位置にずれが生じた場合においても、位置検出手段で検出された仮想表示枠41の位置に応じて映像が仮想表示される位置を移動させて仮想表示枠41の位置に仮想表示される映像の位置を一致させる様に、情報入力装置1で行われる映像表示動作を制御するものである。これにより、現実世界と仮想世界との位置のずれがなくなり、仮想表示された映像に、容易に、且つ正確に情報を入力することができる様になる。   In the information input device 1 having such a configuration, the present invention can easily and accurately input information to a content video such as a DVD or a video, a text video, or the like virtually displayed in the virtual display frame 41. It is to make. Specifically, even when the wearer moves his / her head and the position of the virtual display frame 41 is shifted from the position of the virtually displayed image, the virtual display frame 41 detected by the position detection unit is displayed. The video display operation performed by the information input device 1 is controlled so that the position where the video is virtually displayed is moved in accordance with the position so that the position of the video displayed virtually matches the position of the virtual display frame 41. is there. As a result, the positional shift between the real world and the virtual world is eliminated, and information can be easily and accurately input to the virtually displayed video.

ここで、情報入力装置1で行われる映像表示動作の詳細を説明する。本発明は、試験やアンケート等周囲の人に対する秘匿性を考慮する必要がある書類へ文字等の情報を入力する場合に好適である。ここでは試験問題を仮想表示し、仮想表示された映像に解答を記入する場合に情報入力装置1で行われる映像表示動作制御の流れを説明する。   Here, details of the video display operation performed in the information input apparatus 1 will be described. The present invention is suitable for inputting information such as text into a document that needs to be considered confidentiality such as tests and questionnaires. Here, the flow of the video display operation control performed by the information input device 1 when the test question is virtually displayed and the answer is written in the virtually displayed video will be described.

最初に、初期設定動作について図4、及び図8を用いて説明する。図4(a)は、カメラユニット28の撮影画角と各表示領域との関係を示す模式図である。図4(b1)乃至(d2)は、カメラユニット28の撮影画角による表示領域を示す模式図である。また、図8は、初期設定動作の流れを示すフローチャートである。   First, the initial setting operation will be described with reference to FIG. 4 and FIG. FIG. 4A is a schematic diagram showing the relationship between the shooting angle of view of the camera unit 28 and each display area. 4B1 to 4D2 are schematic diagrams illustrating display areas based on the shooting angle of view of the camera unit 28. FIG. FIG. 8 is a flowchart showing the flow of the initial setting operation.

初期設定動作は、仮想表示シート4に仮想表示された映像に、ポインター5を用いて文字等の情報の入力動作を行うに先立ち、シースルーで観察できる仮想表示枠41の大きさに対し仮想表示枠41をカメラユニット28で撮影し仮想表示する映像表示枠の大きさを適正化させる為に行う動作である。   The initial setting operation is a virtual display frame with respect to the size of the virtual display frame 41 that can be observed through the see-through prior to performing an input operation of information such as characters on the video virtually displayed on the virtual display sheet 4 using the pointer 5. 41 is an operation performed for optimizing the size of the video display frame that is captured by the camera unit 28 and virtually displayed.

まず、机の上に、メモリカード39に保存された試験問題を示す映像が仮想表示される仮想表示枠41が描かれた仮想表示シート4を用意する。   First, a virtual display sheet 4 on which a virtual display frame 41 on which a video showing a test question stored in the memory card 39 is virtually displayed is drawn on a desk.

図4(a)において、LCD表示領域Lは、机上に仮想表示される映像の最大表示領域(最大表示範囲)を示す。撮影画角Kは、カメラユニット28の撮影画角(撮影範囲)を示す。仮想表示枠Wはシースルーで観察できる仮想表示枠41を示す。映像表示枠Dは、映像が仮想表示される領域(範囲)を示す。   In FIG. 4A, an LCD display area L indicates a maximum display area (maximum display range) of an image virtually displayed on a desk. The shooting angle of view K indicates the shooting angle of view (shooting range) of the camera unit 28. A virtual display frame W indicates a virtual display frame 41 that can be observed through see-through. The video display frame D indicates an area (range) where video is virtually displayed.

ここで初期設定動作の流れを図8に示すフローチャートを用いて説明する。   Here, the flow of the initial setting operation will be described with reference to the flowchart shown in FIG.

最初に、装着者は椅子に座って通常に試験を受ける姿勢で机上の仮想表示シート4に描かれた仮想表示枠W(仮想表示枠41)を見て初期設定スイッチ34を押す(ステップS1)。初期設定スイッチ34がONされると、カメラユニット28はライブビュー撮影動作を開始し映像を画像メモリ381に取り込む(ステップS2)。映像が画像メモリ381に取り込まれると、仮想表示枠・ポインター座標検出部371は、画像メモリ381に書き込まれた映像データを読出し、読み出した映像データにおける被写体のコントラスト(輝度差)に基づいて、仮想表示枠Wの座標を検出する(ステップS3)。仮想表示枠Wの座標が検出されると、映像生成部372は、検出された仮想表示枠Wの座標に基づいて仮想表示枠Wを示す映像(映像表示枠D)を生成し、LCD264に点滅表示させる(ステップS4)。次に、映像生成部372は、予め生成しておいた「ズームスイッチを操作して点滅している映像表示枠をシースルーで観察できる仮想表示枠に合わせた後に初期設定スイッチを押して下さい。」とのメッセージをLCD264に表示させる(ステップS5)。装着者は、シースルーで観察できる仮想表示枠Wと点滅している映像による映像表示枠Dを比較し、ズームスイッチ32を操作することにより両者の位置(大きさ)を一致させ、ほぼ一致したところで再度初期設定スイッチ34を押す。再度初期設定スイッチ34が押されると(ステップS6;Yes)、枠位置変動量算出部374は、仮想表示枠・ポインター座標検出部371で検出された仮想表示枠Wの4隅の座標を記憶する(ステップS7)。そして、映像生成部372は、点滅させている映像表示枠Dを点灯表示させる(ステップS8)。映像表示枠Dが点灯表示に変わると、映像合成部373は、メモリカード39に保存された試験問題を示す映像を読出し映像表示枠Dに合わせてLCD264に表示させる。一方、所定の時間初期設定スイッチ34の入力がない場合(ステップS10;Yes)は、映像生成部372は、点滅させている映像表示枠Dを消灯させ(ステップS11)エラー表示または再度初期設定を促すメッセージをLCD264に表示させて初期設定動作を終了する。   First, the wearer views the virtual display frame W (virtual display frame 41) drawn on the virtual display sheet 4 on the desk in a posture of sitting on a chair and taking a normal test, and presses the initial setting switch 34 (step S1). . When the initial setting switch 34 is turned on, the camera unit 28 starts the live view shooting operation and takes the video into the image memory 381 (step S2). When the video is captured in the image memory 381, the virtual display frame / pointer coordinate detection unit 371 reads the video data written in the image memory 381, and based on the contrast (luminance difference) of the subject in the read video data, The coordinates of the display frame W are detected (step S3). When the coordinates of the virtual display frame W are detected, the video generation unit 372 generates a video (video display frame D) indicating the virtual display frame W based on the detected coordinates of the virtual display frame W, and blinks on the LCD 264. It is displayed (step S4). Next, the video generation unit 372 has generated in advance, “Please operate the zoom switch and press the initial setting switch after aligning the flashing video display frame with the virtual display frame that can be viewed through”. Is displayed on the LCD 264 (step S5). The wearer compares the virtual display frame W that can be observed through see-through with the video display frame D that is blinking, and operates the zoom switch 32 to match the positions (sizes) of the two. The initial setting switch 34 is pushed again. When the initial setting switch 34 is pressed again (step S6; Yes), the frame position variation calculation unit 374 stores the coordinates of the four corners of the virtual display frame W detected by the virtual display frame / pointer coordinate detection unit 371. (Step S7). Then, the video generation unit 372 lights up and displays the blinking video display frame D (step S8). When the video display frame D changes to lighting display, the video composition unit 373 reads the video indicating the test question stored in the memory card 39 and displays it on the LCD 264 in accordance with the video display frame D. On the other hand, when there is no input from the initial setting switch 34 for a predetermined time (step S10; Yes), the video generation unit 372 turns off the blinking video display frame D (step S11) and performs error display or initial setting again. A prompt message is displayed on the LCD 264, and the initial setting operation is terminated.

ここで、ズームスイッチ32の操作によるカメラユニット28の撮影画角Kと映像表示枠Dに表示される映像の関係を図4(b1)乃至(d2)を用いて説明する。   Here, the relationship between the shooting field angle K of the camera unit 28 by the operation of the zoom switch 32 and the video displayed in the video display frame D will be described with reference to FIGS. 4B1 to 4D2.

図4(b1)に示す様に、カメラユニット28の撮影画角KがLCD表示領域Lよりも大きい場合、映像表示枠Dは相対的に小さくなり、図4(b2)に示す様に、映像表示枠Dに表示される試験問題の映像は小さくなる。一方、図4(d1)に示す様に、カメラユニット28の撮影画角Kが仮想表示枠Wよりも小さい場合、仮想表示枠Wを検出することができず、図4(d2)に示す様に、映像を表示することができない。図4(c1)に示す様に、カメラユニット28の撮影画角KとLCD表示領域Lが一致した場合、すなわち仮想表示枠Wと映像表示枠Dが一致した場合は、図4(c2)に示す様に、映像表示枠Dに表示される試験問題の映像の大きさは最適化される。   As shown in FIG. 4 (b1), when the shooting angle of view K of the camera unit 28 is larger than the LCD display area L, the video display frame D becomes relatively small, and as shown in FIG. The video of the test question displayed in the display frame D becomes smaller. On the other hand, as shown in FIG. 4 (d1), when the shooting field angle K of the camera unit 28 is smaller than the virtual display frame W, the virtual display frame W cannot be detected, and as shown in FIG. 4 (d2). The video cannot be displayed. As shown in FIG. 4 (c1), when the shooting angle of view K of the camera unit 28 and the LCD display area L match, that is, when the virtual display frame W and the video display frame D match, FIG. As shown, the size of the test question image displayed in the image display frame D is optimized.

また、初期設定動作によってカメラユニット28の撮影画角Kが適正化された後に、装着者の頭部と机(仮想表示枠41)との距離が変化した場合に表示される映像の状態を図5を用いて説明する。図5(a)は、装着者の頭部が机(仮想表示枠W)に近づいた場合の映像、図5(b)は、装着者の頭部と机(仮想表示枠W)との距離が適切である場合の映像、図5(c)は、装着者の頭部が机(仮想表示枠W)から遠ざかった場合の映像を示す模式図である。   Further, the state of the image displayed when the distance between the wearer's head and the desk (virtual display frame 41) changes after the photographing field angle K of the camera unit 28 is optimized by the initial setting operation is illustrated. 5 will be described. 5A shows an image when the wearer's head approaches the desk (virtual display frame W), and FIG. 5B shows the distance between the wearer's head and the desk (virtual display frame W). FIG. 5C is a schematic diagram showing an image when the wearer's head is moved away from the desk (virtual display frame W).

図5(a)乃至(c)に示す様に、初期設定を適正に行った後に、装着者の頭部と机(仮想表示枠W)との距離が変化するとLCD表示領域L(カメラユニット28の撮影画角K)の大きさは変わらずに机上の仮想表示枠Wの大きさが近づくと大きく、遠ざかると小さく変化する。カメラユニット28は装着者の頭部に固定されている為、図5(a)に示す様に、頭部が机(仮想表示枠W)に近づくとカメラユニット28の撮影画角Kに対して机上の仮想表示枠Wが大きくなり、仮想表示枠Wがカメラユニット28の撮影画角K(撮影範囲)を超えると仮想表示枠Wを検出できなくなる。一方、図5(c)に示す様に、頭部が机(仮想表示枠W)から遠ざかるとカメラユニット28の撮影画角Kに対して机上の仮想表示枠Wが小さくなる。仮想表示される映像の位置はカメラユニット28が検出した仮想表示枠Wの座標に基づいて制御される為、この机上の仮想表示枠Wに応じて大きさが変わる。したがって、試験問題はあたかも机上に表示されたままのように見えるため現実感が得られる。   As shown in FIGS. 5A to 5C, after the initial setting is properly performed, when the distance between the wearer's head and the desk (virtual display frame W) changes, the LCD display area L (camera unit 28) is changed. The size of the field angle of view K) does not change, and when the size of the virtual display frame W on the desk approaches, it increases, and when it moves away, it changes small. Since the camera unit 28 is fixed to the wearer's head, as shown in FIG. 5A, when the head approaches the desk (virtual display frame W), the camera unit 28 has a shooting angle of view K. When the virtual display frame W on the desk becomes large and the virtual display frame W exceeds the shooting angle of view K (shooting range) of the camera unit 28, the virtual display frame W cannot be detected. On the other hand, as shown in FIG. 5C, when the head is moved away from the desk (virtual display frame W), the virtual display frame W on the desk becomes smaller with respect to the shooting angle of view K of the camera unit 28. Since the position of the virtually displayed video is controlled based on the coordinates of the virtual display frame W detected by the camera unit 28, the size changes according to the virtual display frame W on the desk. Therefore, since the test question looks as if it is displayed on the desk, a sense of reality can be obtained.

次に、情報入力動作について図6、図7、及び図9を用いて説明する。図6(a)乃至(d)は、情報入力動作に伴う映像の変化の様子を示す模式図である。図7(a)乃至(c)は、装着者の頭部動きと仮想表示枠W、映像表示枠Dの関係を示す模式図である。また、図9は、情報入力動作の流れを示すフローチャートである。   Next, the information input operation will be described with reference to FIG. 6, FIG. 7, and FIG. FIGS. 6A to 6D are schematic diagrams showing how video changes due to an information input operation. 7A to 7C are schematic diagrams showing the relationship between the head movement of the wearer, the virtual display frame W, and the video display frame D. FIG. FIG. 9 is a flowchart showing the flow of information input operation.

本発明は、図7(a)に示す様に、適正化されていた仮想表示枠Wの位置に対する映像表示枠Dの位置が、例えば、装着者が頭部を動かすことにより、図7(b)に示す様に、ずれた場合においても、図7(c)に示す様に、位置検出手段で検出された仮想表示枠Wの位置に応じて映像表示枠Dの位置を移動させて仮想表示枠Wの位置に映像表示枠Dの位置を一致させる様に、情報入力装置1で行われる映像表示動作を制御するものである。   In the present invention, as shown in FIG. 7A, the position of the video display frame D with respect to the position of the virtual display frame W that has been optimized is changed, for example, by moving the head of the wearer. As shown in FIG. 7, even in the case of deviation, as shown in FIG. 7C, the position of the video display frame D is moved in accordance with the position of the virtual display frame W detected by the position detection unit, and the virtual display is performed. The video display operation performed by the information input device 1 is controlled so that the position of the video display frame D matches the position of the frame W.

ここで情報入力動作の流れを図9に示すフローチャートを用いて説明する。   Here, the flow of the information input operation will be described with reference to the flowchart shown in FIG.

最初に、モード切替えスイッチ35を操作して入力モードに設定する(ステップS1)。モード切替えスイッチ35が入力モードに設定されると、カメラユニット28はライブビュー撮影動作を開始し映像を画像メモリ381に取り込む(ステップS2)。映像が画像メモリ381に取り込まれると、仮想表示枠・ポインター座標検出部371は、画像メモリ381に書き込まれた映像データを読出し、読み出した映像データにおける被写体のコントラスト(輝度差)に基づいて、仮想表示枠Wの4隅の座標(P,Q,R,S)を検出する(ステップS3)。仮想表示枠Wの座標が検出されると、映像生成部372は、図6(a)に示す様に、検出された仮想表示枠Wの4隅の座標に基づいて仮想表示枠Wを示す映像(映像表示枠D)を生成し、LCD264に表示させる(ステップS4)。そして、映像合成部373は、図6(b)に示す様に、メモリカード39に保存された試験問題を示す映像を読出し映像表示枠Dに合わせてLCD264に表示させる(ステップS5)。   First, the mode changeover switch 35 is operated to set the input mode (step S1). When the mode changeover switch 35 is set to the input mode, the camera unit 28 starts the live view shooting operation and takes the video into the image memory 381 (step S2). When the video is captured in the image memory 381, the virtual display frame / pointer coordinate detection unit 371 reads the video data written in the image memory 381, and based on the contrast (luminance difference) of the subject in the read video data, The coordinates (P, Q, R, S) of the four corners of the display frame W are detected (step S3). When the coordinates of the virtual display frame W are detected, the video generation unit 372 displays the video indicating the virtual display frame W based on the coordinates of the four corners of the detected virtual display frame W, as shown in FIG. (Video display frame D) is generated and displayed on the LCD 264 (step S4). Then, as shown in FIG. 6B, the video composition unit 373 reads the video indicating the test problem stored in the memory card 39 and displays it on the LCD 264 in accordance with the video display frame D (step S5).

次に、仮想表示枠・ポインター座標検出部371は、画像メモリ381に書き込まれた映像データを読出し、読み出した映像データにおける被写体のコントラスト(輝度差)に基づいて、図6(c)に示す様に、ポインター5のペン先の座標(T)を検出する(ステップS6)。尚、前述の様に、画像メモリ381に書き込まれる映像データ(デジタル映像信号)は例えば1/30秒毎に更新されていることから、仮想表示枠・ポインター座標検出部371によって検出される仮想表示枠Wの4隅の座標(P,Q,R,S)、及びポインター5のペン先の座標(T)も1/30秒毎に更新されている。   Next, the virtual display frame / pointer coordinate detection unit 371 reads the video data written in the image memory 381, and based on the contrast (luminance difference) of the subject in the read video data, as shown in FIG. Then, the coordinate (T) of the pen tip of the pointer 5 is detected (step S6). As described above, since the video data (digital video signal) written in the image memory 381 is updated, for example, every 1/30 seconds, the virtual display detected by the virtual display frame / pointer coordinate detection unit 371. The coordinates (P, Q, R, S) of the four corners of the frame W and the coordinates (T) of the pen tip of the pointer 5 are also updated every 1/30 seconds.

次に、枠位置変動量算出部374は、検出された仮想表示枠Wの4隅の座標(P,Q,R,S)と前回検出された座標を比較し、比較した結果、座標が変動していない場合(ステップS7;NO)、表示エリア補正部377は、映像表示枠Dの位置を移動させない(ステップS10)。そして、映像合成部373は、メモリカード39に保存された試験問題を示す映像を読出し映像表示枠Dに合わせてLCD264に表示させる(ステップS11)。映像が映像表示枠Dに合わせてLCD264に表示されると、映像生成部372は、ポインター相対位置座標算出部375で算出され(ステップS12)、ポインター5の移動に伴い時間的に変化するポインター5の座標の軌跡をバッファメモリ376から読出し、ポインター5の軌跡を示す映像PTを生成する。そして映像合成部373は、図6(d)に示す様に、生成されたポインター5の軌跡を示す映像PTを映像表示枠Dに表示されている試験問題を示す映像に合成しLCD264に表示させる(ステップS13)。   Next, the frame position variation calculation unit 374 compares the four corner coordinates (P, Q, R, S) of the detected virtual display frame W with the previously detected coordinates, and as a result of comparison, the coordinates vary. If not (step S7; NO), the display area correction unit 377 does not move the position of the video display frame D (step S10). Then, the video composition unit 373 displays the video indicating the test problem stored in the memory card 39 on the LCD 264 in accordance with the read video display frame D (step S11). When the video is displayed on the LCD 264 in accordance with the video display frame D, the video generation unit 372 is calculated by the pointer relative position coordinate calculation unit 375 (step S12), and the pointer 5 changes with time as the pointer 5 moves. Is read from the buffer memory 376, and an image PT showing the locus of the pointer 5 is generated. Then, as shown in FIG. 6D, the video composition unit 373 synthesizes the generated video PT indicating the locus of the pointer 5 with the video indicating the test problem displayed in the video display frame D and displays it on the LCD 264. (Step S13).

一方、ステップS7において、枠位置変動量算出部374は、検出された仮想表示枠Wの4隅の座標P,Q,R,Sと前回検出された座標を比較し、比較した結果、座標が変動している場合(ステップS7;Yes)、その変動量を算出する(ステップS8)。具体的には、仮想表示枠Wの4隅の座標P,Q,R,Sの変動量をΔP,ΔQ,ΔR,ΔSとし、頭部が仮想表示枠Wに対し右に、例えば、X座標で10動いた場合、ΔP,ΔQ,ΔR,ΔSのX座標の変動量、Y座標の変動量は、それぞれ下記(式1)、(式2)の値となる。
ΔPx=ΔQx=ΔRx=ΔSx=−10 (式1)
ΔPy=ΔQy=ΔRy=ΔSy=0 (式2)
変動量が算出されると、表示エリア補正部377は、算出された変動量に応じて、映像表示枠Dの位置を移動させる(ステップS9)。ここでは、映像表示枠Dの位置を左に、(X座標で−10)移動させる。そして、映像合成部373は、メモリカード39に保存された試験問題を示す映像を読出し映像表示枠Dに合わせてLCD264に表示させる(ステップS11)。
On the other hand, in step S7, the frame position variation calculation unit 374 compares the four corner coordinates P, Q, R, and S of the detected virtual display frame W with the previously detected coordinates, and as a result of comparison, the coordinates are When it fluctuates (step S7; Yes), the fluctuation amount is calculated (step S8). Specifically, the fluctuation amounts of the coordinates P, Q, R, and S at the four corners of the virtual display frame W are ΔP, ΔQ, ΔR, and ΔS, and the head is on the right side of the virtual display frame W, for example, the X coordinate In the case of 10 movements, the variation amount of the X coordinate and the variation amount of the Y coordinate of ΔP, ΔQ, ΔR, and ΔS are the values of the following (Equation 1) and (Equation 2), respectively.
ΔPx = ΔQx = ΔRx = ΔSx = −10 (Formula 1)
ΔPy = ΔQy = ΔRy = ΔSy = 0 (Formula 2)
When the fluctuation amount is calculated, the display area correction unit 377 moves the position of the video display frame D according to the calculated fluctuation amount (step S9). Here, the position of the video display frame D is moved to the left (−10 in the X coordinate). Then, the video composition unit 373 displays the video indicating the test question stored in the memory card 39 on the LCD 264 in accordance with the read video display frame D (step S11).

また、頭部が仮想表示枠Wから遠ざかる方向に動いた場合、例えば、仮想表示枠Wの面に対して垂直に遠ざかる場合は、カメラユニット28が認識する仮想表示枠Wは小さくなり、前回に対して内側の方向に移動する。この時X座標、Y座標の変動量をそれぞれ5とすると、ΔP,ΔQ,ΔR,ΔSのX座標の変動量、Y座標の変動量は、それぞれ下記(式3)乃至(式6)の値となる。
ΔPx=ΔRx=5 (式3)
ΔQx=ΔSx=−5 (式4)
ΔPy=ΔQy=−5 (式5)
ΔRy=ΔSy=5 (式6)
試験問題の映像は常に座標P、Q、R、Sを4隅として表示されるので、この場合は前回に比べて縮小されることになる。
Further, when the head moves in a direction away from the virtual display frame W, for example, when moving away from the surface of the virtual display frame W, the virtual display frame W recognized by the camera unit 28 becomes small and In contrast, it moves in the inner direction. At this time, if the variation amount of the X coordinate and the Y coordinate is 5, respectively, the variation amount of the X coordinate of ΔP, ΔQ, ΔR, and ΔS and the variation amount of the Y coordinate are values of the following (Equation 3) to (Equation 6), respectively. It becomes.
ΔPx = ΔRx = 5 (Formula 3)
ΔQx = ΔSx = −5 (Formula 4)
ΔPy = ΔQy = −5 (Formula 5)
ΔRy = ΔSy = 5 (Formula 6)
Since the video of the test question is always displayed with the four corners of coordinates P, Q, R, and S, in this case, it is reduced compared to the previous time.

次に、ポインター相対位置座標算出部375はポインター5の表示位置を算出する(ステップS12)。映像表示枠Dは、上述の様に、並行移動であったり、拡大/縮小であったり、またそれらの組合せであったり複雑な変化をするが、その動きはカメラユニット28と連動するため大きな誤差は生じない。しかしながら、ポインター5は装着者の手の動きに連動しており、頭部の動きとは独立している。従って、ポインター5の位置の認識は座標Tの絶対値で認識すると補正が難しく、精度も悪くなる。つまり、絶対値ではなく仮想表示枠Wの4隅の座標P,Q,R,Sに対する相対位置を求めることでこの問題を解決できる。   Next, the pointer relative position coordinate calculation unit 375 calculates the display position of the pointer 5 (step S12). As described above, the video display frame D is a parallel movement, enlargement / reduction, a combination thereof, or a complicated change. However, since the movement is linked with the camera unit 28, a large error occurs. Does not occur. However, the pointer 5 is linked to the movement of the wearer's hand and is independent of the movement of the head. Therefore, when the position of the pointer 5 is recognized by the absolute value of the coordinate T, correction is difficult and accuracy is also deteriorated. That is, this problem can be solved by obtaining relative positions with respect to the coordinates P, Q, R, and S of the four corners of the virtual display frame W instead of absolute values.

具体的には、カメラユニット28で認識された仮想表示枠Wの4隅の座標P,Q,R,Sから以下のように求める。   Specifically, it is obtained as follows from the coordinates P, Q, R, and S of the four corners of the virtual display frame W recognized by the camera unit 28.

最初に、仮想表示枠Wの4隅の座標P(Px,Py),Q(Qx,Qy),R(Rx,Ry),S(Sx,Sy)に対するポインター5の座標T(Tx,Ty)の左右方向(X軸方向)の比α、上下方向(Y軸方向)の比βを下記(式7)、(式8)より算出する。
α:(Tx−Px)/(Qx−Px) (式7)
β:(Ty−Ry)/(Py−Ry) (式8)
(式7)、(式8)より算出されたポインター5の座標T(Tx,Ty)の左右方向(X軸方向)の比α、上下方向(Y軸方向)の比βより、ポインター5の仮想表示枠Wの4隅の座標P,Q,R,Sに対する相対位置座標T’(Tx’,Ty’)は、下記(式9)、(式10)で求められる。
Tx’=α{(Qx+ΔQx)−(Px+ΔPx)}+Px+ΔPx (式9)
Ty’=β{(Py+ΔPy)−(Ry+ΔRy)}+Ry+ΔRy (式10)
ポインター相対位置座標算出部375は、この様にして求めた、相対位置座標T’をバッファメモリ376に記録する。映像生成部372は、ポインター5の相対位置座標T’をバッファメモリ376から読出し、相対位置座標T’の位置にポインター5の軌跡を示す映像PTを生成する。そして映像合成部373は、生成されたポインター5の軌跡を示す映像PTを映像表示枠Dに表示されている試験問題を示す映像に合成しLCD264に表示表示させる(ステップS13)。カメラユニットは前述の様に、例えば1/30秒毎映像を取り込んでいることから、図9を用いて説明したフローを繰り返すことにより、ポインター5の座標T’が軌跡として表示される。
First, the coordinates T (Tx, Ty) of the pointer 5 with respect to the coordinates P (Px, Py), Q (Qx, Qy), R (Rx, Ry), and S (Sx, Sy) of the four corners of the virtual display frame W The ratio α in the left-right direction (X-axis direction) and the ratio β in the up-down direction (Y-axis direction) are calculated from the following (Expression 7) and (Expression 8).
α: (Tx−Px) / (Qx−Px) (Formula 7)
β: (Ty-Ry) / (Py-Ry) (Formula 8)
From the ratio α in the horizontal direction (X-axis direction) of the coordinates T (Tx, Ty) of the pointer 5 calculated from (Expression 7) and (Expression 8), and the ratio β in the vertical direction (Y-axis direction), the pointer 5 The relative position coordinates T ′ (Tx ′, Ty ′) with respect to the coordinates P, Q, R, and S of the four corners of the virtual display frame W are obtained by the following (Expression 9) and (Expression 10).
Tx ′ = α {(Qx + ΔQx) − (Px + ΔPx)} + Px + ΔPx (Equation 9)
Ty ′ = β {(Py + ΔPy) − (Ry + ΔRy)} + Ry + ΔRy (Formula 10)
The pointer relative position coordinate calculation unit 375 records the relative position coordinate T ′ obtained in this way in the buffer memory 376. The video generation unit 372 reads the relative position coordinate T ′ of the pointer 5 from the buffer memory 376 and generates a video PT indicating the locus of the pointer 5 at the position of the relative position coordinate T ′. Then, the video composition unit 373 synthesizes the generated video PT indicating the locus of the pointer 5 with the video indicating the test problem displayed in the video display frame D and causes the LCD 264 to display and display the video (step S13). As described above, for example, since the camera unit captures an image every 1/30 seconds, the coordinate T ′ of the pointer 5 is displayed as a locus by repeating the flow described with reference to FIG.

この様に、本発明においては、仮想表示枠Wに仮想表示されたDVD、ビデオ等のコンテンツ映像やテキスト映像等に、容易に、且つ正確に情報を入力することができる。すなわち、装着者が頭部を動かすことにより、仮想表示枠Wの位置と映像表示枠Dの位置にずれが生じた場合においても、位置検出手段で検出された仮想表示枠Wの位置に応じて映像表示枠Dの位置を移動させて仮想表示枠41の位置に映像表示枠Dの位置を一致させることができる。これにより、現実世界と仮想世界との位置のずれがなくなり、仮想表示された映像に、容易に、且つ正確に情報を入力することができる様になる。   As described above, in the present invention, information can be easily and accurately input to content video such as DVD and video, text video, and the like virtually displayed in the virtual display frame W. That is, even when the position of the virtual display frame W and the position of the video display frame D are shifted due to the wearer moving his / her head, the wearer moves the head according to the position of the virtual display frame W detected by the position detection unit. The position of the video display frame D can be matched with the position of the virtual display frame 41 by moving the position of the video display frame D. As a result, the positional shift between the real world and the virtual world is eliminated, and information can be easily and accurately input to the virtually displayed video.

尚、本発明における情報入力装置1おいては、DVD、ビデオ等のコンテンツ映像やテキスト映像等に入力された文字等の情報の全てを消去したり、また、その一部を消去することもできる。具体的には、モード切替えスイッチ35を操作して全消去モードに設定すると、バッファメモリ376に記憶されているポインター5の座標の軌跡が全て消去され、映像に合成されている文字等の情報は全て消去される。また、モード切替えスイッチ35を操作して部分消去モードに設定し、仮想表示されているポインター5の位置の軌跡を示す映像PTをポインター5でトレースすることにより、該映像のトレースされた部位に相当するバッファメモリ376に記憶されているポインター5の座標の軌跡が消去され、映像に合成されている文字等の情報は、その一部が消去される。これにより、装着者は目的に応じて所望の情報のみを容易に消去することができる。   In the information input device 1 according to the present invention, it is possible to delete all information such as characters input to content video such as DVD and video, text video, or a part of the information. . Specifically, when the mode changeover switch 35 is operated to set the all erase mode, the locus of the coordinates of the pointer 5 stored in the buffer memory 376 is all erased, and information such as characters combined with the video is displayed. Everything is erased. Further, the mode changeover switch 35 is operated to set the partial deletion mode, and the video PT showing the locus of the position of the virtually displayed pointer 5 is traced by the pointer 5 to correspond to the traced portion of the video. The locus of the coordinates of the pointer 5 stored in the buffer memory 376 is deleted, and a part of the information such as characters synthesized in the video is deleted. Thereby, the wearer can easily erase only desired information according to the purpose.

以上、本発明を実施の形態を参照して説明してきたが、本発明は前述の実施の形態に限定して解釈されるべきでなく、適宜変更、改良が可能であることは勿論である。例えば、前述の実施の形態においては、ズームレンズ281を用いてカメラユニット28の撮影画角Kを調整する様にしたが、ズームレンズ281の替わりに広角レンズを用い、広角レンズによって広角撮影された映像を、電子ズーム(デジタルズーム)により拡大する等して画角調整を行う様にしてもよい。   The present invention has been described above with reference to the embodiments. However, the present invention should not be construed as being limited to the above-described embodiments, and can be changed or improved as appropriate. For example, in the above-described embodiment, the shooting field angle K of the camera unit 28 is adjusted using the zoom lens 281, but a wide-angle lens is used instead of the zoom lens 281, and wide-angle shooting is performed using the wide-angle lens. The angle of view may be adjusted by, for example, enlarging the image by electronic zoom (digital zoom).

本発明に係る情報入力装置の全体構成図である。1 is an overall configuration diagram of an information input device according to the present invention. 本発明に係る情報入力装置における表示ユニットの側断面図である。It is a sectional side view of the display unit in the information input device concerning the present invention. 本発明に係る情報入力装置の電気回路ブロック構成図である。It is an electric circuit block block diagram of the information input device which concerns on this invention. 本発明に係る情報入力装置におけるカメラユニットの撮影画角と各表示領域との関係を示す模式図である。It is a schematic diagram which shows the relationship between the imaging | photography field angle of a camera unit and each display area in the information input device which concerns on this invention. 装着者の頭部から仮想表示シートまで距離と仮想表示される映像の関係を示す模式図である。It is a schematic diagram which shows the relationship between the distance from a wearer's head to a virtual display sheet, and the image displayed virtually. 情報入力動作に伴う映像の変化の様子を示す模式図である。It is a schematic diagram which shows the mode of the change of the image | video accompanying information input operation | movement. 装着者の頭部動きと仮想表示枠、映像表示枠の関係を示す模式図である。It is a schematic diagram which shows the relationship between a wearer's head movement, a virtual display frame, and a video display frame. 初期設定動作の流れを示すフローチャートである。It is a flowchart which shows the flow of initial setting operation | movement. 情報入力動作の流れを示すフローチャートである。It is a flowchart which shows the flow of information input operation | movement.

符号の説明Explanation of symbols

1 情報入力装置
2 HMD
21R,21L テンプル
22 ブリッジ
23R,23L 鼻当て
24R,24L 透明基板
25 表示ユニット
26 LCD表示部
261 筐体
262 LED
263 コリメータレンズ
264 LCD
27 接眼光学系
271 プリズム
272 HOE
28 カメラユニット
281 ズームレンズ
282 CCDエリアセンサ
283 AFE
284 画像処理部
287 ズームモータ
29R,29L イヤホン
3 制御ユニット
31 電源スイッチ
32 ズームスイッチ
33 音声ボリューム
34 初期設定スイッチ
35 モード切替えスイッチ
36 ケーブル
37 制御部
371 仮想表示枠・ポインター座標検出部
372 映像生成部
373 映像合成部
374 枠位置変動量算出部
375 ポインター相対位置座標算出部
376 バッファメモリ
377 表示エリア補正部
378 ズームモータ駆動回路
379 音声出力回路
381 画像メモリ
382 VRAM
39 メモリカード
4 仮想表示シート
41 仮想表示枠
5 ポインター
51 LED
E 目
1 Information input device 2 HMD
21R, 21L Temple 22 Bridge 23R, 23L Nose pad 24R, 24L Transparent substrate 25 Display unit 26 LCD display unit 261 Case 262 LED
263 Collimator lens 264 LCD
27 Eyepiece optical system 271 Prism 272 HOE
28 Camera Unit 281 Zoom Lens 282 CCD Area Sensor 283 AFE
284 Image processing unit 287 Zoom motor 29R, 29L Earphone 3 Control unit 31 Power switch 32 Zoom switch 33 Audio volume 34 Initial setting switch 35 Mode switch 36 Cable 37 Control unit 371 Virtual display frame / pointer coordinate detection unit 372 Video generation unit 373 Video composition unit 374 Frame position variation calculation unit 375 Pointer relative position coordinate calculation unit 376 Buffer memory 377 Display area correction unit 378 Zoom motor drive circuit 379 Audio output circuit 381 Image memory 382 VRAM
39 Memory Card 4 Virtual Display Sheet 41 Virtual Display Frame 5 Pointer 51 LED
E eyes

Claims (9)

頭部や顔面に装着され映像を表示し外界をシースルー可能な表示手段と、前記映像が仮想表示される仮想表示枠と、仮想表示された前記映像に情報を入力するポインターと、を備えた情報入力装置であって、
前記仮想表示枠の位置および前記ポインターの位置を検出する位置検出手段と、
前記位置検出手段で検出された前記ポインターの位置の軌跡を前記映像に合成する合成手段と、
前記位置検出手段で検出された前記仮想表示枠の位置に応じて前記映像が仮想表示される位置を制御する表示位置制御手段と、を有することを特徴とする情報入力装置。
Information comprising display means mounted on the head or face and capable of displaying an image and see-through the outside world, a virtual display frame in which the image is virtually displayed, and a pointer for inputting information to the virtually displayed image An input device,
Position detecting means for detecting the position of the virtual display frame and the position of the pointer;
Synthesizing means for synthesizing the locus of the position of the pointer detected by the position detecting means with the video;
An information input device comprising: display position control means for controlling a position where the video is virtually displayed according to the position of the virtual display frame detected by the position detection means.
前記位置検出手段は、外界を撮影しズーム機能を備えたカメラユニットを有することを特徴とする請求項1に記載の情報入力装置。 The information input device according to claim 1, wherein the position detection unit includes a camera unit that captures an external environment and has a zoom function. 前記位置検出手段は、前記カメラユニットで撮影された映像のコントラストに基づいて前記仮想表示枠の位置および前記ポインターの位置を検出することを特徴とする請求項1または2に記載の情報入力装置。 3. The information input device according to claim 1, wherein the position detection unit detects the position of the virtual display frame and the position of the pointer based on a contrast of an image photographed by the camera unit. 前記仮想表示枠は、その面上に枠が設けられたシートであり、
前記枠と前記シートの光の反射率は異なることを特徴とする請求項1乃至3のいずれか1項に記載の情報入力装置。
The virtual display frame is a sheet provided with a frame on its surface,
The information input device according to claim 1, wherein the frame and the sheet have different light reflectivities.
前記合成手段は、前記位置検出手段で検出された前記仮想表示枠の位置に基づいて、所定の映像や情報を前記表示手段に出力することを特徴とする請求項1乃至4のいずれか1項に記載の情報入力装置。 5. The display device according to claim 1, wherein the synthesizing unit outputs a predetermined image or information to the display unit based on the position of the virtual display frame detected by the position detection unit. The information input device described in 1. 前記ポインターは、ペン型形状に形成されていることを特徴とする請求項1に記載の情報入力装置。 The information input device according to claim 1, wherein the pointer is formed in a pen shape. 前記ポインターは、一方の端に光源を備え、
前記光源が対象物に加圧接触されると該光源は点灯することを特徴とする請求項6に記載の情報入力装置。
The pointer has a light source at one end,
The information input device according to claim 6, wherein the light source is turned on when the light source is brought into pressure contact with an object.
前記合成手段で前記ポインターの位置の軌跡を前記映像に合成する入力モードと前記映像に合成された前記ポインターの位置の軌跡の全てを消去する全消去モードとその一部を消去する部分消去モードのいずれかを選択するモード切替えスイッチを有することを特徴とする請求項1乃至7のいずれか1項に記載の情報入力装置。 An input mode for combining the locus of the pointer position with the image by the combining means, a full erasing mode for erasing all the locus of the pointer position combined with the image, and a partial erasing mode for erasing a part thereof. The information input device according to claim 1, further comprising a mode changeover switch for selecting one of them. 前記モード切替えスイッチによって、前記部分消去モードが選択されている場合、前記合成手段によって前記映像に合成され前記仮想表示枠に仮想表示された前記ポインターの位置の軌跡を前記ポインターでトレースすることにより、該軌跡のトレースされた部位が消去されることを特徴とする請求項1乃至8のいずれか1項に記載の情報入力装置。 When the partial erasure mode is selected by the mode changeover switch, by tracing the locus of the position of the pointer synthesized with the video and virtually displayed on the virtual display frame by the pointer by the pointer, 9. The information input device according to claim 1, wherein the traced portion of the locus is deleted.
JP2006176294A 2006-06-27 2006-06-27 Information input device Pending JP2008009490A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006176294A JP2008009490A (en) 2006-06-27 2006-06-27 Information input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006176294A JP2008009490A (en) 2006-06-27 2006-06-27 Information input device

Publications (1)

Publication Number Publication Date
JP2008009490A true JP2008009490A (en) 2008-01-17

Family

ID=39067682

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006176294A Pending JP2008009490A (en) 2006-06-27 2006-06-27 Information input device

Country Status (1)

Country Link
JP (1) JP2008009490A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251154A (en) * 2008-04-03 2009-10-29 Konica Minolta Holdings Inc Head mounted type video display
JP2011134054A (en) * 2009-12-24 2011-07-07 Brother Industries Ltd Head-mounted display
JP2014131094A (en) * 2012-12-28 2014-07-10 Seiko Epson Corp Display device and method of controlling display device
JP2016031761A (en) * 2014-07-25 2016-03-07 裕行 池田 Spectacle type terminal
JP2017139000A (en) * 2017-03-16 2017-08-10 セイコーエプソン株式会社 Display device and method of controlling display device
JP2017228300A (en) * 2017-07-13 2017-12-28 ソニー株式会社 Image display device, head-mounted display, information display device, display processing method, and program
US11429200B2 (en) 2020-10-13 2022-08-30 Hiroyuki Ikeda Glasses-type terminal

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251154A (en) * 2008-04-03 2009-10-29 Konica Minolta Holdings Inc Head mounted type video display
JP2011134054A (en) * 2009-12-24 2011-07-07 Brother Industries Ltd Head-mounted display
JP2014131094A (en) * 2012-12-28 2014-07-10 Seiko Epson Corp Display device and method of controlling display device
JP2016031761A (en) * 2014-07-25 2016-03-07 裕行 池田 Spectacle type terminal
US10191282B2 (en) 2014-07-25 2019-01-29 Hiroyuki Ikeda Computer display device mounted on eyeglasses
US10585288B2 (en) 2014-07-25 2020-03-10 Hiroyuki Ikeda Computer display device mounted on eyeglasses
JP2017139000A (en) * 2017-03-16 2017-08-10 セイコーエプソン株式会社 Display device and method of controlling display device
JP2017228300A (en) * 2017-07-13 2017-12-28 ソニー株式会社 Image display device, head-mounted display, information display device, display processing method, and program
US11429200B2 (en) 2020-10-13 2022-08-30 Hiroyuki Ikeda Glasses-type terminal

Similar Documents

Publication Publication Date Title
US9711114B1 (en) Display apparatus and method of displaying using projectors
JP5250834B2 (en) Head-mounted image display device
JP6089705B2 (en) Display device and control method of display device
CN108535868B (en) Head-mounted display device and control method thereof
JP4373286B2 (en) Head-mounted display device
JP5029759B2 (en) Information input system
JP2008009490A (en) Information input device
JP6094305B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6405991B2 (en) Electronic device, display device, and control method of electronic device
JP2017116562A (en) Display device, control method for the same and program
JP4900277B2 (en) Head-mounted image display device
JP2007121625A (en) Image display device
JP2009251428A (en) Information display system
JP2008123257A (en) Remote operation support system and display control method
JP2009192583A (en) Head-mounted type video display device
WO2021085007A1 (en) Head-mounted display
JP4952204B2 (en) Remote work support system and display method thereof
JP2008113317A (en) Remote operation support system
JP6740613B2 (en) Display device, display device control method, and program
JP2001282428A (en) Information processor
JP2007219069A (en) Image display
JP2000132329A (en) Device and method for recognizing surface and virtual image solid synthesizer
JP4020882B2 (en) Camera module focus adjustment device
JP6609920B2 (en) Display device and control method of display device
JP2011109462A (en) Image transmission device, imaging device, and remote work support system