JP2006308674A - Image display device - Google Patents

Image display device Download PDF

Info

Publication number
JP2006308674A
JP2006308674A JP2005128203A JP2005128203A JP2006308674A JP 2006308674 A JP2006308674 A JP 2006308674A JP 2005128203 A JP2005128203 A JP 2005128203A JP 2005128203 A JP2005128203 A JP 2005128203A JP 2006308674 A JP2006308674 A JP 2006308674A
Authority
JP
Japan
Prior art keywords
observer
unit
image
eyeball
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005128203A
Other languages
Japanese (ja)
Inventor
Tatsuki Okamoto
達樹 岡本
Yukio Sato
行雄 佐藤
Tatsuyuki Kawamura
竜幸 河村
Yasuyuki Kono
恭之 河野
Masatsugu Kidode
正継 木戸出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Nara Institute of Science and Technology NUC
Original Assignee
Mitsubishi Electric Corp
Nara Institute of Science and Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp, Nara Institute of Science and Technology NUC filed Critical Mitsubishi Electric Corp
Priority to JP2005128203A priority Critical patent/JP2006308674A/en
Priority to PCT/JP2006/308448 priority patent/WO2006118057A1/en
Publication of JP2006308674A publication Critical patent/JP2006308674A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • G02B27/022Viewing apparatus
    • G02B27/024Viewing apparatus comprising a light source, e.g. for viewing photographic slides, X-ray transparancies
    • G02B27/026Viewing apparatus comprising a light source, e.g. for viewing photographic slides, X-ray transparancies and a display device, e.g. CRT, LCD, for adding markings or signs or to enhance the contrast of the viewed object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • H04N5/7475Constructional details of television projection apparatus
    • H04N5/7491Constructional details of television projection apparatus of head mounted projectors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image display device on which the video in the line-of-sight direction of an observer is properly superimposed on a virtual space video and presented. <P>SOLUTION: The image display device of this invention is provided with: a display section on which the video is displayed; a first mirror section which guides the video displayed on the display section to the eyeball of the observer; a first camera section by which the direction of the eyeball of the observer is photographed, to detect the line-of-sight direction of the observer; a second camera section whose optical axis coincides with that of the first camera section and by which the line-of-sight direction of the observer is photographed; and a computer terminal which is wiredly or wirelessly connected to the first camera section and the second camera section and combines the video in the line-of-sight direction of the observer photographed by the second camera section and virtual information. In addition, the video in the line-of-sight direction of the observer is superimposed on the virtual information and displayed on the display section by the computer terminal. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像表示素子の透過光束若しくは反射光束を観察者の網膜に直接投影するとともに、観測者の視線を感知し、視線方向の映像に対し仮想空間映像を重畳して提示する眼球投射型画像表示装置に関する。   The present invention directly projects the transmitted or reflected light beam of the image display element onto the retina of the viewer, senses the viewer's gaze, and superimposes the virtual space video on the video in the gaze direction and presents it. The present invention relates to an image display device.

現実と仮想を融合する技術である複合現実感(Mixed Reality)の分野において、違和感なく現実仮想を融合(重畳表示)してユーザに見せる表示デバイス(画像表示装置)は、重要な機器の一つである。   In the field of mixed reality, which is a technology that fuses reality and virtual, a display device (image display device) that fuses (virtually displays) virtual reality and displays it to the user without a sense of incongruity is one of the important devices. It is.

そのような表示デバイスであるオプティカルシースルー方式のディスプレイの問題として、視野角、映像の鮮明さ(コントラスト)、現実と仮想映像の焦点が合う距離の違いなどが挙げられる。その中の映像の鮮明さにおいて、現実空間の映像の明るさが状況により逐次変化するのに対して、仮想映像の明るさは適切な調整がなければ観測者に違和感を与える原因になってしまう、という問題点がある。   Problems with such an optical see-through display, which is a display device, include a viewing angle, a sharpness of a video (contrast), a difference in a distance where a real video and a virtual video are in focus, and the like. In the clearness of the image, the brightness of the image in the real space changes sequentially depending on the situation, but the brightness of the virtual image will cause the viewer to feel uncomfortable if it is not properly adjusted. There is a problem.

また、従来の表示デバイスでは、観測者の視線とカメラの光軸間の視差をなくすため、撮像光学系と表示光学系を一致させている。しかし、この場合、固定された前方においてのみ臨場感のある映像が提示されているに過ぎない。   Further, in the conventional display device, the imaging optical system and the display optical system are matched in order to eliminate the parallax between the observer's line of sight and the optical axis of the camera. However, in this case, a realistic image is only presented in the fixed front.

また、従来の表示デバイスにおいて、遠隔地の映像の臨場感を出すために映像提示装置と遠隔地のカメラを観察者の視線方向上に一致させているものがある(例えば、特許文献1)。しかし、この発明の場合、カメラ回転軸を眼球と物理的に同位置に設置できないことにより、眼球運動の有効範囲に合わせて実世界上の観察者の視線方向にある風景と複合現実感技術による仮想生成物とを、観察者自身の光軸と一致させて立体的に表示することが不可能であるという問題点がある。   In addition, there is a conventional display device in which a video presentation device and a remote camera are aligned in the line of sight of an observer in order to give a sense of reality of a remote video (for example, Patent Document 1). However, in the case of this invention, since the camera rotation axis cannot be physically located at the same position as the eyeball, the scene in the gaze direction of the observer in the real world and the mixed reality technology are matched to the effective range of eye movement. There is a problem that it is impossible to display the virtual product in a three-dimensional manner in accordance with the observer's own optical axis.

更に、従来の画像表示装置では、該装置が実世界のある特定の位置に仮想生成物を提示したときに、観測者がその仮想生成物と異なる位置に焦点を結ぶとしても、その仮想生成物はクリアな像のまま観測者に提示される。そこで、仮想生成物のぼかし処理が不可欠となる。仮想生成物の幾何学的位置は計算機上で厳密に知ることができる。ここで、実世界の像のボケと仮想生成物のボケを位置の観点から一致させることができれば、観測者は実世界の像の中で仮想生成物の位置を適切に認識できる。   Further, in the conventional image display device, when the device presents a virtual product at a specific position in the real world, even if the observer focuses on a position different from the virtual product, the virtual product Is presented to the observer as a clear image. Therefore, it is indispensable to blur the virtual product. The geometric position of the virtual product can be known precisely on the computer. Here, if the blur of the real world image and the blur of the virtual product can be matched from the viewpoint of the position, the observer can appropriately recognize the position of the virtual product in the real world image.

周知の画像表示装置において、視線方向の映像の臨場感を出すために視線検出装置を用いて、異なる2つの精細度の映像を観察者に提示するものがある。この装置は、観察者が実世界を観察するときに発生するボケと同様のボケを、表示装置上の仮想オブジェクトに対して付加することを目指す(例えば、特許文献2)。また、三次元仮想空間に設置されるカメラに対して被写界深度を変化させる要素によって、仮想オブジェクトに対するボケ量を算出しているものもある(例えば、特許文献3)。しかし、特許文献2に記載の発明には、実世界上のボケと仮想世界内の仮想オブジェクトとのボケとを一致させることができないという問題がある。特許文献3に記載の発明には、視界深度方向のボケを表現できないという問題がある。
特開平8−313843号公報 特開平11−109279号公報 特開平11−134074号公報
In a known image display device, there is a device that presents two different definition images to an observer using a line-of-sight detection device in order to give a sense of reality of the image in the line-of-sight direction. This device aims to add blur similar to blur generated when an observer observes the real world to a virtual object on a display device (for example, Patent Document 2). In some cases, the amount of blur with respect to a virtual object is calculated by an element that changes the depth of field for a camera installed in a three-dimensional virtual space (for example, Patent Document 3). However, the invention described in Patent Document 2 has a problem that the blur in the real world cannot match the blur of the virtual object in the virtual world. The invention described in Patent Document 3 has a problem that blur in the depth of field direction cannot be expressed.
JP-A-8-313843 JP-A-11-109279 JP-A-11-134074

本発明は、観測者の視線方向の映像に対し仮想空間映像を適切に重畳して提示する画像表示装置を提供することを目的とする。   An object of the present invention is to provide an image display device that appropriately superimposes and presents a virtual space image on an image in the viewing direction of an observer.

本発明は、上記の目的を達成するためになされたものである。本発明に係る画像表示装置は、
映像を表示するディスプレイ部と、
前記ディスプレイ部に表示された映像を観測者の眼球に導く第1のミラー部と、
観測者の眼球の向きを撮影し観測者の視線方向を検出する第1のカメラ部と、
光軸が第1のカメラ部と一致し観測者の視線方向を撮影する第2のカメラ部と、
前記第1のカメラ部及び前記第2のカメラ部と有線又は無線で接続し、前記第2のカメラ部により撮影される観測者の視線方向の映像と仮想の情報とを合成するコンピュータ端末とを備え、
前記ディスプレイ部にコンピュータ端末により前記観測者の視線方向の映像と仮想の情報とが重畳して表示されることを特徴とする。
The present invention has been made to achieve the above object. An image display device according to the present invention includes:
A display unit for displaying images;
A first mirror section for guiding the image displayed on the display section to an observer's eyeball;
A first camera unit that captures the direction of the eyeball of the observer and detects the line of sight of the observer;
A second camera unit whose optical axis coincides with the first camera unit and captures the line-of-sight direction of the observer;
A computer terminal that is wired or wirelessly connected to the first camera unit and the second camera unit, and synthesizes the video of the observer's line of sight imaged by the second camera unit and virtual information; Prepared,
A video image of the observer's line of sight and virtual information are superimposed and displayed on the display unit by a computer terminal.

本発明に係る画像表示装置は、観測者の視線を検出する手段、観測者の視線方向の映像を検出する手段を備え、観測者の視線方向の映像に対し仮想空間映像を重畳して提示することにより、観測者の視線方向に合わせて現実空間映像と仮想空間映像を重ねて観測できるので、観測者は違和感なく現実仮想を融合できる。   An image display apparatus according to the present invention includes means for detecting an observer's line of sight and means for detecting an image in the observer's line of sight, and presents the virtual space image superimposed on the image in the observer's line of sight. Thus, since the real space image and the virtual space image can be observed in accordance with the direction of the observer's line of sight, the observer can fuse the virtual reality without any sense of incongruity.

また、本発明に係る画像表示装置は、観測者の視点の距離に応じて、観測者の視点の距離近傍以外の仮想情報をぼかして提示することにより、観測者は仮想生成物が実世界上のどこに置かれているかを正しく知ることができる効果を奏するものである。   Further, the image display device according to the present invention blurs and presents virtual information other than the vicinity of the distance of the observer's viewpoint according to the distance of the observer's viewpoint, so that the observer can see the virtual product in the real world. It has the effect of knowing exactly where it is located.

以下において、図面を参照しつつ本発明に係る好適な実施の形態を説明する。   Hereinafter, preferred embodiments according to the present invention will be described with reference to the drawings.

実施の形態1.
図1は、本発明の実施の形態1に係る画像表示装置を示す構成図である。なお、図1の構成図は、画像表示装置の片方の目(左目)のための部分を示すものである。もう一方の目(右目)のための部分も通常存在しそれは図1の部分と鏡面対象をなす。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing an image display apparatus according to Embodiment 1 of the present invention. The configuration diagram of FIG. 1 shows a portion for one eye (left eye) of the image display device. There is usually also a part for the other eye (right eye), which forms a mirror object with the part of FIG.

図1の画像表示装置は、表示ユニット10、第1の回転式駆動部7、アーム部6、第2の回転式駆動部8及びスライド式駆動部9を含む。表示ユニット10は概ね半球形状をしており、その一端が第1の回転式駆動部7に固定され駆動部(第1の回転式駆動部7、アーム部6、第2の回転式駆動部8及びスライド式駆動部9)により方向を変える。表示ユニット10には、ディスプレイ部1、第1のミラー部2、眼球撮影用カメラ部4及び視線方向撮影用カメラ部5が備わる。また、図示していないが映像を合成してディスプレイ部1に表示するコンピュータ端末が利用される。   The image display apparatus of FIG. 1 includes a display unit 10, a first rotary drive unit 7, an arm unit 6, a second rotary drive unit 8, and a slide drive unit 9. The display unit 10 has a generally hemispherical shape, and one end of the display unit 10 is fixed to the first rotary drive unit 7. And the direction is changed by the slide type drive unit 9). The display unit 10 includes a display unit 1, a first mirror unit 2, an eyeball camera unit 4, and a line-of-sight camera unit 5. Although not shown, a computer terminal that synthesizes video and displays it on the display unit 1 is used.

実施の形態1の画像表示装置において、表示ユニット10に内蔵されたディスプレイ部1に表示された映像は、第1のミラー部2によって反射され、眼球3に投影される。(眼球の主である)観測者は、ディスプレイ部1に表示された映像を観察する。   In the image display device according to the first embodiment, an image displayed on the display unit 1 built in the display unit 10 is reflected by the first mirror unit 2 and projected onto the eyeball 3. An observer (which is the main eyeball) observes an image displayed on the display unit 1.

また、第1のミラー部2は、例えば半透明であり、眼球撮影用カメラ部4は、観測者の眼球3の向いている方向、すなわち視線を観測する。また、視線方向撮影用カメラ部5は、眼球撮影用カメラ部4と撮影部の光軸が一致しており、観測者の視線方向の現実の映像を撮影する。視線方向撮影用カメラ部5は撮影した画像情報を無線又は有線を経由してコンピュータ端末(図示せず。)に送信する。ここで、コンピュータ端末(図示せず。)により生成される仮想の映像と、視線方向撮影用カメラ部5によって撮影された現実の画像とが、明るさを調整された上で重畳され、ディスプレイ部1に表示される。このようにすれば、観測者は違和感のない現実と仮想の融合映像を観測することができる。   The first mirror unit 2 is translucent, for example, and the eyeball camera unit 4 observes the direction in which the observer's eyeball 3 is facing, that is, the line of sight. In addition, the eye direction photographing camera unit 5 has the same optical axis as the eyeball photographing camera unit 4 and the photographing unit, and photographs a real image in the observer's eye direction. The line-of-sight imaging camera unit 5 transmits the captured image information to a computer terminal (not shown) via wireless or wired connection. Here, a virtual image generated by a computer terminal (not shown) and a real image photographed by the visual line direction photographing camera unit 5 are superimposed with the brightness adjusted, and the display unit 1 is displayed. In this way, the observer can observe a real and virtual fusion image without any sense of incongruity.

また、アーム部6で連結された第1の回転式駆動部7と第2の回転式駆動部8、及びスライド式駆動部9により、眼球撮影用カメラ部4が計測する観測者の視線方向に合わせて表示ユニット10が動かされる。眼球撮影用カメラ部4が撮影した眼球の画像情報を無線又は有線を経由してコンピュータ端末(図示せず。)に送信し、コンピュータ端末が第1の回転式駆動部7と第2の回転式駆動部8、及びスライド式駆動部9をその画像情報に従い制御して駆動してもよい。これと同時に、表示ユニット10に内蔵された視線方向撮影用カメラ部5が観測者の視線方向の現実映像を撮影する。従って、観測者は常に視線方向の現実映像を観測できると共に、仮想映像による情報提供が受けられる。   In addition, the first rotary drive unit 7, the second rotary drive unit 8, and the slide type drive unit 9 connected by the arm unit 6, in the direction of the observer's line of sight measured by the eyeball camera unit 4. At the same time, the display unit 10 is moved. The image information of the eyeball photographed by the eyeball camera unit 4 is transmitted to a computer terminal (not shown) via wireless or wired communication, and the computer terminal is connected to the first rotary drive unit 7 and the second rotary type. The drive unit 8 and the slide type drive unit 9 may be controlled and driven according to the image information. At the same time, the visual direction photographing camera unit 5 incorporated in the display unit 10 photographs a real image in the visual line direction of the observer. Therefore, the observer can always observe the real image in the direction of the line of sight and can receive information provided by the virtual image.

実施の形態2.
図2は、本発明の実施の形態2に係る画像表示装置の表示ユニット10の構成を示す図である。実施の形態2に係る画像表示装置は、実施の形態1に係る画像表示装置と略同様のものである。従って、同一部位には同一符号を付して説明を省略する。
Embodiment 2. FIG.
FIG. 2 is a diagram showing the configuration of the display unit 10 of the image display apparatus according to Embodiment 2 of the present invention. The image display device according to the second embodiment is substantially the same as the image display device according to the first embodiment. Therefore, the same parts are denoted by the same reference numerals and description thereof is omitted.

実施の形態2の画像表示装置において、ディスプレイ部1に表示された映像情報を含む光束は、第1のミラー部2に反射され眼球3に到達する。観測者はディスプレイ部1に表示された映像を観察する。   In the image display device according to the second embodiment, the light beam including the video information displayed on the display unit 1 is reflected by the first mirror unit 2 and reaches the eyeball 3. An observer observes an image displayed on the display unit 1.

ここで、第1のミラー部2は半透明である。第1のミラー部2に反射され眼球3に向かうディスプレイ部1からの光束と同じ光軸上であって、第1のミラー部2の(眼球3と)反対側に、眼球撮影用カメラ部4が配置される。眼球撮影用カメラ部4は半透明の第1のミラー部2を介して観測者の眼球3を観測する。   Here, the first mirror unit 2 is translucent. On the same optical axis as the luminous flux from the display unit 1 that is reflected by the first mirror unit 2 and directed toward the eyeball 3, on the opposite side (to the eyeball 3) of the first mirror unit 2, the camera unit 4 for photographing the eyeball. Is placed. The eyeball camera unit 4 observes the observer's eyeball 3 via the semitransparent first mirror unit 2.

更に、眼球撮影用カメラ部4の背後に備わる第2のミラー部11により、視線方向撮影用カメラ部5の光軸を、第1のミラー部2に反射され眼球3に向かうディスプレイ部1からの光束と同じ光軸上に一致させる。以上のことにより、第1のミラー部2に反射され眼球3に向かうディスプレイ部1からの光束の光軸、眼球撮影用カメラ部4の光軸、及び視線方向撮影用カメラ部5の光軸が一致する。従って、眼球撮影用カメラ部4により計測された観測者の視線を、一致した光軸に合わせることで、観測者は常に視線方向の現実映像を観測できると共に、仮想映像による情報提供が受けられる。   Furthermore, the second mirror unit 11 provided behind the eyeball camera unit 4 causes the optical axis of the camera unit 5 for direction-of-sight shooting to be reflected from the first mirror unit 2 from the display unit 1 toward the eyeball 3. Match on the same optical axis as the luminous flux. As described above, the optical axis of the light beam from the display unit 1 reflected by the first mirror unit 2 toward the eyeball 3, the optical axis of the eyeball camera unit 4, and the optical axis of the visual direction camera unit 5 are determined. Match. Therefore, by aligning the observer's line of sight measured by the eyeball camera unit 4 with the coincident optical axis, the observer can always observe a real image in the line of sight and can receive information by a virtual image.

ここで、第1のミラー部2は半透明であるとしたが、偏光分離ミラーであってもよい。更に、第1のミラー部2は、可視光反射且つ赤外光透過のミラーであってもよい。   Here, although the first mirror unit 2 is translucent, it may be a polarization separation mirror. Further, the first mirror section 2 may be a visible light reflecting and infrared light transmitting mirror.

実施の形態3.
図3は、本発明の実施の形態3に係る画像表示装置の表示ユニット10の構成を示す図である。実施の形態3に係る画像表示装置は、実施の形態1に係る画像表示装置と略同様のものである。従って、同一部位には同一符号を付して説明を省略する。
Embodiment 3 FIG.
FIG. 3 is a diagram showing the configuration of the display unit 10 of the image display apparatus according to Embodiment 3 of the present invention. The image display device according to the third embodiment is substantially the same as the image display device according to the first embodiment. Therefore, the same parts are denoted by the same reference numerals and description thereof is omitted.

実施の形態3の画像表示装置において、ディスプレイ部1は、LCD(Liquid Crystal Digital;液晶ディジタル)パネル等の透過型の画像表示素子102である。画像表示素子102は、光源部102からの光束によって照明される。画像表示素子102を透過した光束は、偏光ビームスプリッタ14により、観測者の眼球3の方向に反射し、接眼レンズ103により眼球3内の網膜に投影される。従って、観測者は、画像表示素子102に表示された映像の虚像を観測できるため、視線方向撮影用カメラ部5で撮影された現実映像を、現実の距離感で観測できる。   In the image display device according to the third embodiment, the display unit 1 is a transmissive image display element 102 such as an LCD (Liquid Crystal Digital) panel. The image display element 102 is illuminated with a light beam from the light source unit 102. The light beam that has passed through the image display element 102 is reflected by the polarizing beam splitter 14 in the direction of the eyeball 3 of the observer, and is projected onto the retina in the eyeball 3 by the eyepiece lens 103. Therefore, since the observer can observe the virtual image of the video displayed on the image display element 102, the real video taken by the camera unit 5 for photographing the line of sight can be observed with an actual sense of distance.

実施の形態4.
図4及び図5は、本発明の実施の形態4に係る画像表示装置のディスプレイ部1から放射された光の光軸と眼球撮影用カメラ部4の光軸とを一致させるためのキャリブレーションの方法を示す図である。画像表示装置としては、例えば、実施の形態1、2又は3に係るものが利用されればよい。
Embodiment 4 FIG.
4 and 5 show calibration for matching the optical axis of the light emitted from the display unit 1 of the image display apparatus according to Embodiment 4 of the present invention with the optical axis of the camera unit 4 for eyeball photography. It is a figure which shows a method. As the image display device, for example, the one according to Embodiment 1, 2, or 3 may be used.

光軸のキャリブレーション時には、ディスプレイ部1および眼球撮影用カメラ部4を利用する。キャリブレーションの手順は次の通りである。
(1)ディスプレイ部1からキャリブレーション用の信号(第1のキャリブレーション信号)41を発光する。この信号はキャリブレーション終了後に光軸中心(眼球3の視線方向に対して垂直かつ中心を通るような一点)となるような一点に発光させる。
(2)ディスプレイ部1から発光された光は眼球3に第2のキャリブレーション信号42として入光し、更に光は眼球3に対して反射して第3のキャリブレーション信号43となる。
(3)反射光(第3のキャリブレーション信号43)は、第1のミラー部2を介して眼球撮影用カメラ部4に入光する。光軸中心が一致している場合は、図5の左部に示すように、キャリブレーション用信号照射位置44が眼球撮影用カメラ部4で撮影された映像の中心となる。光軸中心が一致していない場合は、図5の右部に示すように、中心からずれる。第3のキャリブレーション信号43が、眼球撮影用カメラ部4へ入光しない可能性もある。
When calibrating the optical axis, the display unit 1 and the eyeball camera unit 4 are used. The calibration procedure is as follows.
(1) The display unit 1 emits a calibration signal (first calibration signal) 41. This signal is emitted to a point that becomes the center of the optical axis (one point that is perpendicular to and passes through the center of the eyeball 3) after the calibration is completed.
(2) The light emitted from the display unit 1 enters the eyeball 3 as the second calibration signal 42, and the light is further reflected by the eyeball 3 to become the third calibration signal 43.
(3) The reflected light (third calibration signal 43) enters the eyeball camera unit 4 through the first mirror unit 2. When the optical axis centers coincide with each other, the calibration signal irradiation position 44 becomes the center of the image photographed by the eyeball photographing camera unit 4 as shown in the left part of FIG. If the optical axis centers do not match, as shown in the right part of FIG. There is a possibility that the third calibration signal 43 does not enter the eyeball camera unit 4.

上記のようなずれの情報を利用して、ディスプレイ部1から放射された光の光軸と眼球撮影用カメラ部4の光軸を一致させることができる。即ち、眼球撮影用カメラ部4が撮影した眼球の画像情報を無線又は有線を経由してコンピュータ端末(図示せず。)に送信し、コンピュータ端末が第1の回転式駆動部7と第2の回転式駆動部8、及びスライド式駆動部9をその画像情報に従い制御して駆動してもよい。このようなキャリブレーションの手順を観測者の認識可能な時間より短い時間で定期的に行うことで、観測者の視線を計測することができる。   The optical axis of the light emitted from the display unit 1 and the optical axis of the eyeball photographing camera unit 4 can be matched by using the information on the deviation as described above. That is, the image information of the eyeball photographed by the eyeball camera unit 4 is transmitted to a computer terminal (not shown) via wireless or wired communication, and the computer terminal is connected to the first rotary drive unit 7 and the second rotational drive unit 7. The rotary drive unit 8 and the slide type drive unit 9 may be controlled and driven according to the image information. By periodically performing such a calibration procedure in a time shorter than the time recognizable by the observer, the observer's line of sight can be measured.

実施の形態5.
図6は、本発明の実施の形態5に係る画像表示装置の表示ユニット10の構成を示す図である。実施の形態5に係る画像表示装置は、実施の形態3に係る画像表示装置と略同様のものである。従って、同一部位には同一符号を付して説明を省略する。
Embodiment 5. FIG.
FIG. 6 is a diagram showing the configuration of the display unit 10 of the image display apparatus according to Embodiment 5 of the present invention. The image display device according to the fifth embodiment is substantially the same as the image display device according to the third embodiment. Therefore, the same parts are denoted by the same reference numerals and description thereof is omitted.

実施の形態5の画像表示装置において、眼球撮影用カメラ部4は赤外線カメラである。つまり、眼球撮影用カメラ部4に備わる赤外線光源21が、赤外線照射22を眼球3に照射することにより、観測者に気付かれることなく観測者の視線を計測できる。即ち、視線計測が観測者の映像観測の邪魔にならない。更に、第1のミラー部2を可視光反射赤外光透過ミラー23にすることで、ディスプレイ部1からの光、及び眼球観測用カメラ部4で観測する光の損失を少なくできる。   In the image display device according to the fifth embodiment, the eyeball camera unit 4 is an infrared camera. That is, the infrared light source 21 provided in the eyeball camera unit 4 irradiates the eyeball 3 with the infrared irradiation 22 so that the observer's line of sight can be measured without being noticed by the observer. That is, the line-of-sight measurement does not interfere with the observer's video observation. Furthermore, the loss of light from the display unit 1 and light observed by the eyeball observation camera unit 4 can be reduced by using the first mirror unit 2 as the visible light reflecting infrared light transmission mirror 23.

実施の形態6.
図7は、本発明の実施の形態6に係る画像表示装置の表示ユニット10の構成を示す図である。実施の形態6に係る画像表示装置は、実施の形態5に係る画像表示装置と略同様のものである。従って、同一部位には同一符号を付して説明を省略する。
Embodiment 6 FIG.
FIG. 7 is a diagram showing a configuration of the display unit 10 of the image display apparatus according to Embodiment 6 of the present invention. The image display device according to the sixth embodiment is substantially the same as the image display device according to the fifth embodiment. Therefore, the same parts are denoted by the same reference numerals and description thereof is omitted.

実施の形態6に係る画像表示装置では、視線方向撮影用カメラ部5を構成するCCD、CMOS等の撮像デバイス25に対して、その裏面に眼球撮影用カメラ部4の受ける光束を入射して受像処理するように、眼球撮影用カメラ部4を一体形成している。つまり、撮像デバイス25は眼球撮影用カメラ部4の撮像(受像)処理を行う回路も含む。一般にCCD、CMOS等の撮像デバイス25はシリコン基板上に形成されるが、シリコン基板を透過する赤外光が裏面から入射しても視線方向撮影用カメラ部5は撮像が可能である。   In the image display device according to the sixth embodiment, a light beam received by the eyeball camera unit 4 is incident on the back surface of the imaging device 25 such as a CCD or CMOS that constitutes the camera unit 5 for capturing the eye direction. The eyeball camera unit 4 is integrally formed so as to be processed. That is, the imaging device 25 includes a circuit that performs an imaging (image receiving) process of the eyeball camera unit 4. In general, the image pickup device 25 such as a CCD or CMOS is formed on a silicon substrate. However, even if infrared light transmitted through the silicon substrate is incident from the back surface, the camera unit 5 for photographing in the line-of-sight direction can pick up an image.

このような構成にすることにより、撮像デバイス25及び撮像に必要な電子回路を視線方向撮影用カメラ部5と眼球撮影用カメラ部4とが共有できるため、部品点数を削減できると共に、表示ユニット10全体を小型化若しくは軽量化できる。   With such a configuration, the imaging device 25 and the electronic circuit necessary for imaging can be shared by the camera unit 5 for photographing the eye direction and the camera unit 4 for photographing the eyeball, so that the number of components can be reduced and the display unit 10 can be reduced. The whole can be reduced in size or weight.

また、視線方向撮影用カメラ部5の前部にはシャッター24が備わる。視線方向撮影用カメラ部5での現実空間撮像時にはシャッター24を開放して赤外線光源21を消灯し、眼球撮影用カメラ部4で眼球を撮影する際にはシャッター24を閉め赤外線光源21を点灯することにより、現実空間映像と眼球映像が同時に撮影されない。更に、眼球撮影用カメラ部4で眼球を撮影する際にはシャッター24が閉じていることになるが、この間に現実映像として直前に撮像した映像をディスプレイ部1に提示すれば、観測者に違和感を与えない。   In addition, a shutter 24 is provided in the front part of the camera unit 5 for photographing the line-of-sight direction. The shutter 24 is opened and the infrared light source 21 is extinguished when the real space image is captured by the camera unit 5 for photographing the line of sight, and the infrared light source 21 is turned on when the eyeball is photographed by the camera unit 4 for photographing the eyeball. Therefore, the real space image and the eyeball image are not shot simultaneously. Further, when the eyeball is photographed by the eyeball photographing camera unit 4, the shutter 24 is closed. If an image captured immediately before as a real image is presented on the display unit 1 during this period, the observer feels uncomfortable. Not give.

実施の形態7.
図8は、本発明の実施の形態7に係る画像表示装置の表示ユニット10の構成を示す図である。実施の形態7に係る画像表示装置は、実施の形態6に係る画像表示装置と略同様のものである。従って、同一部位には同一符号を付して説明を省略する。
Embodiment 7 FIG.
FIG. 8 is a diagram showing the configuration of the display unit 10 of the image display apparatus according to Embodiment 7 of the present invention. The image display device according to the seventh embodiment is substantially the same as the image display device according to the sixth embodiment. Therefore, the same parts are denoted by the same reference numerals and description thereof is omitted.

実施の形態7に係る該像表示装置は、ディスプレイ部1の画像表示素子102をLCDパネルやDLPなどの反射型としたものである。光源101からの光束は、可視光偏光ビームスプリッタ26を透過し、画像表示素子102で反射され、再び可視光偏光ビームスプリッタ26により、観測者の眼球3方向に反射され、接眼レンズ103により眼球3内の網膜に投影される。ここで、可視光偏光ビームスプリッタ26は赤外線を透過し、眼球撮影用カメラ部4は赤外線照射22により眼球観測用カメラ4で眼球を観測する。   In the image display device according to the seventh embodiment, the image display element 102 of the display unit 1 is a reflection type such as an LCD panel or DLP. The light beam from the light source 101 passes through the visible light polarization beam splitter 26, is reflected by the image display element 102, is reflected again by the visible light polarization beam splitter 26 in the direction of the observer's eyeball 3, and the eyeball 3 forms the eyeball 3. Projected on the inner retina. Here, the visible light polarization beam splitter 26 transmits infrared rays, and the eyeball camera unit 4 observes the eyeball with the eyeball observation camera 4 by the infrared irradiation 22.

画像表示素子102としての反射型デバイスは、一般的に高精細化が容易であるため、観測者は高精細な映像を観測することができる。   Since the reflection type device as the image display element 102 is generally easy to achieve high definition, an observer can observe a high definition image.

実施の形態8.
図9は、本発明の実施の形態8に係る画像表示装置の表示ユニット10の構成を示す図である。実施の形態8に係る画像表示装置は、実施の形態6に係る画像表示装置と略同様のものである。従って、同一部位には同一符号を付して説明を省略する。
Embodiment 8 FIG.
FIG. 9 is a diagram showing the configuration of the display unit 10 of the image display apparatus according to Embodiment 8 of the present invention. The image display device according to the eighth embodiment is substantially the same as the image display device according to the sixth embodiment. Therefore, the same parts are denoted by the same reference numerals and description thereof is omitted.

眼球観測用カメラ4に備わる赤外線光源21の発する赤外線は、可視光透過・赤外線反射ミラー27及び赤外線反射・可視光ハーフミラー28で反射し眼球3に向かう。眼球3で反射した赤外線は赤外線反射・可視光ハーフミラー28及び可視光透過・赤外線反射ミラー27で反射し眼球観測用カメラ4が撮像する。視線方向撮影用カメラ部5は、補正レンズ29を介し赤外線反射・可視光ハーフミラー28で反射して入射する現実の映像を撮影する。   Infrared light emitted from the infrared light source 21 provided in the eyeball observation camera 4 is reflected by the visible light transmission / infrared reflection mirror 27 and the infrared reflection / visible light half mirror 28 and travels toward the eyeball 3. The infrared rays reflected by the eyeball 3 are reflected by the infrared reflection / visible light half mirror 28 and the visible light transmission / infrared reflection mirror 27 and are imaged by the eyeball observation camera 4. The line-of-sight imaging camera unit 5 captures an actual video image that is incident on the infrared reflection / visible light half mirror 28 via the correction lens 29.

実施の形態8に係る画像表示装置において、観測者は、接眼レンズ103と補正レンズ部29を通して、現実空間を直接見ることができる。視線方向撮影用カメラ5は、観測者の視線方向を撮影することで、観測者の見ている現実空間の明るさが把握できる。従って、ディスプレイ部1は仮想情報のみを提示するのであるが、観測者の見ている現実空間との重畳位置および提示する明るさを調整できるので、観測者に違和感のない映像を提供できる。   In the image display device according to the eighth embodiment, the observer can directly see the real space through the eyepiece lens 103 and the correction lens unit 29. The line-of-sight imaging camera 5 can grasp the brightness of the real space viewed by the observer by photographing the line-of-sight direction of the observer. Therefore, the display unit 1 presents only virtual information, but the superimposition position with the real space viewed by the observer and the brightness to be presented can be adjusted, so that it is possible to provide an image that does not feel strange to the observer.

実施の形態9.
図10は、本発明の実施の形態9に係る画像表示装置の表示ユニット10の動作を示す図である。
Embodiment 9 FIG.
FIG. 10 is a diagram illustrating the operation of the display unit 10 of the image display device according to the ninth embodiment of the present invention.

図10において、表示ユニット10は、球面である移動面51に沿って移動する。即ち、移動面51は、表示ユニット10の移動可能範囲を拘束する移動球面を示す。移動球面51は、人の眼球が様々な方向を向いたときにも、常に視線方向撮影用カメラ部5及び眼球撮影用カメラ部4の光軸を視線方向と一致させるような表示ユニット10の配置によって形成される球面である。ここで、眼球3の回転中心52から延ばした線に対して表示ユニット10の光軸が平行かつ距離が一定である時に光軸が常に一致する。このような構成により、初期キャリブレーションが行われた後、移動球面51に沿って眼球3の移動を追跡するだけで光学一致状態を維持できる。   In FIG. 10, the display unit 10 moves along a moving surface 51 that is a spherical surface. That is, the moving surface 51 is a moving spherical surface that restricts the movable range of the display unit 10. The moving spherical surface 51 is arranged with the display unit 10 so that the optical axes of the visual direction photographing camera unit 5 and the eyeball photographing camera unit 4 always coincide with the visual line direction even when the human eyeball faces in various directions. Is a spherical surface formed by Here, when the optical axis of the display unit 10 is parallel to the line extending from the rotation center 52 of the eyeball 3 and the distance is constant, the optical axes always coincide. With such a configuration, after the initial calibration is performed, the optical coincidence state can be maintained only by tracking the movement of the eyeball 3 along the moving spherical surface 51.

移動球面51に沿った表示ユニット10の移動は、例えば、図1に示した第1の回転式駆動部7、アーム部6、第2の回転式駆動部8及びスライド式駆動部9によって行われる。   The movement of the display unit 10 along the moving spherical surface 51 is performed by, for example, the first rotary drive unit 7, the arm unit 6, the second rotary drive unit 8, and the slide drive unit 9 shown in FIG. .

移動球面51に沿った表示ユニット10の移動を制御する仕組みは、別のものであってもよい。例えば、移動球面51に沿って表示ユニット10を移動させるための表示部移動用ガイドを配置し、表示部移動ガイドに複数の第1の位置制御磁石を配置し、表示ユニット10に第2の位置制御磁石を配置する。ここで、第1の位置制御磁石を電磁石で構成し、第2の位置制御磁石を永久磁石で構成する。第1の位置制御磁石の磁力を調節することで、表示部移動ガイドに沿って表示ユニット10を移動させることができる。   The mechanism for controlling the movement of the display unit 10 along the moving spherical surface 51 may be different. For example, a display unit moving guide for moving the display unit 10 along the moving spherical surface 51 is arranged, a plurality of first position control magnets are arranged on the display unit moving guide, and the display unit 10 has a second position. Arrange the control magnet. Here, the first position control magnet is composed of an electromagnet, and the second position control magnet is composed of a permanent magnet. The display unit 10 can be moved along the display unit movement guide by adjusting the magnetic force of the first position control magnet.

実施の形態10.
図11は、本発明の実施の形態10に係る画像表示装置の仮想情報提示の概念を示す図である。
Embodiment 10 FIG.
FIG. 11 is a diagram showing a concept of virtual information presentation of the image display apparatus according to Embodiment 10 of the present invention.

観測者が、目の焦点位置62の位置を視点とし、観測者の視点にある情報63を見ている。このとき、仮想情報61が、目の焦点位置62よりも観測者から離れた位置の情報である場合、現実空間であれば形状がぼやけて見えるのに対し、従来の画像表示装置では情報に基づく形状がぼやけずにクリアに見えてしまう。従って、観測者にとって、仮想的な表示位置と実際の見え方とにギャップが生じる。このギャップが観測者の認知不可を高める原因となる。   The observer views the information 63 at the observer's viewpoint with the position of the focal position 62 of the eye as the viewpoint. At this time, when the virtual information 61 is information at a position farther from the observer than the focal position 62 of the eye, the shape appears blurred in the real space, whereas the conventional image display device is based on the information. The shape looks clear without blurring. Therefore, there is a gap between the virtual display position and the actual appearance for the observer. This gap causes the observer to become unrecognizable.

そこで、本発明の実施の形態10に係る画像表示装置では、観測者の視点である目の焦点位置62の距離近傍以外の仮想情報をぼやかして提示する。かように観測者の視点の距離に応じて、観測者の視点の距離近傍以外の仮想情報をぼやかして提示することにより、観測者は仮想生成物が実世界上のどこに置かれているか(置かれるべきものか)を正しく知ることができる。   Therefore, in the image display apparatus according to Embodiment 10 of the present invention, virtual information other than the vicinity of the distance of the focal point 62 of the eye, which is the viewpoint of the observer, is presented in a blurred manner. Thus, by presenting the virtual information other than the vicinity of the observer's viewpoint according to the distance of the observer's viewpoint, the observer can see where the virtual product is placed in the real world. Can know exactly what to do.

実施の形態11.
図12は、本発明の実施の形態11に係る視点計測の方法を示す図である。
Embodiment 11 FIG.
FIG. 12 is a diagram showing a viewpoint measurement method according to Embodiment 11 of the present invention.

視線交差位置37は、右目眼球31と左目眼球34の視線が交わる点である。即ち、観測者の視点62(図11参照)に相当する。左右の眼球31、34内部に眼球回転中心33、36があり各眼球の回転中心間距離をLとする。回転中心間線分Lと眼球31、34の視線との為す角度θ1とθ2は、眼球の回転中心のベクトルを求め且つ眼球の視線方向を計測することで計算可能である。これら3つのパラメータ(L、θ1、θ2)が決定されることにより、視線交差位置37の座標が計算され、結果として左目中心・視線交差位置間距離L1と右目中心・視線交差位置間距離L2を導出でき、観測者の視点62を同定できる。   The line-of-sight intersection position 37 is a point where the lines of sight of the right eyeball 31 and the left eyeball 34 intersect. That is, it corresponds to the observer's viewpoint 62 (see FIG. 11). There are eyeball rotation centers 33 and 36 inside the left and right eyeballs 31 and 34, and the distance between the rotation centers of each eyeball is L. The angles θ1 and θ2 formed by the line segment L between the rotation centers and the line of sight of the eyeballs 31 and 34 can be calculated by obtaining a vector of the rotation center of the eyeball and measuring the line-of-sight direction of the eyeball. By determining these three parameters (L, θ1, θ2), the coordinates of the line-of-sight intersection position 37 are calculated. As a result, the distance L1 between the center of the left eye and the line-of-sight intersection L1, and the distance L2 between the center of the right eye and the line-of-sight intersection L2 are obtained. The observer's viewpoint 62 can be identified.

図13は、本発明の実施の形態11に係る画像表示装置を示す構成図である。実施の形態1に係るものと同様のものでよい。表示ユニット10に内蔵されたディスプレイ部1に表示された映像は、第1のミラー部2によって反射され、眼球3に投影され、観測者はディスプレイ部1に表示された映像を観察する。また、第1のミラー部2は、例えば半透明であり、眼球撮影用カメラ部4により、観測者の眼球3の向いている方向、すなわち視線が観測される。このような構成で、左右の眼球31、34の視線方向32、35を測定することができる。眼球撮影用カメラ部4がこれらの視線方向の情報を無線又は有線を経由してコンピュータ端末(図示せず。)に送信すれば、コンピュータ端末(図示せず。)は、観測者の視線交差位置37及び観測者の視点の位置を算出できる。   FIG. 13 is a block diagram showing an image display apparatus according to Embodiment 11 of the present invention. It may be the same as that according to the first embodiment. The image displayed on the display unit 1 built in the display unit 10 is reflected by the first mirror unit 2 and projected onto the eyeball 3, and the observer observes the image displayed on the display unit 1. Further, the first mirror unit 2 is, for example, translucent, and the direction in which the observer's eyeball 3 is directed, that is, the line of sight, is observed by the eyeball camera unit 4. With such a configuration, the line-of-sight directions 32 and 35 of the left and right eyeballs 31 and 34 can be measured. If the eyeball camera unit 4 transmits the information on these line-of-sight directions to a computer terminal (not shown) via wireless or wired connection, the computer terminal (not shown) will be the observer's line-of-sight intersection position. 37 and the position of the observer's viewpoint can be calculated.

実施の形態12.
まず、図14にて表示ユニット10内のディスプレイ部1の光源101の指向性と観測者の見え方の概念図を示す。図14(a)は、拡散光源時の見え方の概念図である。図14(a)に示すように、拡散光源時は、眼球位置200に対して、接眼レンズ103の位置と実際の表示位置201の間隔に依存して、仮想表示面202の眼球からの距離が決定される。
Embodiment 12 FIG.
First, FIG. 14 shows a conceptual diagram of the directivity of the light source 101 of the display unit 1 in the display unit 10 and how the observer sees. FIG. 14 (a) is a conceptual diagram of how it looks when a diffused light source is used. As shown in FIG. 14A, at the time of the diffuse light source, the distance from the eyeball on the virtual display surface 202 depends on the distance between the eyepiece lens 103 and the actual display position 201 with respect to the eyeball position 200. It is determined.

図15は、拡散光源時のディスプレイ部1の構成の例であり、光源301が画像表示素子(映像板)302に近接して配置されている。画像表示素子(映像板)302を透過する照明光はあらゆる方向に拡散しているので、接眼レンズ303を介して観測者は、観測者の目のレンズ(即ち、水晶体)を調整することにより、画像表示素子(映像板)302の虚像を観測する。このとき虚像の位置は、接眼レンズ303の焦点距離および接眼レンズ303と画像表示素子(映像板)302との距離で決められる一定の位置になる。即ち、観測者は、虚像を常に同じ位置に見ることになるため、現実空間の映像が画像表示素子(映像板)302に表示されても現実の距離感が得られない。その上、画像表示素子(映像板)302の映像に仮想空間イメージを重畳しても、観測者は、仮想生成物の実世界上での置かれるべき位置(距離)を距離感から把握するということができない。従って、観測者の視覚イメージに違和感が生じることになる。   FIG. 15 shows an example of the configuration of the display unit 1 at the time of a diffused light source. A light source 301 is disposed in the vicinity of an image display element (video plate) 302. Since the illumination light transmitted through the image display element (image plate) 302 is diffused in all directions, the observer adjusts the lens of the observer's eyes (that is, the crystalline lens) through the eyepiece lens 303. A virtual image of the image display element (video plate) 302 is observed. At this time, the position of the virtual image is a fixed position determined by the focal length of the eyepiece lens 303 and the distance between the eyepiece lens 303 and the image display element (video plate) 302. That is, since the observer always sees the virtual image at the same position, even if an image in the real space is displayed on the image display element (video plate) 302, a real sense of distance cannot be obtained. In addition, even if the virtual space image is superimposed on the video of the image display element (video board) 302, the observer can grasp the position (distance) where the virtual product should be placed in the real world from the sense of distance. I can't. Therefore, the viewer's visual image is uncomfortable.

一方、図14(b)は、指向性光源時の見え方の概念図である。指向性光源時は、眼球位置200に対して、接眼レンズ103の位置と実際の表示位置201の間隔に依存することなく、仮想表示面202の眼球からの距離が可変範囲203にて変化できる。即ち、観測者は、あるべき位置に虚像を見ることができる。   On the other hand, FIG.14 (b) is a conceptual diagram of the appearance at the time of a directional light source. When the directional light source is used, the distance from the eyeball of the virtual display surface 202 can be changed in the variable range 203 without depending on the distance between the position of the eyepiece 103 and the actual display position 201 with respect to the eyeball position 200. That is, the observer can see a virtual image at a desired position.

図16は、指向性光源時のディスプレイ部1の構成の例であり、実施の形態12に係る画像表示装置の表示ユニット10の構成を示す図である。表示ユニット10において、光源301から放出された光束が画像表示素子302を透過して、接眼レンズ303により観測者の眼球3の瞳孔308位置で光束が収束された状態で、水晶体306を経て網膜307に画像表示素子302に表示された映像が投影される。   FIG. 16 is an example of a configuration of the display unit 1 at the time of a directional light source, and is a diagram illustrating a configuration of the display unit 10 of the image display device according to the twelfth embodiment. In the display unit 10, the light beam emitted from the light source 301 is transmitted through the image display element 302, and the light beam is converged at the position of the pupil 308 of the eyeball 3 of the observer by the eyepiece lens 303. The video displayed on the image display element 302 is projected onto the screen.

図中の“a”は、瞳孔308上での光束の幅である。“a”が瞳孔径に比べて十分小さくなるように光源301から放射される光束の指向性が選択されると、いわゆるマクスウエル視の状態になる。このとき、水晶体306のレンズ効果に依存せずに、観測者は鮮明な像を見ることができる。即ち、このような指向性光源時では、観測者の視点62が変わっても、映像をぼやかすことなく提示することができる。   “A” in the figure is the width of the light beam on the pupil 308. When the directivity of the light beam emitted from the light source 301 is selected so that “a” is sufficiently smaller than the pupil diameter, a so-called Maxwellian state is obtained. At this time, the observer can see a clear image without depending on the lens effect of the crystalline lens 306. That is, with such a directional light source, even if the observer's viewpoint 62 changes, the video can be presented without blurring.

実施の形態1乃至9で示した画像表示装置は、観測者の視線に表示ユニット10の光軸を一致させるという視線追従の構成を有する。従って、本実施の形態12のような構成と組み合わせることにより、観測者に常に鮮明な映像を提供できることになる。   The image display devices described in Embodiments 1 to 9 have a line-of-sight tracking configuration in which the optical axis of the display unit 10 is aligned with the line of sight of the observer. Therefore, by combining with the configuration as in the twelfth embodiment, a clear image can always be provided to the observer.

本実施の形態12に係る指向性光源を用いた表示ユニット10を用いると、画像表示装置に表示された映像の虚像の位置を、現実空間の位置に対応して観測者が随意に設定できる。更に、実施の形態10又は11のように観測者の視点の距離に応じて観測者の視点の距離近傍以外の仮想情報をぼかして提示することにより、観測者は現実映像と仮想情報を重畳して観測できると共に、仮想生成物が実世界上のどこに置かれているかを正しく認識できる。   When the display unit 10 using the directional light source according to the twelfth embodiment is used, the observer can arbitrarily set the position of the virtual image of the video displayed on the image display device corresponding to the position in the real space. Furthermore, as in the tenth or eleventh embodiment, the virtual information other than the vicinity of the observer's viewpoint distance is presented in a blurred manner according to the distance of the observer's viewpoint, so that the observer superimposes the real image and the virtual information. And correctly recognize where the virtual product is located in the real world.

なお、上記の説明では、表示ユニット10を構成する光学系をマクスウエル視の状態であるとしている。実際は、光源301が有限の大きさであるとともに、光源301から放出される光束も指向性分布を持っている。そこで、瞳孔308上での光束幅を瞳孔径の2倍から4倍、即ち6mmから12mm程度と設定し、光源301のサイズ及び光源301から放出される光束にも指向性分布を備えるように設定すると、マクスウエル視に近い状態となる。このとき水晶体106のレンズ効果の影響を受けにくくなり、しかも観測者の視線と表示ユニット10の光軸とが多少ずれても、観測者は鮮明な像を見ることができる。こうすれば、視線追従の精度がやや緩和でき、観測者の画像表示装置の装着を容易にできる。   In the above description, it is assumed that the optical system constituting the display unit 10 is in a Maxwellian view. Actually, the light source 301 has a finite size, and the luminous flux emitted from the light source 301 also has a directivity distribution. Therefore, the light beam width on the pupil 308 is set to be 2 to 4 times the pupil diameter, that is, about 6 mm to 12 mm, and the size of the light source 301 and the light beam emitted from the light source 301 are set to have a directivity distribution. Then, it becomes a state close to Maxwell's view. At this time, the observer is less affected by the lens effect of the crystalline lens 106, and the observer can see a clear image even if the observer's line of sight and the optical axis of the display unit 10 are slightly shifted. By so doing, the accuracy of line-of-sight tracking can be somewhat relaxed, and the observer can easily attach the image display device.

実施の形態13.
図17は、本発明の実施の形態12に係る画像表示装置の動作の概念図である。表示ユニット10や画像を表示させるためのコンピュータ等に障害が発生したときに行うべき対処法の概念を示す。
Embodiment 13 FIG.
FIG. 17 is a conceptual diagram of the operation of the image display apparatus according to Embodiment 12 of the present invention. A concept of countermeasures to be taken when a failure occurs in the display unit 10 or a computer for displaying images will be described.

本発明に係る表示ユニット10は、常に人の視線方向上かつ視線の中心に存在する。ここで、表示ユニット10や画像を表示させるためのコンピュータ等の故障により映像を提示できなくなるといった問題が発生したとき、人の行動に対して危険性を増すことになる。けだし、表示ユニット10が観測者の視線方向を遮った状態になるからである。   The display unit 10 according to the present invention is always present on the line of sight of the person and at the center of the line of sight. Here, when a problem occurs in which the video cannot be presented due to a failure of the display unit 10 or a computer for displaying an image, the risk of human behavior increases. This is because the display unit 10 is in a state of blocking the observer's line-of-sight direction.

そこで、表示ユニット10の電源が落ちると物理的に視線方向から表示ユニット10が例えばバネにより外れるようにする。更に、画像を表示させるためのコンピュータ等から映像が送られなくなると表示ユニット10は自動的かつ即座に表示ユニット10の電源を落とすようにし、これにより表示ユニット10がバネにより視線方向から外れるようにする。これらの動作により、観測者の安全を確保することができる。   Therefore, when the power of the display unit 10 is turned off, the display unit 10 is physically detached from the line of sight by, for example, a spring. Further, when no video is sent from a computer or the like for displaying an image, the display unit 10 automatically and immediately turns off the power of the display unit 10 so that the display unit 10 moves out of the line of sight by a spring. To do. Through these operations, the safety of the observer can be ensured.

本発明の実施の形態1に係る画像表示装置を示す構成図である。It is a block diagram which shows the image display apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態2に係る画像表示装置の表示ユニットの構成を示す図である。It is a figure which shows the structure of the display unit of the image display apparatus which concerns on Embodiment 2 of this invention. 本発明の実施の形態3に係る画像表示装置の表示ユニットの構成を示す図である。It is a figure which shows the structure of the display unit of the image display apparatus which concerns on Embodiment 3 of this invention. 本発明の実施の形態4に係る画像表示装置のディスプレイ部から放射された光の光軸と眼球撮影用カメラ部の光軸とを一致させるためのキャリブレーションの方法を示す図である。It is a figure which shows the method of the calibration for making the optical axis of the light radiated | emitted from the display part of the image display apparatus which concerns on Embodiment 4 of this invention correspond with the optical axis of the camera part for eyeball imaging | photography. 本発明の実施の形態4に係る画像表示装置のディスプレイ部から放射された光の光軸と眼球撮影用カメラ部の光軸とを一致させるためのキャリブレーションの方法を示す図である。It is a figure which shows the method of the calibration for making the optical axis of the light radiated | emitted from the display part of the image display apparatus which concerns on Embodiment 4 of this invention correspond with the optical axis of the camera part for eyeball imaging | photography. 本発明の実施の形態5に係る画像表示装置の表示ユニットの構成を示す図である。It is a figure which shows the structure of the display unit of the image display apparatus which concerns on Embodiment 5 of this invention. 本発明の実施の形態6に係る画像表示装置の表示ユニットの構成を示す図である。It is a figure which shows the structure of the display unit of the image display apparatus which concerns on Embodiment 6 of this invention. 本発明の実施の形態7に係る画像表示装置の表示ユニットの構成を示す図である。It is a figure which shows the structure of the display unit of the image display apparatus which concerns on Embodiment 7 of this invention. 本発明の実施の形態8に係る画像表示装置の表示ユニットの構成を示す図である。It is a figure which shows the structure of the display unit of the image display apparatus which concerns on Embodiment 8 of this invention. 本発明の実施の形態9に係る画像表示装置の表示ユニットの動作を示す図である。It is a figure which shows operation | movement of the display unit of the image display apparatus which concerns on Embodiment 9 of this invention. 本発明の実施の形態10に係る画像表示装置の仮想情報提示の概念を示す図である。It is a figure which shows the concept of the virtual information presentation of the image display apparatus which concerns on Embodiment 10 of this invention. 本発明の実施の形態11に係る視点計測の方法を示す図である。It is a figure which shows the method of the viewpoint measurement which concerns on Embodiment 11 of this invention. 本発明の実施の形態11に係る画像表示装置を示す構成図である。It is a block diagram which shows the image display apparatus which concerns on Embodiment 11 of this invention. (a)は、拡散光源時の見え方の概念図である。(b)は、指向性光源時の見え方の概念図である。(A) is a conceptual diagram of the appearance at the time of a diffused light source. (B) is a conceptual diagram of the appearance at the time of a directional light source. 拡散光源時のディスプレイ部の構成の例である。It is an example of a structure of the display part at the time of a diffused light source. 指向性光源時のディスプレイ部の構成の例である。It is an example of a structure of the display part at the time of a directional light source. 本発明の実施の形態12に係る画像表示装置の動作の概念図である。It is a conceptual diagram of operation | movement of the image display apparatus which concerns on Embodiment 12 of this invention.

符号の説明Explanation of symbols

1 ディスプレイ部、 2 第1のミラー部、 3 眼球、 4 眼球撮影用カメラ部、 5 視線方向撮影用カメラ部、 6 アーム部、 7 第1の回転式駆動部、 8 第2の回転式駆動部、 9 スライド式駆動部、 10 表示ユニット、 11 第2のミラー部、 13 接眼レンズ、 14 偏光ビームスプリッタ、 21 赤外線光源、 22 赤外線照射、 23 可視光反射赤外線透過ミラー、 24 シャッター、 25 撮像デバイス、 26 可視偏光ビームスプリッタ、赤外光透過ミラー、 27 可視光透過、赤外光反射ミラー、 28 赤外光反射、可視光ハーフミラー、 29 補正レンズ部、 31 右目眼球、 32 右目視線方向、 33 右目眼球回転中心、 34 左目眼球、 35 左目視線方向、 36 左目眼球回転中心、 37 視線交差位置、 41 第1のキャリブレーション信号、 42 第2のキャリブレーション信号、 43 第3のキャリブレーション信号、 44 キャリブレーション信号照射位置、 51 移動球面、 52 眼球回転中心、 61 仮想情報、 62 目の焦点位置、 63 観測者の視点にある情報、 200 眼球位置、 201 実際の表示位置、 202 仮想表示面、 203 可変範囲、 301 光源、 302 画像表示素子(映像板)、 306 水晶体、 307 網膜、 308 瞳孔。
DESCRIPTION OF SYMBOLS 1 Display part, 2 1st mirror part, 3 Eyeball, 4 Eyeball camera part, 5 Gaze direction camera part, 6 Arm part, 7 First rotary drive part, 8 Second rotary drive part 9 Slide-type drive unit, 10 Display unit, 11 Second mirror unit, 13 Eyepiece lens, 14 Polarizing beam splitter, 21 Infrared light source, 22 Infrared irradiation, 23 Visible light reflecting infrared transmission mirror, 24 Shutter, 25 Imaging device, 26 Visible Polarizing Beam Splitter, Infrared Light Transmitting Mirror, 27 Visible Light Transmission, Infrared Light Reflecting Mirror, 28 Infrared Light Reflecting, Visible Light Half Mirror, 29 Correction Lens Unit, 31 Right Eye Eyeball, 32 Right Viewing Line Direction, 33 Right Eye Eye rotation center, 34 Left eyeball, 35 Left eye direction, 36 Left eye eye rotation center, 37 Eye crossing position, 41 First caribbean Calibration signal, 42 second calibration signal, 43 third calibration signal, 44 calibration signal irradiation position, 51 moving spherical surface, 52 eyeball rotation center, 61 virtual information, 62 eye focus position, 63 observer's viewpoint Information, 200 eyeball position, 201 actual display position, 202 virtual display surface, 203 variable range, 301 light source, 302 image display element (video plate), 306 lens, 307 retina, 308 pupil.

Claims (11)

映像を表示するディスプレイ部と、
前記ディスプレイ部に表示された映像を観測者の眼球に導く第1のミラー部と、
観測者の眼球の向きを撮影し観測者の視線方向を検出する第1のカメラ部と、
光軸が第1のカメラ部と一致し観測者の視線方向を撮影する第2のカメラ部と、
前記第1のカメラ部及び前記第2のカメラ部と有線又は無線で接続し、前記第2のカメラ部により撮影される観測者の視線方向の映像と仮想の情報とを合成するコンピュータ端末とを備え、
前記ディスプレイ部にコンピュータ端末により前記観測者の視線方向の映像と仮想の情報とが重畳して表示されることを特徴とする画像表示装置。
A display unit for displaying images;
A first mirror section for guiding the image displayed on the display section to an observer's eyeball;
A first camera unit that captures the direction of the eyeball of the observer and detects the line of sight of the observer;
A second camera unit whose optical axis coincides with the first camera unit and captures the line-of-sight direction of the observer;
A computer terminal that is wired or wirelessly connected to the first camera unit and the second camera unit, and synthesizes the video of the observer's line of sight imaged by the second camera unit and virtual information; Prepared,
An image display device, wherein a video image of the observer's line of sight and virtual information are superimposed and displayed on the display unit by a computer terminal.
映像を表示するディスプレイ部と、
前記ディスプレイ部に表示された映像を観測者の眼球に導く第1のミラー部と、
観測者の眼球の向きを撮影し観測者の視線方向を検出する第1のカメラ部と、
光軸が第1のカメラ部と一致し観測者の視線方向を撮影する第2のカメラ部と、
前記第1のミラー部を介して観測者に直接現実空間を見せしめる接眼レンズ及び補正レンズ部と、
前記第2のカメラ部と有線又は無線で接続し、前記第2のカメラ部により撮影される観測者の視線方向の映像を受け、該映像の情報に基づき前記ディスプレイ部に仮想の情報を表示するコンピュータ端末とを備える画像表示装置。
A display unit for displaying images;
A first mirror section for guiding the image displayed on the display section to an observer's eyeball;
A first camera unit that captures the direction of the eyeball of the observer and detects the line of sight of the observer;
A second camera unit whose optical axis coincides with the first camera unit and captures the line-of-sight direction of the observer;
An eyepiece and a correction lens unit that directly show the real space to the observer through the first mirror unit;
The second camera unit is connected to the second camera unit by wire or wirelessly, receives an image of an observer's line of sight imaged by the second camera unit, and displays virtual information on the display unit based on the information of the image An image display device comprising a computer terminal.
前記ディスプレイ部、前記第1のミラー部、前記第1のカメラ部及び前記第2のカメラ部が表示ユニットに含まれ、
コンピュータ端末と無線又は有線により接続し表示ユニットを駆動する駆動部が更に備わり、
前記第1のカメラ部の光軸と観測者の視線を一致させるため、前記ディスプレイ部の映像表示範囲の一部を点灯し、眼球に写った点灯位置の情報を前記第1のカメラ部が撮像してコンピュータ端末に送信し、眼球に写った点灯位置が前記眼球の瞳孔の中心になるようにコンピュータ端末が前記駆動部を制御することを特徴とする請求項1又は2に記載の画像表示装置。
The display unit, the first mirror unit, the first camera unit and the second camera unit are included in a display unit,
A drive unit that is connected to a computer terminal wirelessly or by wire to drive the display unit is further provided.
In order to make the optical axis of the first camera unit coincide with the observer's line of sight, a part of the video display range of the display unit is turned on, and the first camera unit captures information on the lighting position reflected in the eyeball. 3. The image display device according to claim 1, wherein the computer terminal controls the drive unit so that the lighting position reflected in the eyeball is at the center of the pupil of the eyeball. .
前記第1のカメラ部に赤外線照射部を備え、前記赤外線照射部からの赤外線により眼球を撮影することを特徴とする請求項1〜3のうちのいずれか一つに記載の画像表示装置。 The image display apparatus according to claim 1, wherein the first camera unit includes an infrared irradiation unit, and images an eyeball with infrared rays from the infrared irradiation unit. 前記第1のカメラ部の撮像素子と前記第2のカメラ部の撮像素子とが、一体に形成されていることを特徴とする請求項4記載の画像表示装置。 The image display device according to claim 4, wherein the image sensor of the first camera unit and the image sensor of the second camera unit are integrally formed. 前記ディスプレイ部に備わる画像表示部が反射型素子であることを特徴とする請求項1〜5のうちのいずれか一つに記載の画像評価装置。 The image evaluation apparatus according to claim 1, wherein the image display unit provided in the display unit is a reflective element. 前記表示ユニットが前記観測者の眼球の回転中心を中心とした球面上を観測者の視線方向に追従して移動するように、前記コンピュータ端末が表示ユニットの駆動部を制御することを特徴とする請求項1〜6のうちのいずれか一つに記載の画像表示装置。 The computer terminal controls a drive unit of the display unit so that the display unit moves on a spherical surface centering on the rotation center of the eyeball of the observer so as to follow the line of sight of the observer. The image display apparatus as described in any one of Claims 1-6. 前記コンピュータ端末による仮想の情報のうち、観測者の視点近傍以外の映像をぼやかすことを特徴とする請求項1〜7のうちのいずれか一つに記載の画像表示装置。 The image display apparatus according to claim 1, wherein, in the virtual information by the computer terminal, a video other than the vicinity of the observer's viewpoint is blurred. 一方の目のための第1のカメラ部から検出される第1の視線の情報と、他方の目のための第1のカメラ部から検出される第2の視線の情報がコンピュータ端末に送信され、
コンピュータ端末が第1の視線の情報と第2の視線の情報とから観測者の視点を決定することを特徴とする請求項1〜8のうちのいずれか一つに記載の画像表示装置。
Information on the first line of sight detected from the first camera unit for one eye and information on the second line of sight detected from the first camera unit for the other eye are transmitted to the computer terminal. ,
The image display device according to claim 1, wherein the computer terminal determines an observer's viewpoint from the first line-of-sight information and the second line-of-sight information.
前記ディスプレイ部から放射される光束が指向性を有し、且つ通常の瞳孔サイズの4倍以下の幅であることを特徴とする請求項3〜9のうちのいずれか一つに記載の画像表示装置。 The image display according to any one of claims 3 to 9, wherein a light beam emitted from the display unit has directivity and has a width not more than four times a normal pupil size. apparatus. 前記表示ユニットの表示が停止した際に、前記表示ユニットが前記観測者の眼球の前から移動することを特徴とする請求項3〜10のうちのいずれか一つに記載の画像表示装置。

The image display device according to any one of claims 3 to 10, wherein when the display of the display unit stops, the display unit moves from the front of the observer's eyeball.

JP2005128203A 2005-04-26 2005-04-26 Image display device Pending JP2006308674A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005128203A JP2006308674A (en) 2005-04-26 2005-04-26 Image display device
PCT/JP2006/308448 WO2006118057A1 (en) 2005-04-26 2006-04-21 Image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005128203A JP2006308674A (en) 2005-04-26 2005-04-26 Image display device

Publications (1)

Publication Number Publication Date
JP2006308674A true JP2006308674A (en) 2006-11-09

Family

ID=37307857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005128203A Pending JP2006308674A (en) 2005-04-26 2005-04-26 Image display device

Country Status (2)

Country Link
JP (1) JP2006308674A (en)
WO (1) WO2006118057A1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010085786A (en) * 2008-09-30 2010-04-15 Brother Ind Ltd Head-mounted display device
JP2010102215A (en) * 2008-10-27 2010-05-06 Sony Computer Entertainment Inc Display device, image processing method and computer program
JP2011215550A (en) * 2010-04-02 2011-10-27 Olympus Corp Display device, electronic apparatus, mobile electronic apparatus, mobile phone, and imaging device
JP2015213226A (en) * 2014-05-02 2015-11-26 コニカミノルタ株式会社 Wearable display and display control program therefor
KR20160064388A (en) * 2014-11-28 2016-06-08 현대자동차주식회사 Vehicle having gaze recognizing function and controlling method thereof, and gaze recognizing system
WO2016113951A1 (en) * 2015-01-15 2016-07-21 株式会社ソニー・インタラクティブエンタテインメント Head-mounted display device and video display system
CN109856796A (en) * 2018-11-20 2019-06-07 成都理想境界科技有限公司 Image source mould group, waveguide, near-eye display system and its control method
WO2020095801A1 (en) * 2018-11-05 2020-05-14 京セラ株式会社 Three-dimensional display device, head-up display system, mobile unit, and program
US11854444B2 (en) 2019-07-26 2023-12-26 Sony Group Corporation Display device and display method

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5342132B2 (en) * 2007-11-16 2013-11-13 パナソニック株式会社 Retina projection display device
JP5494192B2 (en) * 2010-04-30 2014-05-14 カシオ計算機株式会社 Display device
US8681426B2 (en) 2011-11-04 2014-03-25 Honeywell International Inc. Steerable near-to-eye display and steerable near-to-eye display system
JP5955348B2 (en) * 2013-05-22 2016-07-20 株式会社テレパシーホールディングス Wearable device having privacy protection function of captured image, control method thereof, and image sharing system
CN110199324B (en) * 2017-01-31 2023-12-29 株式会社和冠 Display device and control method thereof
JP2018173661A (en) * 2018-07-23 2018-11-08 旭化成株式会社 Optical device having spectacle lens, spectacles using the same, and spectacle type display device
CN109991746A (en) * 2019-03-08 2019-07-09 成都理想境界科技有限公司 Image source mould group and near-eye display system
JP6949389B2 (en) * 2020-03-11 2021-10-13 国立大学法人福井大学 Retinal scanning display device and image display system
JP7123452B2 (en) * 2020-09-09 2022-08-23 株式会社Qdレーザ image projection device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3141835B2 (en) * 1997-12-27 2001-03-07 株式会社エム・アール・システム研究所 Display device
JP2000059666A (en) * 1998-08-07 2000-02-25 Victor Co Of Japan Ltd Image pickup device
JP2002090688A (en) * 2000-09-12 2002-03-27 Masahiko Inami Sight-line direction dependent type retina display device
JP2002271691A (en) * 2001-03-13 2002-09-20 Canon Inc Image processing method, image processing unit, storage medium and program
JP4385742B2 (en) * 2002-11-29 2009-12-16 ブラザー工業株式会社 Image display device
JP4370997B2 (en) * 2004-07-29 2009-11-25 株式会社島津製作所 Head-mounted display device

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010085786A (en) * 2008-09-30 2010-04-15 Brother Ind Ltd Head-mounted display device
JP2010102215A (en) * 2008-10-27 2010-05-06 Sony Computer Entertainment Inc Display device, image processing method and computer program
JP2011215550A (en) * 2010-04-02 2011-10-27 Olympus Corp Display device, electronic apparatus, mobile electronic apparatus, mobile phone, and imaging device
JP2015213226A (en) * 2014-05-02 2015-11-26 コニカミノルタ株式会社 Wearable display and display control program therefor
KR101648021B1 (en) * 2014-11-28 2016-08-23 현대자동차주식회사 Vehicle having gaze recognizing function and controlling method thereof, and gaze recognizing system
KR20160064388A (en) * 2014-11-28 2016-06-08 현대자동차주식회사 Vehicle having gaze recognizing function and controlling method thereof, and gaze recognizing system
WO2016113951A1 (en) * 2015-01-15 2016-07-21 株式会社ソニー・インタラクティブエンタテインメント Head-mounted display device and video display system
JPWO2016113951A1 (en) * 2015-01-15 2017-09-07 株式会社ソニー・インタラクティブエンタテインメント Head-mounted display device and video display system
US20180217380A1 (en) * 2015-01-15 2018-08-02 Sony Interactive Entertainment Inc. Head-mounted display device and image display system
US10591735B2 (en) 2015-01-15 2020-03-17 Sony Interactive Entertainment Inc. Head-mounted display device and image display system
WO2020095801A1 (en) * 2018-11-05 2020-05-14 京セラ株式会社 Three-dimensional display device, head-up display system, mobile unit, and program
JP2020077913A (en) * 2018-11-05 2020-05-21 京セラ株式会社 Three-dimensional display unit, head-up display system, movable body, and program
JP7207954B2 (en) 2018-11-05 2023-01-18 京セラ株式会社 3D display device, head-up display system, moving object, and program
CN109856796A (en) * 2018-11-20 2019-06-07 成都理想境界科技有限公司 Image source mould group, waveguide, near-eye display system and its control method
US11854444B2 (en) 2019-07-26 2023-12-26 Sony Group Corporation Display device and display method

Also Published As

Publication number Publication date
WO2006118057A1 (en) 2006-11-09

Similar Documents

Publication Publication Date Title
JP2006308674A (en) Image display device
EP3330771B1 (en) Display apparatus and method of displaying using focus and context displays
US20230379448A1 (en) Head-mounted augmented reality near eye display device
EP3330772B1 (en) Display apparatus and method of displaying using projectors
US6078427A (en) Smooth transition device for area of interest head-mounted display
TW201640181A (en) Autofocus head mounted display device
US11178380B2 (en) Converting a monocular camera into a binocular stereo camera
JPH0759032A (en) Picture display device
TW201843494A (en) Display system with video see-through
JPH08313843A (en) Wide visual field and high resolution video presentation device in line of sight followup system
CN109997067B (en) Display apparatus and method using portable electronic device
KR101941880B1 (en) Focus Free Type Display Apparatus
WO2018060557A1 (en) Augmented reality apparatus
JP2012244466A (en) Stereoscopic image processing device
US20120307210A1 (en) Stereoscopic display apparatus and method
US10718949B1 (en) Display apparatus and method of displaying
US10495895B2 (en) Display apparatus and method of displaying using polarizers
JPH11197108A (en) Vision function testing device
JP2507913B2 (en) Eye movement tracking type visual presentation device by projection method
JP2008227834A (en) Head-mounted image presenting device, head-mounted photographing device, and head-mounted video device
JP2000131643A (en) Video display device
WO2014028006A1 (en) Stereoscopic display apparatus and method
CN114578554A (en) Display equipment for realizing virtual-real fusion
JPH0758992A (en) Device for the sense for the real to virtual matter

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070301

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100506

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100914