JPH10239634A - Stereoscopic video display device - Google Patents

Stereoscopic video display device

Info

Publication number
JPH10239634A
JPH10239634A JP9043468A JP4346897A JPH10239634A JP H10239634 A JPH10239634 A JP H10239634A JP 9043468 A JP9043468 A JP 9043468A JP 4346897 A JP4346897 A JP 4346897A JP H10239634 A JPH10239634 A JP H10239634A
Authority
JP
Japan
Prior art keywords
image
distance
data
display
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9043468A
Other languages
Japanese (ja)
Other versions
JP3787939B2 (en
Inventor
Akira Sato
彰 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP04346897A priority Critical patent/JP3787939B2/en
Priority to US09/028,626 priority patent/US6201517B1/en
Publication of JPH10239634A publication Critical patent/JPH10239634A/en
Application granted granted Critical
Publication of JP3787939B2 publication Critical patent/JP3787939B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/34Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof

Abstract

PROBLEM TO BE SOLVED: To provide a stereoscopic video display device which displays a natural stereoscopic video which causes less fatigue of eyes. SOLUTION: A focus measuring instrument 1 detects the visual distance from eyes to a gaze point. An image generator 2 generates display data of an image subjected to out-of-focus processing based on image data of an original image consisting of plural picture elements, distance data of each picture element, and the visual distance. A display element 3 displays an image based on display data. An eyepiece optical system 4 project the displayed image as a virtual image. A projection distance varying mechanism 5 controls the projection distance of the virtual image so that the virtual image is projected in the position of the gaze point.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、立体映像表示装置
に関するものであり、例えば、ヘッドマウントディスプ
レイ{HMD(head mounted display)}等に用いられて、
立体映像を虚像として観察することを可能にする立体映
像表示装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional image display device, and is used for, for example, a head mounted display (HMD).
The present invention relates to a three-dimensional image display device that enables a three-dimensional image to be observed as a virtual image.

【0002】[0002]

【従来の技術】従来のHMDは、ある決められた距離に
右眼用・左眼用の虚像を投影して、両眼視差に基づいて
立体映像の表示を行うように構成されている。この構成
よると人間の眼の焦点調節機能が無視されるため、長時
間立体映像を観察すると眼が疲れるといった問題が発生
する。この問題を解決することを目的とした立体映像表
示装置が、特開平6−235885号公報で提案されて
いる。この装置は、両眼の視線方向を検出することによ
り眼球輻輳位置を求めて、その眼球輻輳位置に虚像を投
影する構成をとっている。
2. Description of the Related Art A conventional HMD is configured to project virtual images for the right eye and the left eye at a predetermined distance and display a stereoscopic image based on binocular parallax. According to this configuration, since the focus adjustment function of the human eye is ignored, there is a problem that the eyes become tired when observing the stereoscopic video for a long time. A three-dimensional image display device aimed at solving this problem has been proposed in Japanese Patent Laid-Open No. 6-235885. This apparatus has a configuration in which an eyeball convergence position is obtained by detecting the line of sight of both eyes, and a virtual image is projected on the eyeball convergence position.

【0003】また、立体映像の表示を行う他の装置とし
て、レーザー走査型(いわゆる網膜直接描画タイプ)のH
MDが米国特許第5,355,181号で提案されている。この
装置によれば、レーザー走査を行いながら画像の各画素
についての距離データに基づくフォーカシングを高速で
行うことによって、立体映像の表示が行われる。
As another device for displaying a stereoscopic image, a laser scanning type (so-called direct retinal drawing type) H is used.
MD is proposed in U.S. Pat. No. 5,355,181. According to this device, stereoscopic video is displayed by performing focusing at high speed based on distance data for each pixel of an image while performing laser scanning.

【0004】[0004]

【発明が解決しようとする課題】特開平6−23588
5号公報で提案されている装置には、左右両眼の輻輳位
置の変化に合わせて表示映像の結像位置を自動調整し、
眼球輻輳位置に結像位置を一致させるといった原理が採
用されている。しかし、眼幅には個人間でバラツキがあ
るため、観察者の眼球輻輳位置を正確に求めるのは困難
である。そして、表示映像の結像位置調整が不正確にな
ると、眼球輻輳位置と結像位置とが一致せず、逆に眼が
疲れやすくなるといった問題が発生する。
Problems to be Solved by the Invention Japanese Patent Laid-Open No. Hei 6-23588
In the device proposed in Japanese Patent Publication No. 5 (1999), an image forming position of a display image is automatically adjusted in accordance with a change in the convergence position of the left and right eyes,
The principle of matching the image formation position to the eyeball convergence position is adopted. However, since the interpupillary distance varies among individuals, it is difficult to accurately determine the eyeball convergence position of the observer. If the adjustment of the imaging position of the display video becomes inaccurate, the eyeball convergence position and the imaging position do not match, and conversely, the problem that the eyes are easily tired occurs.

【0005】ところで、立体映像表示装置で遠い背景の
手前に置かれた近距離の物体を見た場合、ぼやけた背景
の前に輪郭のくっきりした手前の物体のエッジがはっき
り見えるのが望ましい。しかし、米国特許第5,355,181
号で提案されている装置によると、手前の物体のエッジ
にぼやけた背景の映像が入り込んでオーバーラップした
状態に見えることになる。このため、立体映像が不自然
になって、現実感が損なわれるといった問題が発生す
る。
By the way, when a short-distance object placed in front of a distant background is viewed on a stereoscopic image display device, it is desirable that the edge of the object having a sharp outline is clearly visible in front of the blurred background. However, U.S. Patent No. 5,355,181
According to the device proposed in the issue, the image of the blurred background enters the edge of the object in front, and appears to overlap. For this reason, there arises a problem that the stereoscopic image becomes unnatural and the sense of reality is impaired.

【0006】本発明は、上記のような問題点を解決する
ためになされたものであって、その目的は、眼の疲労の
少ない自然な立体映像を表示することができる立体映像
表示装置を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and has as its object to provide a three-dimensional image display device capable of displaying a natural three-dimensional image with less eye fatigue. Is to do.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に、第1の発明の立体映像表示装置は、複数の画素から
成る原画像の画像データと、前記原画像の各画素につい
ての距離データと、から生成した画像の表示データに基
づいて、立体映像の表示を行う装置であって、観察者の
眼から注視点までの視距離を検出する検出手段と、この
検出手段で検出された視距離並びに前記画像データ及び
距離データに基づいて、ピンボケ処理が施された画像の
表示データを生成する画像生成手段と、この画像生成手
段で生成された表示データに基づいて画像を表示する画
像表示手段と、この画像表示手段で表示された画像を虚
像として投影する画像投影手段と、前記注視点の位置に
前記虚像が投影されるように虚像の投影距離を制御する
制御手段と、を備えたことを特徴とする。
In order to achieve the above object, a stereoscopic image display apparatus according to a first aspect of the present invention comprises: an image data of an original image comprising a plurality of pixels; and distance data for each pixel of the original image. A display device for displaying a stereoscopic video based on display data of an image generated from the detection device, the detection device detecting a viewing distance from an observer's eye to a gazing point; Image generating means for generating display data of an image subjected to out-of-focus processing based on the distance and the image data and the distance data, and image display means for displaying an image based on the display data generated by the image generating means Image projection means for projecting an image displayed by the image display means as a virtual image, and control means for controlling a projection distance of the virtual image so that the virtual image is projected at the position of the gazing point. Characterized in that was.

【0008】第2の発明の立体映像表示装置は、上記第
1の発明の構成において、前記画像生成手段は、前記表
示データの生成において、前記原画像の各画素について
のピンボケ量を前記距離データ及び前記視距離から求
め、前記各画素についての距離データとその画素の前記
ピンボケ量に相当する領域内に位置する周辺画素につい
ての距離データとを較べて、前記周辺画素よりも観察者
に近い距離データを有する画素についてのみ、その画素
がピンボケになるように前記周辺画素の表示データに処
理を施すことを特徴とする。
In the stereoscopic image display apparatus according to a second aspect of the present invention, in the configuration of the first aspect, the image generating means may include, in the generation of the display data, a defocus amount for each pixel of the original image and the distance data. And comparing the distance data for each pixel with the distance data for peripheral pixels located in an area corresponding to the out-of-focus amount of that pixel, the distance closer to the observer than the peripheral pixels. Only for pixels having data, the display data of the peripheral pixels is processed so that the pixels are out of focus.

【0009】第3の発明の立体映像表示装置は、立体映
像を表示する装置であって、観察者の眼から注視点まで
の視距離を検出する検出手段と、この検出手段で検出さ
れた視距離に応じてピンボケ処理が施された画像の表示
データを生成する画像生成手段と、この画像生成手段で
生成された表示データに基づいてレーザー光を発するレ
ーザー光源と、このレーザー光源から発せられたレーザ
ー光を集光する集光レンズと、この集光レンズで集光さ
れたレーザー光を2次元に走査して中間像を形成するレ
ーザー走査手段と、このレーザー走査手段によって形成
された中間像を虚像として投影する接眼光学系と、前記
注視点の位置に前記虚像が投影されるように前記レーザ
ー光源と前記集光レンズとの間の距離を制御する制御手
段と、を備えたことを特徴とする。
According to a third aspect of the present invention, there is provided a three-dimensional image display device for displaying a three-dimensional image, comprising: detecting means for detecting a viewing distance from an observer's eye to a gazing point; Image generating means for generating display data of an image subjected to out-of-focus processing according to the distance, a laser light source for emitting laser light based on the display data generated by the image generating means, and a laser light source emitted from the laser light source A condenser lens for condensing the laser light, laser scanning means for two-dimensionally scanning the laser light condensed by the condenser lens to form an intermediate image, and an intermediate image formed by the laser scanning means. An eyepiece optical system for projecting as a virtual image; and control means for controlling a distance between the laser light source and the condenser lens so that the virtual image is projected at the position of the gazing point. The features.

【0010】第4の発明の立体映像表示装置は、立体映
像を表示する装置であって、観察者の眼の屈折力を検出
する検出手段と、観察者の眼から注視点までの視距離を
前記検出手段で検出された屈折力から算出する算出手段
と、この算出手段で算出された視距離に応じてピンボケ
処理が施された画像の表示データを生成する画像生成手
段と、この画像生成手段で生成された表示データに基づ
いて画像を表示する画像表示手段と、この画像表示手段
で表示された画像を虚像として投影する画像投影手段
と、前記注視点の位置に前記虚像が投影されるように虚
像の投影距離を制御する制御手段と、を備えたことを特
徴とする。
A three-dimensional image display device according to a fourth aspect of the present invention is a device for displaying a three-dimensional image, comprising a detecting means for detecting a refractive power of an observer's eye, and a visual distance from the observer's eye to a gazing point. Calculating means for calculating from the refractive power detected by the detecting means; image generating means for generating display data of an image subjected to defocus processing in accordance with the viewing distance calculated by the calculating means; and image generating means Image display means for displaying an image based on the display data generated in the step, image projection means for projecting the image displayed by the image display means as a virtual image, and the virtual image is projected at the position of the gazing point. And control means for controlling the projection distance of the virtual image.

【0011】[0011]

【発明の実施の形態】以下、本発明を実施した立体映像
表示装置を、図面を参照しつつ説明する。なお、この実
施の形態による立体映像の表示には、複数の画素から成
る原画像の画像データと、原画像の各画素についての距
離データと、から生成した画像の表示データが用いられ
るが、上記画像データや距離データは、後述するように
既存の装置のハードウェア,ソフトウェアで標準的に生
成されるものである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a stereoscopic video display device embodying the present invention will be described with reference to the drawings. Note that display of an image generated from image data of an original image including a plurality of pixels and distance data for each pixel of the original image is used for displaying a stereoscopic video according to this embodiment. The image data and the distance data are normally generated by hardware and software of an existing device as described later.

【0012】《立体映像の表示原理(図1〜図4)》ま
ず、この実施の形態に採用されている、立体映像の表示
原理を説明する。図1は観察者Pが見ている表示物(リ
ンゴと木)と投影距離L1,L2との関係を示してお
り、図2(a)はそのために準備された原画像(この原画
像には全面にわたるピンボケがないものとする。)を示
している。この原画像中のリンゴと木の映像を、観察者
Pが観察する場合を考える。観察者Pからリンゴまでの
距離と木までの距離とが異なって見えるような立体表示
を行う場合、眼Eに優しい自然な立体映像が観察される
ようにするためには、観察者Pの眼Eの焦点が合ってい
る距離(すなわち観察者Pの視距離)に応じて虚像の投影
距離を変えてやる必要がある。そこで、観察者Pからリ
ンゴまでの距離が2mで、観察者Pから木までの距離が
50mの場合、眼Eがリンゴに焦点を合わせているとき
には投影距離(L1)が2mとなるように虚像S1を動か
し、眼Eが木に焦点を合わせているときには投影距離
(L2)が50mとなるように虚像S2を動かす。
<< Principle of Displaying Stereoscopic Video (FIGS. 1 to 4) >> First, the principle of displaying a stereoscopic video employed in this embodiment will be described. FIG. 1 shows the relationship between the display objects (apples and trees) viewed by the observer P and the projection distances L1 and L2. FIG. 2A shows an original image prepared for that purpose (this original image has It is assumed that there is no out-of-focus over the entire surface.). Consider a case where the observer P observes the video of the apple and the tree in the original image. When performing a stereoscopic display in which the distance from the observer P to the apple and the distance to the tree look different, in order to observe a natural three-dimensional image that is gentle to the eye E, the observer P's eye It is necessary to change the projection distance of the virtual image according to the distance at which E is focused (that is, the viewing distance of the observer P). Therefore, when the distance from the observer P to the apple is 2 m, the distance from the observer P to the tree is 50 m, and when the eye E is focused on the apple, the virtual image is set so that the projection distance (L1) becomes 2 m. Move S1 and the projection distance when the eye E is focused on the tree
The virtual image S2 is moved so that (L2) becomes 50 m.

【0013】このとき同時に、投影する映像に立体感を
高めるための画像処理を施す。つまり、観察者Pが2m
先のリンゴを見ているときには、図2(b)に示すように
リンゴをくっきり見せて木の方をぼかす画像処理を行
い、観察者Pが50m先の木を見ているときには、図2
(c)に示すように木をはっきり見せてリンゴをぼかす画
像処理を行うのである。このように、原画像中に観察者
Pからの距離が異なる表示物が2以上存在する場合に
は、各表示物を構成する画素について遠近関係(つまり
距離データ)を検出し、観察者Pが見ていない表示物を
ピンボケ表示することによって、自然な遠近感のある立
体映像を構成する。
At the same time, image processing for enhancing the stereoscopic effect is performed on the projected image. That is, the observer P is 2 m
When viewing the apple ahead, image processing is performed to show the apple clearly and blur the tree as shown in FIG. 2 (b).
As shown in (c), image processing is performed to clearly show the tree and blur the apple. As described above, when there are two or more display objects at different distances from the observer P in the original image, the perspective relation (that is, distance data) is detected for the pixels constituting each display object, and the observer P A stereoscopic image with a natural perspective is formed by out-of-focus display of a display object that is not viewed.

【0014】さらに、リンゴと木が近接又はオーバーラ
ップして観察されるときには、以下のような画像処理を
行う。図3はリンゴと木が近接した映像を示しており、
図4はリンゴと木がオーバーラップした映像を示してい
る。図3,図4において、(a)は原画像であり、(b)は
観察者Pがリンゴを見ているときの映像であり、(c)は
観察者Pが木を見ているときの映像である。
Further, when an apple and a tree are observed close to or overlapping with each other, the following image processing is performed. Figure 3 shows an image of an apple and a tree in close proximity,
FIG. 4 shows an image in which an apple and a tree overlap. 3 and 4, (a) is an original image, (b) is an image when the observer P is looking at an apple, and (c) is an image when the observer P is looking at a tree. It is a video.

【0015】観察者Pが2m先のリンゴを見ているとき
には、図3(b),図4(b)中の部分E1に示すように、
遠景のぼけた木のエッジが近景のくっきりしたリンゴに
重ならずに観察されるようなピンボケ画像の生成を行
う。観察者Pが50m先の木を見ているときには、図3
(c),図4(c)中の部分E2に示すように、近景のぼけ
たリンゴのエッジが遠景のくっきりした木に重なって観
察されるようなピンボケ画像の生成を行う。このよう
に、観察者Pからの距離が異なる2以上の表示物が近接
又はオーバーラップして観察される場合には、各表示物
を構成する画素について遠近関係(つまり距離データ)を
検出し、ピンボケさせる表示物が手前にあるときのみオ
ーバーラップした表示を行うことによって、更に自然な
遠近感のある立体映像を構成する。
When the observer P is looking at the apple 2 m away, as shown in a part E1 in FIGS. 3 (b) and 4 (b),
An out-of-focus image is generated such that a blurred tree edge in a distant view is observed without overlapping with a sharp apple in the near view. When the observer P is looking at a tree 50 m away, FIG.
As shown in FIG. 4 (c) and a portion E2 in FIG. 4 (c), an out-of-focus image is generated such that the edge of a blurred apple in the foreground is superimposed on a clear tree in the distant view. In this manner, when two or more display objects having different distances from the observer P are observed in close proximity or overlap, the perspective relationship (that is, distance data) is detected for the pixels constituting each display object, By performing overlapped display only when the display object to be out of focus is in the foreground, a more natural stereoscopic image with a perspective is formed.

【0016】《実施の形態の基本構成・表示手順(図
5,図6)》次に、本発明を実施した立体映像表示装置
の基本的な構成を、片眼側について説明する。主な構成
要素は、図5に示すように、焦点測定装置1,画像生成
装置2,表示素子(液晶パネル等の2次元表示素子)3,
接眼光学系4及び投影距離可変機構5である。
<< Basic Configuration / Display Procedure of Embodiment (FIGS. 5 and 6) >> Next, the basic configuration of a stereoscopic video display apparatus embodying the present invention will be described for one eye side. The main components are a focus measuring device 1, an image generating device 2, a display device (a two-dimensional display device such as a liquid crystal panel), as shown in FIG.
An eyepiece optical system 4 and a variable projection distance mechanism 5.

【0017】焦点測定装置1は、観察者Pの眼Eの屈折
力を検出して、その屈折力に基づいて眼Eから注視点ま
での視距離(言い換えれば、眼Eが焦点を合わせている
注視点の位置)を算出・出力する検出手段である。検出
された視距離から、観察者Pが何メートル先を見ている
かを知ることができる。
The focus measuring device 1 detects the refractive power of the eye E of the observer P and, based on the refractive power, the viewing distance from the eye E to the point of interest (in other words, the eye E is focused. This is a detection means for calculating and outputting the position of the point of interest. From the detected viewing distance, it is possible to know how many meters the observer P is looking ahead.

【0018】画像生成装置2は、焦点測定装置1で検出
された視距離と画像データ及び距離データとに基づい
て、後述するピンボケ処理が施された画像の表示データ
C(n)を生成する画像生成手段である。表示素子3は、
画像生成装置2で生成された表示データC(n)に基づい
て画像を表示する画像表示手段である。
The image generating device 2 generates display data C (n) of an image subjected to out-of-focus processing, which will be described later, based on the visual distance detected by the focus measuring device 1, the image data, and the distance data. It is a generating means. The display element 3
This is an image display unit that displays an image based on the display data C (n) generated by the image generation device 2.

【0019】接眼光学系4は、表示素子3で表示された
画像を虚像として投影する画像投影手段である。投影距
離可変機構5は、原画像中の表示物(例えばリンゴや木)
の画角や位置を変えることなく虚像位置を遠近に動かし
て、眼Eの注視点の位置に前記虚像が投影されるよう
に、虚像の投影距離Lをオートフォーカスで制御する制
御手段である。
The eyepiece optical system 4 is image projection means for projecting an image displayed on the display element 3 as a virtual image. The projection distance variable mechanism 5 is a display object (for example, an apple or a tree) in the original image.
Is a control means for controlling the projection distance L of the virtual image by auto-focus so that the virtual image is moved to the near and far positions without changing the angle of view or the position of the virtual image and the virtual image is projected at the position of the gazing point of the eye E.

【0020】図6に示す基本アルゴリズムは、上記構成
要素を用いて行う表示手順を示している。まず、焦点測
定装置1によって、眼Eの視距離を検出する($10)。
検出された視距離と、原画像の各画素についての距離デ
ータと、から各画素のピンボケ度合い(ピンボケ量)を算
出し、その結果に基づいて原画像の画像データにピンボ
ケ処理を施して、画像の表示データを生成する($2
0)。そして、ピンボケ処理が施された画像の表示デー
タを表示素子3で表示し、その画像を接眼光学系4で虚
像として投影し、その虚像を投影距離可変機構5で注視
点の位置に投影する($30)。
The basic algorithm shown in FIG. 6 shows a display procedure performed using the above components. First, the viewing distance of the eye E is detected by the focus measuring device 1 (# 10).
From the detected viewing distance and the distance data for each pixel of the original image, the degree of out-of-focus of each pixel (amount of out-of-focus) is calculated, and based on the result, the image data of the original image is subjected to out-of-focus processing. Generate display data of (2
0). Then, the display data of the image subjected to the out-of-focus processing is displayed on the display element 3, the image is projected as a virtual image by the eyepiece optical system 4, and the virtual image is projected to the position of the gazing point by the variable projection distance mechanism 5 ( $ 30).

【0021】《ピンボケ処理(図7〜図12)》次に、画
像生成装置2(図5)によって行われるピンボケ処理を説
明する。N個の画素から成る原画像を準備し、各画素に
1〜N番の番号を与えて任意の画素の番号をnとする。
原画像の映像{図2〜図4の各(a)}には、原画像の各画
素nについて、色情報,輝度情報等から成る画像データ
A(n)と、瞳EPから表示物までの距離を表す距離デー
タB(n)と、が含まれている。例えば、図7に示すリン
ゴを表示する場合には、表示するリンゴの色情報,輝度
情報が画像データA(n)に蓄えられており、2mという
距離情報が距離データB(n)に蓄えられている{ただ
し、B(n)の値は、距離が大きい(遠い)ほど大きいもの
とする。}。
<< Out-of-focus processing (FIGS. 7 to 12) >> Next, out-of-focus processing performed by the image generating apparatus 2 (FIG. 5) will be described. An original image composed of N pixels is prepared, and numbers 1 to N are assigned to each pixel, and the number of an arbitrary pixel is set to n.
The original image video {(a) in FIGS. 2 to 4} includes image data A (n) composed of color information, luminance information, and the like, for each pixel n of the original image, and data from the pupil EP to the display object. And distance data B (n) representing the distance. For example, when the apple shown in FIG. 7 is displayed, color information and luminance information of the apple to be displayed are stored in the image data A (n), and distance information of 2 m is stored in the distance data B (n). {However, it is assumed that the value of B (n) increases as the distance increases (farther). }.

【0022】ピンボケ処理の過程(図8)において、デー
タA(n),B(n)と虚像の投影距離(すなわち眼Eの視
距離)Lとから算出された表示データC(n)が、表示素
子3による画像表示に用いられる。この表示データC
(n)を算出するためのピンボケ処理は、後述するように
原画像のすべての画素1〜Nについて順次行われる(図
9)。なお、データA(n),C(n)は、一般に3原色
(R,G,B)各々の輝度情報で表すことができる。
In the defocusing process (FIG. 8), the display data C (n) calculated from the data A (n) and B (n) and the projection distance L of the virtual image (that is, the visual distance of the eye E) is Used for image display by the display element 3. This display data C
The out-of-focus processing for calculating (n) is sequentially performed for all pixels 1 to N of the original image as described later (FIG. 9). The data A (n) and C (n) generally have three primary colors.
(R, G, B) can be represented by each luminance information.

【0023】以下に、画素nについてのピンボケ処理の
手順を、図9のフローチャートに基づいて説明する。な
お、C(n)には、初期値として輝度ゼロの情報がピンボ
ケ処理前に入力されているものとする。まず、画素番号
の初期設定(#10,n=1)を行った後、画素nについ
ての画像のボケ量rnを算出する(#20)。
Hereinafter, the procedure of the out-of-focus processing for the pixel n will be described with reference to the flowchart of FIG. It is assumed that information of zero luminance is input to C (n) as an initial value before the out-of-focus processing. First, after initializing the pixel number (# 10, n = 1), the blur amount rn of the image for the pixel n is calculated (# 20).

【0024】ここで、ボケ量rnの算出方法を図10に
基づいて説明する。図10における各符号は以下のよう
に定義される。 I:観察者Pの眼Eの網膜上の像面。 EP:観察者Pの眼Eの瞳。 r:観察者Pの瞳EPの半径。 S:接眼光学系4を通して観察される虚像面。 R:虚像面Sにおけるボケ像の半径。 OP:ボケ量rnを計算しようとしている画素nを空間
的に配置した物点。 H:観察者Pの瞳EPから物点OPまでの距離(距離デ
ータB(n)より)。 L:観察者Pの瞳EPから虚像面Sまでの距離(焦点測
定装置1より)。
Here, a method of calculating the blur amount rn will be described with reference to FIG. Each symbol in FIG. 10 is defined as follows. I: Image plane on the retina of eye E of observer P. EP: pupil of eye E of observer P. r: radius of pupil EP of observer P. S: a virtual image plane observed through the eyepiece optical system 4. R: radius of the blurred image on the virtual image plane S. OP: An object point where the pixel n for which the blur amount rn is to be calculated is spatially arranged. H: distance from pupil EP of observer P to object point OP (from distance data B (n)). L: distance from pupil EP of observer P to virtual image plane S (from focus measuring device 1).

【0025】物点OPが理想的な点像のとき、虚像面S
に観察される物点OPのボケの大きさは、虚像面Sにお
けるボケ像の半径:R=|r×(H−L)/H|で表され
る。これを角度表示(ラジアン)に直すと、ボケ量の大き
さ(半径):rn=|2r(H−L)/LH|(ラジアン)と
なる。ここで、実際の計算における瞳EPの半径rにつ
いては、観察者Pの実際の瞳径を測定してもよいし、予
め決められた数値(例えば1mm〜5mm)を用いてもよ
い。
When the object point OP is an ideal point image, the virtual image plane S
The size of the blur of the object point OP observed in the virtual image plane S is represented by the radius of the blur image on the virtual image plane S: R = | r × (HL) / H |. When this is converted into an angle display (radian), the magnitude (radius) of the blur amount is rn = │2r (HL) / LH│ (radian). Here, as for the radius r of the pupil EP in the actual calculation, the actual pupil diameter of the observer P may be measured, or a predetermined numerical value (for example, 1 mm to 5 mm) may be used.

【0026】図9のフローチャートに戻り、画素nにつ
いてのボケがその周辺に位置する画素(以下「周辺画
素」ともいう。)にオーバーラップする領域を求める(#
30)。図11に示すように、接眼光学系2(f:焦点距
離)の焦点位置近傍に眼Eを置いて、表示素子3上の映
像を観察するように構成された光学系を考えた場合、表
示素子3上の距離pは、見かけ上、p/f(ラジアン)に
相当する。そこで、図12に示すように、画素nからそ
の周辺に位置する任意の画素までの距離を、画素nの中
心と上記任意の画素の中心との間隔dで定義し、さら
に、式:d/f<rnを満たす位置にある周辺画素を、
画素nがピンボケしてそのボケが上記任意の画素にオー
バーラップする領域(すなわち、ピンボケ量に相当する
領域)内に位置する周辺画素、と定義する。この定義に
あてはまる周辺画素の番号を求め、番号の若い方から順
に、周辺画素x(1),x(2),…,x(m)とする。図9
のステップ#40で、周辺画素番号kの初期設定(k=
1)を行った後、求められたm個の周辺画素x(1)〜x
(m)について、x(1)から順番にx(m)まで以下の処理
(#50〜#100)を施してゆく。
Returning to the flowchart of FIG. 9, a region where the blur of the pixel n overlaps with the pixels located around the pixel (hereinafter, also referred to as "peripheral pixels") is obtained (#
30). As shown in FIG. 11, when an optical system configured to observe an image on the display element 3 with the eye E placed near the focal position of the eyepiece optical system 2 (f: focal length) is displayed. The distance p on the element 3 apparently corresponds to p / f (radian). Therefore, as shown in FIG. 12, a distance from a pixel n to an arbitrary pixel located therearound is defined by a distance d between the center of the pixel n and the center of the arbitrary pixel. Surrounding pixels at positions satisfying f <rn
It is defined as a peripheral pixel located in a region where the pixel n is out of focus and the blur overlaps the above-mentioned arbitrary pixel (that is, a region corresponding to the out-of-focus amount). The numbers of the peripheral pixels corresponding to this definition are obtained, and the peripheral pixels are referred to as x (1), x (2),..., X (m) in ascending order of the numbers. FIG.
In step # 40, the initial setting of the peripheral pixel number k (k =
After performing 1), the obtained m peripheral pixels x (1) to x (x)
For (m), the following processing from x (1) to x (m) in order
(# 50 to # 100).

【0027】周辺画素x(k)が画素nと同じか否かを判
定する(#50)。周辺画素x(k)が画素nと異なるとき
は、画素nの周辺に位置する周辺画素x(k)の距離デー
タB(x(k))と、オーバーラップさせる画素nの距離デ
ータB(n)と、を比較する(#70)。この判定(#70)
では、B(x(k))とB(n)とがほぼ同じ値のとき{例え
ばB(x(k))とB(n)との距離の差が10mm以下のと
き}には、図3(c),図4(c)に示すようなボケのオー
バーラップが発生するように、距離データの桁数を制限
した上で距離データの比較演算を行う。距離データの桁
数の制限は、例えば10mm以下の桁を切り捨てること
によって行う。
It is determined whether the peripheral pixel x (k) is the same as the pixel n (# 50). When the peripheral pixel x (k) is different from the pixel n, the distance data B (x (k)) of the peripheral pixel x (k) located around the pixel n and the distance data B (n) of the pixel n to be overlapped ) And (# 70). This judgment (# 70)
Then, when B (x (k)) and B (n) have substantially the same value {for example, when the difference in the distance between B (x (k)) and B (n) is 10 mm or less}, FIG. The number of digits of the distance data is limited and the comparison operation of the distance data is performed so that blurring overlaps as shown in FIG. 3 (c) and FIG. 4 (c) occur. Limitation of the number of digits of the distance data is performed, for example, by truncating digits of 10 mm or less.

【0028】ステップ#70で、周辺画素x(k)よりも
画素nの方が手前にあると判定した場合{B(x(k))≧
B(n)の場合}、C(x(k))の3原色の輝度情報に[A
(n)の輝度情報/m]を足し合わせる(#80)。これに
より、画素nの輝度がm個の周辺画素x(1)〜x(m)に
均一に分散される。つまりここでは、画像データA(n)
の輝度情報を周辺画素x(1)〜x(m)の数(m)で割って
足し合わせることにより、ピンボケしたm個の周辺画素
x(1)〜x(m)が集まってもとの画像データA(n)の輝
度と同じになるようにする。この処理によって、図3
(c),図4(c)に示すように、木のエッジにリンゴのボ
ケが入り込んでオーバーラップした映像が観察されるこ
とになる。
If it is determined in step # 70 that the pixel n is closer to the front than the peripheral pixel x (k), {B (x (k)) ≧
B (n)}, the luminance information of the three primary colors C (x (k)) is [A
(n) luminance information / m] (# 80). As a result, the luminance of the pixel n is uniformly distributed to the m peripheral pixels x (1) to x (m). That is, here, the image data A (n)
Is divided by the number (m) of the peripheral pixels x (1) to x (m) and added together, so that the m out of focus peripheral pixels x (1) to x (m) are gathered and the original The luminance is set to be the same as the luminance of the image data A (n). By this processing, FIG.
As shown in FIG. 4 (c) and FIG. 4 (c), an image in which the apple is blurred into the edge of the tree and overlapped is observed.

【0029】一方、ステップ#70で、画素nよりも周
辺画素x(k)の方が手前にあると判定した場合{B(x
(k))<B(n)の場合}、C(x(k))を変化させない。C
(x(k))を変化させないことによって、図3(b),図4
(b)に示すように、ぼやけた木の前に輪郭のくっきりし
たリンゴのエッジがはっきり観察されることになる。こ
のように、もとのピンボケしていない周辺画素x(k)よ
りも、ピンボケさせようとする画素nの方が観察者Pか
ら見て手前にある場合にのみ、ボケのオーバーラップ
{図3(c),図4(c)}が発生するようにするのである。
On the other hand, when it is determined in step # 70 that the peripheral pixel x (k) is closer to the front than the pixel n, {B (x
(k)) <B (n)}, C (x (k)) is not changed. C
By keeping (x (k)) unchanged, FIG.
As shown in (b), a sharp apple edge is clearly observed in front of the blurred tree. As described above, only when the pixel n to be out-of-focus is located closer to the observer P than the original unfocused peripheral pixel x (k), the overlap of the blur is
{FIG. 3 (c), FIG. 4 (c)} are generated.

【0030】ステップ#50の判定で周辺画素x(k)が
画素nと同じときには、距離データの比較を行うまでも
なく、既に蓄えられているC(n)に[A(n)の輝度情報
/m]を足し合わせる(#60)。ステップ#90でk=
mとなるまで上記処理(#50〜#100)を繰り返し、
ステップ#110でn=Nとなるまで上記処理(#20
〜#120)を繰り返すことによって、1からNまでの
全ての画素について表示データC(n)を生成する。得ら
れた表示データC(n)に基づいて表示素子3で画像表示
が行われ、接眼光学系4を通してピンボケの発生した映
像が観察者Pによって観察される。
When it is determined in step # 50 that the neighboring pixel x (k) is the same as the pixel n, the stored luminance information of A (n) is stored in C (n) already stored without comparing the distance data. / M] (# 60). In step # 90, k =
m (# 50 to # 100)
The above processing (# 20) is performed until n = N in step # 110.
To # 120), display data C (n) is generated for all pixels from 1 to N. An image is displayed on the display element 3 based on the obtained display data C (n), and the observer P observes an out-of-focus image through the eyepiece optical system 4.

【0031】上記のように、画像生成装置2は、原画像
{図2〜図4の各(a)}の各画素についてのピンボケ量r
nを、距離データB(n)及び視距離Lから求め(#2
0)、各画素nについての距離データB(n)と周辺画素
x(k)についての距離データB(x(k))とを較べて(#
70)、周辺画素x(k)よりも観察者Pに近い距離デー
タB(n)を有する画素nについてのみ、その画素nがピ
ンボケになるように周辺画素x(k)の表示データC(x
(k))に処理(#80)を施している。この処理(#80)
では、視距離L及び距離データB(n)に基づいて決まる
複数の周辺画素x(k)に、画像データA(n)の輝度情報
が分配され、周辺画素x(k)よりも観察者Pから遠い距
離データB(n)を有する画素nについては、この処理
(#80)は施されない。このように予め生成された画像
データA(n)及び距離データB(n)に対してピンボケ処
理を施すことによって、立体映像の立体感を向上させる
ことができる。
As described above, the image generating device 2 performs
Out-of-focus amount r for each pixel of {(a)} in FIGS.
n is obtained from the distance data B (n) and the viewing distance L (# 2
0), the distance data B (n) for each pixel n is compared with the distance data B (x (k)) for the surrounding pixel x (k) (#
70), the display data C (x) of the peripheral pixel x (k) only for the pixel n having the distance data B (n) closer to the observer P than the peripheral pixel x (k) so that the pixel n is out of focus.
(k)) is processed (# 80). This process (# 80)
In the example, the luminance information of the image data A (n) is distributed to a plurality of peripheral pixels x (k) determined based on the viewing distance L and the distance data B (n), and the observer P is more likely than the peripheral pixels x (k). Pixel n having distance data B (n) far from
(# 80) is not performed. By performing the out-of-focus processing on the image data A (n) and the distance data B (n) generated in advance in this way, the stereoscopic effect of the stereoscopic video can be improved.

【0032】上記ピンボケ処理に用いる画像データA
(n)や距離データB(n)は、従来より様々な立体映像表
示に用いられているものである。例えば、3次元スキャ
ナで取り込まれた映像は、画像を構成する各画素の距離
データを画像データと共に持っている。本実施の形態に
よれば、そういった画像でも自然な立体映像観察が可能
である。また、3次元グラフィックスを生成するコンピ
ュータやゲーム機では、画像データを生成する過程で各
画素の距離データを生成し、その距離データをZバッフ
ァと呼ばれるメモリーに蓄えている。したがって、本実
施の形態によれば、それらの既存の装置のハードウェ
ア,ソフトウェアを活かして、自然な立体映像を観察す
ることが可能である。
The image data A used for the out-of-focus processing
(n) and the distance data B (n) have been conventionally used for various stereoscopic video displays. For example, a video captured by a three-dimensional scanner has distance data of each pixel constituting the image together with the image data. According to the present embodiment, natural stereoscopic video observation is possible even with such images. In a computer or a game machine that generates three-dimensional graphics, distance data of each pixel is generated in the process of generating image data, and the distance data is stored in a memory called a Z buffer. Therefore, according to the present embodiment, it is possible to observe a natural stereoscopic image by utilizing the hardware and software of the existing devices.

【0033】《レーザー走査型HMDの光学構成(図1
3)》図13に、本発明を実施したレーザー走査型のH
MDの光学構成を示す。このHMDは、画像表示手段及
び制御手段を構成する表示ユニット10と、画像投影手
段(接眼光学系)を構成するハーフミラー16及び凹面鏡
17と、検出手段を構成する赤外透過フィルター18及
び焦点調節検出ユニット19と、を備えている。そし
て、前述した立体映像表示装置における2次元の表示素
子3(図5)の代わりに、レーザー走査装置14等が画像
表示手段として用いられている。
<< Optical Configuration of Laser Scanning HMD (FIG. 1)
3) >> FIG. 13 shows a laser scanning type H according to the present invention.
1 shows an optical configuration of an MD. The HMD includes a display unit 10 constituting image display means and control means, a half mirror 16 and a concave mirror 17 constituting image projection means (eyepiece optical system), an infrared transmission filter 18 and focus adjustment constituting detection means. A detection unit 19. Then, instead of the two-dimensional display element 3 (FIG. 5) in the above-described stereoscopic video display device, a laser scanning device 14 or the like is used as an image display means.

【0034】表示ユニット10は、画像生成装置2(図
5)で生成された表示データに基づいてレーザー光を発
するレーザー光源(ドライバーを含む。)11,レーザー
光源11から発せられたレーザー光を集光する集光レン
ズ12,フォーカシング装置(例えば、リニアモーター
等から成る)13,レーザー走査装置(例えば、ポリゴン
ミラー,ガルバノミラー等から成る)14及びハーフミ
ラー15から成っている。表示データに基づいて画像表
示を行う画像表示手段は、レーザー光源11,集光レン
ズ12,レーザー走査装置14及びハーフミラー15で
構成されている。また、眼Eの注視点の位置に虚像が投
影されるようにレーザー光源11と集光レンズ12との
間の距離を制御する制御手段は、集光レンズ12とフォ
ーカシング装置13とで構成されている。
The display unit 10 collects laser light emitted from the laser light source 11 (including a driver) that emits laser light based on the display data generated by the image generating device 2 (FIG. 5). It comprises a light-collecting lens 12, a focusing device (for example, composed of a linear motor or the like) 13, a laser scanning device (for example, composed of a polygon mirror, a galvano mirror, etc.) 14, and a half mirror 15. Image display means for displaying an image based on the display data includes a laser light source 11, a condenser lens 12, a laser scanning device 14, and a half mirror 15. The control means for controlling the distance between the laser light source 11 and the condenser lens 12 so that a virtual image is projected at the position of the gazing point of the eye E is constituted by the condenser lens 12 and the focusing device 13. I have.

【0035】レーザー光源11からのレーザー光は、集
光レンズ12で収束光となり、ハーフミラー15を透過
する。集光レンズ12は、フォーカシング装置13に結
合されており、フォーカシング装置13からの制御信号
に応じて光軸方向に駆動される。ハーフミラー15を透
過したレーザー光は、レーザー走査装置14によって2
次元に走査され、中間像が形成される。レーザー走査装
置14から出たレーザー光は、ハーフミラー15で反射
されてハーフミラー16へ向かう。そして、レーザー光
はハーフミラー16,凹面鏡17で反射されて、ハーフ
ミラー16を透過した後、観察者Pの瞳EPの位置に導
かれる。
The laser light from the laser light source 11 is converged by the condenser lens 12 and passes through the half mirror 15. The condenser lens 12 is coupled to a focusing device 13 and is driven in the optical axis direction according to a control signal from the focusing device 13. The laser beam transmitted through the half mirror 15 is
Dimensionally scanned to form an intermediate image. Laser light emitted from the laser scanning device 14 is reflected by the half mirror 15 and travels to the half mirror 16. Then, the laser beam is reflected by the half mirror 16 and the concave mirror 17 and transmitted through the half mirror 16, and then guided to the position of the pupil EP of the observer P.

【0036】このように、ハーフミラー16及び凹面鏡
17から成る接眼光学系は、レーザー走査装置14によ
って形成された中間像を虚像として投影する。凹面鏡1
7の反射面は、ほぼ瞳EP位置を中心とした球面状を成
しており、レーザー走査装置14は、凹面鏡17の反射
面の球面中心とほぼ等価な位置に配置されている。ま
た、表示ユニット10によってほぼ球面状の中間像が形
成されるが、その中間像と凹面鏡17の反射面とはほぼ
同心になっている。
As described above, the eyepiece optical system including the half mirror 16 and the concave mirror 17 projects the intermediate image formed by the laser scanning device 14 as a virtual image. Concave mirror 1
The reflective surface 7 has a spherical shape with the pupil EP position as the center, and the laser scanning device 14 is disposed at a position substantially equivalent to the spherical center of the reflective surface of the concave mirror 17. A substantially spherical intermediate image is formed by the display unit 10, and the intermediate image and the reflecting surface of the concave mirror 17 are substantially concentric.

【0037】ハーフミラー16の下側に配置されている
焦点調節検出ユニット19は、赤外線の指標を眼Eの網
膜上に投影し、そのコントラストを計測することで眼E
の焦点調節の様子を検出し、その検出結果から視距離を
得る仕組みになっている。焦点調節検出ユニット19か
ら眼Eまでの光路は、ハーフミラー16で折り曲げられ
るが、表示ユニット10からハーフミラー16を通って
焦点調節検出ユニット19へ直接入射してくるレーザー
光を避けるために、ハーフミラー16と焦点調節検出ユ
ニット19との間に、赤外線のみを透過させる赤外透過
フィルター18が配置されている。この赤外透過フィル
ター18によって、ノイズを低減することができる。
The focus adjustment detection unit 19 disposed below the half mirror 16 projects an infrared index onto the retina of the eye E, and measures the contrast to measure the contrast.
The focus adjustment is detected, and the viewing distance is obtained from the detection result. The optical path from the focus adjustment detection unit 19 to the eye E is bent by the half mirror 16, but in order to avoid laser light that directly enters the focus adjustment detection unit 19 from the display unit 10 through the half mirror 16, An infrared transmission filter 18 that transmits only infrared light is disposed between the mirror 16 and the focus adjustment detection unit 19. The infrared transmission filter 18 can reduce noise.

【0038】フォーカシングは、フォーカシング装置1
3で集光レンズ12を移動させることによって行われる
が、フォーカシングにより虚像位置を調節しても、レー
ザー走査装置14の走査角度で決まる像の見た目の大き
さ(網膜上の像点位置)は変化しない。このように小さな
集光レンズ12を移動させることによって、像の大きさ
を変えることなく虚像位置を調節することができるた
め、立体映像表示装置全体を非常に小さくすることがで
きる。また、このHMDはレーザー光源11を表示ユニ
ット10に備えた構成になっているが、表示ユニット1
0とは別に光源ユニットを設け、3つのレーザー光源か
らの光(R,G,B)をファイバーに入力し、ファイバー
の出力側端面を図13における光源位置に配置すること
によって、立体映像表示装置のカラー化を達成すること
も可能である。
Focusing is performed by the focusing device 1
3 is performed by moving the condenser lens 12, but even if the virtual image position is adjusted by focusing, the apparent size of the image (image point position on the retina) determined by the scanning angle of the laser scanning device 14 changes. do not do. By moving the small condenser lens 12 in this manner, the position of the virtual image can be adjusted without changing the size of the image, so that the entire stereoscopic image display device can be made very small. The HMD has a configuration in which a laser light source 11 is provided in the display unit 10.
0, a light source unit is provided, light (R, G, B) from three laser light sources is input to the fiber, and the output end face of the fiber is arranged at the light source position in FIG. Can be achieved.

【0039】表示素子3(図5)のような2次元の表示素
子(液晶パネル等)を用いた場合には、投影距離Lを変え
るために表示素子3や接眼光学系4を動かすことにな
る。これらの構成要素は比較的サイズが大きいため、十
分な精度を保って動かすことは容易ではない。また、表
示素子3と接眼光学系4との間隔を変えるときに収差に
よる像の劣化が起こらないようにするため、複雑な光学
系が必要になる。図13に示すようにレーザー走査で表
示を行う表示装置を用いれば、レーザー光源11や集光
レンズ12のように比較的小さな構成要素を動かせば済
むため、より簡単に精度良く投影距離Lを変えることが
できる。しかも、接眼光学系4(図5)がハーフミラー1
6と凹面鏡17とから成っているため、簡単な構成であ
るにもかかわらず、像劣化のない投影が可能である。
When a two-dimensional display element (such as a liquid crystal panel) such as the display element 3 (FIG. 5) is used, the display element 3 and the eyepiece optical system 4 are moved to change the projection distance L. . Due to the relatively large size of these components, it is not easy to move them with sufficient accuracy. Further, a complicated optical system is required in order to prevent image deterioration due to aberration when changing the distance between the display element 3 and the eyepiece optical system 4. As shown in FIG. 13, if a display device that performs display by laser scanning is used, relatively small components such as the laser light source 11 and the condenser lens 12 need to be moved, so that the projection distance L can be changed more easily and accurately. be able to. In addition, the eyepiece optical system 4 (FIG. 5) uses the half mirror 1
6 and the concave mirror 17, it is possible to perform projection without image deterioration despite its simple configuration.

【0040】《両眼視HMDの具体的構成(図14)》図
14は、上記HMD(図13)を両眼視用に構成したHM
Dの外観を示している。このHMDは、表示ユニット1
0,ハーフミラー16及び凹面鏡17から成る観察光学
系を左右両眼用にそれぞれ備えており、立体映像の観察
が可能になっている。焦点調節検出ユニット19は右眼
側にのみ設けられており、この焦点調節検出ユニット1
9からの信号に基づいてフォーカシング装置13が制御
されて、左右両眼のフォーカシングが行われる。また、
焦点調節検出ユニット19からの信号と画像生成装置2
からの信号とに基づいて、前述したピンボケ処理が行わ
れる。
<< Specific Configuration of Binocular HMD (FIG. 14) >> FIG. 14 shows an HM in which the HMD (FIG. 13) is configured for binocular vision.
D shows the appearance. This HMD is a display unit 1
An observation optical system including a half mirror 16, a half mirror 16 and a concave mirror 17 is provided for each of the left and right eyes, so that a stereoscopic image can be observed. The focus adjustment detection unit 19 is provided only on the right eye side.
The focusing device 13 is controlled based on the signal from the camera 9 to perform focusing on both the left and right eyes. Also,
Signal from focus adjustment detection unit 19 and image generation device 2
The out-of-focus processing described above is performed on the basis of the signal.

【0041】[0041]

【発明の効果】以上説明したように第1〜第4の発明に
よれば、観察者の注視点位置に虚像が投影されるため、
観察者の眼の疲労が少ないという効果がある。また、視
距離に応じたピンボケ処理が映像に施されるため、臨場
感のある自然な立体映像の観察が可能である。
As described above, according to the first to fourth aspects of the present invention, since a virtual image is projected at the position of the gazing point of the observer,
This has the effect of reducing the eye fatigue of the observer. In addition, since the image is subjected to out-of-focus processing according to the viewing distance, it is possible to observe a natural three-dimensional image with a sense of reality.

【0042】第2の発明によれば、ピンボケした背景に
くっきりした前景が見えるという自然な遠近感が得られ
るため、更に臨場感の増した立体映像を観察することが
可能である。この自然な遠近感表示によって、立体映像
観察時の疲労が更に軽減されるという効果もある。
According to the second aspect, a natural perspective is obtained in which a clear foreground can be seen on the out-of-focus background, so that it is possible to observe a stereoscopic image with even more realism. This natural perspective display also has the effect of further reducing fatigue during stereoscopic video observation.

【0043】第3の発明によれば、例えばフォーカシン
グのために移動させる集光レンズ等を小型化することが
できるので、装置全体を非常に小さくすることができ
る。また、接眼光学系を球面鏡,ハーフミラー等で構成
することができるため、フォーカシングにおいて網膜上
での投影画像の位置ずれを発生させることなく、投影距
離のみを変えることができる。しかも、虚像の全面にわ
たって良好な結像性能を得ることができる。
According to the third aspect of the invention, for example, the size of the condenser lens moved for focusing can be reduced, so that the entire apparatus can be made very small. In addition, since the eyepiece optical system can be constituted by a spherical mirror, a half mirror, or the like, only the projection distance can be changed without causing a displacement of the projected image on the retina in focusing. Moreover, good imaging performance can be obtained over the entire surface of the virtual image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を実施した立体映像表示装置に採用され
ている表示原理を説明するための模式図。
FIG. 1 is a schematic diagram for explaining a display principle employed in a stereoscopic video display device embodying the present invention.

【図2】図1における原画像及び観察される映像を示す
図。
FIG. 2 is a diagram showing an original image and a video to be observed in FIG. 1;

【図3】表示物が近接した原画像についてのピンボケ画
像の発生状態を示す図。
FIG. 3 is a diagram showing a state in which an out-of-focus image is generated for an original image in which a display object is in proximity.

【図4】表示物がオーバーラップした原画像についての
ピンボケ画像の発生状態を示す図。
FIG. 4 is a view showing a state of occurrence of an out-of-focus image for an original image in which display objects overlap.

【図5】本発明を実施した立体映像表示装置の基本的構
成要素を示すブロック図。
FIG. 5 is a block diagram showing basic components of a stereoscopic video display device embodying the present invention.

【図6】本発明を実施した立体映像表示装置の基本的ア
ルゴリズムを示すフローチャート。
FIG. 6 is a flowchart showing a basic algorithm of the stereoscopic video display device embodying the present invention.

【図7】原画像の画像データ,距離データを説明するた
めの図。
FIG. 7 is a view for explaining image data and distance data of an original image.

【図8】ピンボケ処理の過程を説明するためのブロック
図。
FIG. 8 is a block diagram for explaining the process of out-of-focus processing.

【図9】画像に施すピンボケ処理の手順を示すフローチ
ャート。
FIG. 9 is a flowchart showing the procedure of out-of-focus processing applied to an image.

【図10】ボケ量の算出を説明するための図。FIG. 10 is a diagram for explaining calculation of a blur amount.

【図11】ある画素についてのボケが周辺画素にオーバ
ーラップする領域を説明するための図。
FIG. 11 is a diagram for explaining an area where a blur of a certain pixel overlaps a neighboring pixel;

【図12】画素nについてのボケが周辺画素x(1)〜x
(m)にオーバーラップする領域を説明するための図。
FIG. 12 is a diagram illustrating the blur of a pixel n in the vicinity of pixels x (1) to x (x)
The figure for demonstrating the area | region which overlaps with (m).

【図13】本発明を実施したレーザー走査型HMDの光
学構成を模式的に示す縦断面図。
FIG. 13 is a longitudinal sectional view schematically showing an optical configuration of a laser scanning HMD embodying the present invention.

【図14】本発明を実施した両眼視HMDの外観構成を
模式的に示す斜視図。
FIG. 14 is a perspective view schematically showing an external configuration of a binocular HMD embodying the present invention.

【符号の説明】[Explanation of symbols]

1 …焦点測定装置 2 …画像生成装置 3 …表示素子 4 …接眼光学系 5 …投影距離可変機構 10 …表示ユニット 11 …レーザー光源 12 …集光レンズ 13 …フォーカシング装置 14 …レーザー走査装置 15 …ハーフミラー 16 …ハーフミラー 17 …凹面鏡 18 …赤外透過フィルター 19 …焦点調節検出ユニット DESCRIPTION OF SYMBOLS 1 ... Focus measuring device 2 ... Image generation device 3 ... Display element 4 ... Eyepiece optical system 5 ... Projection distance variable mechanism 10 ... Display unit 11 ... Laser light source 12 ... Condensing lens 13 ... Focusing device 14 ... Laser scanning device 15 ... Half Mirror 16 Half mirror 17 Concave mirror 18 Infrared transmission filter 19 Focus detection unit

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 複数の画素から成る原画像の画像データ
と、前記原画像の各画素についての距離データと、から
生成した画像の表示データに基づいて、立体映像の表示
を行う装置であって、 観察者の眼から注視点までの視距離を検出する検出手段
と、 この検出手段で検出された視距離並びに前記画像データ
及び距離データに基づいて、ピンボケ処理が施された画
像の表示データを生成する画像生成手段と、 この画像生成手段で生成された表示データに基づいて画
像を表示する画像表示手段と、 この画像表示手段で表示された画像を虚像として投影す
る画像投影手段と、 前記注視点の位置に前記虚像が投影されるように虚像の
投影距離を制御する制御手段と、 を備えたことを特徴とする立体映像表示装置。
An apparatus for displaying a stereoscopic video based on display data of an image generated from image data of an original image including a plurality of pixels and distance data for each pixel of the original image. Detecting means for detecting the viewing distance from the observer's eye to the gazing point; based on the viewing distance detected by the detecting means and the image data and the distance data, display data of an image subjected to out-of-focus processing is obtained. Image generating means for generating, image displaying means for displaying an image based on the display data generated by the image generating means, image projecting means for projecting the image displayed by the image displaying means as a virtual image, Control means for controlling the projection distance of the virtual image so that the virtual image is projected at the position of the viewpoint.
【請求項2】 前記画像生成手段は、前記表示データの
生成において、前記原画像の各画素についてのピンボケ
量を前記距離データ及び前記視距離から求め、前記各画
素についての距離データとその画素の前記ピンボケ量に
相当する領域内に位置する周辺画素についての距離デー
タとを較べて、前記周辺画素よりも観察者に近い距離デ
ータを有する画素についてのみ、その画素がピンボケに
なるように前記周辺画素の表示データに処理を施すこと
を特徴とする請求項1に記載の立体映像表示装置。
2. The method according to claim 1, wherein in generating the display data, the image generating unit obtains an out-of-focus amount for each pixel of the original image from the distance data and the viewing distance, and obtains distance data for each pixel and a pixel value of the pixel. Compared with the distance data of the peripheral pixels located in the area corresponding to the out-of-focus amount, only the pixels having the distance data closer to the viewer than the peripheral pixels, the peripheral pixels so that the pixels are out of focus The stereoscopic video display device according to claim 1, wherein the display data is processed.
【請求項3】 立体映像を表示する装置であって、 観察者の眼から注視点までの視距離を検出する検出手段
と、 この検出手段で検出された視距離に応じてピンボケ処理
が施された画像の表示データを生成する画像生成手段
と、 この画像生成手段で生成された表示データに基づいてレ
ーザー光を発するレーザー光源と、 このレーザー光源から発せられたレーザー光を集光する
集光レンズと、 この集光レンズで集光されたレーザー光を2次元に走査
して中間像を形成するレーザー走査手段と、 このレーザー走査手段によって形成された中間像を虚像
として投影する接眼光学系と、 前記注視点の位置に前記虚像が投影されるように前記レ
ーザー光源と前記集光レンズとの間の距離を制御する制
御手段と、 を備えたことを特徴とする立体映像表示装置。
3. An apparatus for displaying a stereoscopic image, comprising: a detecting means for detecting a viewing distance from an observer's eye to a gazing point; and an out-of-focus processing according to the viewing distance detected by the detecting means. Generating means for generating display data of an image, a laser light source for emitting laser light based on the display data generated by the image generating means, and a condenser lens for condensing the laser light emitted from the laser light source Laser scanning means for two-dimensionally scanning the laser light condensed by the condenser lens to form an intermediate image; an eyepiece optical system for projecting the intermediate image formed by the laser scanning means as a virtual image; Control means for controlling a distance between the laser light source and the condenser lens such that the virtual image is projected at the position of the gazing point. Location.
【請求項4】 立体映像を表示する装置であって、 観察者の眼の屈折力を検出する検出手段と、 観察者の眼から注視点までの視距離を前記検出手段で検
出された屈折力から算出する算出手段と、 この算出手段で算出された視距離に応じてピンボケ処理
が施された画像の表示データを生成する画像生成手段
と、 この画像生成手段で生成された表示データに基づいて画
像を表示する画像表示手段と、 この画像表示手段で表示された画像を虚像として投影す
る画像投影手段と、 前記注視点の位置に前記虚像が投影されるように虚像の
投影距離を制御する制御手段と、 を備えたことを特徴とする立体映像表示装置。
4. An apparatus for displaying a stereoscopic image, comprising: a detecting means for detecting a refractive power of an observer's eye; and a refractive power detected by the detecting means for a visual distance from the observer's eye to a gazing point. Calculating means for calculating display data of the image subjected to the out-of-focus processing according to the viewing distance calculated by the calculating means; and display data generated by the image generating means. Image display means for displaying an image, image projection means for projecting the image displayed on the image display means as a virtual image, and control for controlling a projection distance of the virtual image so that the virtual image is projected at the position of the gazing point. Means, and a stereoscopic image display device characterized by comprising:
JP04346897A 1997-02-27 1997-02-27 3D image display device Expired - Fee Related JP3787939B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP04346897A JP3787939B2 (en) 1997-02-27 1997-02-27 3D image display device
US09/028,626 US6201517B1 (en) 1997-02-27 1998-02-24 Stereoscopic image display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04346897A JP3787939B2 (en) 1997-02-27 1997-02-27 3D image display device

Publications (2)

Publication Number Publication Date
JPH10239634A true JPH10239634A (en) 1998-09-11
JP3787939B2 JP3787939B2 (en) 2006-06-21

Family

ID=12664558

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04346897A Expired - Fee Related JP3787939B2 (en) 1997-02-27 1997-02-27 3D image display device

Country Status (2)

Country Link
US (1) US6201517B1 (en)
JP (1) JP3787939B2 (en)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001189902A (en) * 1999-12-28 2001-07-10 Nec Corp Method for controlling head-mounted display and head- mounted display device
JP2002144914A (en) * 2000-10-11 2002-05-22 Robert Bosch Gmbh Device for display of information in vehicle
JP2002185982A (en) * 2000-12-13 2002-06-28 Nec Corp Stereoscopic video display device and stereoscopic video display method
KR100380994B1 (en) * 2000-12-26 2003-04-26 한국전자통신연구원 Three-dimensional display apparatus and method with gaze point feedback
WO2004100564A1 (en) * 2003-05-07 2004-11-18 Seijiro Tomita Method and system for displaying stereoscopic image
JP2005157329A (en) * 2003-10-30 2005-06-16 Brother Ind Ltd Image display device
JP2005165032A (en) * 2003-12-03 2005-06-23 Univ Waseda Stereoscopic video display apparatus
JP2006221128A (en) * 2005-01-12 2006-08-24 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional display method and three-dimensional display device
KR100624431B1 (en) 2004-08-03 2006-09-19 삼성전자주식회사 Method and apparatus controlled convergence distance for observation of stereo image
KR100654636B1 (en) 2004-12-14 2006-12-08 삼성전자주식회사 Apparatus and method for processing of 3-dimensional pictorial image in mobile communication terminal
JP2007171228A (en) * 2005-12-19 2007-07-05 Brother Ind Ltd Image display system
JP2008176522A (en) * 2007-01-18 2008-07-31 Sgi Japan Ltd Method and device for generating defocus image
WO2009001763A1 (en) * 2007-06-22 2008-12-31 Sgi Japan, Ltd. Defocus image generating method and generating device
US8000521B2 (en) 2004-06-25 2011-08-16 Masataka Kira Stereoscopic image generating method and apparatus
WO2011145311A1 (en) * 2010-05-20 2011-11-24 株式会社ニコン Displaying apparatus and displaying method
JP2012027619A (en) * 2010-07-21 2012-02-09 Nintendo Co Ltd Image processing program, image processor, image processing system and image processing method
WO2012086362A1 (en) * 2010-12-22 2012-06-28 コニカミノルタホールディングス株式会社 Image processing device, program thereof, and image processing method
US8472786B2 (en) 2010-06-17 2013-06-25 Fujifilm Corporation Stereoscopic image display control apparatus and method of controlling operation of same
JP2013228557A (en) * 2012-04-25 2013-11-07 Canon Inc Display device and control method thereof
JP2014071230A (en) * 2012-09-28 2014-04-21 Pioneer Electronic Corp Image display device, control method, program, and recording medium
JP2014219621A (en) * 2013-05-10 2014-11-20 株式会社タイトー Display device and display control program
WO2015037417A1 (en) 2013-09-10 2015-03-19 株式会社テレパシーホールディングス Head-mounted display capable of adjusting image viewing distance
JP2015525365A (en) * 2012-05-09 2015-09-03 ノキア コーポレイション Method and apparatus for performing focus correction of display information
JP2015525491A (en) * 2012-05-09 2015-09-03 ノキア コーポレイション Method and apparatus for determining representation of display information based on focus distance
WO2016203844A1 (en) * 2015-06-16 2016-12-22 ソニー株式会社 Information processing device, information processing method, and program
JP2017522587A (en) * 2014-05-30 2017-08-10 マジック リープ, インコーポレイテッド Method and system for creating focal planes in virtual and augmented reality
KR101893536B1 (en) * 2017-05-15 2018-08-30 네이버랩스 주식회사 Selective image clarity control system based on the object and background in image for retinal projection display and method of controlling the same
JP2019169953A (en) * 2014-01-31 2019-10-03 マジック リープ, インコーポレイテッドMagic Leap,Inc. Multi-focal display system and method
WO2022039208A1 (en) * 2020-08-20 2022-02-24 凸版印刷株式会社 Diffraction sheet, method for manufacturing same, three-dimensional display device, light-beam reproduction device, three-dimensional space display system, light-beam reproduction method, and program

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020010019A1 (en) * 1998-03-16 2002-01-24 Kazukuni Hiraoka Game machine, and image processing method for use with the game machine
JP2000013818A (en) * 1998-06-23 2000-01-14 Nec Corp Stereoscopic display device and stereoscopic display method
US6515642B1 (en) * 1999-10-14 2003-02-04 Seiko Epson Corporation Driving circuit for a liquid crystal display
WO2001043077A1 (en) * 1999-12-06 2001-06-14 Fujitsu Limited Image displaying method and device
JP3404347B2 (en) * 2000-01-28 2003-05-06 株式会社スクウェア Computer-readable recording medium recording a three-dimensional computer image processing program and blur rendering processing method
JP2001204964A (en) * 2000-01-28 2001-07-31 Square Co Ltd Computer-readable recording medium wherein program of game for ball game is recorded, method of displaying and processing image of game for ball game, and video game apparatus
US20030063383A1 (en) * 2000-02-03 2003-04-03 Costales Bryan L. Software out-of-focus 3D method, system, and apparatus
US6911975B2 (en) * 2000-09-11 2005-06-28 Canon Kabushiki Kaisha Stereo image display apparatus and method, and storage medium
AU2002240415A1 (en) * 2001-02-16 2002-09-04 Canesta Inc. Technique for removing blurring from a captured image
US7091928B2 (en) * 2001-03-02 2006-08-15 Rajasingham Arjuna Indraeswara Intelligent eye
WO2005088970A1 (en) * 2004-03-11 2005-09-22 Olympus Corporation Image generation device, image generation method, and image generation program
JP3976040B2 (en) * 2004-09-17 2007-09-12 セイコーエプソン株式会社 Stereoscopic image display device
FR2906899B1 (en) * 2006-10-05 2009-01-16 Essilor Int DISPLAY DEVICE FOR STEREOSCOPIC VISUALIZATION.
JP2009027298A (en) * 2007-07-18 2009-02-05 Ricoh Co Ltd Imaging apparatus and control method thereof
US8314832B2 (en) 2009-04-01 2012-11-20 Microsoft Corporation Systems and methods for generating stereoscopic images
EP2309463A3 (en) 2009-10-07 2011-07-27 Thomson Licensing Method of displaying a 3D video with insertion of a graphic item and terminal for implementing the method
US8988507B2 (en) * 2009-11-19 2015-03-24 Sony Corporation User interface for autofocus
WO2011106797A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US8472120B2 (en) 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
JP4843829B2 (en) * 2010-03-19 2011-12-21 シャープ株式会社 Image display system that can automatically switch between 2D / 3D images
PL391800A1 (en) * 2010-07-12 2012-01-16 Diagnova Technologies Spółka Cywilna Method for virtual presentation of a 3D image and the system for virtual presentation of a 3D image
EP2410377A1 (en) * 2010-07-20 2012-01-25 Research In Motion Limited Method for decreasing depth of field of a camera having fixed aperture
US20120038663A1 (en) * 2010-08-12 2012-02-16 Harald Gustafsson Composition of a Digital Image for Display on a Transparent Screen
US8184068B1 (en) * 2010-11-08 2012-05-22 Google Inc. Processing objects for separate eye displays
KR101883200B1 (en) * 2011-12-16 2018-08-01 에스케이플래닛 주식회사 The depth measurement device and method in stereoscopic image
JP5572647B2 (en) * 2012-02-17 2014-08-13 任天堂株式会社 Display control program, display control device, display control system, and display control method
US8605114B2 (en) * 2012-02-17 2013-12-10 Igt Gaming system having reduced appearance of parallax artifacts on display devices including multiple display screens
US8754829B2 (en) 2012-08-04 2014-06-17 Paul Lapstun Scanning light field camera and display
TWI507729B (en) * 2013-08-02 2015-11-11 Quanta Comp Inc Eye-accommodation-aware head mounted visual assistant system and imaging method thereof
KR102266468B1 (en) * 2014-07-18 2021-06-17 삼성전자주식회사 Method for a focus control and electronic device thereof
US20170255021A1 (en) * 2014-10-23 2017-09-07 Sony Interactive Entertainment Inc. Virtual image distance changing device, virtual image distance changing method, and program
US9958677B2 (en) * 2015-12-25 2018-05-01 Panasonic Intellectual Property Management Co., Ltd. Head-up display and mobile object equipped with head-up display
JP6849430B2 (en) * 2016-12-27 2021-03-24 キヤノン株式会社 Image processing equipment, image processing methods, and programs
WO2019156485A1 (en) * 2018-02-07 2019-08-15 Samsung Electronics Co., Ltd. Method for determining refractory power of eye using immersive system and electronic device thereof
US11635867B2 (en) * 2020-05-17 2023-04-25 Google Llc Viewing images on a digital map

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5014126A (en) * 1989-10-23 1991-05-07 Vision Iii Imaging, Inc. Method and apparatus for recording images with a single image receiver for autostereoscopic display
US5355181A (en) 1990-08-20 1994-10-11 Sony Corporation Apparatus for direct display of an image on the retina of the eye using a scanning laser
JP3318680B2 (en) * 1992-04-28 2002-08-26 サン・マイクロシステムズ・インコーポレーテッド Image generation method and image generation device
US5467104A (en) * 1992-10-22 1995-11-14 Board Of Regents Of The University Of Washington Virtual retinal display
JPH06235885A (en) 1993-02-08 1994-08-23 Nippon Hoso Kyokai <Nhk> Stereoscopic picture display device
US5712732A (en) * 1993-03-03 1998-01-27 Street; Graham Stewart Brandon Autostereoscopic image display adjustable for observer location and distance
JPH0730928A (en) 1993-07-12 1995-01-31 Canon Inc Stereoscopic image observing device
JP3373265B2 (en) 1993-11-04 2003-02-04 松下電器産業株式会社 Head mounted video display
JP3298082B2 (en) 1994-12-13 2002-07-02 日本電信電話株式会社 Head mount display device
JPH08322004A (en) * 1995-05-24 1996-12-03 Olympus Optical Co Ltd Stereoscopic display device
US5886675A (en) * 1995-07-05 1999-03-23 Physical Optics Corporation Autostereoscopic display system with fan-out multiplexer
JP3461980B2 (en) * 1995-08-25 2003-10-27 株式会社東芝 High-speed drawing method and apparatus
EP0809913B1 (en) * 1995-12-19 2002-06-12 Koninklijke Philips Electronics N.V. Parallactic depth-dependent pixel shifts

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001189902A (en) * 1999-12-28 2001-07-10 Nec Corp Method for controlling head-mounted display and head- mounted display device
JP2002144914A (en) * 2000-10-11 2002-05-22 Robert Bosch Gmbh Device for display of information in vehicle
JP2002185982A (en) * 2000-12-13 2002-06-28 Nec Corp Stereoscopic video display device and stereoscopic video display method
KR100380994B1 (en) * 2000-12-26 2003-04-26 한국전자통신연구원 Three-dimensional display apparatus and method with gaze point feedback
WO2004100564A1 (en) * 2003-05-07 2004-11-18 Seijiro Tomita Method and system for displaying stereoscopic image
JP2005157329A (en) * 2003-10-30 2005-06-16 Brother Ind Ltd Image display device
JP2005165032A (en) * 2003-12-03 2005-06-23 Univ Waseda Stereoscopic video display apparatus
US8000521B2 (en) 2004-06-25 2011-08-16 Masataka Kira Stereoscopic image generating method and apparatus
KR100624431B1 (en) 2004-08-03 2006-09-19 삼성전자주식회사 Method and apparatus controlled convergence distance for observation of stereo image
KR100654636B1 (en) 2004-12-14 2006-12-08 삼성전자주식회사 Apparatus and method for processing of 3-dimensional pictorial image in mobile communication terminal
JP2006221128A (en) * 2005-01-12 2006-08-24 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional display method and three-dimensional display device
JP2007171228A (en) * 2005-12-19 2007-07-05 Brother Ind Ltd Image display system
JP2008176522A (en) * 2007-01-18 2008-07-31 Sgi Japan Ltd Method and device for generating defocus image
WO2009001763A1 (en) * 2007-06-22 2008-12-31 Sgi Japan, Ltd. Defocus image generating method and generating device
WO2011145311A1 (en) * 2010-05-20 2011-11-24 株式会社ニコン Displaying apparatus and displaying method
US8472786B2 (en) 2010-06-17 2013-06-25 Fujifilm Corporation Stereoscopic image display control apparatus and method of controlling operation of same
US8791946B2 (en) 2010-07-21 2014-07-29 Nintendo Co., Ltd. Computer-readable storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
JP2012027619A (en) * 2010-07-21 2012-02-09 Nintendo Co Ltd Image processing program, image processor, image processing system and image processing method
WO2012086362A1 (en) * 2010-12-22 2012-06-28 コニカミノルタホールディングス株式会社 Image processing device, program thereof, and image processing method
US9332247B2 (en) 2010-12-22 2016-05-03 Konica Minolta, Inc. Image processing device, non-transitory computer readable recording medium, and image processing method
JP5464279B2 (en) * 2010-12-22 2014-04-09 コニカミノルタ株式会社 Image processing apparatus, program thereof, and image processing method
JP2013228557A (en) * 2012-04-25 2013-11-07 Canon Inc Display device and control method thereof
JP2018137760A (en) * 2012-05-09 2018-08-30 ノキア テクノロジーズ オーユー Method and apparatus for determining representation of display information on basis of focal length
JP2015525365A (en) * 2012-05-09 2015-09-03 ノキア コーポレイション Method and apparatus for performing focus correction of display information
JP2015525491A (en) * 2012-05-09 2015-09-03 ノキア コーポレイション Method and apparatus for determining representation of display information based on focus distance
JP2014071230A (en) * 2012-09-28 2014-04-21 Pioneer Electronic Corp Image display device, control method, program, and recording medium
JP2014219621A (en) * 2013-05-10 2014-11-20 株式会社タイトー Display device and display control program
WO2015037417A1 (en) 2013-09-10 2015-03-19 株式会社テレパシーホールディングス Head-mounted display capable of adjusting image viewing distance
JP2019169953A (en) * 2014-01-31 2019-10-03 マジック リープ, インコーポレイテッドMagic Leap,Inc. Multi-focal display system and method
JP2021096477A (en) * 2014-01-31 2021-06-24 マジック リープ, インコーポレイテッドMagic Leap,Inc. Multi-focal display system and method
JP2017522587A (en) * 2014-05-30 2017-08-10 マジック リープ, インコーポレイテッド Method and system for creating focal planes in virtual and augmented reality
WO2016203844A1 (en) * 2015-06-16 2016-12-22 ソニー株式会社 Information processing device, information processing method, and program
KR101893536B1 (en) * 2017-05-15 2018-08-30 네이버랩스 주식회사 Selective image clarity control system based on the object and background in image for retinal projection display and method of controlling the same
WO2022039208A1 (en) * 2020-08-20 2022-02-24 凸版印刷株式会社 Diffraction sheet, method for manufacturing same, three-dimensional display device, light-beam reproduction device, three-dimensional space display system, light-beam reproduction method, and program

Also Published As

Publication number Publication date
JP3787939B2 (en) 2006-06-21
US6201517B1 (en) 2001-03-13

Similar Documents

Publication Publication Date Title
JP3787939B2 (en) 3D image display device
US6084557A (en) System for displaying combined imagery
EP2649485B1 (en) Sympathetic optic adaptation for see-through display
JP2019091051A (en) Display device, and display method using focus display and context display
US6389153B1 (en) Distance information generator and display device using generated distance information
JP3802630B2 (en) Stereoscopic image generating apparatus and stereoscopic image generating method
JP2004309930A (en) Stereoscopic observation system
JP2000013818A (en) Stereoscopic display device and stereoscopic display method
JP6349660B2 (en) Image display device, image display method, and image display program
US20220311992A1 (en) System and method for displaying an object with depths
JP2874208B2 (en) Image display device
US11889050B2 (en) Image display control method, image display control apparatus, and head-mounted display device
JP2000249974A (en) Display device and stereoscopic display device
JPH09331552A (en) Multi-focus head mount type display device
US10698218B1 (en) Display system with oscillating element
JP2005084569A (en) Picture display device
CN212460199U (en) Head-mounted display device
JPH06235885A (en) Stereoscopic picture display device
JPH11109278A (en) Video display device
CN110794590B (en) Virtual reality display system and display method thereof
CN211786414U (en) Virtual reality display system
JP2000310747A (en) Image observation device
JPH11109279A (en) Video display device
JPH08223609A (en) Three-dimensional display method and display device for enabling focus control
JP3325323B2 (en) Display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20020826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050301

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060307

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060320

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090407

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100407

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110407

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees