KR0159406B1 - Apparatus for processing the stereo scopics using the line of vision - Google Patents
Apparatus for processing the stereo scopics using the line of vision Download PDFInfo
- Publication number
- KR0159406B1 KR0159406B1 KR1019950018656A KR19950018656A KR0159406B1 KR 0159406 B1 KR0159406 B1 KR 0159406B1 KR 1019950018656 A KR1019950018656 A KR 1019950018656A KR 19950018656 A KR19950018656 A KR 19950018656A KR 0159406 B1 KR0159406 B1 KR 0159406B1
- Authority
- KR
- South Korea
- Prior art keywords
- image signal
- user
- image
- gaze
- processing
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 시선 방향을 이용한 입체 영상 처리 장치에 관한 것으로, 이용자의 시선 방향이 시선 추적부에서 추적되어 그 위치 정보에 따라 메모리에 저장되어 있는 물체의 영상 신호가 랜더부에서 차등적으로 랜더링되고, 제 1 후처리부에서 좌측 시각에 대한 영상 신호로, 제 2 후처리부에서 우측 시각에 대한 영상 신호로 영상 처리된 다음 디스플레이 장치를 통해 디스플레이되므로써, 이용자의 시선 방향에 따라 영상 신호가 차등적으로 영상 처리되므로, 입체 영상 신호를 고속으로 처리할 수 있다는 효과가 있다.The present invention relates to a stereoscopic image processing apparatus using a gaze direction, wherein a gaze direction of a user is tracked by a gaze tracking unit, and an image signal of an object stored in a memory is differentially rendered by a renderer according to its position information. The image signal is processed by the first post-processing unit as the image signal for the left time and the second post-processing unit as the image signal for the right time, and then displayed by the display device. Therefore, there is an effect that the stereoscopic image signal can be processed at high speed.
Description
제1도는 본 발명의 바람직한 실시예에 따른 시선 방향을 이용한 입체 영상 처리 장치의 개략적인 블록구성도.1 is a schematic block diagram of a stereoscopic image processing apparatus using a gaze direction according to a preferred embodiment of the present invention.
제2도는 제1도에 구성되는 시선 추적부에서 인간의 시선을 추적하는 방법을 설명하기 위한 도면.2 is a view for explaining a method for tracking the eye of a human in the eye tracking unit configured in FIG.
제3도는 제1도에 구성되는 선별부에서 물체들을 선별하는 것을 설명하기 위한 도면.3 is a view for explaining the sorting of objects in the sorting unit configured in FIG.
* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings
110 : 시선 추적부 120 : 선별부110: eye tracking unit 120: selection unit
130 : 메모리 140 : 랜더부130: memory 140: render unit
150 : 제 1 후처리부 160 : 제 2 후처리부150: first post-processing unit 160: second post-processing unit
본 발명은 입체 영상 처리 장치에 관한 것으로, 보다 상세하게는 이용자의 시선 방향을 추적하여 영상 신호를 자동적으로 랜더링(RENDERING)할 수 있는 시선 방향을 이용한 입체 영상 처리 장치에 관한 것이다.The present invention relates to a stereoscopic image processing apparatus, and more particularly, to a stereoscopic image processing apparatus using a gaze direction capable of automatically rendering an image signal by tracking a gaze direction of a user.
여기에서, 랜더링(RENDERING)은 물에체 대한 영상 신호의 색과 음영을 생성하는 것을 말한다.Here, rendering refers to generating colors and shades of an image signal for water.
최근, 영상 신호 처리를 위한 하드웨어가 급속히 발전되어 입체 영상 신호의 실시간 처리가 가능하고, 분자 구조 모델링, 사진 측량법, 모의 비행 장치, CAD, 다차원 데이타의 시각화 및 가상 현실 시스템, 입체게임 등 다양한 분야에서 이용되고 있으며, 본 발명은 실질적으로 상기한 가상 현실 시스템 또는 입체 게임 등의 입체 영상 신호로 처리하는데에 관련된다.Recently, hardware for processing image signals has been rapidly developed to enable real-time processing of stereoscopic image signals, and in various fields such as molecular structure modeling, photogrammetry, simulation flight devices, CAD, multi-dimensional data visualization and virtual reality systems, and stereoscopic games. The present invention is substantially related to processing into a stereoscopic video signal such as a virtual reality system or a stereoscopic game as described above.
한편, 인간 시선의 특징은, 물체가 시선의 중앙에 위치하는 경우 자세하게 보이고, 물체가 시선의 중앙으로부터 멀어질수록 흐릿하게 보이는 특징을 가지고 있다.On the other hand, the characteristics of the human gaze are characterized in detail when the object is located in the center of the gaze, and blurry as the object moves away from the center of the gaze.
그러나, 종래의 통상적인 가상 현실 시스템 또는 입체 게임에서 영상 신호를 랜더링하는 방법은, 이용자의 시선 방향에 관계없이 동일하게 영상 신호를 랜더링하므로써, 영상의 전체적인 해상도가 저하될 뿐만 아니라, 그로인해 영상 처리 시간이 지연되는 문제점이 있다.However, in a conventional virtual reality system or a stereoscopic game, a method of rendering a video signal not only decreases the overall resolution of the video by rendering the video signal in the same way regardless of the direction of the user's line of sight, and thus results in image processing. There is a problem that the time is delayed.
따라서, 본 발명은 이러한 문제를 해결하기 위하여 안출한 것으로서, 본 발명의 목적은, 이용자의 시선 방향을 추적하여 시선의 위치에 따라 랜더링할 수 있는 시선 방향을 이용한 입체 영상 처리 장치를 제공하는데 그 목적이 있다.Accordingly, an object of the present invention is to provide a three-dimensional image processing apparatus using a gaze direction that can track the gaze direction of a user and render it according to the position of the gaze. There is this.
이러한 목적을 달성하기 위하여 본 발명은, 를 구비한다.In order to achieve such an object, the present invention is provided with.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the present invention.
제1도는 본 발명의 바람직한 실시예에 따른 시선 방향을 이용한 입체영상 처리 장치의 개략적인 블록 구성도로서, 동도면을 참조하면 알 수 있듯이, 본 발명의 시선 방향을 이용한 입체 영상 처리 장치는 시선 추적부(110), 선별부(120), 메모리(130), 랜더부(140), 제 1 후처리부(150) 및 제 2 후처리부(160)로 구성된다.FIG. 1 is a schematic block diagram of a stereoscopic image processing apparatus using a gaze direction according to a preferred embodiment of the present invention. As can be seen from the same view, the stereoscopic image processing apparatus using the gaze direction of the present invention is eye tracking. The unit 110, the selection unit 120, the memory 130, the renderer 140, the first post-processing unit 150, and the second post-processing unit 160 are configured.
동도면에 있어서, 시선 추적부(110)는 이용자의 시선 방향을 추적하여 그 위치 정보를 선별부(120)로 제공하고, 선별부(120)는 시선 추적부(110)로부터의 위치 정보에 의거하여 그 위치의 중앙으로부터 설정된 제 1 소정 거리, 제 2 소정 거리, 제 3 소정 거리별로 물체들을 각각 선별한다.In the drawing, the eye tracking unit 110 tracks the direction of the user's eye and provides the position information to the selection unit 120, and the selection unit 120 is based on the position information from the eye tracking unit 110. The objects are selected by the first predetermined distance, the second predetermined distance, and the third predetermined distance respectively set from the center of the position.
그리고, 메모리(130)는 물체들의 영상 신호를 저장하고, 랜더부(140)는 선별부(120)에서 설정된 제 1 소정 거리, 제 2 소정 거리, 제 3 소정 거리별로 메모리(130)에 저장되어 있는 물체들의 영상 신호를 랜더링한다.The memory 130 stores image signals of objects, and the renderer 140 is stored in the memory 130 for each of the first predetermined distance, the second predetermined distance, and the third predetermined distance set by the selector 120. Render video signals of objects.
또한, 제 1 후처리부(150)는 랜더부(140)에서 랜더링된 영상 신호를 좌측시각에 대한 영상 신호에 처리한 다음 디스플레이 장치로 제공하고, 제 2 후처리부(160)는 랜더부(140)에서 랜더링된 영상 신호를 우측 시각에 대한 영상 신호로 처리한 다음 디스플레이 장치로 제공한다.In addition, the first post-processing unit 150 processes the image signal rendered by the renderer 140 to the image signal for the left time and then provides the image signal to the display device, and the second post-processing unit 160 renders the renderer 140. Processes the rendered image signal into an image signal for the right view and then provides it to the display device.
이와 같이 구성된 본 발명의 시선 방향을 이용한 입체 영상 처리 장치의 동작 과정에 대하여 제1, 2, 3도를 참조하여 보다 상세하게 설명하기로 한다.An operation process of the stereoscopic image processing apparatus using the eyeline direction of the present invention configured as described above will be described in more detail with reference to FIGS. 1, 2, and 3.
먼저, 시선 추적부(110)가 이용자의 시선 방향을 추적하는 방법에 대하여 제2도를 참조하여 설명하기로 한다.First, a method of tracking the gaze direction of the user by the gaze tracking unit 110 will be described with reference to FIG. 2.
인간의 눈 즉 안구는 흑자(A)와 흰자(B)로 선별되며, 안구에 광 신호를 조사하면 흑자는 광 신호를 흡수하고, 흰자는 광 신호를 반사하는 특성이 있다. 따라서, 흑자가 위치하는 곳에서는 광 신호의 반사량(C)이 적고, 흰자가 위치하는 곳에서는 광 신호의 반사량(C)이 많다.Human eyes, or eyes, are selected as a surplus (A) and a white (B), and when the eye irradiates an optical signal, the surplus absorbs the optical signal, and the white has the property of reflecting the optical signal. Therefore, the reflection amount C of the optical signal is small where the surplus is located, and the reflection amount C of the optical signal is large where the white is located.
제2도에 있어서, L1 은 이용자 안구의 좌측 흰자로부터 반사되는 광 신호의 범위, L2 는 이용자 눈의 흑자로부터 반사되는 광 신호의 범위, L3 는 이용자 눈의 우측 흰자로부터 반사되는 광 신호의 범위를 나타낸다.In FIG. 2, L1 is a range of light signals reflected from the left white of the user's eye, L2 is a range of light signals reflected from the black of the user's eyes, and L3 is a range of light signals reflected from the right white of the user's eyes. Indicates.
이와 같이 안구의 백자 및 흑자가 반사하는 광 신호의 범위를 측정하는 장치는 일반적인 광학 기계를 이용하면 구현할 수 있다는 것은 본 발명의 기술 분야에서 통상의 지식을 가진 자는 용이하게 알 수 있을 것이다.It will be readily apparent to those skilled in the art that the apparatus for measuring the range of optical signals reflected by the white and black eyeballs can be implemented using a general optical machine.
여기서, 제2도의 (a)에 도시된 바와 같이 이용자의 시선이 중앙인 경우, 이용자 안구의 좌측 흰자로부터 반사되는 광 신호의 범위(L1)와 우측 흰자로부터 반사되는 광 신호의 범위(L3)가 같은 경우에 시선 추적부(110)는 이용자의 시선이 중앙이라는 위치 정보를 선별부(120)에 제공한다.Here, as shown in (a) of FIG. 2, when the user's gaze is centered, the range L1 of the light signal reflected from the left white of the user's eyeball and the range L3 of the light signal reflected from the right white are In the same case, the gaze tracking unit 110 provides the selection unit 120 with location information indicating that the gaze of the user is centered.
한편, 선별부(120)는 메모리(130)내에 저장된 영상 신호로부터 제3도에 도시된 바와 같이 이용자 시선의 중앙(제3도의 가)으로부터 설정된 제1 소정 거리(제3도의 나), 제2 소정 거리(제3도의 다), 제3 소정 거리(제3도의 라)에 존재하는 물체들을 선별하여 랜더부(140)에 인가한다. 랜더부(140)는 메모리(130)에 저장되어 있는 물체의 영상 신호를 선별부(120)로부터의 선별에 의거하여 랜더링한다.On the other hand, the selection unit 120 is a first predetermined distance (b in FIG. 3) set from the center of the user's line of sight (a in FIG. 3) as shown in FIG. 3 from the image signal stored in the memory 130, the second Objects existing at a predetermined distance (C in FIG. 3) and a third predetermined distance (D in FIG. 3) are selected and applied to the renderer 140. The renderer 140 renders an image signal of an object stored in the memory 130 based on the selection from the selector 120.
보다 상세히 설명하면, 랜더부(140)는 메모리(130)에 저장되어 있는 물체의 영상 신호중에서 이용자 시선의 중앙(제3도의 가)으로부터 제 1 소정 거리(제3도의 나)에 존재하는 물체는 이용자 시선의 중앙에 존재하는 물체에 비해 덜 세밀하게 랜더링하고, 제 2 소정 거리(제3도의 다)와 제 3 소정 거리(제3도의 라) 사이에 존재하는 물체는 제1 소정 거리(제3도의 나)와 제 2 소정 거리(제3도의 다) 사이에 존재하는 물체에 비해 덜 세밀하게 랜더링한다.In more detail, the renderer 140 may store an object present at a first predetermined distance (b in FIG. 3) from the center of the user's eye (a in FIG. 3) of the image signal of the object stored in the memory 130. An object that is rendered with less detail than an object existing in the center of the user's line of sight, and an object existing between the second predetermined distance (C in FIG. 3) and the third predetermined distance (D in FIG. 3) is the first predetermined distance (3 Less detail is rendered as compared to the object present between b) of FIG. 2 and the second predetermined distance (c of FIG. 3).
제2도의 (b)에 도시된 바와 같이 이용자의 시선이 좌측인 경우에 이용자 안구의 좌측 흰자로부터 반사되는 광 신호의 범위(L1)가 우측 흰자로부터 반사되는 광 신호의 범위(L3) 보다 작으므로, 시선 추적부(110)는 이용자의 시선이 좌측이라는 위치 정보를 선별부(120)에 제공한다.As shown in (b) of FIG. 2, when the user's gaze is on the left side, the range L1 of the light signal reflected from the left white of the user's eyeball is smaller than the range L3 of the light signal reflected from the right white. The eye gaze tracking unit 110 provides the selection unit 120 with positional information indicating that the gaze of the user is left.
따라서, 제3도에 도시된 바와 같이 이용자 시선의 좌측 중앙(제3도의 가)으로부터 설정된 제 1 소정 거리(제3도의 나), 제 2 소정 거리(제3도의 가), 제 3 소정 거리(제3도의 라)에 존재하는 물체가 선별부(120)에서 선별되고, 랜더부(140)는 메모리(130)에 저장되어 있는 물체의 영상 신호를 선별부(120)로부터의 선별에 의거하여 랜더링한다.Thus, as shown in FIG. 3, the first predetermined distance (b in FIG. 3), the second predetermined distance (a in FIG. 3), and the third predetermined distance (set from the left center of the user's eye (a in FIG. 3)) The object present in FIG. 3D) is sorted by the sorting unit 120, and the renderer 140 renders an image signal of the object stored in the memory 130 based on the sorting from the sorting unit 120. do.
보다 상세히 설명하면, 랜더부(140)는 메모리(130)에 저장되어 있는 물체의 영상 신호 중에 이용자 시선의 좌측 중앙(제3도의 가)으로부터 제 1 소정 거리(제3도의 나)에 존재하는 물체는 이용자 시선의 좌측 중앙에 존재하는 물체에 비해 덜 세밀하게 랜더링하고, 제 2 소정 거리(제3도의 다)와 제 3 소정 거리(제3도의 라) 사이에 존재하는 물체는 제 1 소정 거리(제3도의 나)와 제 2 소정 거리(제 3 도의 다) 사이에 존재하는 물체에 비해 덜 세밀하게 랜더링한다.In more detail, the renderer 140 may have an object present at a first predetermined distance (b in FIG. 3) from the left center of the user's line of sight (FIG. 3 in FIG. 3) of the image signal of the object stored in the memory 130. Is rendered in less detail than the object existing in the left center of the user's line of sight, and the object present between the second predetermined distance (C in FIG. 3) and the third predetermined distance (D in FIG. 3) is the first predetermined distance ( Less detail is rendered as compared to objects present between b) of FIG. 3 and the second predetermined distance (c of FIG. 3).
제2도의 (c)에 도시된 바와 같이 이용자의 시선이 우측인 경우, 이용자 안구의 좌측 흰자로부터 반사되는 광 신호의 범위(L1)가 우측 흰자로부터 반사되는 광 신호의 범위(L3)보다 크므로, 시선 추적부(110)는 이용자의 시선이 우측이라는 위치 정보를 선별부(120)에 제공한다.As shown in (c) of FIG. 2, when the user's gaze is on the right side, the range L1 of the light signal reflected from the left white of the user's eyeball is larger than the range L3 of the light signal reflected from the right white. The eye gaze tracking unit 110 provides the selection unit 120 with location information indicating that the user's gaze is right.
따라서, 제3도에 도시된 바와 같이 이용자 시선의 우측 중앙(제3도의 가)으로부터 설정된 제 1 소정 거리(제3도의 나), 제 2 소정 거리(제3도의 다), 제 3 소정 거리(제3도의 라)에 존재하는 물체가 선별부(120)에서 선별되고, 랜더부(140)는 메모리(130)에 저장되어 있는 물체의 영상 신호를 선별부(120)로부터의 선별에 의거하여 랜더링한다.Accordingly, as shown in FIG. 3, the first predetermined distance (b in FIG. 3), the second predetermined distance (b in FIG. 3), and the third predetermined distance (set from the right-center (a in FIG. 3) of the user's gaze) The object present in FIG. 3D) is sorted by the sorting unit 120, and the renderer 140 renders an image signal of the object stored in the memory 130 based on the sorting from the sorting unit 120. do.
보다 상세히 설명하면, 랜더부(140)는 메모리(130)에 저장되어 있는 물체의 영상 신호 중에 이용자 시선의 우측 중앙(제3도의 가)으로부터 제 1 소정 거리(제3도의 나)에 존재하는 물체는 이용자 시선의 우측 중앙에 존재하는 물체에 비해 덜 세밀하게 랜더링하고, 제 2 소정 거리(제3도의 다)와 제 3 소정 거리(제3도의 라) 사이에 존재하는 물체는 제 1 소정 거리(제3도의 나)와 제 2 소정 거리(제3도의 다) 사이에 존재하는 물체에 비해 덜 세밀하게 랜더링한다.In more detail, the renderer 140 may have an object present at a first predetermined distance (b in FIG. 3) from the right center of the user's line of sight (a in FIG. 3) in an image signal of an object stored in the memory 130. Is rendered in less detail than the object present in the right center of the user's line of sight, and the object present between the second predetermined distance (C in FIG. 3) and the third predetermined distance (D in FIG. Less detail is rendered as compared to the object existing between b) of FIG. 3) and the second predetermined distance (c of FIG. 3).
그 다음, 랜더부(140)에서 랜더링된 영상 신호는 제 1 후처리부(150)에서 이용자의 좌측 시각에 대한 영상 신호로 영상 처리된 다음 디스플레이 장치로 디스플레이되고, 랜더부(140)에서 랜더링된 영상 신호는 제 2 후처리부(160)에서 이용자의 우측 시각에 대한 영상 신호로 영상 처리된 다음 디스플레이 장치로 디스플레이된다.Next, the image signal rendered by the renderer 140 is processed by the first post-processing unit 150 into an image signal for the left eye of the user, and then displayed on the display device, and the image rendered by the renderer 140. The signal is processed by the second post-processing unit 160 into an image signal of a right time of the user and then displayed on the display device.
상술한 바와 같이, 이용자의 시선 방향이 시선 추적부(110)에서 추적되어 그 위치 정보에 따라 메모리(130)에 저장되어 있는 물체의 영상 신호가 랜더부(140)에서 차등적으로 랜더링되고, 제 1 후처리부(150)에서 좌측 시각에 대한 영상 신호로, 제 2 후처리부(160)에서 우측 시각에 대한 영상 신호로 영상 처리된 다음 디스플레이 장치를 통해 디스플레이된다.As described above, the user's gaze direction is tracked by the gaze tracking unit 110 and the image signal of the object stored in the memory 130 according to the position information is rendered by the renderer 140 differentially. The first post-processing unit 150 is processed as an image signal for the left time and the second post-processing unit 160 is processed as an image signal for the right time and then displayed on the display device.
따라서, 본 발명을 이용하면, 이용자의 시선 방향에 따라 영상 신호가 차등적으로 영상 처리되므로, 입체 영상 신호를 고속으로 처리할 수 있는 효과가 있다.Therefore, according to the present invention, since the video signal is differentially processed according to the direction of the user's line of sight, the stereoscopic video signal can be processed at high speed.
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019950018656A KR0159406B1 (en) | 1995-06-30 | 1995-06-30 | Apparatus for processing the stereo scopics using the line of vision |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019950018656A KR0159406B1 (en) | 1995-06-30 | 1995-06-30 | Apparatus for processing the stereo scopics using the line of vision |
Publications (2)
Publication Number | Publication Date |
---|---|
KR970002753A KR970002753A (en) | 1997-01-28 |
KR0159406B1 true KR0159406B1 (en) | 1998-12-15 |
Family
ID=19419106
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019950018656A KR0159406B1 (en) | 1995-06-30 | 1995-06-30 | Apparatus for processing the stereo scopics using the line of vision |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR0159406B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10419736B2 (en) | 2014-12-01 | 2019-09-17 | Samsung Electronics Co., Ltd. | Method and apparatus for generating three-dimensional image |
-
1995
- 1995-06-30 KR KR1019950018656A patent/KR0159406B1/en not_active IP Right Cessation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10419736B2 (en) | 2014-12-01 | 2019-09-17 | Samsung Electronics Co., Ltd. | Method and apparatus for generating three-dimensional image |
Also Published As
Publication number | Publication date |
---|---|
KR970002753A (en) | 1997-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110460831B (en) | Display method, device, equipment and computer readable storage medium | |
US11379948B2 (en) | Mixed reality system with virtual content warping and method of generating virtual content using same | |
CN110431599B (en) | Mixed reality system with virtual content warping and method for generating virtual content using the same | |
US6151009A (en) | Method and apparatus for merging real and synthetic images | |
US20050146788A1 (en) | Software out-of-focus 3D method, system, and apparatus | |
US6529207B1 (en) | Identifying silhouette edges of objects to apply anti-aliasing | |
CN107810633A (en) | Three-dimensional rendering system | |
EP2051533A2 (en) | 3D image rendering apparatus and method | |
EP1214689B1 (en) | Method and apparatus for rendering images with refractions | |
US6501468B1 (en) | Stereoscopic display device and recording media recorded program for image processing of the display device | |
CN114746903B (en) | Virtual, augmented and mixed reality systems and methods | |
JPH07200870A (en) | Stereoscopic three-dimensional image generator | |
KR0159406B1 (en) | Apparatus for processing the stereo scopics using the line of vision | |
JP2000149062A (en) | Method and device for generating three-dimensional image | |
EP1339023A2 (en) | Method for producing shading effects | |
US20010043395A1 (en) | Single lens 3D software method, system, and apparatus | |
KR0151483B1 (en) | High speed ray tracing apparatus | |
KR0181037B1 (en) | High speed ray tracing method | |
JPH0470983A (en) | Stereoscopic displaying device | |
JP6562371B1 (en) | Display device, display processing device, and display processing program | |
US20240061500A1 (en) | Absolute phase unwrapping for fringe analysis in an eye tracking application | |
JP2011061330A (en) | Image generation device, image generation method, and program | |
JPH10240108A (en) | Method of displaying computer generated hologram and device therefor | |
KR100219587B1 (en) | Block data structure and hidden face removal method for three-dimension computer graphics | |
Smit | A programmable display-layer architecture for virtual-reality applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20110801 Year of fee payment: 14 |
|
FPAY | Annual fee payment |
Payment date: 20120801 Year of fee payment: 15 |
|
LAPS | Lapse due to unpaid annual fee |