KR20010001341A - 3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor - Google Patents

3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor Download PDF

Info

Publication number
KR20010001341A
KR20010001341A KR1019990020487A KR19990020487A KR20010001341A KR 20010001341 A KR20010001341 A KR 20010001341A KR 1019990020487 A KR1019990020487 A KR 1019990020487A KR 19990020487 A KR19990020487 A KR 19990020487A KR 20010001341 A KR20010001341 A KR 20010001341A
Authority
KR
South Korea
Prior art keywords
step
point
binocular
position
dimensional
Prior art date
Application number
KR1019990020487A
Other languages
Korean (ko)
Other versions
KR100294925B1 (en
Inventor
김도균
장의선
Original Assignee
윤종용
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤종용, 삼성전자 주식회사 filed Critical 윤종용
Priority to KR1019990020487A priority Critical patent/KR100294925B1/en
Publication of KR20010001341A publication Critical patent/KR20010001341A/en
Application granted granted Critical
Publication of KR100294925B1 publication Critical patent/KR100294925B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures

Abstract

PURPOSE: A method for generating a three-dimension graphic image and a binocular vision difference controlling method therefor are provided to generate a three-dimension graphic image by rendering image signals inputted from two points and to prevent the maximum vision difference between two images from exceeding a fusion range of both eyes. CONSTITUTION: A method for generating a three-dimension graphic image and a binocular vision difference controlling method therefor comprise the following steps. The first step is to calculate three-dimension information on an object and a moved position of a virtual viewpoint. The second step is to calculate a maximum and minimum distances between the calculated virtual viewpoint and a three-dimension world. The third step is to calculate a position of binocular viewpoints based upon the distance between the binocular viewpoints. The fifth step is to calculate an orientation of the binocular viewpoints. The sixth step is to acquire images projected from a three dimension to a two dimension world and generate a three-dimension graphic image by a stereo rendering of the two acquired images. Accordingly, a feeling of depth relative to circumferential objects is acquired and a feeling of fatigue is reduced.

Description

3차원 그래픽 영상 생성 방법 및 이를 위한 양안 시차 조절 방법{3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor} 3D graphic image generation method, and adjustment method therefor binocular disparity {3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor}

본 발명은 3차원 그래픽 영상 생성 방법 및 이를 위한 양안 시차 조절 방법에 관한 것이다. The present invention relates to a three-dimensional graphic image generation method and a binocular parallax adjustment method therefor.

3차원 컴퓨터 그래픽을 위한 종래의 시차 발생 방식은 컴퓨터 모니터에 양안이 보는 영상을 교대로 뿌려주는 방식이다. Conventional differential generation system for 3D computer graphics is the way ppuryeoju alternately both eyes see the image is on a computer. 따라서 3차원 세계에서 각각 서로 다른 깊이를 가지는 여러 영상이 실제로는 물리적으로 동일 거리에 있는 모니터 화면상에 뿌려지게 된다. Therefore, a number of images each having a different depth in the three-dimensional world actually becomes scattered on the display, at the same distance physically. 이 때, 인간이 모니터상에 뿌려진 영상을 보려고 한다면 인간의 양안은 시차에 의해 대상 물체가 물리적으로 위치하는 깊이에서 양안의 중심 축이 교차하도록 움직인다. At this time, if a human to see image on a monitor scattered human binocular moves to the central axes of both eyes intersect at a depth of the object is physically located by the time difference. 이 위치는 시차에 따라 실제 모니터의 앞이나 뒤가 될 것이다. This position will be back in front of a physical monitor, or in accordance with the time difference. 그런데, 실제로 그 대상 물체의 영상은 모니터 바로 위에 위치하게 되므로 인간의 양안은 모니터 위에 초점을 맞추게 된다. But, in fact, the image of the human binocular vision so positioned just above the display of the object is to focus on the monitor. 이는 인간이 3차원 세계를 바라볼 때 동작하는 양안의 수렴-초점(convergence-focus) 시스템과는 다르게 양안을 움직이도록 한다. This convergence of both eyes to see action when humans look at a three-dimensional world - unlike the focal (convergence-focus) system to move the eyes.

도 1a는 인간이 3차원 세계를 보는 방법을 도시한 것이고, 도 1b는 컴퓨터 그래픽에서 스테레오 영상 합성 방법을 도시한 것이다. Figure 1a depicts the way in which humans see the three-dimensional world, Figure 1b shows a stereo image synthesizing method in computer graphics.

일반적으로, 수렴을 위해 눈동자 자체를 움직이는 근육과 초점을 맞추도록 수정체를 움직이는 근육의 메커니즘은 독립적이다. In general, the mechanism of the muscles moving the lens to match the moving eye muscle itself and focus for the convergence is independent. 그러나, 인간이 공간적인 깊이감을 느끼는 경험을 수없이 겪게 되면서 두 시스템은 경험적으로 매우 밀접하게 결합되어 동작한다. However, as no man can suffer an experience to feel a sense of spatial depth of the two systems are coupled very closely to the empirical work. 따라서, 수렴-초점의 불일치(discrepancy)는 3차원 세계를 보는 것과는 다른 부자연스러운 느낌을 주므로, 인간의 눈에 피로감을 준다. Therefore, the convergence - the focus of disagreement (discrepancy) is because another unnatural feeling than watching a 3-D world gives fatigue to the human eye. 그러나, 인간이 3차원 세계를 볼 때는 관심의 대상이 되는 물체가 항상 수렴과 초점이 일치되도록 움직이고 이를 기준으로 다른 물체들의 상대적인 깊이감을 인식하기 때문에 피로감을 느끼지 못한다. However, when humans see the three-dimensional world do not feel a sense of fatigue because they recognize different objects moving relative to the depth of the object of interest is always consistent convergence and focus on this basis.

또한, 인간이 양안을 통해 관심을 가지고 임의의 깊이에 위치하는 물체를 보고 있는 경우 이와 현저하게 차이가 있는 깊이에 있는 물체는 둘로 보이게 된다. Furthermore, when looking at an object located at any depth by humans with care through the binocular this remarkably object in the depth that the difference is visible in two. 이를 더블 비젼(double-vision)이라 한다. This is called double vision (double-vision). 이는 물체가 가지는 시차가 인간이 깊이감을 느낄 수 있는 양안 융합 범위를 초과함으로써 발생한다. This occurs by the time difference objects having more than the binocular fusion range that is easy for a person to feel a sense of depth. 실제로, 손가락을 눈앞에 가까이 위치시키고 눈은 멀리 떨어져 있는 다른 물체를 보면 손가락이 둘로 보이는 이치와도 같다. In fact, the location close to the fingers in front and look at the different objects in the eye away from the city looks like a two, two fingers.

종래의 3차원 컴퓨터 그래픽을 위한 시차 발생 방법은 3차원 세계를 모니터상에 스테레오 렌더링(stereo rendering)하는 경우, 관찰자가 관심을 가지고보는 물체를 알 수 없기 때문에 어느 한 깊이를 기준으로 인간의 수렴-초점 시스템을 모의실험(simulation)하거나 무한대의 거리를 시차 발생의 기준으로하여 3차원 그래픽을 생성한다. If the time difference generation method for the conventional three-dimensional computer graphics (stereo rendering) stereo rendering a three-dimensional world on the monitor, human converge relative to any one of depth because they can not know the object to view the viewer is interested - simulate a focal system (simulation), or by the distance of infinity as the reference of the time difference occurs, it generates a three-dimensional graphics. 따라서, 인간이 관심을 가지고 보는 물체가 지정된 물체와 일치하지 않을 경우 수렴-초점 불일치가 발생한다. Thus, if the human body has an interest in seeing it does not match the specified object Convergence - Focus mismatch occurs. 이러한 상태에서는 양안에 투영되는 영상의 시차를 인간의 양안 융합 범위 안에 들어오도록 하더라도 더블 비젼만을 해결할 수 있다. In this state, even to enter the image of the projected parallax in both eyes in the human binocular fusion range can be solved only double vision. 결과적으로, 양안에 투영되는 영상의 시차가 고정되어 있으므로, 관찰자가 관심있게 보는 영역에 대해 수렴과 초점을 일치시키는 과정이 없다면 수렴-초점 불일치 문제를 해결되지 않는다. As a result, since the time difference of the image that is projected on the both sides are fixed, without the process of matching the convergence and focus on the viewing area allows the viewer is interested in the converging-focus does not resolve discrepancies.

본 발명이 이루고자하는 기술적 과제는 사용자가 관심을 가지고 보는 물체가 변경될 때마다 그 정보를 사용자로부터 입력받고 해당 물체에 대해 수렴과 초점이 일치되도록 컴퓨터 그래픽에서 양안에 해당되는 두 시점(viewpoint)을 통하여 보는 2개의 투사된 영상을 생성하고 이를 렌더링하여 3차원 그래픽 영상을 생성하는 방법 및 이를 위해 생성된 영상간에 발생하는 최대 시차가 인간의 양안 융합 범위를 초과하지 않도록 두 시점사이의 거리를 조절하는 방법을 제공하는데 있다. The present invention is a two point (viewpoint) that the user is each time the viewing object is changed, with care receives the information from the user corresponding to the both eyes in computer graphics such that the convergence and focus match for the object generates two projected images seen through, and by rendering this three-dimensional method of generating a graphical image and the maximum time difference that occurs between an image generated for this purpose is to adjust the distance between the two does not exceed the binocular fusion range of the human point there is provided a method.

도 1a는 인간이 3차원 세계를 보는 방법을 도시한 것이다. Figure 1a shows the way in which humans see the three-dimensional world.

도 1b는 컴퓨터 그래픽에서 스테레오 영상 합성 방법을 도시한 것이다. Figure 1b illustrates a stereo image synthesizing method in computer graphics.

도 2는 본 발명에 따른 3차원 그래픽 영상 생성 방법에 대한 흐름도이다. Figure 2 is a flow chart of a three-dimensional graphic image generation process according to the invention.

도 3은 3차원 세계 좌표와 가상 시점 좌표를 도시한 것이다. Figure 3 shows a three-dimensional virtual world coordinates and time coordinates.

도 4는 관심있는 물체에 대해 양안 시점에서 광축을 교차시키는 예를 도시한 것이다. 4 shows an example of crossing the optical axis at the time of both eyes for the object of interest.

상기 기술적 과제를 이루기위한, 본 발명은 사용자가 입력한 물체의 관찰점 이동정보 및 가상 시점 이동 정보로부터 해당 물체에 대한 3차원 정보 및 가상 시점의 이동위치를 계산하는 제1단계; To achieve the above-mentioned technical problem, the present invention provides a first step of the user and calculates the three-dimensional information and the movement position of the virtual viewpoint to the object from the viewing point of the moving object and the virtual viewpoint information input movement information; 계산된 가상 시점과 3차원 세계간 최대, 최소 거리를 구하는 제2단계; To obtain the calculated time of the virtual three-dimensional maximum and minimum distance between the world second step; 상기 최대 및 최소 거리간 차를 구하고, 구해진 차로부터 양안 시점 사이의 거리를 구하며, 구해진 양안 시점 거리로부터 양안 시점의 위치를 구하는 제4단계; A fourth step of obtaining the difference between the maximum and minimum distance, the seek distance between both eyes at this time from the calculated difference, to obtain the position of both eyes at this time from the binocular point distance calculated; 상기 양안 시점의 방향을 구하는 제5단계; The fifth step to obtain the direction of the binocular point; 및 상기 양안 시점의 위치 및 방향에서 각각 3차원 세계에 대해 2차원으로 투사된 영상들을 얻고, 얻어진 두 영상들을 스테레오 렌더링하여 3차원 그래픽 영상을 생성하는 제6단계를 포함함을 특징으로한다. And characterized in that it comprises a sixth step of obtaining a projected image in the position and direction of the both eyes in a two-dimensional point for the three-dimensional world, respectively, produce a three-dimensional graphic image by stereo rendering the two images obtained.

상기 기술적 과제를 이루기위한, 본 발명은 사용자가 입력한 물체의 관찰점 이동정보 및 가상 시점 이동 정보로부터 해당 물체에 대한 3차원 정보 및 가상 시점의 이동위치를 계산하는 제1단계; To achieve the above-mentioned technical problem, the present invention provides a first step of the user and calculates the three-dimensional information and the movement position of the virtual viewpoint to the object from the viewing point of the moving object and the virtual viewpoint information input movement information; 계산된 가상 시점과 3차원 세계간 최대, 최소 거리를 구하는 제2단계; To obtain the calculated time of the virtual three-dimensional maximum and minimum distance between the world second step; 상기 최대 및 최소 거리간 차를 구하고, 구해진 차로부터 양안 시점 사이의 거리를 구하며, 구해진 거리로부터 양안 시점의 위치를 구하는 제4단계; A fourth step of obtaining the difference between the maximum and minimum distance, the seek distance between both eyes at this time from the calculated difference, to obtain the position of both eyes at this time from the calculated distance; 및 상기 양안 시점의 방향을 구하는 제5단계를 포함함을 특징으로한다. And it characterized in that it comprises a fifth step of obtaining the direction of the binocular point.

이하에서 첨부된 도면을 참조하여 본 발명의 실시예를 보다 상세히 설명하기로 한다. With reference to the accompanying drawings now it is made In detail to embodiments of the present invention. 도 2는 본 발명에 따른 3차원 그래픽 영상 생성 방법에 대한 흐름도이다. Figure 2 is a flow chart of a three-dimensional graphic image generation process according to the invention. 도 2에 따른 3차원 그래픽 영상 생성 방법은 사용자의 정보입력 단계(200), 물체의 3차원 정보 및 가상 시점 이동 위치 계산 단계(202), 가상 시점의 위치와 3차원 세계간 최대, 최소 거리 계산 단계(204), 양안 시점간 거리 계산 단계(206), 양안 시점의 위치 계산 단계(208), 양안 시점의 방향 계산 단계(210), 양안 시점에서 2차원 투사 영상 생성 단계(212) 및 렌더링 단계(214)를 포함한다. Figure 3D graphic image generation method the user of the information input step 200, a three-dimensional object information and virtual viewpoint movement position calculation step 202, the position and the 3-D world for up, calculate the minimum distance of the virtual viewpoint according to the second step 204, between both eyes point distance calculating step 206, a position calculation step of the binocular point 208, a direction calculation step of the binocular point 210, the two-dimensional projection image generating step on the binocular point 212 and the rendering step It comprises 214.

먼저, 사용자는 다수의 물체들이 존재하는 3차원 컴퓨터 그래픽 영상을 생성하고자할 때, 두가지 정보를 입력한다(200단계). First, the user inputs, two kinds of information when it is desired to produce a three-dimensional computer graphics image which there are a plurality of objects (step 200). 하나는 사용자가 관심을 가지고 보는 물체를 변경하거나 동일한 물체에서도 관찰점을 변경하는 경우 사용자는 이에 대한 정보를 입력 장치, 예를 들어, 응시 인식 장치 또는 마우스 등을 통해 입력한다. One is input by a user may change the object to see with interest, or change the viewing point in the same object, the user input device, information about it, e.g., gaze recognition apparatus or a mouse, and so on. 여기서, 관찰점이란 관찰자의 양안에 해당하는 좌/우 두 시점이 바라보는 물체에 위치하는 점이다. Here, the observation point is a point which is located on the object to view the two points in time the left / right views corresponding to both eyes of the observer. 예를 들어, 관찰점은 해당 물체의 중심점이 될 수 있다. For example, the viewing point may be a center point of the object. 물체의 중심점은 다음 식과 같이 해당 물체의 3차원 경계값을 평균한 값으로부터 구할 수 있다. The center point of the object can be determined from the average value of the three-dimensional boundary value of the object by the following equation.

여기서, O x ,O y ,O z 는 해당 물체의 3차원 중심좌표이고, i max ,i min 는 각각 해당 물체의 i축 방향으로의 최대, 최소 경계값이다. Here, O x, O y, O z is the center of the three-dimensional object coordinates, i max, i min are respectively the maximum and minimum boundary value of the i-axis direction of the object.

다른 하나는 3차원 세계를 자유로이 이동하기 위해서 사용자가 입력하는 가상 시점의 이동 정보이다. The other is a mobile information of the virtual point of view that the user enters in order to freely move the three-dimensional world. 시점은 3차원 세계를 2차원 모니터상에 투영하기 위해, 예를 들어, 카메라와 같은 투영장치가 위치하는 3차원 공간상의 한 점이다. Point is a point in three-dimensional space in order to project a three dimensional world onto a two-dimensional display, for example, a projection device such as the camera position. 인간이 3차원 세계를 바라보기 위해서는 두 눈이 있어야하고 그 두 눈이 어디를 향하고 있으며 두 눈을 포함하는 머리의 공간적 방향을 정해야 한다. To view humans at the three-dimensional world have two eyes and headed where his eyes and shall define the spatial orientation of the head, including the eyes. 마찬가지로 시점도 상술한 요소들을 모두 포함해야한다. Similarly, point also shall include all of the above elements. 도 3은 이러한 요소들을 도시한 것이다. Figure 3 shows these elements. 도 3에 따르면, 3차원 세계 좌표(X,Y,Z) 상의 3차원 물체를 2차원 모니터에 투영하기 위해서는 시점(V), 시점에서 바라보는 방향을 나타내는 방향 벡터(O), 시점의 법선 방향을 가리키는 헤드 벡터(H)가 필요하다. Referring to Figure 3, the 3D world coordinates (X, Y, Z) in order to project a three-dimensional object on a two-dimensional monitor, the point (V), the normal direction of the direction vector point (O), that indicates the direction viewed from the point in time in the the vector head (H) that points to the need.

가상 시점은 인간의 양안에 해당되는 좌우 두 시점을 얻기 위해 편의상 정의한 시점으로서, 3차원 공간상에서 좌우 두 시점을 이은 선분의 중심점에 위치한다. Virtual time is a time defined for convenience in order to obtain both the left and right corresponding to the human binocular point and is located at the center point of the line segment, following the two points in time depends on the three-dimensional space.

이렇게 입력된 정보들을 이용하여 3차원 세계에서 해당 물체의 임의의 점을 관찰점으로 정한다. Thus it determined using the input information to an arbitrary point of the object in the 3D world to the viewing point. 이를 이용하여 현재 가상 시점 위치로부터 이동 후의 가상 시점의 새로운 위치를 계산한다(202단계). By using it to calculate the new position of the virtual viewpoint after the movement from the current virtual viewpoint position (step 202).

다음으로, 현재 정의된 모든 물체를 포함하는 3차원 세계와 가상 시점사이의 최대 및 최소 거리를 구한다(204단계). Next, calculate the maximum and minimum distance between the three dimensional world and the virtual point of view that includes all objects currently defined (step 204). 최대 및 최소 거리는 각각 가상 시점에서 3차원 세계까지의 최대 및 최소 깊이에 해당한다. The maximum and minimum distances respectively corresponding to the maximum and minimum depth in the virtual three-dimensional point from the world.

204단계에서 구해진 최대 및 최소 거리간 차(깊이)를 구한다. Obtain the maximum and minimum distance between the difference (D) determined in step 204. 이 차로부터 가시거리에 따라 허용되는 양안 시점간 거리를 구한다(206단계). Calculate the distance between both eyes time allowed according to the line-of-sight from the difference (step 206). 실험적으로 결정된 양안 시점간 거리 ES는 다음 식과 같이 구할 수 있다. Experimentally determined between both eyes ES point distance can be obtained by the following equation.

여기서, z는 최대 거리와 최소 거리의 차이고, s는 모니터 스크린의 높이이다. Here, z is a coach, s of the maximum distance and the minimum distance is the height of the monitor screen.

수학식 2에 따르면, 모니터 스크린의 높이가 일정하다고 가정하면, 양안 시점간 거리는 바라보는 3차원 세계의 최대 거리와 최소 거리의 차가 클수록 작아지고, 차이가 클수록 커지는 것을 알 수 있다. According to Equation 2, assuming that the height of the monitor screen, calendar, to-point cross-strait larger difference between the maximum distance and the minimum distance of the three-dimensional world, looking at the distance becomes smaller, it can be seen that the greater the greater the difference. 따라서, 3차원 세계 전체의 깊이 차가 큰 경우 양안 시점 사이의 거리를 줄임으로써 결과적으로 모니터에 투영되어 나타나는 좌/우 영상사이의 동일 물체에 대한 시차가 작아진다. Therefore, the time difference relative to the same object between three-dimensional world, if the difference of the total depth larger binocular point L / R As a result, the projection is shown on the monitor by reducing the distance between the image is small.

반대로, 3차원 세계 전체의 깊이 차가 작은 경우, 양안 시점 사이의 거리를 늘림으로써 모니터에 투영되어 나타나는 좌/우 영상사이의 동일 물체에 대한 시차가 커져서 전체적으로 깊이감이 크게 된다. In contrast, the three-dimensional case of the global total depth difference is small, the time difference is large, overall depth for the same object point between both eyes L / R is shown projected onto a monitor by increasing the distance between the image becomes large.

상기 수학식 2에 따라 결정된 양안 시점간 거리 ES로부터 양안 시점의 위치를 결정한다(208단계). It determines the position of both eyes at this time from the determined time distance between both eyes ES according to the equation 2 (step 208). 좌측 시점의 위치 E L , Position of the left-viewpoint E L, 우측 시점의 위치 E R 는 각각 다음 식과 같이 결정된다. Location E R of the right point are each determined by the following equation.

구해진 양안 시점의 위치에서 바라보는 방향이 그 물체의 중심점에서 일치하도록 좌측 시점의 방향 E LO , 우측 시점의 방향 E RO 를 다음 식과 같이 결정한다(210단계). And a direction seen from the binocular viewpoint position of the obtained crystal direction E LO, RO direction E of the right point in time to match the left side from the center point of the object by the following equation (step 210).

이와 같이 설정된 양안 시점에서 생성된 3차원 세계의 2차원 투영 영상에서 사용자가 관심을 가지는 물체의 시차는 0이 되고, 물리적인 깊이는 컴퓨터 모니터 위가 되어 수렴과 초점이 일치하게 된다. Thus, the time difference between the object the user is interested in the two-dimensional projection image of the three-dimensional world generated by the binocular set point is zero, the physical depth is above the computer monitor is the convergence and focus matching.

도 4는 관심있는 물체에 대해 양안 시점에서 광축을 교차시키는 예를 도시한 것이다. 4 shows an example of crossing the optical axis at the time of both eyes for the object of interest. 도시된 바에 따르면, 양안 시점의 위치에서 바라보는 방향이 관심있는 물체(물체 2)의 중심점에서 일치하도록 결정되었음을 알 수 있다. According to the illustrated bar, it can be seen that the crystal direction seen from the binocular viewpoint position to match the center point of the object (object 2) of interest.

상술한 바와 같이 결정된 양안 시점의 위치와 양안 시점이 바라보는 방향을 이용하여 3차원 공간에 대한 2개의 투사된 영상을 생성하고(212단계), 스테레오 렌더링하여 3차원 그래픽 영상을 생성한다(214단계). 2 generates a single projected image (step 212), and generates a 3D graphic image by stereo rendering (step 214 for the three-dimensional space using the position and the viewing direction is binocular viewpoint at the determined binocular point as described above, ).

본 발명에 따르면, 사용자로부터 응시할 물체의 변경 또는 동일 물체내에서의 관찰점 변경에 대한 정보를 입력받고, 해당 물체에 대한 수렴 및 초점이 일치되도록 카메라의 양안 시점의 위치 및 방향을 결정하여 2차원으로 투영함으로써 주변 물체들에 대해 상대적 깊이감을 얻을 수 있고, 눈의 피로감을 감소시킬 수 있다. In accordance with the present invention, it receives the information on the viewing point changes in a change, or the same object on the object take the user, the convergence and focus on the object in line to determine the position and orientation of the camera binocular point two-dimensional by projecting into it is possible to obtain a sense of depth relative to the surrounding objects, it is possible to reduce the fatigue of the eyes.

Claims (10)

  1. 사용자가 입력한 물체의 관찰점 이동정보 및 가상 시점 이동 정보로부터 해당 물체에 대한 3차원 정보 및 가상 시점의 이동위치를 계산하는 제1단계; A first step of the user and calculates the three-dimensional information and the movement position of the virtual viewpoint to the object from the observation point moving information and moving the virtual viewpoint information of an object type;
    계산된 가상 시점과 3차원 세계간 최대, 최소 거리를 구하는 제2단계; To obtain the calculated time of the virtual three-dimensional maximum and minimum distance between the world second step;
    상기 최대 및 최소 거리간 차를 구하고, 구해진 차로부터 양안 시점 사이의 거리를 구하며, 구해진 양안 시점 거리로부터 양안 시점의 위치를 구하는 제4단계; A fourth step of obtaining the difference between the maximum and minimum distance, the seek distance between both eyes at this time from the calculated difference, to obtain the position of both eyes at this time from the binocular point distance calculated;
    상기 양안 시점의 방향을 구하는 제5단계; The fifth step to obtain the direction of the binocular point; And
    상기 양안 시점의 위치 및 방향에서 각각 3차원 세계에 대해 2차원으로 투사된 영상들을 얻고, 얻어진 두 영상들을 스테레오 렌더링하여 3차원 그래픽 영상을 생성하는 제6단계를 포함함을 특징으로하는 3차원 그래픽 영상 생성 방법. 3-D graphics, characterized in that it comprises a sixth step of obtaining a projected image from the position and orientation of the binocular point in two dimensions for a three-dimensional world, respectively, produce a three-dimensional graphic image by stereo rendering the two images obtained image generation method.
  2. 제1항에 있어서, 상기 제4단계의 양안 시점간 거리 ES는 z가 상기 최대 거리와 최소 거리의 차를 나타내고, s가 모니터 스크린의 높이를 나타낼 때, 다음의 수학식 The method of claim 1, wherein the binocular point, the distance between the ES of the fourth step is z represents the difference between the maximum distance and the minimum distance, when the s indicates the height of the monitor screen, the following equation
    과 같이 결정됨을 특징으로하는 3차원 그래픽 영상 생성 방법. 3D graphic image generation method characterized by the steps determined.
  3. 제1항에 있어서, 상기 제4단계의 양안 시점의 위치는 The method of claim 1, wherein the position of both eyes of the time the fourth step is
    구해진 양안 시점간 거리를 ES라 하면, 좌측 시점의 위치 E L If the distance La between the obtained binocular point ES, the left-viewpoint position E L 및 우측 시점의 위치 E R 각각은 다음의 수학식 And where R E each time the right of the equation, and then
    과 같이 결정됨을 특징으로하는 3차원 그래픽 영상 생성 방법. 3D graphic image generation method characterized by the steps determined.
  4. 제1항에 있어서, 상기 제5단계의 양안 시점의 방향은 The method of claim 1, wherein the direction of the binocular point of the fifth step,
    상기 제4단계에서 구해진 양안 시점의 위치에서 물체를 바라보는 방향이 그 물체의 중심점에서 일치하도록 결정됨을 특징으로하는 3차원 그래픽 영상 생성 방법. 3D graphic image generation method characterized by the determined such that the positions of both eyes look at an object in the time determined in the fourth step match the direction from the center point of the object.
  5. 제4항에 있어서, 상기 양안 시점의 방향은 The method of claim 4, wherein the direction of the binocular point
    상기 제4단계에서 구해진 좌측 시점의 위치를 E L , 우측 시점의 위치를 E R , 그리고 관심있는 물체의 3차원 좌표를 O라 할 때, 좌측 시점의 방향 E LO 및 우측 시점의 방향 E RO 은 각각 다음의 수학식 When referred to the position of the left-viewpoint obtained in the Step 4 E L, the position of the right-viewpoint E R, and a three-dimensional coordinate of the interested object O, the direction E LO and the direction E RO of the right point to the left point, respectively, the following equation
    과 같이 결정됨을 특징으로하는 3차원 그래픽 영상 생성 방법. 3D graphic image generation method characterized by the steps determined.
  6. 사용자가 입력한 물체의 관찰점 이동정보 및 가상 시점 이동 정보로부터 해당 물체에 대한 3차원 정보 및 가상 시점의 이동위치를 계산하는 제1단계; A first step of the user and calculates the three-dimensional information and the movement position of the virtual viewpoint to the object from the observation point moving information and moving the virtual viewpoint information of an object type;
    계산된 가상 시점과 3차원 세계간 최대, 최소 거리를 구하는 제2단계; To obtain the calculated time of the virtual three-dimensional maximum and minimum distance between the world second step;
    상기 최대 및 최소 거리간 차를 구하고, 구해진 차로부터 양안 시점 사이의 거리를 구하며, 구해진 거리로부터 양안 시점의 위치를 구하는 제4단계; A fourth step of obtaining the difference between the maximum and minimum distance, the seek distance between both eyes at this time from the calculated difference, to obtain the position of both eyes at this time from the calculated distance; And
    상기 양안 시점의 방향을 구하는 제5단계를 포함함을 특징으로하는 3차원 그래픽을 위한 양안 시차 조절 방법. Binocular parallax control method for three-dimensional graphics, characterized in that it comprises a fifth step of obtaining the direction of the binocular point.
  7. 제6항에 있어서, 상기 제4단계의 양안 시점간 거리 ES는 z가 상기 최대 거리와 최소 거리의 차를 나타내고, s가 모니터 스크린의 높이를 나타낼 때, 다음의 수학식 The method of claim 6, wherein the binocular point, the distance between the ES of the fourth step is z represents the difference between the maximum distance and the minimum distance, when the s indicates the height of the monitor screen, the following equation
    과 같이 결정됨을 특징으로하는 3차원 그래픽을 위한 양안 시차 조절 방법. Binocular parallax control method for three-dimensional graphics, characterized by determined as follows.
  8. 제6항에 있어서, 상기 제4단계의 양안 시점의 위치는 The method of claim 6, wherein the position of both eyes of the time the fourth step is
    구해진 양안 시점간 거리를 ES라 하면, 좌측 시점의 위치 E L If the distance La between the obtained binocular point ES, the left-viewpoint position E L 및 우측 시점의 위치 E R 각각은 다음의 수학식 And where R E each time the right of the equation, and then
    과 같이 결정됨을 특징으로하는 3차원 그래픽을 위한 양안 시차 조절 방법. Binocular parallax control method for three-dimensional graphics, characterized by determined as follows.
  9. 제6항에 있어서, 상기 제5단계의 양안 시점의 방향은 The method of claim 6, wherein the direction of the binocular point of the fifth step,
    상기 제4단계에서 구해진 양안 시점의 위치에서 물체를 바라보는 방향이 그 물체의 중심점에서 일치하도록 결정됨을 특징으로하는 3차원 그래픽을 위한 양안 시차 조절 방법. Binocular parallax adjustment method is looking up at the object at the position of both sides the point obtained in the first stage 4-way for three-dimensional graphics, characterized by determined to match the center point of the object.
  10. 제9항에 있어서, 상기 양안 시점의 방향은 10. The method of claim 9, the direction of the binocular point
    상기 제4단계에서 구해진 좌측 시점의 위치를 E L , 우측 시점의 위치를 E R , 그리고 관심있는 물체의 3차원 좌표를 O라 할 때, 좌측 시점의 방향 E LO 및 우측 시점의 방향 E RO 은 각각 다음의 수학식 When referred to the position of the left-viewpoint obtained in the Step 4 E L, the position of the right-viewpoint E R, and a three-dimensional coordinate of the interested object O, the direction E LO and the direction E RO of the right point to the left point, respectively, the following equation
    과 같이 결정됨을 특징으로하는 3차원 그래픽을 위한 양안 시차 조절 방법. Binocular parallax control method for three-dimensional graphics, characterized by determined as follows.
KR1019990020487A 1999-06-03 1999-06-03 3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor KR100294925B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019990020487A KR100294925B1 (en) 1999-06-03 1999-06-03 3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019990020487A KR100294925B1 (en) 1999-06-03 1999-06-03 3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor

Publications (2)

Publication Number Publication Date
KR20010001341A true KR20010001341A (en) 2001-01-05
KR100294925B1 KR100294925B1 (en) 2001-07-12

Family

ID=19589835

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990020487A KR100294925B1 (en) 1999-06-03 1999-06-03 3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor

Country Status (1)

Country Link
KR (1) KR100294925B1 (en)

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002015595A1 (en) * 2000-08-18 2002-02-21 Georae. Ltd. A method and system of revision for 3-dimensional image
US7084838B2 (en) 2001-08-17 2006-08-01 Geo-Rae, Co., Ltd. Method and system for controlling the motion of stereoscopic cameras using a three-dimensional mouse
US8290244B2 (en) 2005-08-31 2012-10-16 Samsung Electronics Co., Ltd. Apparatus and method for controlling depth of three-dimensional image
WO2012169693A1 (en) * 2011-06-10 2012-12-13 엘지전자 주식회사 Method for processing image and apparatus for processing image
WO2013067683A1 (en) * 2011-11-08 2013-05-16 Industrial Technology Research Institute Method and image acquisition system for rendering stereoscopic images from monoscopic images
WO2014007414A1 (en) * 2012-07-06 2014-01-09 Lg Electronics Inc. Terminal for increasing visual comfort sensation of 3d object and control method thereof
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US9207708B2 (en) 2010-04-23 2015-12-08 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9521289B2 (en) 2011-06-10 2016-12-13 Flir Systems, Inc. Line based image processing and flexible memory system
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9635220B2 (en) 2012-07-16 2017-04-25 Flir Systems, Inc. Methods and systems for suppressing noise in images
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US9706139B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Low power and small form factor infrared imaging
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US9723227B2 (en) 2011-06-10 2017-08-01 Flir Systems, Inc. Non-uniformity correction techniques for infrared imaging devices
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9807319B2 (en) 2009-06-03 2017-10-31 Flir Systems, Inc. Wearable imaging devices, systems, and methods
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US9918023B2 (en) 2010-04-23 2018-03-13 Flir Systems, Inc. Segmented focal plane array architecture
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101747929B1 (en) * 2010-12-21 2017-06-16 한국전자통신연구원 Apparatus and method for improving image quality of stereoscopic images

Cited By (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002015595A1 (en) * 2000-08-18 2002-02-21 Georae. Ltd. A method and system of revision for 3-dimensional image
US7084838B2 (en) 2001-08-17 2006-08-01 Geo-Rae, Co., Ltd. Method and system for controlling the motion of stereoscopic cameras using a three-dimensional mouse
US7091931B2 (en) 2001-08-17 2006-08-15 Geo-Rae Co., Ltd. Method and system of stereoscopic image display for guiding a viewer's eye motion using a three-dimensional mouse
US8290244B2 (en) 2005-08-31 2012-10-16 Samsung Electronics Co., Ltd. Apparatus and method for controlling depth of three-dimensional image
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US10033944B2 (en) 2009-03-02 2018-07-24 Flir Systems, Inc. Time spaced infrared image enhancement
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US9843743B2 (en) 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US9807319B2 (en) 2009-06-03 2017-10-31 Flir Systems, Inc. Wearable imaging devices, systems, and methods
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US9207708B2 (en) 2010-04-23 2015-12-08 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US9918023B2 (en) 2010-04-23 2018-03-13 Flir Systems, Inc. Segmented focal plane array architecture
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
US9716844B2 (en) 2011-06-10 2017-07-25 Flir Systems, Inc. Low power and small form factor infrared imaging
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9723227B2 (en) 2011-06-10 2017-08-01 Flir Systems, Inc. Non-uniformity correction techniques for infrared imaging devices
US9723228B2 (en) 2011-06-10 2017-08-01 Flir Systems, Inc. Infrared camera system architectures
US10230910B2 (en) 2011-06-10 2019-03-12 Flir Systems, Inc. Infrared camera system architectures
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US9269177B2 (en) 2011-06-10 2016-02-23 Lg Electronics Inc. Method for processing image and apparatus for processing image
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US9706139B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Low power and small form factor infrared imaging
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
US10250822B2 (en) 2011-06-10 2019-04-02 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US9521289B2 (en) 2011-06-10 2016-12-13 Flir Systems, Inc. Line based image processing and flexible memory system
WO2012169693A1 (en) * 2011-06-10 2012-12-13 엘지전자 주식회사 Method for processing image and apparatus for processing image
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US9538038B2 (en) 2011-06-10 2017-01-03 Flir Systems, Inc. Flexible memory systems and methods
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
WO2013067683A1 (en) * 2011-11-08 2013-05-16 Industrial Technology Research Institute Method and image acquisition system for rendering stereoscopic images from monoscopic images
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9674501B2 (en) 2012-07-06 2017-06-06 Lg Electronics Inc. Terminal for increasing visual comfort sensation of 3D object and control method thereof
WO2014007414A1 (en) * 2012-07-06 2014-01-09 Lg Electronics Inc. Terminal for increasing visual comfort sensation of 3d object and control method thereof
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
US9635220B2 (en) 2012-07-16 2017-04-25 Flir Systems, Inc. Methods and systems for suppressing noise in images
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views

Also Published As

Publication number Publication date
KR100294925B1 (en) 2001-07-12

Similar Documents

Publication Publication Date Title
Ohshima et al. Gaze-directed adaptive rendering for interacting with virtual space
Hubona et al. The relative contributions of stereo, lighting, and background scenes in promoting 3D depth visualization
Loomis et al. Visual perception of egocentric distance in real and virtual environments
DE69434685T2 (en) Image processing method and apparatus
Azuma A survey of augmented reality
EP0328357B1 (en) Stereoscopic graphics display system with multiple windows for displaying multiple images
US8000521B2 (en) Stereoscopic image generating method and apparatus
EP0817123B1 (en) Stereoscopic display system and method
US20070035511A1 (en) Compact haptic and augmented virtual reality system
JP3728160B2 (en) Depth image measuring apparatus and method, and mixed reality presentation system
US20080024597A1 (en) Face-mounted display apparatus for mixed reality environment
EP1876840B1 (en) Image display device and image display method
EP0969418A2 (en) Image processing apparatus for displaying three-dimensional image
Rolland et al. Multifocal planes head-mounted displays
AU2008270883B2 (en) Virtual interactive presence systems and methods
CA2236329C (en) Three-dimensional drawing system and method
CN106662731B (en) Wearable 3D augmented reality display
US6005607A (en) Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
US20060119572A1 (en) Movable audio/video communication interface system
US20020186348A1 (en) Adaptive autostereoscopic display system
US6677939B2 (en) Stereoscopic image processing apparatus and method, stereoscopic vision parameter setting apparatus and method and computer program storage medium information processing method and apparatus
US20020075201A1 (en) Augmented reality visualization device
US20020084996A1 (en) Development of stereoscopic-haptic virtual environments
EP0836332B1 (en) Position-adaptive, autostereoscopic monitor (PAM)
JP3318680B2 (en) Image generation method and image generation device

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120329

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20130328

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20160330

Year of fee payment: 16

FPAY Annual fee payment

Payment date: 20170330

Year of fee payment: 17

LAPS Lapse due to unpaid annual fee