KR20010096556A - 3D imaging equipment and method - Google Patents

3D imaging equipment and method Download PDF

Info

Publication number
KR20010096556A
KR20010096556A KR1020010001783A KR20010001783A KR20010096556A KR 20010096556 A KR20010096556 A KR 20010096556A KR 1020010001783 A KR1020010001783 A KR 1020010001783A KR 20010001783 A KR20010001783 A KR 20010001783A KR 20010096556 A KR20010096556 A KR 20010096556A
Authority
KR
South Korea
Prior art keywords
image
image data
camera
stereoscopic
distance
Prior art date
Application number
KR1020010001783A
Other languages
Korean (ko)
Inventor
정재문
Original Assignee
정재문
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 정재문 filed Critical 정재문
Publication of KR20010096556A publication Critical patent/KR20010096556A/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Abstract

PURPOSE: A three dimensional image input and output method and apparatus are provided to efficiently reproduce an optical effect generated based on both eyes when a human observes an object. CONSTITUTION: A photographing device controls a vertical direction posture and an up-and-down motion of a camera and photographs various screens generated when a human observes an object. The photographing device and the object are loaded on a turntable. A motor controller(24) controls operations of a photographing device and a turntable. A camera interface device(26) controls a focus distance and a zoom of a camera. The camera interface device(26) inputs image data from the camera. An image output device(30) includes a computer(22), a three dimensional image display section(31), a distance sensor(32), and a three dimensional display interface device.

Description

입체영상 입출력 방법 및 장치 { 3D imaging equipment and method }3D imaging equipment and method

본 발명은, 가상현실을 통한 대상물에 대한 쌍방향 양안입체시를 가능하게 해주는 입체화상의 입출력 장치 및 방법에 관한 것이다.The present invention relates to a stereoscopic image input and output device and a method for enabling bidirectional binocular vision for an object through virtual reality.

인터넷, CD-ROM 등과 같은 디지털 매체를 이용한 전자상거래, 가상박물관, 디지털백과사전 및 카타로그 등의 이용이 증가하고 있는 추세이다. 이러한 경우에 가상현실을 통한 물체에의 시각적 접근을 더욱 효과적으로 해 주기 위해서는, 사진과 같은 평면화상 뿐 만 아니라 마치 눈앞에 실제 대상물이 있는 것과 같은 양안 입체시에 의한 충분한 입체감과 사용자가 대상물을 보는 방향이나 자세등을 자유로이 선택 가능하게 하는 등의 쌍방향성을 제공할 필요가 있다.The use of electronic commerce, virtual museums, digital encyclopedias and catalogs using digital media such as the Internet and CD-ROMs is increasing. In this case, in order to make the visual access to the object through virtual reality more effective, not only the planar image like the photograph but also the sufficient stereoscopic sense by the binocular stereoscopic view as if the real object is in front of the eyes and the direction in which the user views the object It is necessary to provide bidirectionality such as freely selecting posture, posture, and the like.

이러한 목적을 달성하기 위하여 지금까지 주로 화상정보로 부터 대상물의 입체형상을 복원하여 이로부터 양안입체시에 필요한 화상페어를 얻었다. 그러나, 입체형상복원은 컴퓨터비젼분야의 중요한 과제의 하나로 오랫동안의 활발한 연구에도 불구하고 나름대로의 여러가지 문제점을 가진다.In order to achieve this purpose, the three-dimensional shape of an object is mainly restored from image information, and thus, an image pair necessary for binocular stereoscopic image has been obtained. However, three-dimensional shape restoration is one of the important tasks in the field of computer vision, but has various problems in its own way despite long active research.

그리고 복원상이 아닌 실화상데이터를 그대로 이용하는 방법의 하나로, 대상물에 대해 좌우로 떨어진 두 위치에서 촬영한 두 장의 화상을 사용자의 좌우 눈의 각각에 보여 시각적인 입체감을 주게하는 스테레오 카메라를 이용하는 방법이 있다. 이 방법은 사용자의 시각사스템과 관찰조건과는 무관하게 나름대로 정해진 구조를 가진 스테레오 카메라로부터 얻어진 두 장의 화상을 이용하기 때문에, 특히 눈에서 가까이 있는 대상물에 대해 사용자에게 위화감, 피로감 및 형상왜곡을 가져다 주는 문제점이 있으며, 특히 다양한 조건에 맞는 전체 화상페어의 집합를 얻기 위해서는 막대한 크기의 데이터가 필요하므로 비실용적이다.One method of using real image data rather than a restored image is to use a stereo camera that shows two images taken from two positions left and right with respect to an object to each of the user's left and right eyes to give a visual three-dimensional impression. . This method uses two images obtained from a stereo camera with a fixed structure regardless of the user's visual system and observation conditions, thus bringing discomfort, fatigue and shape distortion to the user, especially for objects close to the eyes. Note that there is a problem, and in particular, it is impractical because a huge amount of data is required to obtain the entire set of image pairs that meet various conditions.

본 발명은, 이상에서 말한 문제점을 해결하기 위해 창안된 것으로, 인간의 시각시스템에 있어서 양안의 역할의 중요성에 주목하여 인간이 대상물을 관찰 할 때 양안을 중심으로 발생하는 광학적효과를 효율적으로 충실하게 재현하여, 사용자에게 위화감이나 피로감이 없는 쌍방향 가상현실에 통한 대상물에 대한 사실적인 양안입체시를 가능하게 해주는 효율적이며 실용적인 입체화상의 입출력 방법과 장치를 제안한다.The present invention was devised to solve the above-mentioned problems, paying attention to the importance of the role of both eyes in the human visual system, and efficiently and faithfully the optical effects generated around both eyes when a human observes an object. By reproducing, we propose an efficient and practical three-dimensional input / output method and apparatus that enable a user to realistically binocular stereoscopic vision of an object through a two-way virtual reality without discomfort or fatigue.

이 방법은 기본적으로 실화상을 그대로 이용하므로, 보다 실제에 가까운 물체의 입체상을 보여 주는 것이 가능하여, 특히 전자상거래 등에서 요구되는 대상물에 대한 시각적 접근에의 신뢰성을 높인다. 그러나, 상기의 스테레오 카메라를 이용하는 방법과는 달리, 본 방법은 사용자의 양안입체시 관련의 시각시스템과 관찰조건을 충분히 고려하여 적절한 입체상을 제시하므로 사용자에게 위화감, 피로감 및 형상왜곡을 최소화 하고, 특히 다양한 시각 조건에 맞는 전체 화상페어의 집합이 효율적으로 획득, 관리, 출력되게 하여 상대적으로 소량의 데이터를 필요로 하므로 실용성이 뛰어나다.Since this method basically uses a real image as it is, it is possible to show a three-dimensional image of an object closer to reality, and in particular, to enhance the reliability of the visual approach to the object required in electronic commerce and the like. However, unlike the above method of using a stereo camera, the present method provides an appropriate stereoscopic image by fully considering the visual system and observation conditions related to the binocular stereogram of the user, thereby minimizing discomfort, fatigue and shape distortion. In particular, it is excellent in practicality because it requires a relatively small amount of data by efficiently acquiring, managing, and outputting an entire set of image pairs suitable for various visual conditions.

도 1은 화상데이터 획득을 위한 입체화상 입력장치의 구성도,1 is a block diagram of a stereoscopic image input apparatus for obtaining image data;

도 2는 화상데이터 입출력장치에 대한 제어장치의 구성도,2 is a configuration diagram of a control device for an image data input / output device;

도 3은 화상 출력장치의 이용예,3 is a use example of an image output apparatus;

도 4는 설명을 위해 사용 된 간단한 카메라 모델,4 is a simple camera model, used for explanation

도 5는 본 발명의 화상 입력장치 이용의 설명도,5 is an explanatory diagram of the use of the image input device of the present invention;

도 6은 화상데이터 획득의 흐름도.6 is a flowchart of image data acquisition.

도 7은 저장 화상데이터의 구조,7 shows the structure of the stored image data;

도 8은 관찰 대상물과의 거리변화에 대응하는 양 안구의 제어 설명도,8 is a control explanatory diagram of both eyes corresponding to a change in distance from an object to be observed;

도 9는 양안의 제어와 저장 화상데이터간의 관계 설명도,9 is an explanatory diagram illustrating a relationship between binocular control and stored image data;

도 10은 본 발명에 있어서의 입체화상 출력장치의 이용 설명도,10 is an explanatory diagram of use of the three-dimensional image output device according to the present invention;

도 11은 입체화상 출력의 흐름도,11 is a flowchart of a stereoscopic image output;

도 12는 출력 화상페어의 선택 설명도,12 is an explanatory diagram of selection of an output image pair;

도 13은 양안입체시와 출력 화상페어간의 광학적 관계 설명도.13 is an explanatory diagram of an optical relationship between binocular stereoscopic vision and an output image pair;

* 도면의 주요 부분에 대한 부호의 설명* Explanation of symbols for the main parts of the drawings

1. 촬영 대상물 10. 대상물 회전장치1. Shooting object 10. Object rotating device

12. 카메라 14. 카메라와 운동기구로 구성되는 촬영장치12. Camera 14. Shooting device composed of camera and exercise equipment

16. 턴테이블 20. 화상 입출력 제어장치16. Turntable 20. Image input / output controller

22. 컴퓨터 24. 모터 제어기22. Computer 24. Motor Controller

26. 카메라 인터페이스 30. 화상 출력장치26. Camera Interface 30. Image Output Device

31. 입체상 디스플레이장치 32. 거리 센서31. Stereoscopic display device 32. Distance sensor

본 발명은 양안입체시를 위한 입체영상 입출력 방법 및 장치에 관한 것이다.The present invention relates to a stereoscopic image input and output method and apparatus for binocular stereoscopic vision.

이러한 본 발명은 인간이 대상물을 관찰 할 때 양안을 중심으로 발생하는 광학적 효과를 효율적으로 재현하여, 가상공간을 통한 입체형상 관찰자에게 위화감이나 피로감이 없는 쌍방향성 양안입체시를 가능하게 해 준다. 본 발명에서의 방법은 개략적으로, 한 대의 카메라로부터 촬영하여 얻은 회전하는 대상물에 대한 연속화상열을 화상데이터로서 기억매체에 압축하여 저장하는 제 1수단; 제 1수단에 의해 저장된 화상데이터로 부터 양안입체시로 대상물을 관찰하는데 적절한 화상페어를 선택하는 제 2수단; 그리고 제 2수단에 의해 선택된 화상페어에 대한 압축을 풀어 관찰자의 좌우 각각의 눈에 표시하도록 하는 제 3수단으로 구성되는 것을 특징으로 한다The present invention efficiently reproduces the optical effects that occur around both eyes when a human observes an object, thereby enabling an interactive binocular vision without discomfort or fatigue to a stereoscopic observer through a virtual space. The method according to the present invention comprises: first means for compressing and storing a continuous image sequence for a rotating object obtained by photographing from a single camera in a storage medium as image data; Second means for selecting from the image data stored by the first means an image pair suitable for observing an object in binocular stereoscopic manner; And third means for decompressing the image pair selected by the second means so as to be displayed on each of the left and right eyes of the observer.

이하, 본 발명의 한가지 실시형태를 도면을 참고해서 설명한다. 또, 각 도면에 있어서의 공통적인 부분에는 동일부호를 붙여서 사용한다.EMBODIMENT OF THE INVENTION Hereinafter, one Embodiment of this invention is described with reference to drawings. In addition, the same code | symbol is attached | subjected and used for the common part in each drawing.

본 발명의 기본개념은, 눈앞의 대상물을 인간이 관찰할 때 발생하는 다양한 장면을 평면의 화상열 형식으로 앞축, 보관하고, 가상공간상에서 해당대상물을 보는 사용자의 시각시스템의 특성과, 양안과 디스플레이면 간의 관계등에 맞추어 가장 적합한 화상페어를 보관 화상데이터로부터 선택하고 압축을 풀어 사용자의 좌우안에 제시하는 것이다. 이 때, 양안에 대한 대상물의 보이는 방향, 자세 그리고 화상확대율 등이 사용자에 의해 선택 가능한 쌍방향성이 지원된다.The basic concept of the present invention is to store and store various scenes generated when a human observes an object in front of him in the form of a planar image, and to view the object in a virtual space, and the characteristics of the user's visual system, binocular and display. The most suitable image pair is selected from the archive image data according to the relationship between the surfaces, and decompressed to be presented to the left and right of the user. At this time, the viewing direction, posture, and image magnification of the object for both eyes are supported by the user.

도 1은, 화상데이터를 얻기 위한 입체화상 입력장치의 구성도이다. 이 그림에서 보이는 것처럼, 화상입력장치(10)은 초점거리와 줌의 조절이 가능한 카메라(12)를 1대 장착한 촬영장치(14)와 촬영대상물(1)을 싣는 턴테이블(16)로 구성된다. 촬영장치(14)는 카메라(12)의 수직방향자세와 상하이동 등을 제어하여, 인간이 대상물을 관찰할 때 생기는 다양한 장면을 촬영하여, 이것을 연속화상열형식의 화상데이터로서 압축해서 저장하는데 이용된다.1 is a configuration diagram of a stereoscopic image input device for obtaining image data. As shown in this figure, the image input device 10 is composed of a photographing device 14 equipped with one camera 12 capable of adjusting the focal length and zoom, and a turntable 16 carrying the photographing object 1. . The photographing apparatus 14 controls the vertical posture of the camera 12, the shanghai dong, and the like, to photograph various scenes that occur when a human observes an object, and to compress and store them as image data in a continuous image format. .

도 2는, 화상입력장치(10)와 출력장치(30)을 제어하는 제어장치의 구성도이다. 이 그림에서, 제어장치는 컴퓨터(22)와 그것에 연결된, 촬영장치(14)와 턴테이블(16)의 각축의 동작을 제어하는 모터제어기(24)와, 카메라(12)의 초점거리와 줌의 제어와 카메라(12)로 부터의 화상데이터의 입력을 담당하는 카메라 인터페이스(26) 등으로 구성된다. 화상출력장치(30)는, 컴퓨터(22), 입체화상 디스플레이(31), 거리센서(32) 그리고 입체화상 디스플레이 인터페이스(33)로 구성된다. 도 3은, 도 2에서 보이는 화상출력장치(30)의 한 구성예이다.2 is a configuration diagram of a control device for controlling the image input device 10 and the output device 30. In this figure, the control device controls the focal length and zoom of the camera 12 and the motor controller 24 for controlling the operation of each axis of the imaging device 14 and the turntable 16 connected to the computer 22 and it. And a camera interface 26 or the like that is responsible for inputting image data from the camera 12. The image output device 30 is composed of a computer 22, a stereoscopic image display 31, a distance sensor 32 and a stereoscopic image display interface 33. 3 is a configuration example of the image output device 30 shown in FIG.

(화상데이터 취득과 보관)(Image data acquisition and storage)

도 4는, 카메라의 촬영 제어를 설명하기 위한 간단한 카메라(12)의 모델을 나타낸다. 이 카메라는 원하는 크기로 그것의 화상면에 선명하게 대상물이 투영되도록 렌즈의 초점거리와 줌이 제어된다. 이 경우 (수식 1)의 관계가 성립한다.4 shows a model of the simple camera 12 for explaining the shooting control of the camera. The camera's focal length and zoom are controlled so that the object is clearly projected onto its image plane at the desired size. In this case, the relationship of Equation 1 holds.

여기서 f 는 렌즈의 투영중심점 c 에서 화상면 까지의 거리 즉 초점거리를, d 는 c 에서 대상물까지의 거리를 나타낸다. 또 Y 와 y 는 각각 대상물의 크기와 그것의 화상면에서의 투영상의 크기를 표시한다.Where f is the distance from the projection center point c of the lens to the image plane, i.e. the focal length, and d is the distance from c to the object. And Y and y respectively indicate the size of the object and the size of the projected image on its image plane.

도 5는, 본발명의 화상입력장치(10)의 측면도이며 도 6은 화상데이터획득의 흐름도이다. 도5의 턴테이블(16)의 중앙에 올려진 대상물(1) 에 대한 화상데이터의 획득은 도 6의 흐름도에 따라 사용자에 의해 각 대상물별로 이하의 순서로 수행된다.5 is a side view of the image input device 10 of the present invention, and FIG. 6 is a flowchart of image data acquisition. Acquisition of image data for the object 1 mounted on the center of the turntable 16 of FIG. 5 is performed by the user in the following order for each object by the user according to the flowchart of FIG.

우선, 턴테이블(16)의 회전중심선을 통과하게 놓여진 대상물의 촬영중심점 o 를 결정하고, 촬영장치(14)를 조작하여 카메라의 광축이 화상입력장치(10)의 평면 (x 축) 과 수평상태에서 대상물 촬영중심점 o를 향하도록 한다. 이때, 카메라 렌즈의 투영중심점 c 의 위치를 c0 로 하고, 대응하는 화상입력장치(10)에서의 c0 에 대한 y 축 좌표치를 y0 로 한다. 다음 c0 에 카메라를 고정시킨 상태에서 턴테이블(16)를 회전시켜가며 대상물의 가장 큰 투영상까지도 전부 화상면에 들어오도록 렌즈의 초점거리 f를 조정하고 이 값을 f0 라고 한다. 이때 c0 와 대상물 촬영중심점 o 간의 거리를 L 이라고 한다.First, the photographing center point o of the object placed through the rotational center line of the turntable 16 is determined, and the photographing apparatus 14 is operated so that the optical axis of the camera is in a horizontal state with the plane (x axis) of the image input apparatus 10. Point the object at the focal point o. At this time, the position of the projection center point c of the camera lens is set to c0, and the y-axis coordinate value with respect to c0 in the corresponding image input device 10 is set to y0. Next, the turntable 16 is rotated while the camera is fixed to c0, and the focal length f of the lens is adjusted so that even the largest projection image of the object enters the image plane. This value is referred to as f0. In this case, the distance between c0 and the object shooting center o is called L.

그리고, 대상물 촬영중심점 o 를 향해 대상물을 촬영할 때의 c 점의 y 축 좌표치 yj (j=1,2,, ..., J) 를 정한 후, 대응하는 c 점의 값을 cj (j=1,2,, ...,J)로 하고 이것을 yj 에서의 촬영위치라고 부른다. 편의를 위하여이 되도록 한다. 이상의 구성에서 부터, 각 촬영위치 cj 에서의 화상입력장치(10)의 수평 x 축에 대한 시계방향 회전각도는 (수식2)와 같이 주어지며, 이렇게 얻어진 각 cj 에서의 yj,등은 촬영장치(14)의 제어에 이용된다.Then, after determining the y-axis coordinate value yj (j = 1, 2, ..., J) of point c when shooting the object toward the object shooting center point o, the value of the corresponding c point is cj (j = 1). , 2 ,, ..., J) and this is called the shooting position in yj. For convenience To be From the above configuration, the clockwise rotation angle with respect to the horizontal x axis of the image input device 10 at each photographing position cj. Is given by Equation 2, where yj at each cj is And the like are used for controlling the photographing apparatus 14.

카메라의 회전중심점 rc 와 투영중심점 c 간의 거리는, c 와 대상물간의 거리 d 와 비교해 무시 가능할 정도로 작게 되도록 카메라를 배치한다. 그러면 각 카메라 위치 cj 와 대상물 촬영중심점 o 간의 거리 dj 는 (수식3) 과 같이 된다.Distance between camera's center of rotation rc and projection center c Locates the camera so that it is negligibly small compared to the distance d between c and the object. Then, the distance dj between each camera position cj and the object shooting center point o becomes as shown in Equation (3).

c0 위치에 있는 초점거리 f0 의 카메라의 투영상의 크기를 기준으로, 각 촬영위치 cj 에서부터 대상물 촬영중심점 o 까지의 거리 dj 의 변화에 의한 촬영상의 크기의 변화를 보상해 주기 위해서, 카메라 파라메터 f 는 (수식4) 와 같이 조정된다.Based on the projection image size of the camera at the focal length f0 at the c0 position, the camera parameter f is used to compensate for the change in the image size caused by the change of the distance dj from each shooting position cj to the object shooting center point o. It is adjusted as in Equation 4.

여기서,는 c0 에서 정한 투영상의 크기와 비교한 화상확대율이다. 화상확대율의 큰값에 대해서는 해당화상이 자세하게 보이게 확대되어 화상면에 투영되게 된다. 편의를 위하여, 여기서는κ1 = 1 로 하고,(i = 1,2, ... ,I) 의 조건으로 사용자에 의해 결정된다.here, Is the image magnification compared with the size of the projection image determined by c0. Image magnification For a large value of, the image is enlarged in detail to be projected onto the image plane. For convenience, let κ 1 = 1 here, It is determined by the user under the condition of (i = 1,2, ..., I).

이상의 사항을 기초로 대상물에 대한 화상데이터의 획득은, 도 6의 흐름도에 나타낸 것과 같이 i = 1 로부터 I 까지의 각 화상확대율에 대해서 다음과 같은 사항을 반복 수행함에 의해 이루어진다. 즉, j = 1부터 J 까지의 카메라의 촬영위치 cj에서, 한 회전을 N 스텝으로 균등하게 분할한 턴테이블(16)을 N 스텝 회전시킨다. 각 회전스텝에서 촬영하여 얻은 화상 p(i,j,n= 1,2, ... ,N)을 압축해서 얻은 화상 p' (i,j,n)를 도 7과 같은 구조로 기억장치에 저장해 간다. 이 방법에 의해서 다수의 화상데이터를 압축한 형태로 효율적으로 디지털기억 미디어에 저장이 가능하다.On the basis of the above, acquisition of image data for an object is performed by i = 1 to I, as shown in the flowchart of FIG. This is done by repeating the following. That is, at the shooting position cj of the camera from j = 1 to J, the turntable 16 which divided one rotation equally into N steps is rotated by N steps. The image p '(i, j, n) obtained by compressing the image p (i, j, n = 1,2, ..., N) obtained by photographing at each rotation step is stored in the storage device in the structure shown in FIG. Save it. By this method, a plurality of image data can be efficiently stored in digital storage media in a compressed form.

(입체화상 출력)(Stereo image output)

인간이 눈앞의 대상물을 관찰할 때 특히 양안입체시의 역할의 중요성에 대해서는 잘 알려져 있다. 양안에 대한 대상물의 거리, 자세 그리고 눈의 특성 등에 따라서 대상물의 상이 양안의 망막에 투영되어 그것으로부터 인간은 대상물을 인식 또는 관찰하는 것이 가능하게 된다. 도 8은 인간이 양안의 앞에 있는 대상물을 관찰 할 때 일어나는 양안과 대상물간의 관계를 나타낸 평면도로서, 대상물의 보이는 부분의 투영상의 중심이 양안의 각 망막의 중심에 오도록, 양안과 대상물 간의 거리 T 의 변화에 따라서 각 안구를 회전시켜 양안의 시선간의 각도를 변화시키는 것을 나타내고 있다.The importance of the role of binocular vision, in particular, is well known when humans observe objects in front of them. The image of the object is projected onto the retina of both eyes according to the distance, posture, and eye characteristics of the object to both eyes, from which the human being can recognize or observe the object. 8 is a plan view showing the relationship between the binocular and the object occurring when a human observes the object in front of both eyes, the distance T between both eyes and the object such that the projection image of the visible part of the object is at the center of each retina of both eyes. The angle between the eyes of both eyes by rotating each eye according to the change of It shows changing the.

이 그림에서 알 수 있는 바와 같이, 양안의 시선간의 각도는 양안과 대상물간의 거리 T뿐만 아니라 양안간의 거리 docl 에도 영향을 받는다. 같은 거리의 같은 자세의 같은 대상물에 대해서도 사용자간의 docl 의 차이에 따라서 양안의 망막상에는 비록 적기는 하지만 차이가 생기게 된다. 이 개인차는 극히 민감한 인간의 눈에 대해서는 무시할 수 없는 요소가 된다.As can be seen from this figure, the angle between the eyes of both eyes Is influenced not only by the distance T between both eyes and the object, but also by the distance between the eyes. Even for the same object at the same distance and at the same distance, there is a small, but small difference in the retina on both eyes, depending on the difference in docl between users. This individual difference is a factor that cannot be ignored for the very sensitive human eye.

도 9는, 어느 화상확대율와 촬영위치 cj 의 카메라에 대해, 턴테이블 일회전분에 상당하는 N 매의 화상열 (바깥쪽의 큰 원에 상당하는) 과, 양안과 대상물간의 거리 T 와 양안간의 거리 docl 의 관계를 나타내고 있다. 이로부터, 양안의 시선간의 각도는 (수식5)와 같이 나타낼 수 있다.9 is an image magnification ratio And the camera at the photographing position cj, the relationship between the N image strings (corresponding to the outer large circle) corresponding to one turntable turntable, the distance T between the two eyes and the object, and the distance docl between the two eyes is shown. From this, the angle between the eyes of both eyes Can be expressed as (Equation 5).

따라서, 화상열상의 현재의 데이터포인터 n 으로부터 l 매 전의 화상 p' (i, j, n-l) 이 왼쪽눈에, 그리고 r 매 후의 화상 p' (i, j, n+r) 이 오른쪽눈에 보여줄 화상에 해당한다. 그리고 각각 좌우안에 대한 화상데이터 포인터 l 과 r 의 값은 (수식6)과 같이 계산이 가능하다.Therefore, the image p '(i, j, nl) before l from the current data pointer n on the image sequence is shown in the left eye, and the image p' (i, j, n + r) after r is shown in the right eye. Corresponds to the image. The values of the image data pointers l and r for the left and right eyes, respectively, can be calculated as shown in Equation (6).

여기서, 양안간의 거리 docl 와 N 는 이미 알고 있고, 양안과 대상물간의 거리에 상당하는 T는 사용하는 디스플레이 장치에 따라 정해지나, 여기서는 사용자의 눈과 입체상이 보여야 할 위치까지의 거리로 한다.Here, the distance between the two eyes, docl and N are already known, and T corresponding to the distance between both eyes and the object is determined according to the display device used, but here, the distance to the position where the user's eyes and the stereoscopic image should be seen.

즉, 본 발명의 입체화상의 출력장치로서 입체 텔레비젼과 같은 입체화면을 사용하는 경우, 그 디스플레이면과 사용자간의 거리를 계측하여 스테레오 디스플레이장치에 제공하는 거리센서를 사용한다. 예를 들어, 도 3의 입체 텔레비젼의 경우, 입체상이 보이는 위치로서 결정된 그 디스플레이면에서부터 사용자까지의 거리를 재는 거리센서로부터 양안과 디스플레이면 간의 거리 T 에 관한 정보를 얻는다.That is, in the case of using a stereoscopic screen such as a stereoscopic television as the output device of the stereoscopic image of the present invention, a distance sensor for measuring the distance between the display surface and the user and providing the stereoscopic display device is used. For example, in the stereoscopic television of Fig. 3, information about the distance T between both eyes and the display surface is obtained from a distance sensor that measures the distance from the display surface to the user determined as the position where the stereoscopic image is viewed.

(가상공간에서의 입체상 관찰)(3D observation in virtual space)

본 발명에서의 방법에 기초한 입체상관찰의 일예로서, 도 10에서와 같은 입체 텔레비젼을 보고 있는 사용자에 대한 시스템 작동에 대해서 설명한다. 입체 텔레비젼의 디스플레이면에는 좌우안에 각각 보여지는 2매의 화상이 겹쳐져 나타나 있고, 입체 텔레비젼의 어떠한 기능에 의해 분리된 각 화상이 대응하는 눈에만 각각 보여지고 있다고 하자. 양안과 디스플레이면 간의 거리정보 T 는 거리센서로부터 끊임없이 화상출력장치에 보내지고 있다.As an example of stereoscopic observation based on the method in the present invention, a system operation for a user watching stereoscopic television as in FIG. 10 will be described. It is assumed that two images respectively shown on the left and right sides are superimposed on the display surface of the stereoscopic television, and each image separated by any function of the stereoscopic television is only shown in the corresponding eyes. The distance information T between both eyes and the display surface is constantly sent from the distance sensor to the image output device.

도 11은 입체화상 출력의 흐름도이다. 마우스, 키보드, 리모콘등의 사용자 인터페이스를 통해 사용로부터 순차적으로 보내지는 각각 화상확대율 i 와 대상물의 관찰하고자 하는 자세, 위치와 관계 있는 화상데이터 포인터인 j,n 의 값을 이용하여, 저장화상 데이터의 해당장소가 도 12에서의 수직, 수평의 두 점선이 교차하는 점에서와 같이 결정된다. 그리고, 사전에 입력되어 있는 현재의 사용자의 양안간 거리 docl 과 거리센서로부터 끊임없이 보내지는 사용자와 화상표시면간의 거리의 값 T 에 따라 (수식 6) 에 의해 계산되는 좌우 화상데이터 포인터 l 과 r 의 값을 이용하여, 저장 화상데이터 중에서 해당하는 좌우의 화상페어를 선택하여, 압축이 풀린 형태 p(i,j,n-l) 과 p(i,j,n+r) 로 변환 후, 입체화상 디스플레이장치에 출력한다.11 is a flowchart of stereoscopic image output. By using the image magnification i, which is sequentially sent from the user through the user interface such as a mouse, a keyboard, or a remote controller, and the values of j and n, which are image data pointers related to the posture and position of the object, The location is determined as shown at the intersection of two vertical and horizontal dotted lines in FIG. Then, the left and right image data pointers l and r calculated by Equation (6) according to the distance docl between the binocular distance of the current user input in advance and the value T of the distance between the user and the image display surface constantly sent from the distance sensor. 3D image display apparatus after selecting the right and left image pairs among the stored image data by using the values, converting them to the decompressed forms p (i, j, nl) and p (i, j, n + r) Output to

만약 연속적으로 대상물에 대한 보는 자세, 방향 등을 변화시켜가면서 그 입체상을 관찰하고자 할 때에는, 사용자로부터 계속 보내지는 화상데이터 포인터 j 와 n 의 값에 따라 해당하는 화상페어를 입체화상 디스플레이에 보낸다. 또 임의의화상데이터 포인터 j 와 n 의 해당 입체상에 대한 확대율을 제어가 필요 할 경우에는, 사용자로부터 보내지는 화상확대율의 포인터 i 의 변화에 맞춰 해당하는 화상페어를 입체화상 디스플레이에 보낸다.If the user wants to observe the stereoscopic image while continuously changing the posture, direction, etc. of the object, the corresponding image pair is sent to the stereoscopic image display according to the values of the image data pointers j and n which are continuously sent from the user. The image magnification ratio sent from the user when the magnification ratio of the arbitrary image data pointers j and n for the corresponding stereoscopic image is necessary. According to the change of the pointer i, the corresponding image pair is sent to the stereoscopic image display.

도 13은, 인간이 다양한 시각환경에서 입체상을 보고 있을 때의 양안과 화상간의 관계를 나타내는 평면도이다. 여기서 da 는 각 눈으로부터 평면상이 보이는 (APPEARANCE REAL IMAGE 가 있는) 위치까지의 거리 즉 목시거리를 나타내며, 각 눈에 있어서의 초점거리의 조절과 관계가 있다. dv 는 양안으로부터 입체상이 생기는 위치까지의 거리(입체상거리)로 양안간의 거리 docl 이 일정하다면 양안시선 간의 각도와 직접 관계가 있다.13 is a plan view showing the relationship between the binocular and the image when a human is viewing a stereoscopic image in various visual environments. Where da represents the distance, or visual distance, from each eye to the position where the plane is visible (with APPEARANCE REAL IMAGE), and is related to the adjustment of the focal length for each eye. dv is the distance from the binocular to the position where the stereoscopic image occurs (stereoscopic distance). Is directly related to

도 13(a)는 인간이 양안을 통해 실제 대상물을 관찰하고 있을 때의 경우를 표시하는데, 이때 입체상거리 dv 와 목시거리 da 가 언제나 일치하도록 양안이 자율적으로 제어되고 있다고 알려져 있다. 이것은 인간에게는 극히 자연스러운 일이다. 도 13의 (b) 와 (c) 는 입체상 디스플레이 장치를 사용 할 경우를 나타낸 것으로, dv 와 da 의 불일치로 인간이 실물을 볼 때 와는 달리 충실한 가상현실감을 얻을 수 없을 뿐 만 아니라, 위화감이나 피로감의 주된 요인이 된다.FIG. 13 (a) shows a case where a human is observing an actual object through both eyes, and it is known that both eyes are autonomously controlled so that the stereoscopic distance dv and the visual distance da always coincide. This is extremely natural for humans. 13 (b) and 13 (c) show a case where a stereoscopic display device is used. Unlike humans seeing a real object due to a mismatch between dv and da, not only a faithful virtual reality can be obtained, It is a major factor in fatigue.

일반적으로 입체상 디스플레이 장치는, 좌우 양화상을 분리해서 각각을 대응하는 각 눈만에 보이게 하는 기능, 각 분리된 화상을 디스플레이면으로 부터 시선의 전후방향으로 이동시켜 목시거리 da 를 제어하는 기능, 입체상거리 dv 에 영향을 미치는 장치의 구조 등의 차이에 의해 분류가 가능하다. 이와 같은 장치를 통해스테레오 화상을 양안으로 보는 인간은, 화상페어의 각의 눈에 보이는 화상간의 스테레오 메칭을 수행하여 입체상을 보게 되는 것이다. 그리고 이때 입체상거리 dv 는 장치의 구조와 두 화상간의 관계에 의해서 정해진다.In general, a three-dimensional display device has a function of separating both left and right images so that each is visible only to each corresponding eye, and controlling each visual distance da by moving each separated image from the display surface in the forward and backward directions. This can be classified by differences in the structure of the device affecting the dv distance. A human who sees a stereo image with both eyes through such a device performs stereo matching between the visible images of each angle of the image pair to see a stereoscopic image. And the stereoscopic distance dv is determined by the structure of the device and the relationship between the two images.

본 발명에서 제시하는 방법에서는, 입체상 디스플레이장치를 사용한 양안입체상의 생성에 있어서 언제나 dv = da 의 조건을 만족하도록 해 줌으로서, 사용자에게 대상물에 대한 위화감, 왜곡 또는 피로감이 없는 현실에 가까운 양안입체시에 의한 가상현실을 제공한다. 이하의 대표적인 두 개의 입체상 디스플레이장치에 대한 구체적인 실시예를 설명한다.In the method proposed by the present invention, a binocular stereoscopic image using a three-dimensional display device always satisfies the condition of dv = da, thereby providing a user with a near-real binocular stereotype without any discomfort, distortion, or fatigue to the object. Provides virtual reality by the city. Hereinafter, specific exemplary embodiments of two representative stereoscopic display apparatuses will be described.

(실시예1)Example 1

도 13(b)과 같이 양안과 디스플레이 장치간이 고정된 관계를 가지는 경우 사용자의 눈간거리 docl 에 맞추어 디스플레이 면과 광학기기의 적절한 배치에 의해 입체상거리 dv를 희망값이 되도록 한다. 그런 다음, 렌즈 등을 조절하여 눈과 실제 보이는 평면상간의 목시거리 da를 dv와 일치되게 한다. dv 또는 da와 같은 값의 T 와 docl 의 값을 (수식6)에 대입하여 dv = da의 위치에 입체상이 보이게 하는데 적절한 좌우의 화상페어를 선택하여 각 해당 디스플레이에 출력한다.As shown in FIG. 13 (b), when the binocular and the display device have a fixed relationship, the stereoscopic distance dv is set to a desired value by appropriately disposing the display surface and the optical device in accordance with the eye distance docl. Then, adjust the lens or the like so that the visual distance da between the eye and the actual visible plane matches the dv. Substituting the values of T and docl with the same value as dv or da into (Equation 6), select the right and left image pairs to display the stereoscopic image at the position of dv = da, and output them to each corresponding display.

(실시예2)Example 2

도 13(c)는 도 10의 경우와 같이, 입체텔레비젼 등을 보고 있는 인간의 양안입체시의 상황을 나타내고 있다. 이 때, 실제 눈에 보이는 평면 화상면은 디스플레이면과 같고 디스플레이면과 사용자 간의 거리를 재는 거리센서로 부터의 거리정보 T가 목시거리 da와 같으므로, 사용자 눈간거리 docl과 T를 (수식 6)에 적용하면 적절한 좌우의 화상페어를 산출 할 수가 있어, 입체상이 디스플레이면 위에 형성되며 dv = da 의 조건을 만족한다.FIG. 13 (c) shows the situation in the binocular stereoscopic view of a human watching stereoscopic television and the like as in the case of FIG. In this case, since the actual visual plane image is the same as the display surface and the distance information T from the distance sensor measuring the distance between the display surface and the user is equal to the visual distance da, the user's eye distance docl and T (Equation 6) When applied to, an appropriate left and right image pairs can be calculated, and a three-dimensional image is formed on the display surface and satisfies the condition of dv = da.

시스템 사용중의 움직이고 있는 사용자에 대해서도, 거리센서로부터 끊임없이 보내지는 변화하는 T의 값을 받아, 각 시점에서 보고자 하는 입체상을 올바르게 관찰하는 것이 가능하다. 어느 시점 t=t1에서 화상면으로부터 T(t1)의 거리에 있는 양안간 거리 docl(A)의 사용자 A에 대해 (수식6) 으로 부터 좌우의 화상포인터 l(t1) 과 r(t1)을 계산하여 이 시점에 서 사용자 A가 선택한 화상데이터 포인터 i,j,n 에 대한 가장 적합한 좌우 화상페어 p(i,j,n-l(t1))과 p(i,j,n+r(t1))을 입체화상면에 표시한다. 이 화상페어는 해당시점에서 사용자 A에게 디스플레이면 상에 위치하는 입체상을 보여 주고 dv = da 의 조건을 만족시켜 사용자의 움직임에 의한 디스플레이면 과의 거리변화에도 불구하고, 실제 디스플레이면 위에 놓여진 실물을 보고 있는 것과 같이 위화감이나 피로감이 없는 대상물에 대한 보다 효과적인 가상현실감을 제공한다.Even for a moving user in use of the system, it is possible to receive a variable value of T constantly sent from the distance sensor and to correctly observe the stereoscopic image to be viewed at each point in time. The left and right image pointers l (t1) and r (t1) are calculated from Equation 6 for user A of the binocular distance docl (A) at a time point t = t1 at the distance T (t1) from the image plane. At this point, the most suitable left and right image pairs p (i, j, nl (t1)) and p (i, j, n + r (t1)) for the image data pointers i, j, n selected by the user A are It is displayed on the three-dimensional image plane. This image pair shows the stereoscopic image positioned on the display surface to the user A at the point in time, and meets the condition of dv = da so that the object placed on the actual display surface despite the change of distance from the display surface due to the user's movement. As you can see, it provides a more effective virtual reality for objects without discomfort or fatigue.

가상현실에서 보다 사실적인 대상물 관찰을 가능하게 하는 화상획득과 그것의 이용에 관한 본 발명은 그 구성상의 특성으로 말미암아 다음과 같은 효과를 가져다 준다.The present invention regarding image acquisition and its use which enables more realistic object observation in virtual reality has the following effects due to its configuration characteristics.

- 가상현실 사용자에 대해, 상당히 그 실현이 어렵고 계산비용이 높은 컴퓨터 비젼이나 그래픽스 기술을 사용하지 않고 기본적으로 촬영화상을 그대로 보이게 함으로써, 사용자에 대한 고가의 장비가 필요하지 않고 계산시간이 걸리지 않아 실시간 관찰이 가능 할 뿐만 아니라 보다 사실적인 물체상의 관찰이 가능하다. 그러므로, 특히 전자상거래 등에서 요구되는 대상물에 대한 시각적접근의 신뢰성을 높인다. 이것은 촬영한 화상을 가공하지 않고 그대로 사용하기 때문으로 대상물에 대한 미묘한 질감은 물론 결점까지도 사실적으로 보여주기 때문이다.For virtual reality users, it is difficult to realize the real-time image by using computer vision or graphics technology, which is very difficult to realize and does not require expensive computer vision or graphics technology. In addition to observation, more realistic observations of objects are possible. Therefore, it improves the reliability of visual access to the object, especially required in electronic commerce. This is because the photographed image is used as it is, without being processed, so the subtle texture of the object as well as the defects are realistically shown.

양안에 의한 입체시를 사용하기 때문에 평면화상과는 비교 할 수 없을 정도의 시각적 사실감을 제공한다. 사용환경이나 사용자별로 존재하는 개인차를 충분히 고려하여 시스템이 동작하기 때문에, 종래 양안 입체시의 실현에 있어 큰 장애였던 사용에 대한 위화감 및 피로감과 함께 대상물에 대한 시각적 왜곡을 크게 줄여준다. 눈에 대한 대상물의 보는 방향, 자세 그리고 입체상의 표시 확대율 등이 사용자와 시스템간의 쌍방향 대화를 통해 선택 가능 하므로 가상현실에 있어서의 사용자에 대한 현장감을 높여준다.It uses stereoscopic vision by binocular vision, so it provides visual realism that cannot be compared with planar images. Since the system operates in consideration of the individual differences existing in each user's environment and users, the visual distortion of the object is greatly reduced along with the discomfort and fatigue of the use, which was a major obstacle in the conventional binocular stereoscopic vision. The viewing direction, posture, and stereoscopic display magnification of the object with respect to the eyes can be selected through interactive dialogue between the user and the system, thereby enhancing the realism for the user in virtual reality.

- 화상데이터 획득 사용자에 대해, 화상획득에 있어서 다른 두 대의 카메라를 사용하는 스테레오 카메라에 의한 방법과는 달리 한 대의 카메라를 사용하기 때문에 두 카메라 간의 어려운 교정이 필요하지 않다. 그 위에 다양한 양안 시각조건에 맞춘 전체의 화상페어를 획득함에 있어서도 스테레오카메라에 의한 방법과 비교해 극히 적은 양의 화상데이터 만을 필요로 한다. 그리고, 기본적으로 많은 양의 화상데이터를 필요로 하기 때문에 비교적 대용량의 메모리를 필요로 하지만, 최근 실용화가활발한 화상데이터 압축기술과 급속하게 발전하고 있는 대용량 저장 메모리의 사용으로 충분히 실용화가 가능하다. 특히 대단히 압축율이 높은 동화상 압축기술이 적용가능한 것은, 본 발명에서의 방법이 대상뭉에 대한 연속적인 화상열을 사용하기 때문이다. 그리고, 최근 활발하게 진행되고 있는 인터넷의 고속화와 더불어 대량의 화상데이터를 필요로 하는 본 발명 수단의 폭 넓은 응용이 기대된다.Image data acquisition For the user, unlike the method of stereo cameras using two different cameras in image acquisition, one camera is used, so that difficult calibration between two cameras is not necessary. On the other hand, only a very small amount of image data is required when acquiring the entire image pair for various binocular visual conditions. In addition, since a large amount of image data is basically required, a relatively large amount of memory is required. However, the present invention can be sufficiently put to practical use by the use of image data compression technology, which has been widely used in recent years, and the rapidly developing mass storage memory. Particularly, the highly compressible moving picture compression technique is applicable because the method in the present invention uses continuous image trains for the object cluster. In addition to the high speed of the Internet, which is actively progressing in recent years, a wide range of applications of the present invention means that require a large amount of image data is expected.

끝으로, 본 화상획득방법은 촬영화상데이터를 스테레오화상 이라고 하는 특별한 형식이 아닌 일반적인 화상열의 형식으로 기록, 저장함으로 대상물에 대한 가능한 범위 내에서 충실한 기록이 가능하므로 다른 응용에도 사용가능 하므로 획득 데이터의 활용도가 높다.Finally, this image acquisition method records and stores the captured image data in the form of general image strings rather than a special format called stereo images, so that faithful recording is possible within the range of the object, so it can be used for other applications. High utilization.

Claims (7)

양안입체시를 위한 입체영상 입출력 장치에 있어서,In the stereoscopic image input and output device for binocular stereoscopic, 한 대의 카메라로부터 촬영하여 얻은 회전하는 대상물에 대한 연속화상열을 화상데이터로서 기억매체에 압축하여 저장하는 제 1수단; 제 1수단에 의해 저장된 화상데이터에서 부터 양안입체시로 대상물을 관찰하는데 적절한 화상페어를 선택하는 제 2수단; 그리고 제 2수단에 의해 선택된 화상페어에 대한 압축을 풀어 관찰자의 좌우 각각의 눈에 표시하도록 하는 제 3수단으로 구성되는 것을 특징으로 하는 입체영상 입출력 장치.First means for compressing and storing a sequence of images of a rotating object obtained by photographing from a single camera in a storage medium as image data; Second means for selecting an image pair suitable for observing an object from the image data stored by the first means in a binocular stereoscopic manner; And third means for decompressing the image pair selected by the second means to display the left and right eyes of the viewer. 양안입체시를 위한 입체영상 입출력 방법에 있어서,In the stereoscopic image input and output method for binocular stereoscopic, 한 대의 카메라로부터 촬영하여 얻은 회전하는 대상물에 대한 연속화상열을 화상데이터로서 기억매체에 압축하여 저장하는 단계; 상기의 저장된 화상데이터에서 부터 양안입체시로 대상물을 관찰하는데 적절한 화상페어를 선택하는 단계; 및 상기의, 선택된 화상페어에 대한 압축을 풀어 관찰자의 좌우 각각의 눈에 표시하도록 하는 단계를 포함하는 것을 특징으로 하는 입체영상 입출력 방법.Compressing and storing a sequence image of a rotating object obtained by photographing from one camera as a image data in a storage medium; Selecting an image pair suitable for observing an object from the stored image data in binocular stereoscopic manner; And decompressing the selected image pair and displaying the extracted image on the left and right eyes of the viewer. 제 2항에 있어서, 상기 화상데이터의 저장 단계는,The method of claim 2, wherein the storing step of the image data, 초점조절과 줌의 제어가 가능한 카메라, 카메라의 방향과 상하이동을 제어하는 장치 및 대상물을 싣고 회전을 제어하는 턴테이블로 구성되는 대상물 촬영장치를 이용하여, 대상물에 대한 다양한 장면을 촬영, 획득하여 저장하는 것을 특징으로 하는 입체화상 입력방법.Shooting, acquiring and storing various scenes of an object using a target photographing device comprising a camera capable of adjusting focus and zoom, a device for controlling the direction and movement of the camera, and a turntable for loading and rotating the object Stereoscopic image input method characterized in that. 제 3항에서, 대상물에 대한 화상데이터의 취득을,The method of claim 3, wherein the acquisition of the image data for the object, 카메라 초점거리와 줌의 제어에 의해 얻어지는 i= 1 부터 I 까지의 각 화상확대율κi 와 j= 1 부터 J 까지의 각 카메라 방향Cj에 대해서, 1 회전을 N 스텝으로 균등하게 나눈 턴테이블의 운동을 N 스텝 회전시켜 각 회전스텝에서 촬영한화상열 p(i,j,n=1,2,...,N)을 압축해서 얻은 화상 p'(i,j,n)을 기억장치에 입력시키는 것을 특징으로 하는 화상 입력방법.For each image magnification κ i from i = 1 to I and by each camera direction C j from j = 1 to J obtained by control of the camera focal length and zoom, the movement of the turntable evenly divided by one revolution in N steps Is rotated N steps to input the image p '(i, j, n) obtained by compressing the image string p (i, j, n = 1,2, ..., N) taken at each rotation step into the storage device. Image input method characterized in that. 제 2항에 있어서, 상기 저장된 화상데이터에서 부터 양안입체시로 대상물을 관찰하는데 적절한 화상페어를 선택하는 단계는,The method of claim 2, wherein the step of selecting an image pair suitable for observing an object from the stored image data in binocular stereoscopic concept, 마우스, 키보드 또는 리모콘 등의 사용자 인터페이스를 통해 사용자로부터 순차적으로 보내지는 각각 화상확대율 i 와 대상물의 관찰하고자 하는 자세, 위치와 관계 있는 화상데이터 포인터인 j,n 의 값과, 사전에 입력되어 있는 사용자의 양안간 거리 docl 과 거리센서로부터 보내지는 사용자와 화상표시면간의 거리의 값 T 에 따라 계산되는 좌우화상데이터 포인터 l 과 r 의 값을 이용하여 계산된 좌우화상페어 p'(i,j,n-l) 과 p'(i,j,n+r) 을 선택하는 것을 특징으로 방법.The image magnification i, which is sequentially sent from the user through a user interface such as a mouse, a keyboard, or a remote controller, the values of j and n, which are image data pointers related to the posture and position of the object, and the user who has been input in advance The left and right image pair p '(i, j, nl calculated using the values of the left and right image data pointers l and r calculated according to the distance between the binocular distance docl and the value T of the distance between the user and the image display surface sent from the distance sensor. ) And p '(i, j, n + r). 제 2항에 있어서, 상기 저장된 화상데이터에서 부터 양안입체시로 대상물을 관찰하는데 적절한 화상페어를 선택하는 단계는,The method of claim 2, wherein the step of selecting an image pair suitable for observing an object from the stored image data in binocular stereoscopic concept, 마우스, 키보드 또는 리모콘 등의 사용자 인터페이스를 통해 사용자로부터 순차적으로 보내지는 각각 화상확대율 i 와 대상물의 관찰하고자 하는 자세, 위치와 관계 있는 화상데이터 포인터인 j,n 의 값과, 사전에 입력되어 있는 사용자의 양안간 거리 docl 과 사전에 시스템에 따라 사전에 설정된 눈과 화상표시면간의 거리의 값 T 에 따라 계산되는 좌우 화상데이터 포인터 l 과 r 의 값을 이용하여 계산된 좌우화상페어 p'(i,j,n-l) 과 p'(i,j,n+r) 을 선택하는 것을 특징으로 방법.The image magnification i, which is sequentially sent from the user through a user interface such as a mouse, a keyboard, or a remote controller, the values of j and n, which are image data pointers related to the posture and position of the object, and the user who has been input in advance The left and right image pair p '(i, calculated using the values of the left and right image data pointers l and r, which are calculated according to the distance between the two eyes of docl and the value T of the distance between the eye and the image display surface, which is preset according to the system. j, nl) and p '(i, j, n + r). 제 2항에 있어서, 상기 선택된 화상페어를 관찰자의 좌우 각각의 눈에 표시하도록 하는 단계는.3. The method of claim 2, wherein the displaying of the selected image pairs to each eye of the observer. 선택된 화상페어 p'(i,j,n-l) 과 p'(i,j,n+r)에 대한 압축이 풀린 형태 p(i,j,n-l) 과 p(i,j,n+r) 의 각각을 입체화상 디스플레이의 좌우표시면에 출력하는 것을 특징으로 하는 입체화상의 출력방법.The decompressed forms p (i, j, nl) and p (i, j, n + r) for the selected picture pairs p '(i, j, nl) and p' (i, j, n + r) And outputting each of them to the left and right display surfaces of the stereoscopic image display.
KR1020010001783A 2000-03-01 2001-01-12 3D imaging equipment and method KR20010096556A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000055104A JP2001245322A (en) 2000-03-01 2000-03-01 Input method and device for stereoscopic image
JP??2000-55104 2000-03-01

Publications (1)

Publication Number Publication Date
KR20010096556A true KR20010096556A (en) 2001-11-07

Family

ID=18576275

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010001783A KR20010096556A (en) 2000-03-01 2001-01-12 3D imaging equipment and method

Country Status (2)

Country Link
JP (1) JP2001245322A (en)
KR (1) KR20010096556A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101238555B1 (en) * 2005-06-29 2013-02-28 소니 주식회사 Stereoscopic image processing device and method, and recording medium
US9898829B2 (en) 2012-09-18 2018-02-20 Hanwha Techwin Co., Ltd. Monitoring apparatus and system using 3D information of images and monitoring method using the same
KR20180040316A (en) * 2016-10-12 2018-04-20 (주)에프디크리에이트 3D optical scanner
US11196967B1 (en) * 2020-06-03 2021-12-07 He Tong Technology Co., Ltd. Image inspection device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100406963C (en) * 2004-08-17 2008-07-30 三菱电机株式会社 Stereo image display device
JP5083052B2 (en) * 2008-06-06 2012-11-28 ソニー株式会社 Stereoscopic image generation apparatus, stereoscopic image generation method, and program
KR101326010B1 (en) 2012-06-13 2013-11-07 에이알비전 (주) Coordinate converting system of a camera based on a cylindrical marker for augmented reality and method therefor
CN103019023B (en) * 2012-11-21 2015-10-28 中山大学 Based on full visual angle three-dimensional display system and the method for stereoscopic technology

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR860003561A (en) * 1984-10-08 1986-05-26 가와사끼쥬고우교 주식회사 Method and apparatus for forming three-dimensional shape
JPH02210434A (en) * 1989-02-10 1990-08-21 Sharp Corp Stereoscopic photographing device
KR930006430A (en) * 1991-09-06 1993-04-21 천성순 3D shape coordinate measuring method and automatic input device using camera
JPH0814858A (en) * 1994-06-24 1996-01-19 Nippon Hoso Kyokai <Nhk> Data acquisition device for three-dimensional object
KR19980085973A (en) * 1997-05-30 1998-12-05 배순훈 Improved Registration Processing Apparatus and Method for 3D Shape Restoration System
KR19980085986A (en) * 1997-05-30 1998-12-05 배순훈 Distance information acquisition device in 3D shape restoration system
KR200180584Y1 (en) * 1999-10-27 2000-05-01 김승우 Three-dimensional photographing system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR860003561A (en) * 1984-10-08 1986-05-26 가와사끼쥬고우교 주식회사 Method and apparatus for forming three-dimensional shape
JPH02210434A (en) * 1989-02-10 1990-08-21 Sharp Corp Stereoscopic photographing device
KR930006430A (en) * 1991-09-06 1993-04-21 천성순 3D shape coordinate measuring method and automatic input device using camera
JPH0814858A (en) * 1994-06-24 1996-01-19 Nippon Hoso Kyokai <Nhk> Data acquisition device for three-dimensional object
KR19980085973A (en) * 1997-05-30 1998-12-05 배순훈 Improved Registration Processing Apparatus and Method for 3D Shape Restoration System
KR19980085986A (en) * 1997-05-30 1998-12-05 배순훈 Distance information acquisition device in 3D shape restoration system
KR200180584Y1 (en) * 1999-10-27 2000-05-01 김승우 Three-dimensional photographing system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101238555B1 (en) * 2005-06-29 2013-02-28 소니 주식회사 Stereoscopic image processing device and method, and recording medium
US9898829B2 (en) 2012-09-18 2018-02-20 Hanwha Techwin Co., Ltd. Monitoring apparatus and system using 3D information of images and monitoring method using the same
KR20180040316A (en) * 2016-10-12 2018-04-20 (주)에프디크리에이트 3D optical scanner
US11196967B1 (en) * 2020-06-03 2021-12-07 He Tong Technology Co., Ltd. Image inspection device

Also Published As

Publication number Publication date
JP2001245322A (en) 2001-09-07

Similar Documents

Publication Publication Date Title
US11076142B2 (en) Real-time aliasing rendering method for 3D VR video and virtual three-dimensional scene
US5495576A (en) Panoramic image based virtual reality/telepresence audio-visual system and method
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
US6747610B1 (en) Stereoscopic image display apparatus capable of selectively displaying desired stereoscopic image
JP3318684B2 (en) Method and apparatus for generating a stereoscopic image
JP4351996B2 (en) Method for generating a stereoscopic image from a monoscope image
US20060250391A1 (en) Three dimensional horizontal perspective workstation
US20060126927A1 (en) Horizontal perspective representation
JP2016511888A (en) Improvements in and on image formation
US6836286B1 (en) Method and apparatus for producing images in a virtual space, and image pickup system for use therein
WO2010085549A1 (en) System and method for three-dimensional visualization of geographical data
WO2022216333A1 (en) Neural blending for novel view synthesis
US9918066B2 (en) Methods and systems for producing a magnified 3D image
US11212502B2 (en) Method of modifying an image on a computational device
KR20010096556A (en) 3D imaging equipment and method
Ferre et al. Stereoscopic video images for telerobotic applications
Redert et al. 3-D scene reconstruction with viewpoint adaptation on stereo displays
JPH1188910A (en) Three-dimension model generating device, three-dimension model generating method, medium recording three-dimension model generating program three-dimension model reproduction device, three-dimension model reproduction method and medium recording three-dimension model reproduction program
Wei et al. Color anaglyphs for panorama visualizations
TW201636683A (en) Augmented reality imaging method and system
Regalbuto Remote Visual Observation of Real Places through Virtual Reality Headsets
KR102649281B1 (en) Apparatus and method for producting and displaying integral image capable of 3d/2d conversion
CN220584832U (en) Digital sand table system
US11295531B1 (en) System and method for generating interactive virtual image frames in an augmented reality presentation
JP2001175885A (en) System and device for 2d-3d image conversion for stereoscopic image display device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application