KR20000041329A - Stereoscopic image converting method and apparatus - Google Patents
Stereoscopic image converting method and apparatus Download PDFInfo
- Publication number
- KR20000041329A KR20000041329A KR1019980057178A KR19980057178A KR20000041329A KR 20000041329 A KR20000041329 A KR 20000041329A KR 1019980057178 A KR1019980057178 A KR 1019980057178A KR 19980057178 A KR19980057178 A KR 19980057178A KR 20000041329 A KR20000041329 A KR 20000041329A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- original
- depth
- pixel
- editing
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/15—Processing image signals for colour aspects of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/286—Image signal generators having separate monoscopic and stereoscopic modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0077—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0092—Image segmentation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0096—Synchronisation or controlling aspects
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
본 발명은 일반적인 2차원 이미지에서 3차원 입체 이미지를 만들어 내는 입체 영상 이미지 변환방법 및 그 장치에 관한 것으로, 보다 상세하게는 일반 2차원 영상 자료상의 각 물체의 영상을 입체로 바꾸어 준 후, 각 물체의 오른쪽 눈 이미지를 원래 영상과 합성하여 3차원 입체 영상 자료로 만들어 줌으로써 입체 영상 자료의 제작에 소요되는 많은 노력과 비용을 절감시킨 입체 영상 이미지 변환방법 및 그 장치에 관한 것이다.The present invention relates to a three-dimensional image conversion method and apparatus for generating a three-dimensional stereoscopic image from a general two-dimensional image, and more particularly, after changing the image of each object on the general two-dimensional image data to three-dimensional, each object The present invention relates to a 3D stereoscopic image conversion method and apparatus for reducing a lot of effort and cost for producing 3D stereoscopic image data by synthesizing a right eye image with an original image.
사람은 왼쪽 눈과 오른쪽 눈에서 서로 다른 각도로 물체를 바라봄으로써 입체감을 느끼게 된다. 이와 같은 원리에 기초하여 왼쪽 눈과 오른쪽 눈의 시각 위치에서 따로 촬영한 2개의 영상을 왼쪽 눈과 오른쪽 눈에 각각 보여줌으로써 인공적으로 입체 영상을 구현한다.A person feels three-dimensional by looking at an object from different angles in his left and right eyes. Based on this principle, stereoscopic images are artificially realized by showing two images taken separately at the visual position of the left eye and the right eye to the left eye and the right eye, respectively.
그러나, 이와 같은 종래의 기술이 효과를 발휘하기 위해서는 상기와 같이 왼쪽 눈에 보여질 영상과 오른쪽 눈에 보여질 영상이 각각 존재해야 하므로 입체 영상을 만들기 위해서는 2대의 카메라를 이용하여 새로이 영상을 제작해야하는 어려움이 있었다. 이는 기존에 존재하던 수많은 2차원 영상을 입체영상 구현시스템에서는 활용할 수가 없다는 것을 말해준다. 상기와 같은 이유로 일반 사용자들이 접할 수 있는 입체 영상물이 부족하여 입체 영상 기술의 대중화에 걸림돌이 되고 있으며, 입체 영상 기술의 응용 분야에서는 영상 자료의 제작을 위해 많은 시간과 비용이 소모되는 문제점이 있었다.However, in order for the conventional technology to be effective, the image to be seen by the left eye and the image to be seen by the right eye must be present as described above. Therefore, in order to create a stereoscopic image, a new image must be produced using two cameras. There was a difficulty. This indicates that many existing two-dimensional images cannot be used in a stereoscopic image implementation system. Due to the above reasons, the lack of stereoscopic images that can be encountered by the general user is an obstacle to the popularization of stereoscopic imaging technology, and there is a problem in that application fields of stereoscopic imaging technology consume a lot of time and cost for producing image data.
따라서, 본 발명은 상기 문제점을 해결하기 위하여 발명된 것으로, 그 목적으로 하는 바는 일반 2차원 영상 자료상의 각 물체의 영상을 입체로 바꾸어 준 후, 각 물체의 오른쪽 눈 이미지를 원래 영상과 합성하여 3차원 입체 영상 자료로 만들어 줌으로써 입체 영상 자료의 제작에 소요되는 많은 노력과 비용을 절감시킨 입체 영상 이미지 변환방법 및 그 장치를 제공하는데 있다.Therefore, the present invention has been invented to solve the above problems, and its purpose is to change the image of each object on a general two-dimensional image data into a three-dimensional image, and then synthesize the right eye image of each object with the original image. The present invention provides a method and apparatus for converting a stereoscopic image image by reducing the effort and cost required for the production of the stereoscopic image data by making the 3D stereoscopic image data.
도 1은 본 발명에 의한 입체 영상 이미지 변환장치의 구성과 자료의 흐름을 개략적으로 나타낸 블록도1 is a block diagram schematically showing the configuration and data flow of a stereoscopic image converting apparatus according to the present invention;
도 2는 본 발명의 순차적인 알고리듬을 개략적으로 나타낸 순서도2 is a flow chart schematically showing a sequential algorithm of the present invention
도 3은 도 2의 부분 중 물체 이미지 추출과 객체화에 관한 단계를 상세히 나타낸 순서도3 is a flow chart showing in detail the steps involved in object image extraction and objectification of the portion of FIG.
도 4는 입체 이미지의 일실시예를 나타낸 설명도4 is an explanatory diagram showing an embodiment of a three-dimensional image
* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings
10 : 원화 저장부 20 : 객체 추출부10: original storage 20: object extraction unit
30 : 원본 객체 배열부 40 : 객체 깊이 배열부30: original object array unit 40: object depth array unit
50 : 편집 객체 배열부 60 : 합성 입체 이미지부50: editing object array unit 60: composite stereoscopic image unit
70 : 합성 객체 배열부 80,82,84 : 신호 합성부70: composite object array unit 80,82,84: signal synthesis unit
상기 목적을 달성하기 위하여, 본 발명의 입체 영상 이미지 변환방법은,In order to achieve the above object, the stereoscopic image image conversion method of the present invention,
입체로 변환하고자 하는 원본 2차원 영상 이미지를 읽어 들여 이를 저장하고 자료 구조를 초기화시키는 제 1단계와,A first step of reading an original two-dimensional image to be converted into a stereoscopic image, storing it, and initializing a data structure;
상기 저장된 원본 이미지로부터 각각의 물체 이미지를 추출하여 객체화하고 이를 저장시키는 제 2단계와,Extracting and objectifying each object image from the stored original image and storing the same;
상기 추출된 객체 이미지를 각 픽셀의 깊이와 객체의 깊이에 따라 각각 조정하여 편집하는 제 3단계와,A third step of adjusting and editing the extracted object image according to the depth of each pixel and the depth of the object;
상기 편집된 객체 이미지와 전체 이미지를 각각 합성하여 화면에 출력하는 제 4단계를 구비하여 이루어진 것을 특징으로 한다.And a fourth step of synthesizing the edited object image and the entire image and outputting them on the screen.
이때, 상기 제 2단계에서 각각의 물체 이미지를 추출해 내는 방법은, 각각의 물체 이미지에 대하여 원하는 물체의 외각선을 추출해 내는 단계와, 상기 추출된 외각선을 내포하는 가장 작은 크기의 직사각형을 계산해 내는 단계와, 상기 새로이 추출된 객체를 저장할 공간을 할당하는 단계와, 상기 할당된 공간을 초기화하는 단계와, 상기 직사각형 내부의 픽셀중 어떤 픽셀이 외각선 내부에 있는 지를 비교하는 단계와, 상기 비교 단계에서 어떤 픽셀이 외각선 외부에 있다면 상기 픽셀을 원본객체배열과 편집객체배열에 해당하는 위치에 투명색의 픽셀을 그려주는 단계와, 상기 비교 단계에서 어떤 픽셀이 외각선 내부에 있다면 원본객체배열과 편집객체배열에 이를 복사하고 객체추출공간의 해당하는 위치에 픽셀을 투명색으로 바꾸어주는 단계로 이루어지는 것을 특징으로 한다.In this case, the method of extracting each object image in the second step includes extracting an outline of a desired object for each object image, and calculating a rectangle having the smallest size that includes the extracted outline. Allocating a space for storing the newly extracted object, initializing the allocated space, comparing which pixel of the pixel inside the rectangle is inside the outline line, and the comparing step Drawing a pixel of transparent color at the position corresponding to the original object array and the editing object array if a pixel is outside the outline, and editing the original object array if any pixel is inside the outline at the comparing step. Copying it to the object array and converting the pixel to transparent color at the corresponding position in the object extraction space. It characterized by that.
상기 목적을 달성하기 위한 본 발명의 입체 영상 이미지 변환장치는,The stereoscopic image image conversion device of the present invention for achieving the above object,
입체로 변환하고자 하는 원본 2차원 영상 자료를 입력받아 이를 저장하는 원화저장수단과,Original storage means for receiving and storing the original two-dimensional image data to be converted to three-dimensional,
상기 원화저장수단에 저장된 원본 이미지로부터 각각의 물체 이미지를 추출하여 객체화하고 이를 저장하는 객체추출수단과,Object extraction means for extracting and objectifying each object image from the original image stored in the original storage means and storing the same;
상기 객체추출수단에서 객체 추출된 각 물체의 이미지를 이미지별로 각각 저장하는 원본객체배열수단과,Original object array means for storing the image of each object extracted from the object extraction means for each image;
상기 추출된 객체 이미지를 사용자가 각 픽셀의 깊이와 객체의 깊이에 따라 각각 조정하여 편집하는 객체깊이배열수단과,Object depth arrangement means for adjusting and editing the extracted object image according to the depth of each pixel and the depth of the object;
상기 원본객체배열수단의 이미지를 상기 객체깊이배열수단의 깊이 값에 따라 변경하여 객체의 오른쪽 이미지를 만들어내며 이를 저장하는 편집객체배열수단과,An editing object arrangement means for changing the image of the original object arrangement means according to the depth value of the object depth arrangement means to create an image of the right side of the object and storing it;
상기 원본객체배열수단의 이미지와 편집객체배열수단의 이미지를 합성하여 실제로 입체로 보이는 각 객체의 이미지를 저장하는 합성객체배열수단과,Synthetic object array means for combining the image of the original object array means and the image of the edited object array means to store an image of each object actually seen in three dimensions;
상기 원화저장수단의 이미지와 편집객체배열수단에 저장되어 있는 각 객체의 오른쪽 눈 이미지를 모두 합성하여 최종적으로 사용자가 얻게될 결과 이미지를 저장하는 합성입체이미지수단을 구비하여 이루어진 것을 특징으로 한다.And synthesizing three-dimensional image means for synthesizing both the image of the original storage means and the right eye image of each object stored in the editing object arrangement means, and finally storing the resultant image obtained by the user.
상기 구성에 의한 본 발명의 입체 영상 이미지 변환방법 및 그 장치에 의하면, 일반 2차원 영상 자료상의 각 물체의 영상을 입체로 바꾸어 준 후, 각 물체의 오른쪽 눈 이미지를 원래 영상과 합성하여 3차원 입체 영상 자료로 만들어 줌으로써 입체 영상 자료의 제작에 소요되는 많은 노력과 비용을 절감시킬 수 있는 효과가 있다.According to the three-dimensional image image conversion method and apparatus of the present invention by the above configuration, after changing the image of each object on the general two-dimensional image data to a three-dimensional, and then synthesized the right eye image of each object with the original image three-dimensional three-dimensional By making it into video material, there is an effect that can save a lot of effort and cost in the production of stereoscopic video material.
이하, 본 발명의 일실시예에 관하여 첨부도면을 참조하면서 상세히 설명한다. 또, 실시예를 설명하기 위한 모든 도면에서 동일한 기능을 갖는 것은 동일한 부호를 사용하고 그 반복적인 설명은 생략한다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. In addition, in all the drawings for demonstrating an embodiment, the thing with the same function uses the same code | symbol, and the repeated description is abbreviate | omitted.
먼저, 본 발명의 원리에 대해 설명하면 다음과 같다.First, the principle of the present invention will be described.
관찰자로부터 서로 다른 거리를 두고 있는 2개의 물체가 있을 때, 가까이 있는 물체를 바라볼 때와 멀리 있는 물체를 바라볼 때의 시각의 초점의 위치가 다르다. 사람의 양쪽 눈 사이의 거리는 일정하므로, 가까이 있는 물체를 볼 때와 멀리 있는 물체를 볼 때 양쪽 눈에 맺히는 영상 사이의 각도가 다르게 된다. 그러므로 왼쪽 눈이 보는 영상과 오른쪽 눈이 보는 영상을 한 장의 스크린에 영사 시켰을 때, 두 영상 사이의 거리 차이가 물체와 관찰자 사이의 거리에 따라 다르게 나타난다. 이와 같은 효과로 인해 사람의 눈은 양안에 맺히는 두 영상 사이의 거리 차이에 의해 물체와 자신과의 거리감을 느낄 수 있는 것이다.When there are two objects at different distances from the observer, the position of the focal point of vision is different when looking at a near object or when looking at a far object. Since the distance between both eyes of a person is constant, the angle between the image of both eyes is different when looking at a near object and when looking at a far object. Therefore, when the image of the left eye and the image of the right eye are projected on one screen, the distance difference between the two images is different depending on the distance between the object and the observer. Due to this effect, the human eye can feel the distance between the object and itself by the distance difference between the two images formed on both eyes.
이 원리를 한 대의 카메라로 찍은 일반 영상 자료에 적용하여 입체감을 느낄 수 있는 영상 자료를 만들어 낸다. 촬영 당시 카메라와 가까이 있었던 물체 A와 물체 A보다는 더 멀리 떨어져 있던 물체 B를 예로 들어 설명하기로 한다. 이 영상 자료를 왼쪽 눈에서 본 영상이라고 한다면 오른쪽 눈에서 본 영상에서는, 각각의 물체가 원래 위치에서 수평으로 평행 이동한 어떤 위치에 맺혔을 것이다. 그런데 두 물체와 관측자 사이의 거리가 다르므로 위에서 설명한 바와 같이 평행 이동하는 변위값이 달라야 한다. 즉, 가까이 있는 물체는 양쪽 눈에 맺히는 영상 사이의 각도가 크고 멀리 있는 물체는 그 각도가 작으므로, 가까이 있는 물체 A는 큰 변위를 가지고 평행 이동한 위치에 그려주고, 멀리 있는 물체 B는 작은 변위를 가지고 평행 이동한 위치에 그려주면 오른쪽 눈으로 본 물체 A와 물체 B의 영상을 만들 수 있다. 이제, 왼쪽 눈의 영상은 왼쪽 눈에만 보여주고 새로이 만들어진 오른쪽 눈의 영상은 오른쪽 눈에만 보여준다면, 그 두 영상을 동시에 각각 다른 눈으로 보는 관측자는 그 물체의 영상을 입체로 느낄 수 있다.This principle is applied to general video data taken with a single camera to create a video material that can feel three-dimensional. For example, the object A near the camera at the time of shooting and the object B farther than the object A will be described as an example. If the image was viewed from the left eye, in the image from the right eye, each object would have been formed at a position in which the object moved horizontally and horizontally from its original position. However, because the distance between the two objects and the observer is different, the displacement value to move in parallel as described above should be different. In other words, the near object has a large angle between the images of both eyes, and the far object has a small angle, so that the close object A is drawn in a parallel position with a large displacement, and the far object B is a small displacement. If you draw in the parallel position with, you can make an image of object A and object B seen with the right eye. Now, if the image of the left eye is shown only in the left eye and the newly created image of the right eye is shown only in the right eye, an observer who sees the two images with different eyes at the same time can feel the image of the object in three dimensions.
본 발명에서는 이와 같은 방법에 의해 일반 2차원 영상 자료상의 각 물체의 영상을 입체로 바꾸어 준 후, 각 물체의 오른쪽 눈 이미지를 원래 영상과 합성하여 새로운 입체 영상을 만들어 낸다. 즉, 2차원 이미지상의 각각의 물체를 개별적인 객체로 인식하여 입체화한 후 다시 입체화된 객체들을 각각 원본 이미지와 합성하여 최종적으로 합성된 입체 이미지를 만들어 내는 방법을 이용한다. 이는, 원본 이미지 자체를 왼쪽 눈 이미지로 보고 새로이 오른쪽 눈 이미지를 생성하여 합성하는 것이 아니라, 원본 이미지 내부의 객체들을 각각 하나의 왼쪽 눈 이미지로 보고 개별적으로 오른쪽 눈 이미지를 만들어 내어 개별적인 합성 과정을 거친 후 전체 이미지를 만들어 내는 것이 특징적이라고 할 수 있다.In the present invention, after converting the image of each object on the general two-dimensional image data to a stereo by this method, a new stereoscopic image is created by synthesizing the right eye image of each object with the original image. In other words, each object on the two-dimensional image is recognized as a separate object and then stereoscopically reconstructed and then stereoscopically combined with the original image to create a finally synthesized stereoscopic image. This is not a view of the original image itself as the left eye image, but a new right eye image, which is not synthesized. Instead, each object inside the original image is viewed as a single left eye image. It is characteristic to produce the whole image afterwards.
상기와 같은 원리에 의해 구성된 본 발명의 구조와 동작을 첨부도면을 참조하여 보다 자세히 설명하기로 한다.The structure and operation of the present invention constructed by the above principle will be described in more detail with reference to the accompanying drawings.
도 1은 본 발명에 의한 입체 영상 이미지 변환장치의 구성과 자료의 흐름을 개략적으로 나타낸 블록도이다. 그리고, 도 2는 본 발명의 순차적인 알고리듬을 개략적으로 나타낸 순서도이고, 도 3은 도 2의 부분 중 물체 이미지 추출과 객체화에 관한 단계를 상세히 나타낸 순서도이다.1 is a block diagram schematically showing the configuration and data flow of a stereoscopic image converting apparatus according to the present invention. FIG. 2 is a flowchart schematically showing a sequential algorithm of the present invention, and FIG. 3 is a flowchart showing the steps of object image extraction and objectization in detail in FIG. 2.
먼저, 도 1을 참조하면, 입체로 변환 하고자 하는 원본 2차원 영상 자료를 입력받아 원화 저장부(10)에 저장한다. 여기에 저장된 원본 이미지는 입체로 합성된 이미지를 얻기 위해 왼쪽 눈의 이미지로 사용된다. 여기에 저장된 원본 이미지는 객체 추출부(20)에 그대로 복사되며, 상기 객체 추출부(20)에서 각 물체의 이미지가 추출된다. 여기서 추출된 이미지는 원본 객체 배열부(30)에 각 물체별로 따로 저장되며 추출된 물체의 이미지는 상기 객체 추출부(20)에서 제거된다. 이와 같이 원본 이미지로부터 각 물체의 이미지를 모두 추출해 냈다면 앞으로의 작업은 원본 객체 배열부(30)에 저장된 각 물체의 이미지를 하나 하나의 객체로 생각하여 그 객체들을 대상으로 진행된다.First, referring to FIG. 1, original 2D image data to be converted into stereoscopic images is received and stored in the original storage unit 10. The original image stored here is used as the image of the left eye to obtain a stereoscopic composite image. The original image stored here is copied to the object extractor 20 as it is, and the image of each object is extracted from the object extractor 20. The extracted image is stored separately for each object in the original object arranging unit 30, and the image of the extracted object is removed from the object extracting unit 20. If the image of each object is extracted from the original image as described above, the work in the future proceeds with the objects in consideration of the image of each object stored in the original object array unit 30 as one object.
각 객체는 세 가지의 자료 공간에 대응된다. 첫째는 이미 기술한 원본 객체 배열부(30)이며, 둘째는 객체의 각 픽셀(pixel)이 입체로 편집된 이미지에서 얼마나 들어가 보이는가 혹은 튀어나와 보이는가를 결정하는 값인 '깊이(depth)'를 저장하는 객체 깊이 배열부(40)이며, 셋째는 원본 객체 이미지를 편집하여 생성된 오른쪽 눈 이미지를 저장하는 편집 객체 배열부(50)' 이다.Each object corresponds to three data spaces. The first is the original object array section 30 already described, and the second is to store a 'depth', which is a value that determines how much of each pixel of the object appears or pops out of the three-dimensionally edited image. The object depth arranging unit 40, and the third is the editing object arranging unit 50 'for storing the right eye image generated by editing the original object image.
사용자의 입력에 의해 현재 편집 중인 객체의 어떤 픽셀의 깊이가 변경되었다면 객체 깊이 배열부(40)의 내용이 변경되며, 동시에 원본 객체 배열부(30)의 이미지를 객체 깊이 배열부(40)의 깊이 값에 따라 상기에 기술된 원리와 같이 작용하여 편집 객체 배열부(50)에 객체의 오른쪽 이미지를 만들어 낸다.If the depth of any pixel of the object currently being edited by the user's input is changed, the contents of the object depth arranging unit 40 are changed, and at the same time, the image of the original object arranging unit 30 is changed to the depth of the object depth arranging unit 40. Depending on the value, it works in the same manner as described above to produce the right image of the object in the editing object arranging unit 50.
이와 같이 객체 이미지가 편집되는 동시에 입체로 합성된 객체의 이미지와 전체 이미지를 보여주기 위하여 합성된 객체의 이미지와 전체 이미지를 저장할 공간이 필요하다.As such, the object image is edited and a space for storing the synthesized object image and the entire image is needed to show the image and the whole image of the three-dimensionally synthesized object.
합성 객체 배열부(70)는 원본 객체 배열부(30)의 이미지와 편집 객체 배열부(50)의 이미지를 합성하여 실제로 입체로 보이는 각 객체의 이미지를 저장해 놓는 장소이다.The composite object arranging unit 70 is a place where the image of the original object arranging unit 30 and the image of the editing object arranging unit 50 are synthesized to store an image of each object actually seen in three dimensions.
합성 입체 이미지부(60)는 원본 저장부(10)의 이미지와 편집 객체 배열부(50)에 저장되어 있는 각 객체의 오른쪽 눈 이미지를 모두 합성하여 최종적으로 사용자가 얻게될 결과 이미지를 저장해 놓는 장소이다. 이미지의 합성은 객체가 편집됨과 동시에 실시간으로 이루어지며, 따라서 사용자가 결과를 눈으로 확인하면서 작업할 수 있게 한다.The composite stereoscopic image unit 60 synthesizes both the image of the original storage unit 10 and the right eye image of each object stored in the editing object arranging unit 50 to finally store a result image that the user will obtain. to be. The composition of the image is done in real time as the object is edited, thus allowing the user to work while visually seeing the results.
이와 같은 구조에 기초하여 다음과 같은 동작에 의해 입체 영상을 만들어 낸다. 도 2는 본 발명의 동작을 개략적으로 나타낸 흐름도로서, 이하 도 2에 의거하여 동작의 각 부분을 순차적으로 자세히 설명하기로 한다.Based on such a structure, a stereoscopic image is produced by the following operation. FIG. 2 is a flowchart schematically showing the operation of the present invention. Hereinafter, each part of the operation will be described in detail with reference to FIG. 2.
먼저, 원본 이미지를 읽어들여 각 저장 공간에 대한 초기화 작업을 한다(단계 100).First, the original image is read and initialized for each storage space (step 100).
읽어들인 원본 2차원 이미지를 원본 저장부(도 1의 10)에 저장하고 객체 추출부(도 1의 20)도 원본 이미지로 초기화를 한다. 아직 편집을 하지 않았으므로 합성 입체 이미지부(도 1의 60) 또한 원본 이미지로 초기화된다.The read original two-dimensional image is stored in the original storage unit (10 in FIG. 1) and the object extraction unit (20 in FIG. 1) is also initialized to the original image. Since the editing has not been done yet, the composite stereoscopic image part (60 in FIG. 1) is also initialized to the original image.
그 후, 원본 이미지로부터 각각의 물체 이미지를 추출해 낸다(단계 120). 이 과정을 도 3을 참조하여 상세히 설명한다.Thereafter, each object image is extracted from the original image (step 120). This process will be described in detail with reference to FIG. 3.
먼저, 객체 추출부(도 1의 20)의 이미지에 대하여 기존에 발표된 알고리듬을 사용하여 원하는 물체의 외각선을 추출해 낸다(단계 121). 다음에 추출된 외각선을 내포하는 가장 작은 크기의 직사각형을 계산해 낸다(단계 122).First, an outline of a desired object is extracted using an algorithm previously released on an image of the object extractor 20 (step 121). Next, the smallest rectangle containing the extracted outline is calculated (step 122).
그후 새로이 추출된 객체를 저장할 공간을 원본 객체 배열부(도 1의 30)와, 편집 객체 배열부(도 1의 50)와, 합성 객체 배열부(도 1의 70)와, 그리고 객체 깊이 배열부(도 1의 40)'에 추가한다(단계 123). 단, 여기서 주의할 것은 원본 객체 배열부(도 1의 30)와 편집 객체 배열부(도 1의 50), 그리고 합성 객체 배열부(도 1의 70)에 할당할 공간의 크기를 직사각형의 크기에 정확히 맞추어 할당하지 않고, 좌우로 최대 깊이(maximum depth) 만큼의 여분을 주고 할당해야 한다는 것이다. 이것은 원본 객체 이미지에서 각 픽셀의 깊이에 따라 좌우로 평행 이동하여 새로운 위치에 그려주기 때문이다. 예를 들어, 객체 이미지의 크기가 「140픽셀×60픽셀」이고, 최고 깊이가 100이라면 할당할 공간의 크기는 「340픽셀(140+100+100)×60픽셀」에 해당하는 크기여야 한다. 객체 깊이 배열부(도 1의 40)는 각 픽셀의 깊이를 저장하는데 쓰이므로, 원본 객체 배열부(도 1의 30)와 편집 객체 배열(도 1의 50)에서와 같이 좌우에 여분의 공간을 추가하지 않는다.Then, the space for storing the newly extracted object is stored in the original object array unit (30 in FIG. 1), the edit object array unit (50 in FIG. 1), the composite object array unit (70 in FIG. 1), and the object depth array unit. (40 in Fig. 1) '(step 123). Note that the size of the space to be allocated to the original object array unit (30 in FIG. 1), the edit object array unit (50 in FIG. 1), and the composite object array unit (70 in FIG. 1) is determined by the size of the rectangle. Instead of precisely assigning them, they should be allocated with the maximum depth left and right. This is because the original object image is drawn in a new position by moving from side to side according to the depth of each pixel. For example, if the size of the object image is "140 pixels x 60 pixels" and the maximum depth is 100, the size of the space to be allocated should be a size corresponding to "340 pixels (140 + 100 + 100) x 60 pixels". Since the object depth arranging unit (40 in FIG. 1) is used to store the depth of each pixel, as shown in the original object arranging unit (30 in FIG. 1) and the editing object arrangement (50 in FIG. Do not add
다음에, 상기와 같이 할당된 공간을 초기화한다(단계 124).Next, the allocated space is initialized as described above (step 124).
원본 객체 배열부(도 1의 30)와 편집 객체 배열부(도 1의 50)는 이미지의 손상을 막기 위하여 모두 투명색으로 초기화한다. 객체 깊이 배열부(도 1의 40)의 모든 깊이 값은 0으로 초기화된다. 컴퓨터의 모니터를 기준으로 했을 때, 깊이가 0인 경우 그 픽셀은 컴퓨터 모니터 상에 있는 것처럼 보이고, 깊이가 양수라면 그 픽셀은 기준점보다 가까이 있는 것처럼 보인다. 반대로 깊이가 음수라면 그 픽셀은 기준점보다 멀리 있는 것처럼 보인다. 다시 말해 깊이가 양수인 픽셀은 컴퓨터 모니터에서 튀어나와 있는 것처럼 보이고, 깊이가 음수인 픽셀은 컴퓨터 모니터에서 들어가 있는 것처럼 보인다.The original object array unit 30 (FIG. 1) and the edit object array unit 50 (FIG. 1) are all initialized to transparent colors in order to prevent damage to the image. All depth values of the object depth arranging unit 40 in FIG. 1 are initialized to zero. Based on the computer's monitor, if the depth is zero, the pixel appears to be on the computer monitor; if the depth is positive, the pixel appears to be closer than the reference point. Conversely, if the depth is negative, the pixel appears to be farther from the reference point. In other words, positively-depth pixels appear to protrude from the computer monitor, while negative-depth pixels appear to be coming from the computer monitor.
또한 새로 추출된 이미지의 '객체 깊이' 또한 0으로 초기화 된다.In addition, the 'object depth' of the newly extracted image is also initialized to zero.
여기서 '객체 깊이'란 각 물체 이미지를 '객체'라 칭하기로 한다면, 그 객체가 다른 객체에 비하여 얼마나 돌출되어 있는가 또는 함몰되어 있는가를 나타낸다. 이 값을 조정함으로써 공간상의 각 객체의 위치를 정할 수 있다. 실제로 최종적으로 얻어지는 합성 입체 이미지부(도 1의 60)에서 각 픽셀이 가지는 깊이는 「객체 깊이+픽셀 깊이」로 계산된다.Here, 'object depth' refers to how each object image protrudes or is depressed compared to other objects, if the object image is referred to as an 'object'. By adjusting this value, you can locate each object in space. In fact, the depth of each pixel in the finally obtained composite stereoscopic image part (60 in FIG. 1) is calculated as "object depth + pixel depth".
그 다음 할당한 공간의 중앙 위치(좌우 양쪽의 여분 공간을 제외한 공간)에 새로이 추출된 객체의 이미지를 복사한다(단계 125 및 126).Then, the image of the newly extracted object is copied to the center position of the allocated space (space except the left and right sides of the space) (steps 125 and 126).
이미지의 복사는 원본 객체 배열부(도 1의 30)에는 물론이고, 편집 객체 배열부(도 1의 50)에도 해당된다. 편집 객체 배열부(도 1의 50)에는 원본 객체 이미지를 왼쪽 눈의 이미지로 생각하였을 때, 그에 해당하는 오른쪽 눈 이미지가 저장되는데 아직 편집 과정을 거치지 않은 객체이므로 원본 객체 배열부(도 1의 30)의 이미지와 편집 객체 배열부(도 1의 50)의 이미지가 동일할 수 밖에 없다. 추출된 이미지의 복사 과정은 원본 객체 배열부(도 1의 30)에 저장된 객체 이미지 내부의 모든 픽셀에 대하여 진행된다.The copying of the image is applicable not only to the original object arranging unit 30 (FIG. 1) but also to the editing object arranging unit 50 (FIG. 1). When the original object image is regarded as the image of the left eye in the editing object arrangement unit (50 in FIG. 1), the corresponding right eye image is stored, and since the object has not been edited yet, the original object arrangement unit (30 in FIG. 1). ) And the image of the editing object arrangement unit (50 in Figure 1) is the same. The copying process of the extracted image is performed for all the pixels in the object image stored in the original object array unit 30 of FIG. 1.
어떤 픽셀이 외각선 내부에 있다면 객체 추출부(도 1의 20)의 해당하는 위치의 픽셀을 투명색으로 바꾸어 준다(단계 126). 이렇게 함으로써 객체 추출부(도 1의 20)에서 새로이 추출된 물체의 이미지를 제거할 수 있고, 다음에 추출될 다른 물체의 이미지에 영향을 주지 않게 된다. 만약 어떤 픽셀이 외각선 외부에 있다면(단계 127), 원본 객체 배열부(도 1의 30)와 편집 객체 배열부(도 1의 50)의 해당하는 위치에 투명색의 픽셀을 그려준다. 또한 좌우의 여분 공간에도 모두 투명색으로 채워 이미지의 손상이 없도록 한다.If a pixel is inside the outline line, the pixel at the corresponding position of the object extractor 20 of FIG. 1 is changed to a transparent color (step 126). By doing so, the image of the newly extracted object can be removed by the object extracting unit (20 in FIG. 1), and the image of another object to be extracted next will not be affected. If a pixel is outside the outline (step 127), transparent pixels are drawn at the corresponding positions of the original object array (30 in FIG. 1) and the editing object array (50 in FIG. 1). In addition, the left and right extra spaces are filled with transparent colors so that there is no damage to the image.
한편, 추출되고 남은 이미지는 '배경 객체'로 저장된다. 배경 객체에 대하여도 상기와 같은 과정을 거쳐 초기화를 한다. 단, 배경 객체는 원본 이미지에서 배경에 해당하는 부분이고, 가장 함몰되어 보여야 하는 객체이므로, 배경 객체의 객체 깊이는 가장 큰 음수값(-1×최대 깊이)으로 설정된다.Meanwhile, the extracted image remaining is stored as a 'background object'. The background object is also initialized through the above process. However, since the background object is the portion of the original image corresponding to the background and should be the most depressed, the object depth of the background object is set to the largest negative value (−1 × maximum depth).
상기의 과정을 통해 각 물체의 이미지를 모두 추출하여 객체화하였다면, 이제 객체 이미지를 각각 편집한다(도 2의 단계 140).If all the images of each object are extracted and objectized through the above process, the object images are edited separately (step 140 of FIG. 2).
객체 편집은 객체상의 각 픽셀의 깊이를 조정하는 것과 객체 깊이를 조정하는 것을 의미한다. 사용자는 각 픽셀의 깊이를 0을 기준으로 하여 양수 혹은 음수로 변화시킨다. 들어가 보여야 할 부분에 대해서는 깊이를 음의 값으로 조정하고, 튀어나와 보여야 할 부분에 대해서는 깊이를 양의 값으로 조정하면 된다. 그리고 깊이의 정도에 따라 깊이의 절대값을 적절히 조정해준다. 이 과정을 통해 객체 깊이 배열부(도 1의 40)의 각 픽셀의 깊이가 변경된다.Editing an object means adjusting the depth of each pixel on the object and adjusting the object depth. The user changes the depth of each pixel to be positive or negative with respect to zero. Adjust the depth to a negative value for the part that needs to be seen and adjust the depth to a positive value for the part that needs to be popped out. Then adjust the absolute value of the depth according to the depth. Through this process, the depth of each pixel of the object depth array unit 40 of FIG. 1 is changed.
이렇게 변경된 객체 깊이 배열부(도 1의 40)의 내용에 따라 실제로 원본 객체 배열부(도 1의 30)에 저장되어 있는 이미지로부터 편집 객체 배열부(도 1의 50)에 그 객체의 오른쪽 이미지를 만들어 낸다. 도 4에서 보는 바와 같이, 깊이가 양수인 경우 오른쪽 눈의 이미지는 왼쪽 눈의 이미지의 위치에서 왼쪽으로 평행 이동한다. 반대로 깊이가 음수인 경우는 왼쪽 눈의 이미지의 위치에서 오른쪽으로 평행 이동한다. 그리고 깊이의 절대값이 클 수록 평행 이동하는 양은 커진다. 이와 같은 방법으로 깊이가 변경된 원본 객체 배열부(도 1의 30)의 픽셀을 그 깊이에 따라 왼쪽 또는 오른쪽으로 평행 이동하여 편집 객체 배열부(도 1의 50)의 해당하는 위치에 복사해 준다.According to the contents of the changed object depth arrangement unit 40 (FIG. 1), the image of the right side of the object is changed from the image stored in the original object arrangement unit 30 (FIG. 1) to the editing object arrangement unit 50 (FIG. 1). Make it up As shown in FIG. 4, when the depth is positive, the image of the right eye moves parallel to the left from the position of the image of the left eye. Conversely, if the depth is negative, it will translate parallel to the right from the position of the image of the left eye. And the greater the absolute value of the depth, the greater the amount of parallel translation. In this manner, the pixels of the original object array unit 30 (of FIG. 1) having the changed depth are moved to the left or right in parallel according to the depth, and copied to the corresponding positions of the editing object array unit (50 of FIG. 1).
상기와 같은 과정을 통해 편집 객체 배열부(도 1의 50)의 이미지가 변경되면 원본 객체 배열부(도 1의 30)의 이미지와 편집 객체 배열부(도 1의 50)의 이미지를 합성하여 합성 객체 배열부(도 1의 70)의 이미지를 만들어내어 사용자가 실시간으로 입체로 합성된 객체의 이미지를 확인할 수 있도록 한다(도 2의 단계 160).When the image of the editing object arrangement unit 50 of FIG. 1 is changed through the above process, the image of the original object arrangement unit 30 of FIG. 1 and the image of the editing object arrangement unit 50 of FIG. 1 are synthesized. An image of the object array unit 70 of FIG. 1 is generated to allow a user to check an image of a three-dimensionally synthesized object in real time (step 160 of FIG. 2).
이미지의 합성에 있어서, 왼쪽 눈의 이미지는 원본 객체 배열부(도 1의 30)의 이미지를, 오른쪽 눈의 이미지는 편집 객체 배열부(도 1의 50)의 이미지를 이용하여 다음과 같은 방법을 사용한다. 왼쪽 눈 이미지에서 한 줄의 이미지 데이터(image data)를 읽어 합성된 이미지를 저장할 버퍼(buffer)의 맨 윗줄에 복사한다. 다음에는 오른쪽 눈 이미지에서 한 줄의 이미지 데이타를 읽어 버퍼의 다음 줄에 복사한다. 이와 같이 왼쪽 눈 이미지와 오른쪽 눈 이미지를 교대로 한 줄씩 읽어가며 그 내용을 차례대로 버퍼에 한 줄씩 써 넣으면 된다. 이렇게 합성된 입체 이미지는 라인 블랭킹(line blanking)방식을 지원하는 스테레오 뷰어(stereo viewer)에서 사용 가능하다.In synthesizing the images, the image of the left eye is an image of the original object array unit (30 in FIG. 1), and the image of the right eye is using the image of the editing object array unit (50 in FIG. 1). use. Read a line of image data from the left eye image and copy it to the top line of the buffer to store the synthesized image. Next, we read one line of image data from the right eye image and copy it to the next line of the buffer. In this way, the left eye image and the right eye image are read one by one, and the contents are written one by one in the buffer one after the other. The synthesized stereoscopic image can be used in a stereo viewer that supports line blanking.
합성된 객체 이미지는 합성 객체 배열부(도 1의 70)에 저장되며, 그 이미지 그대로 화면에 출력하여 사용자가 확인할 수 있도록 한다.The synthesized object image is stored in the synthesized object array unit 70 of FIG. 1 and output to the screen as it is so that the user can check it.
전체 이미지의 경우 편집 객체 배열부(도 1의 50)의 각 객체들 중에서 작은 객체 깊이를 가지는 객체부터 원본 저장부(도 1의 10)에 저장되어 있는 원본 이미지를 왼쪽 눈 이미지로 하여 합성한다. 즉, 배경 객체부터 원본 이미지와 합성한 후, 여기서 합성되어 나온 이미지와 그 다음으로 작은 객체 깊이 값을 가지는 객체와 합성한다. 이와 같이 객체 깊이가 작은 객체부터 차례대로 합성하면, 멀리있는 것처럼 보여야 하는 객체(객체 깊이가 작은 객체)는 가까이 있는 것처럼 보여야 하는 객체(객체 깊이가 큰 객체)에 의해 덮어씌워지므로, 멀리있는 물체가 가까이 있는 물체에 의해 가려 안 보이는 실제 상황과 잘 들어 맞는다.In the case of the entire image, the object having the smallest object depth among the objects in the editing object arrangement unit 50 of FIG. 1 is synthesized using the original image stored in the original storage unit 10 of FIG. 1 as the left eye image. In other words, it combines the background object with the original image and then combines it with the image that has been synthesized here and the object with the next smaller object depth value. When compositing sequentially from the smallest object depth like this, objects that should appear to be far away (objects with small object depth) are overwritten by objects that need to be seen as near (objects with large object depth), It fits well with real situations that are not covered by nearby objects.
이상에서 설명한 바와 같이, 본 발명에 의한 입체 영상 이미지 변환방법 및 그 장치에 의하면, 일반 2차원 영상 자료상의 각 물체의 영상을 입체로 바꾸어 준 후, 각 물체의 오른쪽 눈 이미지를 원래 영상과 합성하여 3차원 입체 영상 자료로 만들어 주도록 구성되어 있으므로, 객체의 이미지 자체를 편집할 수 있기 때문에 좀더 세밀한 입체 이미지의 구현이 가능하다. 또한, 전체 이미지 한 장을 대상으로 한 편집이 아니라 독립적으로 편집된 객체들의 통합으로 전체 이미지를 구성하기 때문에 보다 확실한 입체감을 얻어낼 수 있으며, 기존에 존재하는 수많은 2차원 이미지를 활용할 수 있고 입체 이미지 데이터를 직접 제작하는데 들어가는 비용과 시간을 절약할 수 있는 매우 뛰어난 효과가 있다.As described above, according to the stereoscopic image image conversion method and apparatus according to the present invention, after changing the image of each object on the general two-dimensional image data to a stereoscopic image, the right eye image of each object is synthesized with the original image Since it is configured to make three-dimensional stereoscopic image data, the image of the object itself can be edited, so more detailed three-dimensional image can be realized. In addition, it is possible to obtain a more solid three-dimensional effect by composing the entire image by integrating independently edited objects instead of editing the entire image, and utilizing a large number of existing two-dimensional images. It's a great way to save time and money on creating your own data.
아울러 본 발명의 바람직한 실시예들은 예시의 목적을 위해 개시된 것이며, 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가등이 가능할 것이며, 이러한 수정 변경등은 이하의 특허청구범위에 속하는 것으로 보아야 할 것이다.In addition, preferred embodiments of the present invention are disclosed for the purpose of illustration, those skilled in the art will be able to various modifications, changes, additions, etc. within the spirit and scope of the present invention, these modifications and changes should be seen as belonging to the following claims. something to do.
Claims (3)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019980057178A KR100321897B1 (en) | 1998-12-22 | 1998-12-22 | Stereoscopic image conversion method and apparatus |
PCT/KR1999/000806 WO2000038434A1 (en) | 1998-12-22 | 1999-12-22 | Method and apparatus for converting monoscopic images into stereoscopic images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019980057178A KR100321897B1 (en) | 1998-12-22 | 1998-12-22 | Stereoscopic image conversion method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20000041329A true KR20000041329A (en) | 2000-07-15 |
KR100321897B1 KR100321897B1 (en) | 2002-05-13 |
Family
ID=19564569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019980057178A KR100321897B1 (en) | 1998-12-22 | 1998-12-22 | Stereoscopic image conversion method and apparatus |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR100321897B1 (en) |
WO (1) | WO2000038434A1 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100381817B1 (en) * | 1999-11-17 | 2003-04-26 | 한국과학기술원 | Generating method of stereographic image using Z-buffer |
KR20030076904A (en) * | 2002-03-23 | 2003-09-29 | (주)맥스소프트 | Method for Reconstructing Intermediate View Image using Adaptive Disparity Estimation |
KR100436904B1 (en) * | 2002-09-06 | 2004-06-23 | 강호석 | Method for generating stereoscopic image from 2D images |
KR100450836B1 (en) * | 2001-12-11 | 2004-10-01 | 삼성전자주식회사 | Apparatus for generating 3-dimensional image from 2-dimensional image |
WO2008013352A1 (en) * | 2006-07-28 | 2008-01-31 | Bluvis Inc. | 3d image editing apparatus and method thereof |
WO2009151292A3 (en) * | 2008-06-12 | 2010-03-25 | Sung Young Seok | Image conversion method and apparatus |
WO2013081281A1 (en) * | 2011-11-29 | 2013-06-06 | 에스케이플래닛 주식회사 | Image converting apparatus and method for converting two-dimensional image to three-dimensional image, and recording medium for same |
WO2013081304A1 (en) * | 2011-11-28 | 2013-06-06 | 에스케이플래닛 주식회사 | Image conversion apparatus and method for converting two-dimensional image to three-dimensional image, and recording medium for same |
US9460336B2 (en) | 2011-01-13 | 2016-10-04 | Samsung Electronics Co., Ltd. | Apparatus and method for extracting feature of depth image |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101212223B1 (en) * | 2005-07-18 | 2012-12-13 | 삼성디스플레이 주식회사 | Device taking a picture and method to generating the image with depth information |
EP1977395B1 (en) | 2006-01-27 | 2018-10-24 | Imax Corporation | Methods and systems for digitally re-mastering of 2d and 3d motion pictures for exhibition with enhanced visual quality |
CA2884702C (en) * | 2006-06-23 | 2018-06-05 | Samuel Zhou | Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition |
US8456517B2 (en) | 2008-07-09 | 2013-06-04 | Primesense Ltd. | Integrated processor for 3D mapping |
BR112012027770A2 (en) | 2010-05-11 | 2017-08-08 | Thomson Licensing | comfort film granulation and noise processing for 3 dimensional video |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5371778A (en) * | 1991-11-29 | 1994-12-06 | Picker International, Inc. | Concurrent display and adjustment of 3D projection, coronal slice, sagittal slice, and transverse slice images |
JP3128467B2 (en) * | 1995-04-11 | 2001-01-29 | 三洋電機株式会社 | How to convert 2D video to 3D video |
KR100345686B1 (en) * | 1995-08-12 | 2002-12-06 | 주식회사 위트비전 | Device and method for converting image into virtual stereo image |
KR100230447B1 (en) * | 1997-05-09 | 1999-11-15 | 윤종용 | 3-dimension image conversion apparatus and method of 2-dimension continuous image |
-
1998
- 1998-12-22 KR KR1019980057178A patent/KR100321897B1/en not_active IP Right Cessation
-
1999
- 1999-12-22 WO PCT/KR1999/000806 patent/WO2000038434A1/en active Application Filing
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100381817B1 (en) * | 1999-11-17 | 2003-04-26 | 한국과학기술원 | Generating method of stereographic image using Z-buffer |
KR100450836B1 (en) * | 2001-12-11 | 2004-10-01 | 삼성전자주식회사 | Apparatus for generating 3-dimensional image from 2-dimensional image |
KR20030076904A (en) * | 2002-03-23 | 2003-09-29 | (주)맥스소프트 | Method for Reconstructing Intermediate View Image using Adaptive Disparity Estimation |
KR100436904B1 (en) * | 2002-09-06 | 2004-06-23 | 강호석 | Method for generating stereoscopic image from 2D images |
WO2008013352A1 (en) * | 2006-07-28 | 2008-01-31 | Bluvis Inc. | 3d image editing apparatus and method thereof |
WO2009151292A3 (en) * | 2008-06-12 | 2010-03-25 | Sung Young Seok | Image conversion method and apparatus |
KR100957129B1 (en) * | 2008-06-12 | 2010-05-11 | 성영석 | Method and device for converting image |
US9460336B2 (en) | 2011-01-13 | 2016-10-04 | Samsung Electronics Co., Ltd. | Apparatus and method for extracting feature of depth image |
WO2013081304A1 (en) * | 2011-11-28 | 2013-06-06 | 에스케이플래닛 주식회사 | Image conversion apparatus and method for converting two-dimensional image to three-dimensional image, and recording medium for same |
WO2013081281A1 (en) * | 2011-11-29 | 2013-06-06 | 에스케이플래닛 주식회사 | Image converting apparatus and method for converting two-dimensional image to three-dimensional image, and recording medium for same |
Also Published As
Publication number | Publication date |
---|---|
KR100321897B1 (en) | 2002-05-13 |
WO2000038434A1 (en) | 2000-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US4925294A (en) | Method to convert two dimensional motion pictures for three-dimensional systems | |
US5077608A (en) | Video effects system able to intersect a 3-D image with a 2-D image | |
EP1141893B1 (en) | System and method for creating 3d models from 2d sequential image data | |
US20090219383A1 (en) | Image depth augmentation system and method | |
JP4065488B2 (en) | 3D image generation apparatus, 3D image generation method, and storage medium | |
KR100321897B1 (en) | Stereoscopic image conversion method and apparatus | |
JP4489610B2 (en) | Stereoscopic display device and method | |
CA2669016A1 (en) | System and method for compositing 3d images | |
KR20080071475A (en) | Apparatus and method for generating cg(computer graphics) image for 3-d display | |
Bonatto et al. | Real-time depth video-based rendering for 6-DoF HMD navigation and light field displays | |
WO2012140397A2 (en) | Three-dimensional display system | |
US8797383B2 (en) | Method for stereoscopic illustration | |
Berretty et al. | Real-time rendering for multiview autostereoscopic displays | |
EP1668919A1 (en) | Stereoscopic imaging | |
CN115859662A (en) | Naked eye light field 3D display simulation method | |
KR101212223B1 (en) | Device taking a picture and method to generating the image with depth information | |
Kunita et al. | Real-time rendering system of moving objects | |
JPH10336703A (en) | Image compositing device, its method and storage medium | |
WO1998043442A1 (en) | Multiple viewpoint image generation | |
JP4270695B2 (en) | 2D-3D image conversion method and apparatus for stereoscopic image display device | |
KR20040083652A (en) | Signal process method and apparatus for 3 dimension image | |
JP7336871B2 (en) | All-dome video processing device and program | |
Buchroithner et al. | 3D display techniques for cartographic purposes: Semiotic aspects | |
Hyun et al. | Curved Projection Integral Imaging Using an Additional Large‐Aperture Convex Lens for Viewing Angle Improvement | |
KR100939080B1 (en) | Method and Apparatus for generating composited image, Method and Apparatus for displaying using composited image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee |