KR20040022100A - Method for generating stereoscopic image from 2D images - Google Patents

Method for generating stereoscopic image from 2D images Download PDF

Info

Publication number
KR20040022100A
KR20040022100A KR1020020053937A KR20020053937A KR20040022100A KR 20040022100 A KR20040022100 A KR 20040022100A KR 1020020053937 A KR1020020053937 A KR 1020020053937A KR 20020053937 A KR20020053937 A KR 20020053937A KR 20040022100 A KR20040022100 A KR 20040022100A
Authority
KR
South Korea
Prior art keywords
image
interest
objects
dimensional
reference image
Prior art date
Application number
KR1020020053937A
Other languages
Korean (ko)
Other versions
KR100436904B1 (en
Inventor
임인성
강호석
Original Assignee
임인성
강호석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 임인성, 강호석 filed Critical 임인성
Priority to KR10-2002-0053937A priority Critical patent/KR100436904B1/en
Publication of KR20040022100A publication Critical patent/KR20040022100A/en
Application granted granted Critical
Publication of KR100436904B1 publication Critical patent/KR100436904B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: A method for generating a three-dimensional image from a two-dimensional image is provided to rapidly generate a three-dimensional image with respect to a single reference image. CONSTITUTION: Initial states of predetermined viewing factors are displayed(s120). The viewing factors are set as values for generating a three-dimensional image with respect to a two-dimensional reference image(s130). Objects included in the reference image are separated from the reference image(s140), and a background image of the reference image is edited to fill the space from which the objects have been removed(150). Position information of the objects is read, and then a primary cubic effect is given to the objects(s160). The objects are displayed on the background image. A depth value for each of the objects displayed on the background image is set according to depth values of predetermined basic primitives to give secondary cubic effect to the objects(s170). A view point, one of the viewing factor, is horizontally moved, to generate left and right images for the resultant image(s180).

Description

2차원이미지에 대한 입체영상생성방법{Method for generating stereoscopic image from 2D images}Method for generating stereoscopic image from 2D images

본 발명은 2차원이미지에 대한 입체영상생성방법에 관한 것으로서, 특히, 한 장의 참조이미지만을 가지고 영상기반 기법을 적용하여 2차원이미지에 대한 입체영상을 생성하는 방법에 관한 것이다.The present invention relates to a three-dimensional image generation method for a two-dimensional image, and more particularly, to a method for generating a three-dimensional image for a two-dimensional image by applying an image-based method with only one reference image.

최근 컴퓨터 기술의 발달에 따라 컴퓨터 그래픽을 이용하여 사진과 같은 사실적인 영상을 생성하고자 하는 3차원 그래픽스 기술이 다양하게 개발되고 있다.Recently, with the development of computer technology, various three-dimensional graphics technologies have been developed to generate realistic images such as photographs using computer graphics.

이러한 3차원 그래픽스 기술은 기하기반기법과, 영상기반기법으로 분류할 수 있다.Such three-dimensional graphics techniques can be classified into geometric techniques and image-based techniques.

기하기반기법은 소정의 데이터를 이용하여 3차원 이미지를 생성하는 방법으로서, 복잡한 전경(scene)에 대해 실제와 비슷한 이미지를 만들어내기 위해 복잡하고 방대한 양의 데이터를 이용한 '모델링'과정과, 시간을 많이 소모하는 '렌더링'과정을 거치게 된다. 이러한 기하기반기법은 전통적인 3차원 컴퓨터 그래픽스 기술로서 자리매김하고 있으며, 그 대표적인 예로는 '다각형기반렌더링(polygonal- based rendering)', '광선추적법(ray tracing)' 및 '레디오시티(radiosity)등이 있다. 하지만, 이러한 기하기반기법들은 3차원 전경 내에 있는 물체들에 대한 기하학적인 표현과 그 전경 내에서 빛이 미치는 영향 등 합성되는 이미지의 사실성을 높이기 위한 방법과, 복잡한 알고리즘의 속도를 개선하기 위한 방법 등 해결해야할많은 문제들을 안고 있다.Geometry is a method of generating three-dimensional images by using predetermined data. The modeling process and time using complicated and huge amounts of data to create a realistic image of a complex scene You will go through a lot of 'rendering' process. These techniques are becoming traditional 3D computer graphics technologies. Typical examples are 'polygonal-based rendering', 'ray tracing' and 'radiosity'. There is this. However, these techniques are used to increase the realism of the synthesized images, such as geometric representations of objects in the three-dimensional foreground and the effects of light in the foreground, and to improve the speed of complex algorithms. There are many problems to solve.

한편, 영상기반기법은 이러한 기하기반기법의 문제점들을 해결하기 위해 개발된 3차원 컴퓨터 그래픽스 기술로서, 영상기반기법은 미리 준비된 이미지로부터 그 이미지 속에 있는 물체나 환경의 기하학적인 정보가 없어도 그것들에 대한 새로운 시점에서의 뷰(view)를 제공함으로써 그 이미지에 대한 입체영상을 생성한다. 영상기반기법에서는 좌/우의 눈에 그려지는 영상의 차이로 2차원 영상을 3차원 영상처럼 보이게 하는 입체영상을 생성하는데, 이를 위해, 한 장 혹은 여러 장의 이미지를 이용하여 그 이미지 내에 있는 물체들의 깊이정보를 추출하고 와핑으로 인해 생기는 빈 공간을 처리해야 한다.On the other hand, image-based technique is a three-dimensional computer graphics technology developed to solve the problems of the geometry technique, image-based technique is a new image about them even if there is no geometric information of the object or environment in the image from the prepared image Providing a view from the viewpoint creates a stereoscopic image of the image. Image-based technique creates a stereoscopic image that makes a two-dimensional image look like a three-dimensional image by the difference between the images drawn on the left and right eyes. For this purpose, the depth of the objects in the image using one or several images is used. We need to extract the information and deal with the empty space that results from warping.

하지만, 한 장의 참조이미지만을 이용하여 입체영상을 생성하고자 할 경우, 그 이미지 내에 있는 물체들의 깊이정보를 추출하거나 빈 공간을 처리하는 것이 상당히 어렵다는 문제점이 있다.However, when a stereoscopic image is to be generated using only one reference image, it is difficult to extract depth information of objects in the image or to process an empty space.

따라서, 종래에는 이러한 문제점을 해결하기 위해, 사용자의 수작업을 통해 깊이를 부여하고 빈 공간을 채우는 방법이 제시되고 있지만, 이는 작업의 정확성에 비해 시간이 많이 걸리는 단점이 있다. 특히, 입체영상을 생성할 경우 정확한 깊이를 추출하기보다는 양/음의 시차를 이용하여 입체감을 표현하기 때문에 많은 시간을 들여서 깊이를 부여할 필요가 없다는 특징이 있다.Therefore, in order to solve such a problem, a method of providing a depth and filling an empty space through a manual operation of a user has been proposed, but this has a disadvantage in that it takes much time compared to the accuracy of the work. In particular, when generating a stereoscopic image, rather than extracting the correct depth to express a three-dimensional effect by using a positive / negative parallax, it is not necessary to give a depth to spend a lot of time.

본 발명은 상기한 바와 같은 종래의 제반 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 한 장의 참조이미지에 포함된 관심물체들의 양/음의 시차에 의거하여 관심물체들의 깊이를 부여하고 주변 픽셀 정보를 이용하여 빈 공간을 채움으로써, 최소한의 수작업 시간을 통해 관심물체와 배경에 대한 깊이감 및 입체감을 부여하고 좌/우 이미지를 생성할 때 생기는 빈공간에 대한 문제를 해결함으로써 보다 빠른 시간에 한 장의 참조이미지에 대한 입체영상을 생성할 수 있도록 하는 것을 특징으로 하는 2차원이미지에 대한 입체영상생성방법을 제공하는 데에 있다.The present invention is to solve the above-mentioned conventional problems, the object of the present invention is to give the depth of the objects of interest based on the positive / negative parallax of the objects of interest contained in one reference image and the surrounding pixel information By filling the empty space with, you can provide the depth and dimension of the object and background with minimal manual time and solve the problem of the empty space when creating the left and right images. It is to provide a stereoscopic image generation method for a two-dimensional image, characterized in that to generate a stereoscopic image for the reference image of the chapter.

도 1은 본 발명의 일 실시예에 따라 2차원이미지에 대한 입체영상을 생성하는 처리과정을 도시한 순서도,1 is a flowchart illustrating a process of generating a stereoscopic image for a 2D image according to an embodiment of the present invention;

도 2는 본 발명의 일 실시예에 따라 초기 2차원 참조이미지를 디스플레이한 결과를 나타낸 예시도,2 is an exemplary view showing a result of displaying an initial two-dimensional reference image according to an embodiment of the present invention;

도 3은 본 발명의 일 실시예에 따라 초기 2차원 참조이미지에 대한 소실점과 카메라의 시점을 설정한 결과를 나타낸 예시도,3 is an exemplary view illustrating a result of setting a vanishing point and a viewpoint of a camera for an initial two-dimensional reference image according to an embodiment of the present invention;

도 4a 및 도 4b는 본 발명의 실시예에 따라 배경이미지의 빈 공간을 채운 결과를 나타낸 예시도들,4A and 4B are exemplary views illustrating a result of filling empty spaces of a background image according to an embodiment of the present invention;

도 5a 및 도 5b는 본 발명의 실시예에 따라 투영평면을 기준으로 관심물체 및 배경이미지의 깊이를 설정하는 방법을 나타낸 예시도들,5A and 5B are exemplary views illustrating a method of setting depths of an object of interest and a background image based on a projection plane according to an embodiment of the present invention;

도 6a 및 도 6b는 본 발명의 실시예에 따라 관심물체에 1차적인 입체감이 부여되는 원리를 설명하기 위한 설명도들,6A and 6B are explanatory diagrams for explaining a principle of giving a primary three-dimensional effect to an object of interest according to an embodiment of the present invention;

도 7은 본 발명이 실시예에 따라 관심물체에 2차적인 입체감을 부여한 결과를 나타낸 예시도,7 is an exemplary view showing a result of giving a secondary three-dimensional effect to an object of interest according to an embodiment of the present invention;

도 8a 내지 도 8c는 본 발명의 실시예에 따라 2차원참조이미지에 대한 입체영상을 생성한 결과를 나타낸 예시도들.8A to 8C are exemplary views illustrating a result of generating a stereoscopic image for a 2D reference image according to an exemplary embodiment of the present invention.

이와 같은 목적을 달성하기 위해 본 발명에서 제공하는 2차원이미지에 대한 입체영상생성방법은 외부에서 입력되는 한 장의 2차원 참조이미지와, 임의의 2차원 참조이미지에 대한 입체영상을 생성하기 위해 기 설정된 뷰잉인자들의 초기상태를 디스플레이하는 제1 과정과; 상기 뷰잉인자들을 상기 제1 과정에서 입력된 2차원 참조이미지에 대한 입체영상을 생성하기 위한 값으로 설정하는 제2 과정과; 상기 참조이미지에 포함된 관심물체들을 상기 참조이미지로부터 분리하고, 상기 관심물체들이 분리되고 남은 배경이미지를 편집하여 상기 관심물체들이 분리된 빈 공간을 채우는 제3 과정과; 사용자의 조작에 의해 설정된 상기 관심물체들의 위치정보를 판독한 후, 기 설정되어 상기 제1 과정에서 디스플레이된 투영평면과 상기 관심물체들의 위치정보의 전후관계에 의거하여 해당 관심물체들 각각에 1차적인 입체감을 부여하고, 그 관심물체들을 상기 제3 과정에서 생성된 배경이미지 상에 표시하는 제4 과정과; 기 설정된 소정의 기본 프리미티브들의 깊이값에 의해 상기 제4 과정에서 배경이미지 상에 표시된 관심물체들 각각에 대한 깊이값을 설정하여 그 관심물체들에 대한 2차적인 입체감을 표현하는 제5 과정과; 상기 제2 과정에서 설정된뷰잉인자들 중 하나인 시점을 좌/우로 이동하여 상기 제3 내지 제5 과정에서 생성된 결과이미지에 대한 좌/우 이미지를 생성하는 제6 과정과; 상기 제6 과정에서 생성된 좌/우 이미지를 합성하여 디스플레이하는 제7 과정;을 포함하는 것을 특징으로 한다.In order to achieve the above object, a stereoscopic image generation method for a two-dimensional image provided in the present invention is set in advance to generate a stereoscopic image for a single two-dimensional reference image and an arbitrary two-dimensional reference image input from the outside. A first step of displaying an initial state of the viewing factors; A second step of setting the viewing factors to values for generating a stereoscopic image for the two-dimensional reference image input in the first step; A third process of separating objects of interest included in the reference image from the reference image, editing a background image in which the objects of interest are separated, and filling the empty space in which the objects of interest are separated; After reading the positional information of the objects of interest set by the user's operation, the primary information is applied to each of the objects of interest based on the front-rear relationship between the projection plane displayed in the first step and the positional information of the objects of interest. Providing a three-dimensional appearance and displaying the objects of interest on the background image generated in the third process; A fifth process of setting a depth value for each of the objects of interest displayed on the background image in the fourth process by setting depth values of the predetermined basic primitives to express secondary stereoscopic feelings for the objects of interest; A sixth step of generating a left / right image of a result image generated in the third to fifth processes by moving the viewpoint, which is one of the viewing factors set in the second process, to the left / right; And a seventh step of synthesizing and displaying the left / right image generated in the sixth step.

이하, 본 발명에서 제공하는 2차원이미지에 대한 입체영상생성방법에 대한 바람직한 실시예를 첨부된 도면에 의거하여 상세하게 설명한다.Hereinafter, a preferred embodiment of a stereoscopic image generation method for a two-dimensional image provided by the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따라 2차원이미지에 대한 입체영상을 생성하는 처리과정을 도시한 순서도이다.1 is a flowchart illustrating a process of generating a stereoscopic image for a 2D image according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따라 2차원 참조이미지에 대한 입체영상을 생성하기 위한 처리 과정은 다음과 같다. 우선, 외부에서 한 장의 2차원 참조이미지가 입력되면(s110), 그 2차원 참조이미지와, 임의의 2차원 참조이미지에 대한 입체영상을 생성하기 위해 기 설정된 뷰잉인자들의 초기상태를 디스플레이한다(s120).Referring to FIG. 1, a process for generating a stereoscopic image for a 2D reference image according to an embodiment of the present invention is as follows. First, when a single two-dimensional reference image is input from the outside (s110), the initial state of the predetermined viewing factors is displayed to generate the two-dimensional reference image and a stereoscopic image for an arbitrary two-dimensional reference image (s120). ).

이 때, 2차원 참조이미지는 그 참조이미지에 포함된 관심물체들과 배경이미지를 나타내는 각각의 파일들(예컨대, bmp 또는 ppm)을 포함하는 파일형태(예컨대, info)로 제공되는데, 예를 들어, 임의의 프레임(frame)에 관심물체가 2개 포함된다면, 이 때의 참조이미지 파일(ex001.info)에는 전체이미지를 나타내는 파일(ex001.bmp)과, 제1 관심물체를 나타내는 파일(ex001_01.bmp)과, 제2 관심물체를 나타내는 파일(ex001_02.bmp)과, 배경이미지를 나타내는 파일(ex001_99.bmp)이 포함될 것이다.In this case, the 2D reference image is provided in a file form (eg, info) including respective files (eg, bmp or ppm) representing objects of interest included in the reference image and a background image, for example. If two objects of interest are included in any frame, the reference image file ex001.info includes a file ex001.bmp representing the entire image and a file ex001_01 representing the first object of interest. bmp), a file ex001_02.bmp representing a second object of interest, and a file ex001_99.bmp representing a background image.

한편, 도 2는 본 발명의 일 실시예에 따라 초기 2차원 참조이미지를 디스플레이한 결과를 나타낸 예시도로서, 상기 과정(s120)의 처리결과에 대한 예시도를 나타내었다. 도 2를 참조하면, 입체영상을 생성하기 위한 소정의 어플리케이션에서 디스플레이영역은 화면의 우측에 위치한 주 디스플레이영역(A)과, 화면의 좌측에 위치한 보조 디스플레이영역(B)을 포함하는데, 주 디스플레이영역(A)에는 상기 과정(s110)에서 입력된 2차원 참조이미지와, 그 참조이미지에 대한 소실점을 설정하기 위한 기준점들을 디스플레이하였고, 보조 디스플레이영역(B)에는 기 설정된 투영평면 및 카메라의 시점을 설정하기 위한 기준점을 디스플레이하였다. 주 디스플레이영역(A)의 중앙부에 디스플레이된 5개의 점 중 가운데 있는 점이 소실점을 나타내기 위한 점이고, 그 주변에 있는 점이 내부 직사각형을 나타내기 위한 점이다. 사용자는 마우스 또는 키보드 등과 같은 사용자 인터페이스를 이용하여 이러한 기준점들을 이동시킴으로써, 소실점을 설정할 수가 있다. 그러면, 보조 디스플레이영역(B)에 표시된 기준점들도 주 디스플레이 영역(A)에서 변동된 위치정보에 의해 연동하게 된다. 보조 디스플레이영역(B)에서 화면 중간 아래부분에 표시된 굵은 선(C)이 투영평면을 나타낸다.On the other hand, Figure 2 is an exemplary view showing a result of displaying the initial two-dimensional reference image according to an embodiment of the present invention, an illustration of the processing result of the process (s120). Referring to FIG. 2, in a predetermined application for generating a stereoscopic image, the display area includes a main display area A located on the right side of the screen and an auxiliary display area B located on the left side of the screen. In (A), the 2D reference image input in step S110 and reference points for setting the vanishing point for the reference image are displayed, and in the auxiliary display area B, a preset projection plane and a viewpoint of the camera are set. The reference point for the display was displayed. The center point of the five points displayed at the center of the main display area A is a point for vanishing point, and a point in the periphery thereof is a point for indicating an inner rectangle. The user can set the vanishing point by moving these reference points using a user interface such as a mouse or keyboard. Then, the reference points displayed on the auxiliary display area B are also linked by the position information changed in the main display area A. FIG. In the sub display area B, the thick line C displayed at the lower middle of the screen indicates the projection plane.

이와 같이 2차원 참조이미지의 입력에 따라 그 참조이미지에 대한 입체영상을 생성하기 위한 초기화면을 디스플레이하였으면(s120), 사용자의 선택정보에 의해 상기 과정(s110)에서 입력된 2차원 참조이미지에 대한 뷰잉인자를 설정한다(s130).As such, when an initial screen for generating a stereoscopic image of the reference image is displayed according to the input of the 2D reference image (S120), the user selects information on the 2D reference image input in the process (S110). The viewing factor is set (s130).

이 때, 뷰잉인자는 도 2의 주 디스플레이영역(A)에 표시된 5개의 기준점을이용하여 설정되며, 그 종류는 소실점 및 내부 직사각형과, 그에 따른 3차원 입체공간인 직사각기둥의 좌표 및 카메라의 시점을 포함한다. 이러한 뷰잉인자의 종류 및 그들 각각의 특성은 이미지 처리 분야에서 이미 공지된 개념이므로, 구체적인 설명은 생략한다. 다만, 그 설정방법에 있어서, 소실점은 사용자의 선택정보에 의해 설정하고, 카메라의 시점은 상기 소실점과 평행하고 도 2의 보조 디스플레이영역(B)에 표시된 투영평면(C)에 수직인 위치에 설정한다.In this case, the viewing factor is set using five reference points displayed in the main display area A of FIG. 2, and the types of the vanishing points are vanishing points and internal rectangles, and thus the coordinates of the rectangular column, which is a three-dimensional solid space, and the viewpoint of the camera. It includes. Since the types of these viewing factors and their respective characteristics are already known concepts in the field of image processing, a detailed description thereof will be omitted. However, in the setting method, the vanishing point is set by the user's selection information, and the viewpoint of the camera is set at a position parallel to the vanishing point and perpendicular to the projection plane C displayed in the auxiliary display area B of FIG. 2. do.

도 3은 본 발명의 일 실시예에 따라 초기 2차원 참조이미지에 대한 소실점과 카메라의 시점을 설정한 결과를 나타낸 예시도로서, 상기 과정(s130)에서 설정된 뷰잉인자 중 소실점과 카메라의 시점을 나타내었다.3 is an exemplary view showing a result of setting a vanishing point and a camera viewpoint for an initial two-dimensional reference image according to an embodiment of the present invention, and showing the vanishing point and the viewpoint of the camera among the viewing factors set in step S130. It was.

이와 같이 뷰잉인자에 대한 설정이 끝나면(s130), 상기 디스플레이된 참조이미지로부터 관심물체들을 분리한 후(s140), 나머지 배경이미지를 편집하여 상기 관심물체들이 분리된 빈 공간을 채운다(s150).When the setting of the viewing factor is completed as described above (s130), the objects of interest are separated from the displayed reference image (s140), and the remaining background image is edited to fill the empty space where the objects of interest are separated (s150).

예를 들어, 해당 인포파일에 포함된 관심물체들과 배경이미지 각각의 파일들 중 분리하고자 하는 관심물체를 나타내는 파일을 선택하면, 해당 관심물체가 지워지고, 그 공간이 빈 공간으로 표시된다. 따라서, 상기 과정(s150)에서 그 빈공간을 채우는 것이다.For example, when a file representing an object of interest to be separated is selected from among files of interest and background images included in the info file, the object of interest is deleted and the space is displayed as an empty space. Therefore, the empty space is filled in the process (s150).

이 때, 빈 공간은 새로운 시점에서 이미지를 생성할 때 모두 나타나는 것이 아니라 관심물체 주위에서만 조금 보여지기 때문에, 빈 공간의 외곽에 대해서만 자연스럽게 채워지면 되는데, 이와 같이 빈 공간을 채우기 위해서는 다양한 방법들이 사용될 수 있다. 즉, 빈 공간의 좌/우에 인접한 픽셀의 색을 평균하여 빈 공간을채우는 방법, 빈 공간의 상/하에 인접한 픽셀의 색을 평균하여 빈 공간을 채우는 방법, 빈 공간의 주변에 인접한 8개의 픽셀의 색을 평균하여 빈 공간을 채우는 방법 및 빈 공간의 주변에 인접한 8개의 픽셀 중 임의의 한 픽셀을 선택하여 빈 공간을 채우고, 그 인접 픽셀들을 재배치하는 방법(랜덤 방법) 중 어느 하나의 방법을 선택하여 적용하는 것이 가능하다. 그런데, 일반적으로 랜덤 방법으로 빈 공간을 채우는 것이 가장 좋은 결과 이미지를 생성할 수 있다.In this case, the empty space does not appear all when creating an image from a new point of view, but only a little around the object of interest, so it is only necessary to naturally fill the outer space of the empty space. Various methods can be used to fill the empty space. have. That is, a method of filling an empty space by averaging the colors of pixels adjacent to the left and right of the empty space, a method of filling an empty space by averaging the colors of pixels adjacent to the top and bottom of the empty space, and of eight pixels adjacent to the periphery of the empty space. Select one of the methods of filling the empty space by averaging colors and selecting a random one of eight pixels adjacent to the empty space to fill the empty space and rearranging the adjacent pixels (random method). It is possible to apply. However, it is generally best to fill the empty space in a random way to produce the best result image.

도 4a 및 도 4b는 본 발명의 실시예에 따라 배경이미지의 빈 공간을 채운 결과를 나타낸 예시도들로서, 도 4a는 상기 방법들 중 랜덤 방법으로 빈 공간을 채운 경우에 대한 예를 나타내고, 도 4b는 상기 방법들 중 빈 공간의 좌/우에 인접한 픽셀을 평균하여 빈 공간을 채운 경우에 대한 예를 나타낸다.4A and 4B are exemplary views illustrating a result of filling empty space of a background image according to an exemplary embodiment of the present invention, and FIG. 4A illustrates an example of filling the empty space by a random method among the above methods, and FIG. 4B. Shows an example of filling the empty space by averaging pixels adjacent to the left and right sides of the empty space.

이와 같이 배경이미지를 재구성하였으면, 상기 과정(s140)에서 분리한 관심물체들 각각에 대하여 입체감을 부여한 후, 그 관심물체들을 배경이미지 상에 디스플레이 하는 과정을 수행한다. 즉, 관심물체들 각각에 1차적인 입체감을 부여하는 과정(s160)을 수행한다. 이 때, 관심물체들 각각에 1차적인 입체감을 부여하기 위해서는 도 2의 보조 디스플레이영역에 디스플레이된 투영평면을 활용한다. 즉, 사용자가 관심물체들 간의 전후관계를 고려하여 상기 관심물체들에 대응되는 가상이미지들을 상기 투영평면의 앞/뒤 소정위치에 배치하면, 그 위치정보에 의거하여 해당 관심물체들 각각에 1차적인 입체감을 부여한 후 그 관심물체들을 배경이미지 상에 표시한다.When the background image is reconstructed as described above, a three-dimensional effect is given to each of the objects of interest separated in the process S140, and then the objects of interest are displayed on the background image. That is, a process (s160) of giving a primary three-dimensional effect to each of the objects of interest is performed. In this case, in order to give a primary three-dimensional effect to each of the objects of interest, the projection plane displayed on the auxiliary display area of FIG. 2 is used. That is, when the user arranges the virtual images corresponding to the objects of interest in a predetermined position in front of or behind the projection plane in consideration of the front-rear relations between the objects of interest, the primary objects are placed on each of the objects of interest based on the position information. After giving a three-dimensional appearance, the objects of interest are displayed on the background image.

도 5a 및 도 5b는 본 발명의 실시예에 따라 투영평면을 기준으로 관심물체및 배경이미지의 깊이를 설정하는 방법을 나타낸 예시도들로서, 도 5a는 관심물체 및 배경이미지의 초기 깊이를 나타내고, 도 5b는 사용자의 선택에 의해 각 관심물체 및 배경이미지의 깊이가 설정된 상태를 나타낸다. 즉, 초기에는 도 5a에 도시된 바와 같이 각 관심물체 및 배경이미지의 깊이가 일정하게 디스플레이되지만, 도 5b에 도시된 바와 같이 각 관심물체 및 배경이미지와 대응되는 가상이미지들(막대모양)을 사용자가 이동시키면, 그 위치정보에 의해 각 관심물체 및 배경이미지들에 1차적인 입체감이 부여된다. 예를 들어, 투영평면에 해당되는 가상이미지와, 각 관심물체 및 배경이미지에 대응되는 가상이미지들의 전/후 위치관계를 고려하여, 투영평면에 해당되는 가상이미지 보다 뒤에 위치한 관심물체 또는 배경이미지는 오목한 형태의 입체감이 부여되도록 하고, 투영평면에 해당되는 가상이미지 보다 앞에 위치한 관심물체 또는 배경이미지는 볼록한 형태의 입체감이 부여되도록 한다.5A and 5B are exemplary views illustrating a method of setting depths of an object of interest and a background image based on a projection plane according to an embodiment of the present invention. FIG. 5A illustrates initial depths of the object of interest and a background image. 5b shows a state in which the depths of the objects of interest and the background image are set by the user's selection. That is, although initially, the depth of each object of interest and background image is constantly displayed as shown in FIG. 5A, but as shown in FIG. 5B, the virtual images (bars) corresponding to each object of interest and background image are displayed. When is moved, primary stereoscopic feeling is given to each object of interest and background images by the positional information. For example, in consideration of the positional relationship between the virtual image corresponding to the projection plane and the virtual images corresponding to each object of interest and the background image, the object of interest or the background image located behind the virtual image corresponding to the projection plane is The concave three-dimensional effect is provided, and the object of interest or the background image located in front of the virtual image corresponding to the projection plane is convex.

도 6a 및 도 6b는 본 발명의 실시예에 따라 관심물체에 1차적인 입체감이 부여되는 원리를 설명하기 위한 설명도들로서, 도 5b와 같이 관심물체 및 배경이미지의 깊이가 이동될 경우, 그 관심물체 및 배경이미지들 각각에 1차적인 입체감이 부여되는 원리를 설명하고 있다.6A and 6B are explanatory diagrams for explaining a principle of giving a primary three-dimensional effect to an object of interest according to an exemplary embodiment of the present invention. As shown in FIG. The principle in which a primary three-dimensional effect is given to each of an object and a background image is explained.

즉, 투영평면의 앞쪽에 위치한 관심물체는 양의 시차에 의해 입체영상 생성시 뒤로 들어가 보이고, 투영평면의 뒤쪽에 위치한 관심물체는 음의 시차에 의해 입체영상 생성시 앞으로 튀어나와 보이는 입체감이 부여되는데, 도 6a는 관심물체가 투영평면의 앞쪽에 위치하는 경우 발생되는 양의 시차의 원리를 나타내고, 도 6b는 관심물체가 투영평면의 뒤쪽에 위치하는 경우 발생되는 음의 시차의 원리를나타낸다. 도 6a 및 도 6b에서, 참조번호 61은 좌측시점을 나타내고, 참조번호 62는 우측 시점을 나타내고, 참조번호 63은 투영평면을 나타내고, 참조번호 64는 투영평면(63)의 앞쪽에 위치한 관심물체를 나타내고, 참조번호 65는 투영평면(63)의 뒤쪽에 위치한 관심물체를 나타낸다.In other words, the object of interest located in front of the projection plane appears backward when the stereoscopic image is generated by positive parallax, and the object of interest located behind the projection plane is given the stereoscopic feeling that protrudes forward when the stereoscopic image is generated by negative parallax. 6A illustrates the principle of positive parallax that occurs when an object of interest is located in front of the projection plane, and FIG. 6B illustrates the principle of negative parallax that occurs when an object of interest is located behind the projection plane. 6A and 6B, reference numeral 61 denotes a left viewpoint, reference numeral 62 denotes a right viewpoint, reference numeral 63 denotes a projection plane, and reference numeral 64 denotes an object of interest located in front of the projection plane 63. Reference numeral 65 denotes an object of interest located behind the projection plane 63.

이 때, 지나친 깊이의 변화는 사람들로 하여금 관심물체가 배경보다 더 들어가 보이거나 너무 앞으로 튀어나와 허공에 떠 있는 듯한 어색함을 느끼게 할 수 있으므로, 관심물체간의 전/후 관계를 고려하여 조금씩 변화를 주는 것이 적당하다.At this time, the change of excessive depth may cause people to feel awkward as the object of interest appears more than the background or pops up too far and floats in the air. It is suitable.

이와 같이 관심물체들 각각의 깊이 조절에 의해 각 관심물체들에 1차적인 입체감을 부여하였으면, 그 관심물체들을 좀 더 입체감 있게 표현하기 위해 기본 프리미티브를 활용하여 관심물체들에게 2차적인 입체감 부여하는 과정(s170)을 수행한다.As described above, when the primary three-dimensional effect is given to each of the objects of interest by controlling the depth of each object, the secondary primitives are applied to the objects of interest by using basic primitives to express the objects more three-dimensionally. The process s170 is performed.

기본 프리미티브란 물체를 표현하는데 사용되는 기본도형, 모양들을 의미하는데, 여기서는 원뿔, 타원체, 평면 등 관심물체의 깊이값을 지정하는데 사용되는 기하 물체를 말하며, 예상되는 관심물체의 형태에 대한 기본 프리미티브를 미리 설정하여 사용한다.Fundamental primitives are primitives and shapes used to represent objects. Here, geometric primitives are used to specify the depth of interest, such as cones, ellipsoids, and planes. Set in advance to use.

따라서, 기 설정된 소정의 기본 프리미티브들 중 각 관심물체들에 적용하고자 하는 기본 프리미티브들을 사용자가 선택하면, 상기 과정(s170)에서는 그 기본 프리미티브의 깊이값을 해당 관심물체의 깊이값에 적용하여 각 관심물체들에 대한 2차적인 입체감을 표현하도록 한다.Therefore, when the user selects the basic primitives to be applied to the objects of interest among the predetermined basic primitives, in step S170, the depth value of the basic primitive is applied to the depth value of the object of interest. Try to express the second dimension of objects.

도 7은 본 발명이 실시예에 따라 관심물체에 2차적인 입체감을 부여한 결과를 나타낸 예시도로서, 주 디스플레이영역(A)에 디스플레이된 3명의 사람들(관심물체들) 중 좌측에 위치한 사람에 대하여 2차적인 입체감을 부여한 결과를 보조 디스플레이영역(B)에 나타내었다.FIG. 7 is an exemplary view showing a result of imparting a secondary three-dimensional effect to an object of interest according to an embodiment of the present invention, with respect to a person located on the left side among three people (interests) displayed in the main display area A. FIG. The result of giving the secondary three-dimensional effect is shown in the secondary display area (B).

그런데, 상기 과정(s170)과 같이 자동으로 기본 프리미티브의 값을 관심물체의 깊이 값에 적용할 경우, 그 관심물체의 자세한 부분에 대한 입체감 표현이 안되는 경우가 발생할 수 있다. 따라서, 본 발명에서는 이를 보완하기 위해, 사용자가 상기 과정(s170)에서 입체감이 표현된 관심물체의 소정영역을 직사각형 형태로 선택하면, 그 직사각형 형태의 소정영역에 최대의 크기로 접하는 타원의 모양으로 상기 소정 영역의 깊이를 가감하는 과정을 선택적으로 수행할 수 있도록 하였다.However, when the value of the basic primitive is automatically applied to the depth value of the object of interest as in the process (s170), a three-dimensional expression may not be expressed for the detailed part of the object of interest. Therefore, in order to compensate for this, when the user selects a predetermined region of the object of interest in which the three-dimensional effect is expressed in the process (s170) in the form of a rectangle, an ellipse in contact with the predetermined region of the rectangular form at the maximum size is formed. The process of adding or subtracting the depth of the predetermined area can be performed selectively.

이 때, 사용자에 의해 선택된 소정의 영역에 대하여 깊이를 가감하는 방법은 선택된 타원 위에서 사용자에 의해 조절되는 높이를 가지는 타원체를 정의하여 해당 화소에서의 높이를 사용하여 깊이 정보를 부여하도록 한다.At this time, the method of adding or subtracting a depth to a predetermined area selected by the user defines an ellipsoid having a height adjusted by the user on the selected ellipse to give depth information using the height of the corresponding pixel.

또한, 한 장의 2차원 참조이미지에 의해 소실점을 선택한 후, 그 소실점에 의해 입체영상을 생성함으로써 발생할 수 있는 오류를 최소화하기 위해, 상기 관심물체에 대한 이미지를 텍스쳐 형태로 생성한 후, 그 텍스쳐 형태의 이미지를 다면체 모델에 투영시켜서, 오차를 보정하는 과정을 선택적으로 수행할 수도 있다.In addition, after selecting a vanishing point based on a single two-dimensional reference image, in order to minimize an error that may occur by generating a stereoscopic image based on the vanishing point, an image of the object of interest is created in a texture form, and then the texture form The process of correcting the error may be selectively performed by projecting an image of the polyhedral model onto the polyhedral model.

이 때, 이미지를 '텍스쳐 형태로 생성한다'는 것은 컴퓨터 그래픽스 분야에서 사용되는 렌더링 기법-3D 이미지를 생성하는 방법-에서 사용할 수 있는 형태로 저장하는 것을 의미한다. 이처럼 투영 텍스쳐 형태의 이미지를 다면체 모델에 투영시킬 경우 보다 자연스러운 이미지를 생성할 수 있다는 효과가 있다.In this case, to create an image in a texture form means to store the image in a form that can be used in a rendering technique used in the field of computer graphics, a method of generating a 3D image. As such, projecting an image of a projection texture onto a polyhedral model can produce more natural images.

이와 같이 하여 상기 과정(s110)에서 입력된 2차원 참조이미지에 포함된 관심물체 및 배경 이미지들에 대한 편집이 끝나면, 상기 과정(s130)에서 설정된 뷰잉인자들 중 하나인 카메라의 시점을 좌/우로 이동하여 입체영상 생성을 위한 좌/우 이미지를 생성한다(s180). 이 때, 카메라의 시점을 좌측으로 옮기면, 투영평면을 기준으로 앞에 위치한 물체들은 상대적으로 우측으로 움직인 것처럼 보이고, 투영평면을 기준으로 뒤에 위치한 물체들은 좌측으로 움직인 것처럼 보인다. 카메라의 시점을 우측으로 옮기면 이와 반대 현상이 나타난다.As such, when editing of the object of interest and the background images included in the 2D reference image input in step S110 is completed, the viewpoint of the camera, which is one of the viewing factors set in step S130, may be left / right. Moving to generate a left / right image for generating a stereoscopic image (s180). At this time, if the camera's viewpoint is moved to the left, objects positioned in front of the projection plane appear to move relatively to the right, and objects located behind the projection plane appear to move to the left. The opposite happens when you move the camera's point of view to the right.

이처럼 좌/우 이미지를 생성하였으면, 그 좌/우 이미지를 각각 한줄씩 번갈아 스캔하여 상기 좌/우 이미지들을 합성한 후(s190), 그 합성 이미지를 입체안경이나 입체디스플레이에 적합한 형식으로 디스플레이한다(s200). 이 때, 좌/우 이미지를 합성하여 화면에 입체적으로 디스플레이하는 구체적인 방법 및 원리들은 일반적인 컴퓨터 그래픽스 교재(예컨대, D. Hearn and M. Baker, Computer Graphics: C Version, 2nd Ed., Prentice Hall, 1997.)에 게재되어 있는 보편적인 기술이다.When the left and right images are generated as described above, the left and right images are scanned one by one in turn, and the left and right images are synthesized (s190), and then the synthesized images are displayed in a format suitable for stereoscopic glasses or stereoscopic display ( s200). In this case, specific methods and principles for synthesizing left and right images on a screen in three dimensions are described in general computer graphics textbooks (eg, D. Hearn and M. Baker, Computer Graphics: C Version, 2nd Ed., Prentice Hall, 1997). It is a common technique as described in.

도 8a 내지 도 8c는 본 발명의 실시예에 따라 2차원참조이미지에 대한 입체영상을 생성한 결과를 나타낸 예시도들이다. 즉, 도 8a 내지 도 8c는 좌/우 이미지를 생성한 후 그 좌/우 이미지를 한 스캔라인 건너 도시한 이미지들로서, 특수 안경을 쓰고 보면 입체적으로 보인다. 도 8a는 양쪽 두 사람은 앞으로 튀어나오고 가운데 사람은 뒤로 들어가게 한 영상이고, 도 8b는 세 사람을 모두 뒤로 들어가게 한 영상이고, 도 8c는 세 사람을 모두 앞으로 나온 것처럼 보이게 한 영상이다.8A to 8C are exemplary views illustrating a result of generating a stereoscopic image for a 2D reference image according to an exemplary embodiment of the present invention. That is, FIGS. 8A to 8C are images showing left and right images across one scan line after generating left and right images, and are shown in three dimensions when wearing special glasses. FIG. 8A is an image in which both two people jump forward and the middle person goes backward, FIG. 8B is an image in which all three people go backward, and FIG. 8C is an image in which all three people appear to come forward.

이상의 설명은 하나의 실시예를 설명한 것에 불과한 것으로서, 본 발명은 상술한 실시예에 한정되지 않으며 첨부한 특허청구범위 내에서 다양하게 변경 가능하다. 예를 들어, 본 발명의 실시예에 구체적으로 나타난 각 구성 요소들의 형상 및 구조는 변형하여 실시할 수 있는 것이다.The above description is merely an example of an embodiment, and the present invention is not limited to the above-described embodiment and can be variously changed within the scope of the appended claims. For example, the shape and structure of each component specifically shown in the embodiment of the present invention can be modified.

상기 본 발명에서 제공하는 2차원이미지에 대한 입체영상생성방법은 한 장의 참조이미지에 포함된 관심물체들의 양/음의 시차에 의거하여 관심물체들의 깊이를 부여하고, 그 관심물체들 각각에 프리미티브를 적용함으로써 관심물체들에 대한 입체감을 부여한 후, 그 관심물체가 빠진 배경이미지를 편집하는 과정을 수행한다. 따라서, 본 발명은 최소한의 수작업을 통해 이미지 왜곡을 최소화한 입체영상을 생성할 수 있다는 효과가 있다. 즉, 보다 빠른 시간에 한 장의 참조이미지에 대한 입체영상을 생성할 수 있으며, 이로 인해, 영화나 동영상에 대한 입체영상화를 위한 기술분야에서 유용하게 활용될 수 있다는 효과가 있다.The stereoscopic image generation method for the two-dimensional image provided in the present invention provides a depth of the objects of interest based on the positive / negative parallax of the objects of interest included in one reference image, and gives primitives to each of the objects of interest. After applying the three-dimensional effect to the objects of interest, the process of editing the background image missing the object of interest is performed. Therefore, the present invention has the effect that it is possible to generate a three-dimensional image with a minimum of image distortion through a minimum of manual work. That is, it is possible to generate a three-dimensional image of a single reference image in a faster time, thereby having an effect that can be usefully used in the technical field for stereoscopic image for a movie or video.

Claims (9)

외부에서 입력되는 한 장의 2차원 참조이미지와, 임의의 2차원 참조이미지에 대한 입체영상을 생성하기 위해 기 설정된 뷰잉인자들의 초기상태를 디스플레이하는 제1 과정과,A first process of displaying a first two-dimensional reference image input from the outside and an initial state of preset viewing factors for generating a stereoscopic image of an arbitrary two-dimensional reference image; 상기 뷰잉인자들을 상기 제1 과정에서 입력된 2차원 참조이미지에 대한 입체영상을 생성하기 위한 값으로 설정하는 제2 과정과,A second step of setting the viewing factors to a value for generating a stereoscopic image for the two-dimensional reference image input in the first step; 상기 참조이미지에 포함된 관심물체들을 상기 참조이미지로부터 분리하고, 상기 관심물체들이 분리되고 남은 배경이미지를 편집하여 상기 관심물체들이 분리된 빈 공간을 채우는 제3 과정과,A third process of separating objects of interest included in the reference image from the reference image, editing the background image after the objects of interest are separated, and filling the empty spaces of the objects of interest; 사용자의 조작에 의해 설정된 상기 관심물체들의 위치정보를 판독한 후, 기 설정되어 상기 제1 과정에서 디스플레이된 투영평면과 상기 관심물체들의 위치정보의 전후관계에 의거하여 해당 관심물체들 각각에 1차적인 입체감을 부여하고, 그 관심물체들을 상기 제3 과정에서 생성된 배경이미지 상에 표시하는 제4 과정과,After reading the positional information of the objects of interest set by the user's operation, the primary information is applied to each of the objects of interest based on the front-rear relationship between the projection plane displayed in the first step and the positional information of the objects of interest. Providing a three-dimensional effect and displaying the objects of interest on the background image generated in the third process; 기 설정된 소정의 기본 프리미티브들의 깊이값에 의해 상기 제4 과정에서 배경이미지 상에 표시된 관심물체들 각각에 대한 깊이값을 설정하여 그 관심물체들에 대한 2차적인 입체감을 표현하는 제5 과정과,A fifth process of setting a depth value for each of the objects of interest displayed on the background image in the fourth process by setting depth values of the predetermined basic primitives to express secondary stereoscopic feelings for the objects of interest; 상기 제2 과정에서 설정된 뷰잉인자들 중 하나인 시점을 좌/우로 이동하여 상기 제3 내지 제5 과정에서 생성된 결과이미지에 대한 좌/우 이미지를 생성하는 제6 과정을 포함하는 것을 특징으로 하는 2차원이미지에 대한 입체영상생성방법.And a sixth process of generating a left / right image with respect to the resultant image generated in the third to fifth processes by moving the viewpoint, which is one of the viewing factors set in the second process, to the left / right. Stereoscopic image generation method for 2D image. 제1항에 있어서,The method of claim 1, 상기 제5 과정 수행결과로 2차적인 입체감이 표현된 관심물체의 소정영역이 직사각형 형태로 선택되면, 그 직사각형 형태의 소정영역에 최대의 크기로 접하는 타원의 모양으로 상기 소정영역의 깊이를 가감하는 제5-1 과정을 더 포함하는 것을 특징으로 하는 2차원 이미지에 대한 입체영상생성방법.As a result of performing the fifth process, if a predetermined region of the object of interest in which the secondary stereoscopic feeling is expressed is selected in the form of a rectangle, the depth of the predetermined region is added or subtracted in the shape of an ellipse contacting the predetermined region of the rectangular shape at the maximum size. The stereoscopic image generation method for a two-dimensional image, characterized in that it further comprises a step 5-1. 제1항 또는 제2항에 있어서,The method according to claim 1 or 2, 상기 관심물체에 대한 이미지를 텍스쳐 형태로 생성한 후, 그 텍스쳐 형태의 이미지를 다면체 모델에 투영시켜서, 오차를 보정하는 제5-2 과정을 더 포함하는 것을 특징으로 하는 2차원 이미지에 대한 입체영상생성방법.After generating the image of the object of interest in the form of a texture, and projecting the image of the texture form on a polyhedral model, a three-dimensional image of the two-dimensional image further comprising the step of correcting the error How to create. 제1항에 있어서, 상기 제1 과정은The method of claim 1, wherein the first process is 주 디스플레이영역에 2차원 참조이미지와, 그 참조이미지에 대한 소실점을 설정하기 위한 기준점을 디스플레이하고,In the main display area, display the 2D reference image and the reference point for setting the vanishing point for the reference image, 보조 디스플레이영역에 기 설정된 투영평면과, 카메라의 시점을 설정하기 위한 기준점을 디스플레이하는 것을 특징으로 하는 2차원 이미지에 대한 입체영상생성방법.A stereoscopic image generation method for a two-dimensional image, characterized in that for displaying a predetermined projection plane and a reference point for setting the viewpoint of the camera in the auxiliary display area. 제1항에 있어서, 상기 제3 과정은The method of claim 1, wherein the third process is 상기 빈 공간의 좌/우에 인접한 픽셀의 색을 평균하여 상기 빈 공간을 채우는 것을 특징으로 하는 2차원 이미지에 대한 입체영상생성방법.And filling the empty spaces by averaging colors of pixels adjacent to the left and right sides of the empty spaces. 제1항에 있어서, 상기 제3 과정은The method of claim 1, wherein the third process is 상기 빈 공간의 상/하에 인접한 픽셀의 색을 평균하여 상기 빈 공간을 채우는 것을 특징으로 하는 2차원 이미지에 대한 입체영상생성방법.And filling the empty spaces by averaging colors of pixels adjacent to the top and bottom of the empty spaces. 제1항에 있어서, 상기 제3 과정은The method of claim 1, wherein the third process is 상기 빈 공간의 주변에 인접한 8개의 픽셀의 색을 평균하여 상기 빈 공간을 채우는 것을 특징으로 하는 2차원 이미지에 대한 입체영상생성방법.And filling the empty space by averaging the colors of eight pixels adjacent to the empty space. 제1항에 있어서, 상기 제3 과정은The method of claim 1, wherein the third process is 상기 빈 공간의 주변에 인접한 8개의 픽셀 중 임의의 한 픽셀을 선택하여 상기 빈 공간을 채우고, 그 인접 픽셀들을 재배치하는 것을 특징으로 하는 2차원 이미지에 대한 입체영상생성방법.And selecting any one of eight pixels adjacent to the vacant space to fill the vacant space, and rearrange the adjacent pixels. 제5항 내지 제9항 중 어느 한 항에 있어서, 상기 제3 과정은The method of claim 5, wherein the third process is performed. 상기 빈 공간의 외관에 대해서만 빈 공간을 자연스럽게 채우는 것을 특징으로 하는 2차원 이미지에 대한 입체영상생성방법.3. The stereoscopic image generation method for a 2D image, wherein the empty space is naturally filled only with respect to the exterior of the empty space.
KR10-2002-0053937A 2002-09-06 2002-09-06 Method for generating stereoscopic image from 2D images KR100436904B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2002-0053937A KR100436904B1 (en) 2002-09-06 2002-09-06 Method for generating stereoscopic image from 2D images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0053937A KR100436904B1 (en) 2002-09-06 2002-09-06 Method for generating stereoscopic image from 2D images

Publications (2)

Publication Number Publication Date
KR20040022100A true KR20040022100A (en) 2004-03-11
KR100436904B1 KR100436904B1 (en) 2004-06-23

Family

ID=37326040

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0053937A KR100436904B1 (en) 2002-09-06 2002-09-06 Method for generating stereoscopic image from 2D images

Country Status (1)

Country Link
KR (1) KR100436904B1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100711264B1 (en) * 2005-05-03 2007-04-25 삼성전자주식회사 Electronic Device And Control Method Thereof
US7403201B2 (en) 2003-01-20 2008-07-22 Sanyo Electric Co., Ltd. Three-dimensional video providing method and three-dimensional video display device
WO2009151292A3 (en) * 2008-06-12 2010-03-25 Sung Young Seok Image conversion method and apparatus
WO2012020977A2 (en) * 2010-08-10 2012-02-16 삼성전자주식회사 Image processing device and method
US8401277B2 (en) 2008-12-22 2013-03-19 Electronics And Telecommunications Research Institute Method for restoration of building structure using infinity homographies calculated based on parallelograms
US8681150B2 (en) 2007-02-16 2014-03-25 Samsung Electronics Co., Ltd. Method, medium, and system with 3 dimensional object modeling using multiple view points
US9035942B2 (en) 2009-02-17 2015-05-19 Samsung Electronics Co., Ltd. Graphic image processing method and apparatus
KR101539232B1 (en) * 2009-02-20 2015-07-24 삼성전자주식회사 Method and apparatus for generating 3D graphics
KR20160105214A (en) * 2015-02-27 2016-09-06 한국전자통신연구원 Apparatus and methdo for generating depth map
US9445034B2 (en) 2009-02-17 2016-09-13 Samsung Electronics Co., Ltd. Method and apparatus for processing video image
CN107680169A (en) * 2017-09-28 2018-02-09 宝琳创展国际文化科技发展(北京)有限公司 Apply and make general and VR stereopsis method in depth map addition curved surface
KR20190001896A (en) 2017-06-28 2019-01-07 주식회사 다이브코어 Appartus and method for displaying hierarchical depth image in virtual realilty

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101005015B1 (en) 2008-10-27 2010-12-30 한국전자통신연구원 A method and apparatus for an 3d broadcasting service by using region of interest depth information
KR101731113B1 (en) * 2010-08-25 2017-04-28 엘지디스플레이 주식회사 2d-3d image conversion method and stereoscopic image display using the same
KR102351083B1 (en) 2017-08-30 2022-01-13 삼성전자주식회사 Display apparatus and image processing method thereof

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5877768A (en) * 1996-06-19 1999-03-02 Object Technology Licensing Corp. Method and system using a sorting table to order 2D shapes and 2D projections of 3D shapes for rendering a composite drawing
US6025847A (en) * 1997-12-23 2000-02-15 Auto Desk, Inc. Three dimensional modeling system with visual feedback
KR100321897B1 (en) * 1998-12-22 2002-05-13 박남은 Stereoscopic image conversion method and apparatus
KR100372177B1 (en) * 2000-04-26 2003-02-14 이승현 Method for converting 2 dimension image contents into 3 dimension image contents
KR100370366B1 (en) * 2000-05-27 2003-01-30 한국과학기술원 The image converting method using vanishing line
KR20020054243A (en) * 2000-12-27 2002-07-06 오길록 Apparatus and method of interactive model generation using multi-images

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7403201B2 (en) 2003-01-20 2008-07-22 Sanyo Electric Co., Ltd. Three-dimensional video providing method and three-dimensional video display device
KR100905371B1 (en) * 2003-01-20 2009-07-01 산요덴키가부시키가이샤 Three-dimensional video providing method and three-dimensional video display device
KR100711264B1 (en) * 2005-05-03 2007-04-25 삼성전자주식회사 Electronic Device And Control Method Thereof
US8681150B2 (en) 2007-02-16 2014-03-25 Samsung Electronics Co., Ltd. Method, medium, and system with 3 dimensional object modeling using multiple view points
WO2009151292A3 (en) * 2008-06-12 2010-03-25 Sung Young Seok Image conversion method and apparatus
KR100957129B1 (en) * 2008-06-12 2010-05-11 성영석 Method and device for converting image
CN102113022A (en) * 2008-06-12 2011-06-29 成泳锡 Image conversion method and apparatus
US8401277B2 (en) 2008-12-22 2013-03-19 Electronics And Telecommunications Research Institute Method for restoration of building structure using infinity homographies calculated based on parallelograms
US9035942B2 (en) 2009-02-17 2015-05-19 Samsung Electronics Co., Ltd. Graphic image processing method and apparatus
US9445034B2 (en) 2009-02-17 2016-09-13 Samsung Electronics Co., Ltd. Method and apparatus for processing video image
KR101539232B1 (en) * 2009-02-20 2015-07-24 삼성전자주식회사 Method and apparatus for generating 3D graphics
WO2012020977A3 (en) * 2010-08-10 2012-04-19 삼성전자주식회사 Image processing device and method
WO2012020977A2 (en) * 2010-08-10 2012-02-16 삼성전자주식회사 Image processing device and method
KR20160105214A (en) * 2015-02-27 2016-09-06 한국전자통신연구원 Apparatus and methdo for generating depth map
KR20190001896A (en) 2017-06-28 2019-01-07 주식회사 다이브코어 Appartus and method for displaying hierarchical depth image in virtual realilty
CN107680169A (en) * 2017-09-28 2018-02-09 宝琳创展国际文化科技发展(北京)有限公司 Apply and make general and VR stereopsis method in depth map addition curved surface
CN107680169B (en) * 2017-09-28 2021-05-11 宝琳创展科技(佛山)有限公司 Method for manufacturing VR (virtual reality) stereoscopic image by adding curved surface to depth map

Also Published As

Publication number Publication date
KR100436904B1 (en) 2004-06-23

Similar Documents

Publication Publication Date Title
US10652522B2 (en) Varying display content based on viewpoint
KR101697184B1 (en) Apparatus and Method for generating mesh, and apparatus and method for processing image
US6417850B1 (en) Depth painting for 3-D rendering applications
KR100436904B1 (en) Method for generating stereoscopic image from 2D images
US7643025B2 (en) Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
Basha et al. Stereo seam carving a geometrically consistent approach
US9485497B2 (en) Systems and methods for converting two-dimensional images into three-dimensional images
US5594841A (en) Stereogram and method of constructing the same
US20120182403A1 (en) Stereoscopic imaging
US20120274638A1 (en) Systems and methods for 2-d to 3-d image conversion using mask to model, or model to mask, conversion
WO2004107764A1 (en) Image display device and program
US20060152579A1 (en) Stereoscopic imaging system
CN106415667A (en) Computer graphics with enhanced depth effect
JP2005151534A (en) Pseudo three-dimensional image creation device and method, and pseudo three-dimensional image display system
JPH11514118A (en) 3D image generation
JP2005165614A (en) Device and method for synthesizing picture
EP1668919B1 (en) Stereoscopic imaging
JP2005267655A (en) Content reproduction device, method, and program, recording medium with content reproduction program recorded, and portable communication terminal
JP2003091745A (en) Method for representing rendering information of image base in three-dimensional scene
KR100893855B1 (en) Method for combination both of two-dimensional background and three-dimensional foreground and engine for three-dimensional application
Feldman et al. Interactive 2D to 3D stereoscopic image synthesis
JP2005004341A (en) Image display apparatus and program for adding image display function to computer
Okuya et al. Reproduction of perspective in cel animation 2D composition for real-time 3D rendering
Stavrakis et al. Interactive tools for image-based stereoscopic artwork
Luhtapuro Surface Detail Mapping in 3D Modelling

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee