KR101390961B1 - Conversion system for two dimensional image to three dimensional image, method thereof and recordable medium storing the method - Google Patents

Conversion system for two dimensional image to three dimensional image, method thereof and recordable medium storing the method Download PDF

Info

Publication number
KR101390961B1
KR101390961B1 KR1020110125867A KR20110125867A KR101390961B1 KR 101390961 B1 KR101390961 B1 KR 101390961B1 KR 1020110125867 A KR1020110125867 A KR 1020110125867A KR 20110125867 A KR20110125867 A KR 20110125867A KR 101390961 B1 KR101390961 B1 KR 101390961B1
Authority
KR
South Korea
Prior art keywords
objects
dimensional image
main
dependent
information
Prior art date
Application number
KR1020110125867A
Other languages
Korean (ko)
Other versions
KR20130059735A (en
Inventor
김하윤
김아란
전병기
정원석
박영환
최연봉
김대현
Original Assignee
(주)리얼디스퀘어
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)리얼디스퀘어, 에스케이플래닛 주식회사 filed Critical (주)리얼디스퀘어
Priority to KR1020110125867A priority Critical patent/KR101390961B1/en
Priority to PCT/KR2012/009002 priority patent/WO2013081304A1/en
Publication of KR20130059735A publication Critical patent/KR20130059735A/en
Application granted granted Critical
Publication of KR101390961B1 publication Critical patent/KR101390961B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 2차원 영상을 3차원 영상으로 변환하는 영상 변환 시스템과 방법 및 그에 대한 기록매체에 관한 것으로서, 2차원 영상에서 적어도 둘 이상의 객체를 정의한 객체정보와 상기 객체의 깊이정보를 입력 받는 사용자 입력장치; 상기 사용자 입력장치에서 선택된 둘 이상의 객체에 상호 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장 및 관리하고, 상기 각 객체에 설정된 깊이정보를 인식하여 깊이 맵을 생성하는 깊이 맵 생성 장치; 상기 2차원 영상과 상기 선택된 객체를 디스플레이하는 디스플레이장치; 및 상기 2차원 영상을 상기 디스플레이장치에 표시하고, 상기 2차원 영상의 주 객체가 선택된 경우 상기 종속 객체도 함께 표시하는 영상 제어 장치를 포함한다. 이에 의해, 다수개의 객체를 효율적으로 관리할 수 있도록 하고, 객체의 깊이정보를 입력하는 경우 그룹 단위로 객체를 표시하여 소정 객체의 깊이정보에 의해 영향을 받게 되는 객체들을 한눈에 확인할 수 있도록 하여 깊이정보 입력의 편의성을 증진시키고 세밀한 편집 결과물을 얻을 수 있다.The present invention relates to an image conversion system and method for converting a two-dimensional image into a three-dimensional image, and a recording medium therefor. More particularly, the present invention relates to an object- Device; A depth map generation unit configured to store and manage a main object and a dependent object as a group by setting mutual dependency relation between two or more objects selected by the user input device and to recognize a depth information set for each object, ; A display device for displaying the two-dimensional image and the selected object; And an image control device displaying the two-dimensional image on the display device and displaying the dependent object when the main object of the two-dimensional image is selected. Accordingly, it is possible to efficiently manage a plurality of objects. In the case of inputting depth information of an object, an object is displayed in a group unit so that objects affected by depth information of a predetermined object can be confirmed at a glance, The convenience of inputting information can be improved and detailed editing results can be obtained.

Description

2차원 영상을 3차원 영상으로 변환하는 영상 변환 시스템과 방법 및 그에 대한 기록매체{CONVERSION SYSTEM FOR TWO DIMENSIONAL IMAGE TO THREE DIMENSIONAL IMAGE, METHOD THEREOF AND RECORDABLE MEDIUM STORING THE METHOD}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image conversion system and method for converting a two-dimensional image into a three-dimensional image, and a recording medium therefor. 2. Description of the Related Art [0002]

본 발명은 2차원 영상을 3차원 영상으로 변환하는 영상 변환 시스템과 방법 및 그에 대한 기록매체에 관한 것으로서, 보다 상세하게는 2차원 영상을 3차원 영상으로 변환하기 위해 사용자가 2차원 영상에서 객체를 선택하여 깊이정보를 입력하고자 하는 경우, 주 객체의 영역 내에 포함되는 하나 이상의 종속 객체를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 관리할 수 있도록 함으로써, 다수개의 객체를 효율적으로 관리할 수 있도록 하고, 객체의 깊이정보를 입력하는 경우 그룹 단위로 객체를 표시하여 소정 객체의 깊이정보에 의해 영향을 받게 되는 객체들을 한눈에 확인할 수 있도록 하여 깊이정보 입력의 편의성을 증진시키고 세밀한 편집 결과물을 얻을 수 있도록 하는 2차원 영상을 3차원 영상으로 변환하는 영상 변환 시스템과 방법 및 그에 대한 기록매체에 관한 것이다.The present invention relates to an image conversion system and method for converting a two-dimensional image into a three-dimensional image, and more particularly to an image conversion system and method for converting a two-dimensional image into a three- In order to select the depth information, one or more dependent objects included in the main object area are set so that the main object and the dependent objects can be managed as one group, thereby efficiently managing a plurality of objects In case of inputting the depth information of the object, it is possible to identify the objects which are influenced by the depth information of the predetermined object at a glance by displaying the object in the group unit, thereby improving the convenience of inputting depth information and obtaining detailed editing results Image conversion system and method for converting a two-dimensional image into a three-dimensional image For a recording medium.

3차원 입체 영상(stereoscopic image)에 대한 관심이 높아지면서 입체영상을 생성하기 위한 다양한 방법들이 개발되고 있다. 입체 영상을 생성하는 방법 중에는 2차원 비디오 영상을 3차원 입체 영상으로 변환하는 방법이 있다. 2차원 비디오 영상을 3차원 입체 영상으로 변환하는 경우, 이미 만들어진 비디오 콘텐츠를 활용할 수 있으며 별도의 촬영장비를 이용하지 않고도 3차원 입체 영상을 얻을 수 있다는 장점이 있다.As interest in 3D stereoscopic images increases, various methods for generating stereoscopic images are being developed. Among the methods of generating a stereoscopic image, there is a method of converting a two-dimensional video image into a three-dimensional stereoscopic image. When a two-dimensional video image is converted into a three-dimensional image, it is possible to utilize the already-created video content, and it is possible to obtain a three-dimensional image without using a separate photographing device.

2차원 평면 영상을 3차원 입체 영상으로 변환시키기 위해서는, 2차원 평면 영상으로부터 서로 다른 시차 정보를 가지는 좌측 영상과 우측 영상을 생성해야 한다. 이에, 2차원 평면 영상에 표시된 객체들에 깊이(depth)정보를 부여하여 깊이 맵(Depth Map)을 생성하고 깊이 맵에 기초하여 좌측 영상과 우측 영상을 생성함으로써 2차원 평면 영상을 3차원 입체 영상으로 변환하고 있다. 이에, 3차원 입체 영상의 품질은 깊이 맵의 정확성에 따라 크게 좌우된다.In order to convert a 2D plane image into a 3D stereoscopic image, it is necessary to generate a left image and a right image having different parallax information from a 2D plane image. Accordingly, a depth map is generated by providing depth information to objects displayed on a two-dimensional plane image, and a left image and a right image are generated based on the depth map, thereby generating a three- . Thus, the quality of the 3D stereoscopic image greatly depends on the accuracy of the depth map.

한편, 깊이 맵을 생성하는 방법으로는 2차원 영상에서 객체를 추출하고 각 객체에 대해 깊이정보를 설정하는 방법이 있다. 각 객체에 설정된 깊이정보는 3차원 영상 렌더링 해당 객체들에 각각 적용되어 전체적으로 입체감을 갖는 영상이 생성된다. 따라서, 깊이정보가 부여된 객체의 개수가 많을수록 고품질의 3차원 입체 영상을 얻을 수 있다.On the other hand, as a method of generating a depth map, there is a method of extracting an object from a two-dimensional image and setting depth information for each object. The depth information set for each object is applied to the corresponding objects of the three-dimensional image rendering to generate an image having a three-dimensional sense as a whole. Therefore, the higher the number of objects to which the depth information is given, the higher quality three-dimensional stereoscopic image can be obtained.

그런데, 종래기술에 따른 영상 변환 시스템은 2차원 영상의 객체들을 각기 독립적으로 관리하고 있기 때문에, 작업자가 객체의 깊이정보를 설정하거나 편집하고자 하는 경우 선택된 객체만이 표시된다. 따라서, 객체의 개수가 증가할 수록 이들을 관리하기는 어려워지므로 설정할 수 있는 객체의 개수에 한계가 있다. However, since the image conversion system according to the related art manages the objects of the two-dimensional image independently, only the selected object is displayed when the operator sets or edits the depth information of the object. Therefore, as the number of objects increases, it becomes difficult to manage them, and thus the number of objects that can be set is limited.

또한, 상호 연관된 영역에 위치하고 있는 객체들의 깊이정보를 설정하거나 편집하는 경우, 사용자는 이들을 일일이 선택하여 편집해야 하는 어려움이 있다.In addition, when setting or editing depth information of objects located in mutually related areas, the user has difficulty in selecting and editing them individually.

한국공개특허 2011-0099526 평면 영상을 입체 영상으로 변환하는 방법Korean Patent Publication No. 2011-0099526 A method of converting a plane image into a stereoscopic image

본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로서, 본 발명은 2차원 영상을 3차원 영상으로 변환하기 위해 사용자가 2차원 영상에서 객체를 선택하여 깊이정보를 입력하고자 하는 경우, 주 객체의 영역 내에 포함되는 하나 이상의 종속 객체를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 관리할 수 있도록 함으로써, 다수개의 객체를 효율적으로 관리할 수 있도록 하고, 객체의 깊이정보를 입력하는 경우 그룹 단위로 객체를 표시하여 소정 객체의 깊이정보에 의해 영향을 받게 되는 객체들을 한눈에 확인할 수 있도록 하여 깊이정보 입력의 편의성을 증진시키고 세밀한 편집 결과물을 얻을 수 있도록 하는 2차원 영상을 3차원 영상으로 변환하는 영상 변환 시스템과 방법 및 그에 대한 기록매체를 제공하는데 그 기술적 과제가 있다.SUMMARY OF THE INVENTION The present invention has been conceived to solve the above-described problems, and it is an object of the present invention to provide an image processing apparatus and method, in which, when a user selects an object in a two- The main object and the dependent object can be managed as one group by setting one or more dependent objects included in the object, thereby enabling efficient management of a plurality of objects. In the case of inputting the depth information of the object, Dimensional image to convert the two-dimensional image into a three-dimensional image so as to improve the convenience of inputting depth information and obtain detailed editing results by allowing the user to confirm the objects to be influenced by the depth information of a predetermined object at a glance, A system and method, and a recording medium therefor.

상술한 목적을 달성하기 위한 본 발명의 일 측면에 따르면, 상기 2차원 영상에서 적어도 둘 이상의 객체를 정의한 객체정보와 상기 객체의 깊이정보를 입력 받는 사용자 입력장치; 상기 사용자 입력장치에서 선택된 둘 이상의 객체에 상호 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장 및 관리하고, 상기 각 객체에 설정된 깊이정보를 인식하여 깊이 맵을 생성하는 깊이 맵 생성 장치; 상기 2차원 영상과 상기 선택된 객체를 디스플레이하는 디스플레이장치; 및 상기 2차원 영상을 상기 디스플레이장치에 표시하고, 상기 2차원 영상의 주 객체가 선택된 경우 상기 종속 객체도 함께 표시하는 영상 제어 장치를 포함하는 영상 변환 시스템이 제공된다.According to an aspect of the present invention, there is provided a method of generating a two-dimensional image, the method comprising: inputting object information defining at least two objects in the two-dimensional image and depth information of the object; A depth map generation unit configured to store and manage a main object and a dependent object as a group by setting mutual dependency relation between two or more objects selected by the user input device and to recognize a depth information set for each object, ; A display device for displaying the two-dimensional image and the selected object; And an image control device displaying the two-dimensional image on the display device and displaying the dependent object together when the main object of the two-dimensional image is selected.

여기서, 상기 깊이 맵 생성 장치는, 상기 사용자 입력장치에서 선택된 둘 이상의 객체에 상호 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장 및 관리하는 객체정보 추출모듈; 상기 사용자 입력장치로 입력되는 Z값을 객체의 깊이정보로 인식하는 깊이정보 인식모듈; 및 인식된 상기 객체의 인식정보에 기초하여 깊이 맵을 생성하는 깊이 맵을 포함할 수 있다.Here, the depth map generating device may include an object information extracting module for storing and managing a main object and a dependent object as one group by establishing mutual dependency relation between two or more objects selected from the user input device; A depth information recognition module that recognizes a Z value input to the user input device as depth information of an object; And a depth map for generating a depth map based on the recognition information of the recognized object.

그리고, 상기 객체정보 추출모듈은, 상기 객체정보를 입력 받고 상기 영상 제어장치가 요청한 객체정보를 출력하는 객체정보 입출력부; 상기 입력된 객체를 주 객체와 상기 주 객체에 종속된 종속 객체로 분류하는 객체간 주종속 설정부와; 및 상기 주 객체와 종속 객체가 저장된 객체정보 저장부를 포함할 수 있다.The object information extraction module may include an object information input / output unit for receiving the object information and outputting object information requested by the image control apparatus; An inter-object main dependency setting unit for classifying the input object as a main object and a subordinate object subordinate to the main object; And an object information storage unit in which the main object and the dependent object are stored.

여기서, 상기 주 객체는 입력된 객체들 중 다른 객체들을 포함하는 영역으로 정의된 객체이고, 상기 종속 객체는 상기 주 객체의 영역 내에 포함된 객체일 수 있다.Here, the main object is an object defined as an area including other objects among the input objects, and the dependent object may be an object included in the area of the main object.

상술한 목적을 달성하기 위한 본 발명의 다른 측면에 따르면, 상기 2차원 영상에서 객체를 정의한 적어도 둘 이상의 객체정보에 대해 상호 종속 관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장 및 관리하는 객체정보 추출모듈; 상기 객체에 대해 입력된 깊이정보를 인식하는 깊이정보 인식모듈; 및 상기 각 객체에 입력된 깊이정보에 기초하여 깊이 맵을 생성하는 깊이 맵 생성모듈을 포함하는 깊이 맵 생성 장치가 제공된다.According to another aspect of the present invention, there is provided a method for managing a two-dimensional image, the method comprising: storing and managing a main object and a dependent object in a group by setting mutual dependency relations for at least two or more object information defining the object in the two- An object information extraction module; A depth information recognition module for recognizing depth information input to the object; And a depth map generation module that generates a depth map based on the depth information input to each object.

여기서, 상기 객체정보 추출모듈은, 상기 객체정보를 입출력 하는 객체정보 입출력부; 입력된 객체들 중 다른 객체들을 포함하는 영역으로 정의된 객체를 주 객체로 설정하고, 상기 주 객체의 영역 내에 포함된 객체들을 종속 객체로 설정하는 객체간 주종속 설정부; 및 상기 주 객체와 종속 객체를 하나의 그룹으로 저장하고 상기 객체정보 입출력부를 통해 상기 주 객체의 출력이 선택된 경우 상기 주 객체와 종속 객체를 함께 제공하는 객체정보 저장부를 포함할 수 있다.Here, the object information extraction module may include an object information input / output unit for inputting / outputting the object information; An inter-object main dependency setting unit which sets an object defined as an area including other objects among the input objects as a main object and sets the objects included in the main object area as a dependent object; And an object information storage unit for storing the main object and the dependent objects as a group and providing the main object and the dependent object together when the output of the main object is selected through the object information input / output unit.

상술한 목적을 달성하기 위한 본 발명의 또 다른 측면에 따르면, 3차원 변환을 위해 입력된 2차원 영상을 3차원 공간에 표시하는 단계; 상기 2차원 영상에서 적어도 둘 이상의 객체를 정의한 객체정보를 입력 받는 단계; 상기 둘 이상의 객체에 대해 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장하는 단계; 상기 주 객체가 선택된 경우 상기 종속 객체도 함께 표시하는 단계; 상기 객체의 깊이정보를 입력받아 깊이 맵을 생성하는 단계; 및 상기 깊이 맵에 따라 상기 2차원 영상을 3차원 영상으로 렌더링하는 단계를 포함하는 영상 변환 방법이 제공된다.According to another aspect of the present invention, there is provided a method of transforming a two-dimensional image, the method comprising: displaying a two-dimensional image input for three-dimensional transformation in a three-dimensional space; Receiving object information defining at least two objects in the two-dimensional image; Storing a main object and a dependent object as a group by setting a dependency relation on the two or more objects; Displaying the dependent object together when the main object is selected; Receiving depth information of the object and generating a depth map; And rendering the two-dimensional image as a three-dimensional image according to the depth map.

여기서, 상기 둘 이상의 객체에 대해 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장하는 단계는, 상기 입력된 객체들 중 다른 객체들을 포함하는 영역으로 정의된 객체를 주 객체로 설정하고, 상기 주 객체의 영역 내에 포함된 객체들을 종속 객체로 설정하는 단계를 포함할 수 있다.In this case, the step of setting the dependency relation between the two or more objects and storing the main object and the dependent objects as one group may include setting an object defined as an area including other objects among the input objects as a main object , And setting the objects included in the area of the main object as a dependent object.

그리고, 상기 객체의 깊이정보를 입력받아 깊이 맵을 생성하는 단계는, 상기 객체의 Z값을 입력받아 상기 객체의 깊이정보를 인식하는 단계를 포함할 수 있다.The step of receiving the depth information of the object and generating the depth map may include receiving the depth value of the object by receiving the Z value of the object.

상술한 목적을 달성하기 위한 본 발명의 또 다른 측면에 따르면, 2차원 영상에서 적어도 둘 이상의 객체를 정의한 객체정보를 입력 받는 단계; 상기 둘 이상의 객체에 대해 종속관계를 설정하여 주 객체와 종속 객체를 설정하여 하나의 그룹으로 저장하는 단계; 상기 주 객체가 선택된 경우 상기 종속 객체도 함께 표시하는 단계; 상기 주 객체와 종속 객체의 깊이정보를 입력 받는 단계; 및 상기 각 객체에 입력된 깊이정보에 기초하여 깊이 맵을 생성하는 단계를 포함하는 깊이 맵 처리 방법이 제공된다.According to another aspect of the present invention, there is provided an image processing method comprising: inputting object information defining at least two objects in a two-dimensional image; Setting a dependency relation between the two or more objects to set a main object and a dependent object, and storing the main object and the dependent object as a group; Displaying the dependent object together when the main object is selected; Receiving depth information of the main object and the dependent object; And generating a depth map based on the depth information input to each of the objects.

여기서, 상기 둘 이상의 객체에 대해 종속관계를 설정하여 주 객체와 종속 객체를 설정하여 하나의 그룹으로 저장하는 단계는, 상기 입력된 객체들 중 다른 객체들을 포함하는 영역으로 정의된 객체를 주 객체로 설정하고, 상기 주 객체의 영역 내에 포함된 객체들을 종속 객체로 설정하는 단계를 포함할 수 있다.The step of setting a dependency relation between the two or more objects to set a main object and a dependent object and storing the main object and the dependent object as a group may further include the step of storing an object defined as an area including other objects among the input objects as a main object And setting objects included in an area of the main object as a dependent object.

상술한 목적을 달성하기 위한 본 발명의 또 다른 측면에 따르면, 2차원 영상을 3차원 영상으로 변환함에 있어서, 상기 2차원 영상에서 적어도 둘 이상의 객체를 정의한 객체정보를 입력 받는 단계; 상기 둘 이상의 객체에 대해 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장하는 단계; 상기 주 객체가 선택된 경우 상기 종속 객체도 함께 표시하는 단계; 상기 객체의 깊이정보를 입력받아 깊이 맵을 생성하는 단계; 및 상기 깊이 맵에 따라 상기 2차원 영상을 3차원 영상으로 렌더링하는 단계를 포함하는 영상 처리 방법이 프로그램으로 기록되고 전자 장치에서 판독 가능한 기록매체가 제공된다.According to another aspect of the present invention, there is provided a method of converting a two-dimensional image into a three-dimensional image, the method comprising: receiving object information defining at least two objects in the two-dimensional image; Storing a main object and a dependent object as a group by setting a dependency relation on the two or more objects; Displaying the dependent object together when the main object is selected; Receiving depth information of the object and generating a depth map; And rendering the two-dimensional image as a three-dimensional image according to the depth map, wherein the image is recorded by a program and readable in an electronic device.

상술한 바와 같이 본 발명에 따른 2차원 영상을 3차원 영상으로 변환하기 위해 사용자가 2차원 영상에서 객체를 선택하여 깊이정보를 입력하고자 하는 경우, 주 객체의 영역 내에 포함되는 하나 이상의 종속 객체를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 관리할 수 있도록 함으로써, 다수개의 객체를 효율적으로 관리할 수 있다.As described above, in order to convert a two-dimensional image according to the present invention into a three-dimensional image, when a user selects an object in the two-dimensional image and inputs depth information, one or more dependent objects included in the region of the main object are set So that the main object and the dependent object can be managed as one group, thereby efficiently managing a plurality of objects.

또한, 객체의 깊이정보를 입력하는 경우 그룹 단위로 객체를 표시하여 소정 객체의 깊이정보에 의해 영향을 받게 되는 객체들을 한눈에 확인할 수 있도록 하여 깊이정보 입력의 편의성을 증진시키고 세밀한 편집 결과물을 얻을 수 있으며, 이에, 변환된 3차원 영상의 품질을 향상시킬 수 있는 효과가 있다.In addition, when the depth information of the object is inputted, the objects are displayed in group units, so that the objects that are affected by the depth information of the predetermined object can be confirmed at a glance, thereby improving the convenience of inputting depth information and obtaining detailed editing results Thus, there is an effect that the quality of the converted three-dimensional image can be improved.

도 1은 본 발명의 실시예에 따른 2차원 영상을 3차원 영상으로 변환하는 영상 변환 시스템의 제어블럭도,
도 2는 본 발명의 실시예에 따른 깊이 맵 처리장치의 제어블럭도,
도 3은 도 2의 객체정보 추출부의 제어블럭도,
도 4는 본 발명의 실시예에 따른 2차원 영상을 3차원 영상으로 변환하는 영상 변환 방법의 흐름도,
도 5는 본 발명의 실시예에 따른 영상 변환 시스템의 작업 화면의 표시 상태도이다.
1 is a control block diagram of an image conversion system for converting a two-dimensional image into a three-dimensional image according to an embodiment of the present invention,
2 is a control block diagram of a depth map processing apparatus according to an embodiment of the present invention,
FIG. 3 is a control block diagram of the object information extracting unit of FIG. 2,
FIG. 4 is a flowchart of an image conversion method for converting a two-dimensional image into a three-dimensional image according to an embodiment of the present invention;
5 is a display state diagram of a work screen of the image conversion system according to the embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 보다 상세히 설명하기로 한다. 첨부 도면을 참조하여 설명함에 있어 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description with reference to the accompanying drawings, the same or corresponding components will be denoted by the same reference numerals, and redundant description thereof will be omitted.

도 1은 본 발명의 실시예에 따른 2차원 영상을 3차원 영상으로 변환하는 영상 변환 시스템(100)의 제어블럭도이다. 본 발명의 실시예에 따른 영상 변환 시스템(100)는 입력된 2차원 영상에 대해 사용자가 깊이정보를 설정할 수 있도록 그래픽 인터페이스를 제공하고, 사용자의 입력에 따라 깊이 맵(depth map)을 생성하여 3차원 영상을 모델링한다.1 is a control block diagram of an image conversion system 100 for converting a two-dimensional image into a three-dimensional image according to an embodiment of the present invention. The image conversion system 100 according to the embodiment of the present invention provides a graphical interface for the user to set depth information on the input two-dimensional image, generates a depth map according to the input of the user, Dimensional image.

도 1에 도시된 바와 같이, 본 발명의 영상 변환 시스템(100)는 2차원 영상 입력장치(110), 사용자 입력장치(120), 디스플레이장치(130), 영상 제어장치(140), 깊이 맵 생성장치(200) 및 3차원 영상 렌더링 장치(160)를 포함한다.1, the image conversion system 100 of the present invention includes a two-dimensional image input device 110, a user input device 120, a display device 130, an image control device 140, Device 200 and a three-dimensional image rendering device 160. [

2차원 영상 입력장치(110)는 3차원 영상으로 변환하고자 하는 2차원 영상을 입력 받는다.The two-dimensional image input apparatus 110 receives a two-dimensional image to be converted into a three-dimensional image.

사용자 입력장치(120)는 영상 변환 시스템(100)의 기능 선택 및 제어를 위한 사용자 인터페이스를 제공하고, 사용자의 입력을 영상 제어장치(140)에 전달한다. 사용자는 사용자 입력장치(120)를 통해 2차원 영상에 표시된 객체를 폐곡선으로 선택하고 해당 객체에 깊이정보를 입력할 수 있다. 영상에서 선택되는 객체는 에지 인식 등의 영상 인식 기술을 이용하여 자동으로 선택되도록 하거나, 혹은 사용자 입력장치(120)를 통해 베지어 곡선(Bezier curve)을 설정하여 객체를 선택하도록 할 수 있다. 베지어 곡선은 몇 개의 제어점을 선택하여 점과 점 사이가 연결되도록 함으로써 생성되는 불규칙한 곡선을 뜻한다. 또한, 사용자는 사용자 입력장치(120)를 통해 객체를 선택하여 깊이정보를 입력할 수 있다.The user input device 120 provides a user interface for selecting and controlling functions of the image conversion system 100 and transmits the input of the user to the image control device 140. The user can select the object displayed in the two-dimensional image as a closed curve through the user input device 120 and input depth information to the object. The object selected in the image may be automatically selected using an image recognition technology such as edge recognition or may be selected by setting a Bezier curve through the user input device 120. [ Bezier curves are irregular curves generated by selecting several control points and connecting the points. In addition, the user can select the object through the user input device 120 and input depth information.

디스플레이장치(130)는 입력된 2차원 영상과 영상변환을 위해 깊이정보를 입력하는 일련의 작업 과정과 입력 결과, 처리 결과 등을 사용자에게 표시한다. 깊이정보를 입력하기 위한 디스플레이장치(130) 화면에는 3차원 공간의 x, y평면에 2차원 영상이 위치하고 깊이정보가 입력된 객체는 입력된 깊이만큼 Z축 방향으로 이동한 공간에 위치한다. 이에, 사용자는 각 객체의 깊이정보를 직관적으로 인식하고 편집할 수 있다.The display device 130 displays a series of work processes for inputting depth information for the input two-dimensional image and image conversion, input results, processing results, and the like to the user. Dimensional image in the x, y plane of the three-dimensional space and the object to which the depth information is input is located in the space shifted in the Z-axis direction by the inputted depth on the screen of the display device 130 for inputting the depth information. Thus, the user can intuitively recognize and edit the depth information of each object.

깊이 맵 생성장치(200)는 사용자가 입력한 객체의 깊이정보에 기초하여 깊이 맵(depth map)을 생성한다. 객체는 2차원 영상에서 사용자가 직접 베지어 곡선으로 선택하거나, 에지 검출기술 등의 영상인식 기능을 이용하여 자동으로 선택될 수 있으며, 자동 및 수동작업을 병행하여 객체를 선택하는 것도 가능하다. 객체정보 추출모듈(210)을 통해 입출력 되는 객체정보는 영상에서 선택된 객체의 식별정보, x, y좌표 등을 포함할 수 있다. The depth map generating apparatus 200 generates a depth map based on depth information of an object input by the user. The object can be selected automatically from the Bezier curve by the user in the two-dimensional image, or automatically selected using the image recognition function such as edge detection technique, or the object can be selected in parallel with the automatic and manual operations. The object information input and output through the object information extraction module 210 may include identification information of the object selected in the image, x, y coordinates, and the like.

여기서, 본 발명은 깊이 맵 처리 시 사용자가 직접 사용자 입력장치(120)를 통해 객체를 선택하고, 주 객체 내에 종속 객체를 설정하여 편집할 수 있도록 한다. 이러한 깊이 맵 생성장치(200)의 깊이정보 설정 및 편집 과정들은 디스플레이장치(130)를 통해 확인이 가능하다. Here, in the depth map processing, the user directly selects an object through the user input device 120, and sets and edits a dependent object within the main object. The depth information setting and editing processes of the depth map generating apparatus 200 can be confirmed through the display device 130.

3차원 영상 렌더링 장치(160)는 깊이 맵 생성장치(200)에서 생성된 깊이 맵(depth map)을 이용하여 입력된 2차원 영상을 3차원 영상으로 변환한다. 3차원 영상 렌더링 장치(160)는 깊이 맵(depth map)을 이용하여 서로 다른 시차 정보를 가진 좌측 영상과 우측 영상을 생성하고 서로 다른 시차 정보를 가진 좌측 영상과 우측 영상을 조합하여 3차원 영상을 생성한다.The three-dimensional image rendering device 160 converts the input two-dimensional image into a three-dimensional image using the depth map generated by the depth map generation device 200. The 3D image rendering device 160 generates a left image and a right image having different parallax information using a depth map and combines a left image and a right image having different parallax information to generate a 3D image .

영상 제어장치(140)는 영상 변환 시스템(100)에 입력된 2차원 영상을 디스플레이장치(130)에 표시하고 사용자 입력장치(120)로 입력되는 사용자의 객체 선택 신호, 깊이 맵 설정 신호 등을 깊이 맵 처리장치로 전달한다. The image control device 140 displays the two-dimensional image input to the image conversion system 100 on the display device 130 and displays the depth of the object selection signal and the depth map setting signal input by the user input device 120, To the map processing device.

영상 제어장치(140)는 깊이 맵 처리장치를 통해 처리되는 깊이 맵 설정, 편집, 생성 과정을 디스플레이장치(130)에 표시한다. 영상 제어장치(140)는 사용자가 2차원 영상에서 특정 객체를 선택하고 해당 객체를 Z축 방향으로 이동시켜 깊이정보를 입력하는 과정을 디스플레이장치(130)에 표시한다. The image control device 140 displays the process of setting, editing, and generating a depth map, which is processed through the depth map processing device, on the display device 130. The image control device 140 displays on the display device 130 a process of the user selecting a specific object in the two-dimensional image and moving the object in the Z-axis direction to input depth information.

영상 제어장치(140)는 깊이 맵 처리장치를 통해 생성된 깊이 맵(depth map)을 이용하여 3차원 영상 렌더링 장치(160)를 제어하여 3차원 영상을 생성하고 이를 디스플레이장치(130)에 표시한다.The image control device 140 controls the 3D image rendering device 160 using the depth map generated through the depth map processing device to generate a 3D image and displays the 3D image on the display device 130 .

여기서, 본 발명의 실시예에 따른 깊이 맵 처리장치의 구성을 도 2 및 도 3을 참조하여 상세히 설명한다. 도 2는 본 발명의 실시예에 따른 깊이 맵 처리장치의 제어블럭도이고 도 3은 도 2이 객체정보 추출모듈(210)의 제어블럭도이다.Hereinafter, the configuration of a depth map processing apparatus according to an embodiment of the present invention will be described in detail with reference to FIG. 2 and FIG. FIG. 2 is a control block diagram of a depth map processing apparatus according to an embodiment of the present invention. FIG. 3 is a control block diagram of the object information extraction module 210. FIG.

도 2에 도시된 바와 같이 깊이 맵 처리장치는 객체정보 추출모듈(210), 깊이정보 인식모듈(220), 깊이 맵 생성모듈(230)을 포함한다.As shown in FIG. 2, the depth map processing apparatus includes an object information extraction module 210, a depth information recognition module 220, and a depth map generation module 230.

객체정보 추출모듈(210)은 2차원 영상에서 깊이정보 설정을 위해 선택된 객체의 정보를 추출하여 저장하고, 사용자 입력장치(120)를 통해 객체의 깊이정보 수정 요청이 입력된 경우 저장된 객체정보를 영상제어장치에 제공한다. 객체정보 추출모듈(210)은 깊이 맵 설정을 위해 설정된 객체들을 주 객체와 주 객체의 영역에 포함된 종속 객체로 설정하여 저장하고, 주 객체의 정보가 요청되는 경우 해당 주 객체에 포함된 종속 객체들의 정보도 함께 제공한다. The object information extraction module 210 extracts and stores the information of the object selected for setting the depth information in the two-dimensional image and stores the stored object information when the depth information modification request of the object is input through the user input device 120 To the control device. The object information extraction module 210 sets the objects set for the depth map as a main object and a dependent object included in the main object area and stores the set object as a dependent object. When the main object information is requested, It also provides information about

이러한 객체정보 추출모듈(210)은 도 3에 도시된 바와 같이, 객체정보 입출력부(310), 객체간 주종속 설정부(312) 및 객체정보 저장부(314)를 포함한다.As shown in FIG. 3, the object information extraction module 210 includes an object information input / output unit 310, an inter-object main dependency setting unit 312, and an object information storage unit 314.

객체정보 입출력부(310)는 영상 제어장치(140)의 요청에 따라 객체정보를 입력 받거나 저장된 객체정보를 출력한다. 객체정보는 객체 식별을 위한 x, y좌표, 식별정보 등을 포함할 수 있다. 2차원 영상에서 객체는 사용자가 직접 베지어 곡선으로 선택하거나, 에지 검출기술 등의 영상인식 기능을 이용하여 자동으로 선택될 수 있으며, 자동 및 수동작업을 병행하여 객체를 선택하는 것도 가능하다.The object information input / output unit 310 receives object information or outputs stored object information at the request of the image control apparatus 140. The object information may include x, y coordinates for identifying the object, identification information, and the like. In the two-dimensional image, the object can be selected directly by Bezier curves or can be selected automatically by using the image recognition function such as edge detection technique, and it is also possible to select the object in parallel with automatic and manual operations.

객체간 주종속 설정부(312)는 입력된 객체를 주 객체와 해당 주 객체에 종속된 종속 객체로 분류하여 객체정보 저장부(314)에 저장한다. 객체간 주종속 설정부(312)는 주 객체를 단위로 종속 객체들의 그룹을 설정한다. 종속 객체는 주 객체의 영역 내에 하나 이상 다수개가 설정될 수 있으며, 주 객체가 선택될 시 해당 주 객체에 속하는 종속 객체의 그룹 또한 자동으로 선택된다. 한편, 객체간 주종속 관계는 객체간 주종속 설정부(312)에 의해 자동으로 설정되거나, 혹은, 사용자가 직접 객체들의 주종관계를 설정하도록 하는 것도 가능하다.The inter-object main dependency setting unit 312 classifies the input object into a main object and a dependent object dependent on the main object, and stores the classified object in the object information storage unit 314. The inter-object main dependency setting unit 312 sets a group of dependent objects in units of the main object. Dependent objects can be set to one or more within the scope of the main object, and when the main object is selected, the group of dependent objects belonging to the main object are also automatically selected. On the other hand, the main dependency relationship among the objects may be set automatically by the inter-object main dependency setting unit 312, or it may be possible for the user to directly set the main /

객체정보 저장부(314)에는 주 객체와 그에 포함되는 종속 객체의 그룹이 저장된다. 즉, 주 객체1에는 종속 객체1, 종속 객체2...종속 객체N의 그룹이 포함될 수 있다. 이에, 깊이정보 설정을 위해 설정되는 객체의 숫자가 증가하더라도 주 객체를 중심으로 용이하게 관리할 수 있다. The object information storage unit 314 stores a main object and a group of dependent objects included therein. That is, the main object 1 may include a dependent object 1, a dependent object 2, ... a group of dependent objects N. [ Therefore, even if the number of objects to be set for setting depth information increases, it can be easily managed mainly on the main object.

이러한 구성에 의해, 객체정보 입출력부(310)를 통해 2차원 영상의 객체들이 선택되면 객체간 주종속 설정부(312)는 각 객체들의 주종관계를 판단하여 주 객체의 정보와 주 객체의 영역에 포함된 다수개의 종속 객체를 객체정보 저장부(314)에 저장한다. 이후, 주 객체가 선택되면 해당 주 객체에 포함된 종속 객체들도 함께 선택되어 객체정보 입출력부(310)를 통해 출력된다.When the objects of the two-dimensional image are selected through the object information input / output unit 310, the inter-object main dependency setting unit 312 determines the main-object relations of the objects and outputs the main object information and the main object region And stores a plurality of dependent objects included in the object information storage unit 314. Then, when the main object is selected, dependent objects included in the main object are also selected and outputted through the object information input / output unit 310. [

깊이정보 인식모듈(220)은 객체에 설정된 Z값에 따라 해당 객체의 깊이정보를 추출한다. 2차원 영상에서 선택된 객체는 사용자의 선택에 따라 3차원 공간의 소정 Z지점에 위치하게 된다. 깊이정보 인식모듈(220)은 이러한 객체의 Z값을 이용하여 해당 객체의 깊이정보를 인식할 수 있다. 여기서, 본 발명은 하나의 주 객체를 선택하면 주 객체의 영역 내에 설정된 종속 객체들도 모두 함께 표시되어 각 객체의 깊이정보를 입력할 수 있다. 따라서, 주 객체의 깊이가 설정된 경우 그에 포함된 종속 객체의 깊이는 주 객체의 깊이를 기준으로 편집하여 설정할 수 있기 때문에 깊이정보를 용이하게 입력할 수 있다.The depth information recognition module 220 extracts depth information of the object according to the Z value set in the object. The selected object in the two-dimensional image is positioned at a predetermined Z point in the three-dimensional space according to the user's selection. The depth information recognition module 220 can recognize the depth information of the object using the Z value of the object. In the present invention, if one main object is selected, the dependent objects set in the main object area are all displayed together so that depth information of each object can be input. Accordingly, when the depth of the main object is set, the depth of the dependent object included therein can be set by editing based on the depth of the main object, so that the depth information can be easily input.

깊이 맵 생성모듈(230)은 깊이정보 인식모듈(220)에서 인식된 각 객체의 깊이정보에 기초하여 입력된 2차원 영상의 깊이 맵(depth map)을 생성한다. The depth map generation module 230 generates a depth map of the input two-dimensional image based on the depth information of each object recognized by the depth information recognition module 220.

이러한 구성에 따라, 사용자는 작업중인 2차원 영상에서 주 객체와 주 객체 내에 포함되는 종속 객체를 하나의 그룹으로 관리할 수 있다. 이에, 다수개의 객체를 효율적으로 관리할 수 있어 더 많은 수의 객체를 설정할 수 있으므로 3차원 영상의 품질을 향상시킬 수 있다. According to this configuration, the user can manage the main object and the dependent objects included in the main object as a group in the two-dimensional image that is being worked on. Accordingly, a plurality of objects can be efficiently managed, and a larger number of objects can be set, thereby improving the quality of a three-dimensional image.

그리고, 주 객체와 그에 포함된 종속 객체들을 한번에 선택하여 그룹 단위의 편집을 수행할 수 있기 때문에 깊이정보의 입력 및 편집을 작업을 용이하게 수행할 수 있다. 또한, 주 객체의 깊이가 설정된 경우 그에 포함된 종속 객체의 깊이는 주 객체의 깊이를 기준으로 편집하여 설정할 수 있기 때문에 깊이정보를 용이하게 입력할 수 있다.Since the main object and the dependent objects included therein can be selected at a time and group-based editing can be performed, input and editing of depth information can be easily performed. Also, when the depth of the main object is set, the depth of the dependent object included therein can be set by editing based on the depth of the main object, so that the depth information can be easily input.

도 4는 본 발명의 실시예에 따른 2차원 영상을 3차원 영상으로 변환하는 영상 변환 방법의 흐름도이다.4 is a flowchart of an image conversion method for converting a two-dimensional image into a three-dimensional image according to an embodiment of the present invention.

영상 변환 시스템(100)에 2차원 영상이 입력되면(S110), 영상 제어장치(140)는 2차원 영상을 3차원 공간의 XY 평면에 디스플레이한다.When a two-dimensional image is input to the image conversion system 100 (S110), the image control device 140 displays the two-dimensional image on the XY plane of the three-dimensional space.

사용자는 디스플레이장치(130)에서 2차원 영상을 확인하고 사용자 입력장치(120)를 제1객체를 선택 입력할 수 있다(S112). The user can check the two-dimensional image on the display device 130 and select the first object through the user input device 120 (S112).

또한, 사용자는 2차원 영상에서 제2객체를 선택 입력할 수 있다(S114).Also, the user can select and input the second object from the two-dimensional image (S114).

객체정보 추출모듈(210)의 객체간 주종속 설정부(312)에서는 입력된 제1객체와 제2객체의 정보를 추출하여 두 객체의 영역을 확인한다(S114).The inter-object main dependency setting unit 312 of the object information extraction module 210 extracts the information of the first object and the second object, and confirms the regions of the two objects (S114).

확인 결과 제1객체의 영역에 제2객체가 포함된 경우 객체간 주종속 설정부(312)는 제1객체를 주 객체로 설정하고 제2객체를 제1객체의 종속 객체로 설정한다(S116). 여기서, 객체 간의 주종관계는 사용자가 직접 설정하도록 하는 것도 가능하다.If the second object is included in the area of the first object, the inter-object main dependency setting unit 312 sets the first object as the main object and sets the second object as the dependent object of the first object (S116) . Here, it is also possible to set the master / slave relationship between objects directly by the user.

상호 주종 관계가 설정된 객체들은 그룹 단위로 관리되어, 주 객체를 선택하면 그에 포함된 종속 객체들이 함께 선택된다. 이에, 객체의 깊이정보를 입력하는 경우 주 객체와 종속 객체를 상호 연동하여 편집할 수 있다(S118).The objects with mutual master relations are managed on a group basis, and when the main object is selected, dependent objects included in the main object are selected together. Accordingly, when the depth information of the object is inputted, the main object and the dependent object can be interlinked and edited (S118).

이상 설명한 바와 같이, 본 발명은 주 객체와 종속 객체를 하나의 그룹 단위로 관리하여 선택 및 편집 시 주 객체를 선택하면 그에 따른 종속 객체들이 자동으로 선택되도록 하고 있다. 이에, 종속 객체들의 깊이정보를 입력하는 경우 이미 설정된 주 객체의 깊이정보를 편집하는 수준에서 깊이정보 입력을 완료할 수 있으므로 깊이정보 입력 작업을 용이하게 한다. 또한, 주 객체 내에 다수개의 종속 객체를 설정하여 관리할 수 있도록 함으로써, 관리할 수 있는 객체의 수가 증가하여 세밀한 깊이 맵을 얻을 수 있다.As described above, according to the present invention, a main object and a dependent object are managed in a group unit, and when a main object is selected and edited, the dependent objects are automatically selected. Accordingly, when the depth information of the dependent objects is inputted, the depth information input can be completed at the level of editing the depth information of the main object which is already set, thereby facilitating the depth information input operation. In addition, by setting and managing a plurality of dependent objects within the main object, the number of objects to be managed increases, and a detailed depth map can be obtained.

본 발명의 실시예에 따른 영상 변환 시스템(100)의 작업 과정을 도 5를 참조하여 설명한다. The operation process of the image conversion system 100 according to the embodiment of the present invention will be described with reference to FIG.

도 5에 도시된 바와 같이, 본 발명의 실시예에 따른 영상 변환 시스템(100)의 디스플레이장치(130)에는 2차원 영상이 x,y평면에 위치하고 Z축 방향으로 객체를 이동시킴으로써 해당 객체의 깊이정보를 입력할 수 있다.5, in the display device 130 of the image transformation system 100 according to the embodiment of the present invention, a two-dimensional image is positioned in the x and y planes and the object is moved in the Z axis direction, You can enter information.

사용자는 2차원 영상에서 인물의 얼굴을 객체 A로 선택하고 이를 Z축 방향으로 이동시켜 깊이정보를 설정할 수 있다. The user can set the depth information by selecting the face of the person in the two-dimensional image as the object A and moving it in the Z-axis direction.

이 후, 객체 A 내에서 눈에 해당하는 객체 a-1과 객체 a-2를 선택할 수 있다. Thereafter, objects a-1 and a-2 corresponding to the eyes in the object A can be selected.

객체 a-1과 객체 a-2는 객체 A 내에서 선택된 것이기 때문에, 얼굴에 해당하는 객체 A는 주 객체로 설정되고 눈에 해당하는 객체 a-1과 객체 a-2는 종속 객체로 설정된다. 이에, 얼굴에 해당하는 객체 A에 설정된 깊이정보를 기준으로 눈에 해당하는 객체 a-1과 객체 a-2의 깊이정보를 조정하여 깊이정보를 설정할 수 있다.Since the object a-1 and the object a-2 are selected in the object A, the object A corresponding to the face is set as the main object, and the object a-1 and the object a-2 corresponding to the eye are set as the dependent object. Accordingly, the depth information can be set by adjusting the depth information of the object a-1 and the object a-2 corresponding to the eye based on the depth information set on the object A corresponding to the face.

그리고, 추 후 다시 작업을 진행하고자 하는 경우 사용자가 객체 A를 선택하면 종속 객체인 객체 a-1과 객체 a-2도 자동으로 되므로 깊이정보에 의해 상호 영향을 받게 되는 객체들을 한눈에 확인할 수 있다. 또한, 주 객체 A의 깊이정보를 기준으로 종속 객체인 객체 a-1과 객체 a-2의 깊이정보를 가감하여 입력할 수 있으므로 깊이정보를 용이하게 입력 및 편집할 수 있다.When the user selects object A, the objects a-1 and a-2, which are dependent objects, are also automatically displayed, so that the objects that are mutually influenced by the depth information can be checked at a glance . In addition, since the depth information of the object a-1 and the object a-2, which are dependent objects, can be added and input based on the depth information of the main object A, the depth information can be easily input and edited.

그리고, 얼굴에 해당하는 객체 A 내에서, 코, 잎, 눈썹 등의 또 다른 객체들을 객체 A의 종속 객체로 설정하여 객체 A인 얼굴 객체와 함께 관리할 수 있기 때문에 객체 관리의 효율성을 향상시킬 수 있다. In addition, since another object such as nose, leaf, eyebrow, etc. can be managed as a dependent object of the object A in the object A corresponding to the face, it can be managed together with the face object of the object A, have.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Thus, those skilled in the art will appreciate that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the embodiments described above are to be considered in all respects only as illustrative and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

본 발명은 2차원 영상을 3차원 영상으로 변환하기 위해 사용자가 2차원 영상에서 객체를 선택하여 깊이정보를 입력하고자 하는 경우, 주 객체의 영역 내에 포함되는 하나 이상의 종속 객체를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 관리할 수 있도록 함으로써, 다수개의 객체를 효율적으로 관리할 수 있도록 하고, 객체의 깊이정보를 입력하는 경우 그룹 단위로 객체를 표시하여 소정 객체의 깊이정보에 의해 영향을 받게 되는 객체들을 한눈에 확인할 수 있도록 하여 깊이정보 입력의 편의성을 증진시키고 세밀한 편집 결과물을 얻을 수 있도록 하는 2차원 영상을 3차원 영상으로 변환하는 영상 변환 시스템과 방법 및 그에 대한 기록매체를 제공하는 데에 이용할 수 있다.In order to convert a two-dimensional image into a three-dimensional image, when a user selects an object in a two-dimensional image and inputs depth information, one or more dependent objects included in the region of the main object are set, By managing the objects in a group, it is possible to efficiently manage a plurality of objects. In the case of inputting the depth information of the objects, the objects are displayed in units of groups to be influenced by the depth information of a predetermined object A system and method for converting a two-dimensional image into a three-dimensional image, which enables a user to confirm objects at a glance, thereby improving the convenience of inputting depth information and obtaining detailed editing results, and a recording medium therefor .

100 : 영상 변환 시스템 110 : 2차원 영상 입력장치
120 : 사용자 입력장치 130 : 디스플레이장치
140 : 영상 제어장치 160 : 3차원 영상 렌더링 장치
200 : 깊이 맵 생성장치 210 : 객체정보 추출모듈
220 : 깊이정보 인식모듈 230 : 깊이 맵 생성모듈
310 : 객체정보 입출력부 312 : 객체간 주종속 설정부
314 : 객체정보 저장부
100: image conversion system 110: two-dimensional image input device
120: user input device 130: display device
140: Image control device 160: 3D image rendering device
200: depth map generating device 210: object information extracting module
220: depth information recognition module 230: depth map generation module
310: Object information input / output unit 312: Main interdependency setting unit between objects
314: Object information storage unit

Claims (12)

2차원 영상에서 적어도 둘 이상의 객체를 정의한 객체정보와 상기 객체의 깊이정보를 입력 받는 사용자 입력장치;
상기 사용자 입력장치에서 선택된 둘 이상의 객체에 상호 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장 및 관리하고, 상기 각 객체에 설정된 깊이정보를 인식하여 깊이 맵을 생성하는 깊이 맵 생성 장치;
상기 2차원 영상과 상기 선택된 객체를 디스플레이하는 디스플레이장치; 및
상기 2차원 영상을 상기 디스플레이장치에 표시하고, 상기 2차원 영상의 주 객체가 선택된 경우 상기 종속 객체도 함께 표시하는 영상 제어 장치를 포함하는 영상 변환 시스템.
A user input device for inputting object information defining at least two objects and depth information of the object in a two-dimensional image;
A depth map generation unit configured to store and manage a main object and a dependent object as a group by setting mutual dependency relation between two or more objects selected by the user input device and to recognize a depth information set for each object, ;
A display device for displaying the two-dimensional image and the selected object; And
Dimensional image to display the two-dimensional image on the display device, and when the main object of the two-dimensional image is selected, the dependent object is also displayed together.
제1항에 있어서,
상기 깊이 맵 생성 장치는,
상기 사용자 입력장치에서 선택된 둘 이상의 객체에 상호 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장 및 관리하는 객체정보 추출모듈;
상기 사용자 입력장치로 입력되는 Z값을 객체의 깊이정보로 인식하는 깊이정보 인식모듈; 및
인식된 상기 객체의 인식정보에 기초하여 깊이 맵을 생성하는 깊이 맵 생성 모듈을 포함하는 것을 특징으로 하는 영상 변환 시스템.
The method according to claim 1,
Wherein the depth map generating device comprises:
An object information extraction module for storing and managing a main object and a dependent object in one group by setting mutual dependency relation between two or more objects selected from the user input device;
A depth information recognition module that recognizes a Z value input to the user input device as depth information of an object; And
And a depth map generation module for generating a depth map based on the recognized recognition information of the object.
제2항에 있어서,
상기 객체정보 추출모듈은,
상기 객체정보를 입력 받고 상기 영상 제어장치가 요청한 객체정보를 출력하는 객체정보 입출력부;
상기 입력된 객체를 주 객체와 상기 주 객체에 종속된 종속 객체로 분류하는 객체간 주종속 설정부와; 및
상기 주 객체와 종속 객체가 저장된 객체정보 저장부를 포함하는 것을 특징으로 하는 영상 변환 시스템.
3. The method of claim 2,
Wherein the object information extraction module comprises:
An object information input / output unit receiving the object information and outputting object information requested by the image control apparatus;
An inter-object main dependency setting unit for classifying the input object as a main object and a subordinate object subordinate to the main object; And
And an object information storage unit for storing the main object and the dependent object.
제3항에 있어서,
상기 객체간 주종속 설정부는,
상기 주 객체는 입력된 객체들 중 다른 객체들을 포함하는 영역으로 정의된 객체이고, 상기 종속 객체는 상기 주 객체의 영역 내에 포함된 객체인 것을 특징으로 하는 영상 변환 시스템.
The method of claim 3,
The inter-object main dependency setting unit,
Wherein the main object is an object defined as an area including other objects among the input objects, and the dependent object is an object included in an area of the main object.
제1항에 있어서,
상기 깊이 맵 생성 장치는,
상기 2차원 영상에서 객체를 정의한 적어도 둘 이상의 객체정보에 대해 상호 종속 관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장 및 관리하는 객체정보 추출모듈;
상기 객체에 대해 입력된 깊이정보를 인식하는 깊이정보 인식모듈; 및
상기 각 객체에 입력된 깊이정보에 기초하여 깊이 맵을 생성하는 깊이 맵 생성모듈을 포함하는 영상 변환 시스템.
The method according to claim 1,
Wherein the depth map generating device comprises:
An object information extraction module for storing and managing a main object and a dependent object as one group by setting mutual dependency relation for at least two or more object information defining the object in the two-dimensional image;
A depth information recognition module for recognizing depth information input to the object; And
And a depth map generation module that generates a depth map based on depth information input to each object.
제5항에 있어서,
상기 객체정보 추출모듈은,
상기 객체정보를 입출력 하는 객체정보 입출력부;
입력된 객체들 중 다른 객체들을 포함하는 영역으로 정의된 객체를 주 객체로 설정하고, 상기 주 객체의 영역 내에 포함된 객체들을 종속 객체로 설정하는 객체간 주종속 설정부; 및
상기 주 객체와 종속 객체를 하나의 그룹으로 저장하고 상기 객체정보 입출력부를 통해 상기 주 객체의 출력이 선택된 경우 상기 주 객체와 종속 객체를 함께 제공하는 객체정보 저장부를 포함하는 것을 특징으로 하는 영상 변환 시스템.
6. The method of claim 5,
Wherein the object information extraction module comprises:
An object information input / output unit for inputting and outputting the object information;
An inter-object main dependency setting unit which sets an object defined as an area including other objects among the input objects as a main object and sets the objects included in the main object area as a dependent object; And
And an object information storage unit for storing the main object and the dependent object in one group and providing the main object and the dependent object together when the output of the main object is selected through the object information input / output unit. .
3차원 변환을 위해 입력된 2차원 영상을 3차원 공간에 표시하는 단계;
상기 2차원 영상에서 적어도 둘 이상의 객체를 정의한 객체정보를 입력 받는 단계;
상기 둘 이상의 객체에 대해 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장하는 단계;
상기 주 객체가 선택된 경우 상기 종속 객체도 함께 표시하는 단계;
상기 객체의 깊이정보를 입력받아 깊이 맵을 생성하는 단계; 및
상기 깊이 맵에 따라 상기 2차원 영상을 3차원 영상으로 렌더링하는 단계를 포함하는 영상 변환 방법.
Displaying a two-dimensional image input for three-dimensional conversion in a three-dimensional space;
Receiving object information defining at least two objects in the two-dimensional image;
Storing a main object and a dependent object as a group by setting a dependency relation on the two or more objects;
Displaying the dependent object together when the main object is selected;
Receiving depth information of the object and generating a depth map; And
And rendering the two-dimensional image as a three-dimensional image according to the depth map.
제7항에 있어서,
상기 둘 이상의 객체에 대해 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장하는 단계는,
상기 입력된 객체들 중 다른 객체들을 포함하는 영역으로 정의된 객체를 주 객체로 설정하고, 상기 주 객체의 영역 내에 포함된 객체들을 종속 객체로 설정하는 단계를 포함하는 것을 특징으로 하는 영상 변환 방법.
8. The method of claim 7,
Wherein the step of storing the main object and the dependent object as a group by setting a dependency relation for the two or more objects comprises:
Setting an object defined as an area including other objects among the input objects as a main object and setting objects included in an area of the main object as a dependent object.
제7항에 있어서,
상기 객체의 깊이정보를 입력받아 깊이 맵을 생성하는 단계는,
상기 객체의 Z값을 입력받아 상기 객체의 깊이정보를 인식하는 단계를 포함하는 것을 특징으로 하는 영상 변환 방법.
8. The method of claim 7,
Wherein the step of generating the depth map by receiving the depth information of the object comprises:
And receiving the Z value of the object and recognizing the depth information of the object.
2차원 영상에서 적어도 둘 이상의 객체를 정의한 객체정보를 입력 받는 단계;
상기 둘 이상의 객체에 대해 종속관계를 설정하여 주 객체와 종속 객체를 설정하여 하나의 그룹으로 저장하는 단계;
상기 주 객체가 선택된 경우 상기 종속 객체도 함께 표시하는 단계;
상기 주 객체와 종속 객체의 깊이정보를 입력 받는 단계; 및
상기 각 객체에 입력된 깊이정보에 기초하여 깊이 맵을 생성하는 단계를 포함하는 깊이 맵 처리 방법.
Receiving object information defining at least two objects in a two-dimensional image;
Setting a dependency relation between the two or more objects to set a main object and a dependent object, and storing the main object and the dependent object as a group;
Displaying the dependent object together when the main object is selected;
Receiving depth information of the main object and the dependent object; And
And generating a depth map based on the depth information input to each object.
제10항에 있어서,
상기 둘 이상의 객체에 대해 종속관계를 설정하여 주 객체와 종속 객체를 설정하여 하나의 그룹으로 저장하는 단계는,
상기 입력된 객체들 중 다른 객체들을 포함하는 영역으로 정의된 객체를 주 객체로 설정하고, 상기 주 객체의 영역 내에 포함된 객체들을 종속 객체로 설정하는 단계를 포함하는 것을 특징으로 하는 깊이 맵 처리 방법.
11. The method of claim 10,
Setting a dependency relation between the two or more objects to set a main object and a dependent object, and storing the main object and the dependent object as a group,
Setting an object defined as an area including other objects among the input objects as a main object and setting objects included in an area of the main object as a dependent object, .
2차원 영상을 3차원 영상으로 변환함에 있어서,
상기 2차원 영상에서 적어도 둘 이상의 객체를 정의한 객체정보를 입력 받는 단계; 상기 둘 이상의 객체에 대해 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장하는 단계; 상기 주 객체가 선택된 경우 상기 종속 객체도 함께 표시하는 단계; 상기 객체의 깊이정보를 입력받아 깊이 맵을 생성하는 단계; 및 상기 깊이 맵에 따라 상기 2차원 영상을 3차원 영상으로 렌더링하는 단계를 포함하는 영상 처리 방법이 프로그램으로 기록되고 전자 장치에서 판독 가능한 기록매체.
In converting a two-dimensional image into a three-dimensional image,
Receiving object information defining at least two objects in the two-dimensional image; Storing a main object and a dependent object as a group by setting a dependency relation on the two or more objects; Displaying the dependent object together when the main object is selected; Receiving depth information of the object and generating a depth map; And rendering the two-dimensional image as a three-dimensional image according to the depth map, wherein the image is recorded by a program and readable by an electronic device.
KR1020110125867A 2011-11-28 2011-11-29 Conversion system for two dimensional image to three dimensional image, method thereof and recordable medium storing the method KR101390961B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110125867A KR101390961B1 (en) 2011-11-29 2011-11-29 Conversion system for two dimensional image to three dimensional image, method thereof and recordable medium storing the method
PCT/KR2012/009002 WO2013081304A1 (en) 2011-11-28 2012-10-30 Image conversion apparatus and method for converting two-dimensional image to three-dimensional image, and recording medium for same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110125867A KR101390961B1 (en) 2011-11-29 2011-11-29 Conversion system for two dimensional image to three dimensional image, method thereof and recordable medium storing the method

Publications (2)

Publication Number Publication Date
KR20130059735A KR20130059735A (en) 2013-06-07
KR101390961B1 true KR101390961B1 (en) 2014-05-07

Family

ID=48858505

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110125867A KR101390961B1 (en) 2011-11-28 2011-11-29 Conversion system for two dimensional image to three dimensional image, method thereof and recordable medium storing the method

Country Status (1)

Country Link
KR (1) KR101390961B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102286572B1 (en) * 2015-03-04 2021-08-06 한국전자통신연구원 Device and Method for new 3D Video Representation from 2D Video

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001526477A (en) 1997-12-05 2001-12-18 ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド Image conversion and coding technology
JP2009290905A (en) 2009-09-10 2009-12-10 Panasonic Corp Displaying apparatus and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001526477A (en) 1997-12-05 2001-12-18 ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド Image conversion and coding technology
JP2009290905A (en) 2009-09-10 2009-12-10 Panasonic Corp Displaying apparatus and method

Also Published As

Publication number Publication date
KR20130059735A (en) 2013-06-07

Similar Documents

Publication Publication Date Title
CN110675489B (en) Image processing method, device, electronic equipment and storage medium
EP1958149B1 (en) Stereoscopic image display method and apparatus, method for generating 3d image data from a 2d image data input and an apparatus for generating 3d image data from a 2d image data input
CN111832745B (en) Data augmentation method and device and electronic equipment
JP6439214B2 (en) Image processing apparatus, image processing method, computer program for image processing, and information recording medium storing image processing computer program
US20200258309A1 (en) Live in-camera overlays
CN104574267A (en) Guiding method and information processing apparatus
Zollmann et al. Interactive 4D overview and detail visualization in augmented reality
CN107004256A (en) The method and apparatus that real-time adaptive for noise depth or anaglyph is filtered
JP2017016663A (en) Image composition method and device
KR20130091541A (en) The method and apparatus for creating 3d image based on user interaction
KR101390961B1 (en) Conversion system for two dimensional image to three dimensional image, method thereof and recordable medium storing the method
CN105163103B (en) Stereo-picture is represented with stepped construction to analyze the technology of the target in image
US20110142336A1 (en) Similar shader search apparatus and method using image feature extraction
KR101820456B1 (en) Method And Apparatus for Generating Depth MAP
KR101071911B1 (en) Method for creation 3 dimensional image
KR102082132B1 (en) Device and Method for new 3D Video Representation from 2D Video
CN110524665B (en) Method, device, medium and equipment for processing wooden products
CN107563958B (en) Holographic image conversion method and system
KR102286572B1 (en) Device and Method for new 3D Video Representation from 2D Video
JP2014071895A (en) Object division device and method
KR101388668B1 (en) Conversion device for two dimensional image to three dimensional image, method thereof and recordable medium storing the method
KR20130059733A (en) Conversion device for two dimensional image to three dimensional image, method thereof and recordable medium storing the method
US20150124077A1 (en) Charged particle beam adjustment assistance device and method
US8963928B2 (en) Stereoscopic image processing apparatus and stereoscopic image processing method
KR101330523B1 (en) Conversion device for two dimensional image to three dimensional image, method thereof and recordable medium storing the method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170407

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180413

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190405

Year of fee payment: 6