KR101390961B1 - Conversion system for two dimensional image to three dimensional image, method thereof and recordable medium storing the method - Google Patents
Conversion system for two dimensional image to three dimensional image, method thereof and recordable medium storing the method Download PDFInfo
- Publication number
- KR101390961B1 KR101390961B1 KR1020110125867A KR20110125867A KR101390961B1 KR 101390961 B1 KR101390961 B1 KR 101390961B1 KR 1020110125867 A KR1020110125867 A KR 1020110125867A KR 20110125867 A KR20110125867 A KR 20110125867A KR 101390961 B1 KR101390961 B1 KR 101390961B1
- Authority
- KR
- South Korea
- Prior art keywords
- objects
- dimensional image
- main
- dependent
- information
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/003—Aspects relating to the "2D+depth" image format
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 2차원 영상을 3차원 영상으로 변환하는 영상 변환 시스템과 방법 및 그에 대한 기록매체에 관한 것으로서, 2차원 영상에서 적어도 둘 이상의 객체를 정의한 객체정보와 상기 객체의 깊이정보를 입력 받는 사용자 입력장치; 상기 사용자 입력장치에서 선택된 둘 이상의 객체에 상호 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장 및 관리하고, 상기 각 객체에 설정된 깊이정보를 인식하여 깊이 맵을 생성하는 깊이 맵 생성 장치; 상기 2차원 영상과 상기 선택된 객체를 디스플레이하는 디스플레이장치; 및 상기 2차원 영상을 상기 디스플레이장치에 표시하고, 상기 2차원 영상의 주 객체가 선택된 경우 상기 종속 객체도 함께 표시하는 영상 제어 장치를 포함한다. 이에 의해, 다수개의 객체를 효율적으로 관리할 수 있도록 하고, 객체의 깊이정보를 입력하는 경우 그룹 단위로 객체를 표시하여 소정 객체의 깊이정보에 의해 영향을 받게 되는 객체들을 한눈에 확인할 수 있도록 하여 깊이정보 입력의 편의성을 증진시키고 세밀한 편집 결과물을 얻을 수 있다.The present invention relates to an image conversion system and method for converting a two-dimensional image into a three-dimensional image, and a recording medium therefor. More particularly, the present invention relates to an object- Device; A depth map generation unit configured to store and manage a main object and a dependent object as a group by setting mutual dependency relation between two or more objects selected by the user input device and to recognize a depth information set for each object, ; A display device for displaying the two-dimensional image and the selected object; And an image control device displaying the two-dimensional image on the display device and displaying the dependent object when the main object of the two-dimensional image is selected. Accordingly, it is possible to efficiently manage a plurality of objects. In the case of inputting depth information of an object, an object is displayed in a group unit so that objects affected by depth information of a predetermined object can be confirmed at a glance, The convenience of inputting information can be improved and detailed editing results can be obtained.
Description
본 발명은 2차원 영상을 3차원 영상으로 변환하는 영상 변환 시스템과 방법 및 그에 대한 기록매체에 관한 것으로서, 보다 상세하게는 2차원 영상을 3차원 영상으로 변환하기 위해 사용자가 2차원 영상에서 객체를 선택하여 깊이정보를 입력하고자 하는 경우, 주 객체의 영역 내에 포함되는 하나 이상의 종속 객체를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 관리할 수 있도록 함으로써, 다수개의 객체를 효율적으로 관리할 수 있도록 하고, 객체의 깊이정보를 입력하는 경우 그룹 단위로 객체를 표시하여 소정 객체의 깊이정보에 의해 영향을 받게 되는 객체들을 한눈에 확인할 수 있도록 하여 깊이정보 입력의 편의성을 증진시키고 세밀한 편집 결과물을 얻을 수 있도록 하는 2차원 영상을 3차원 영상으로 변환하는 영상 변환 시스템과 방법 및 그에 대한 기록매체에 관한 것이다.The present invention relates to an image conversion system and method for converting a two-dimensional image into a three-dimensional image, and more particularly to an image conversion system and method for converting a two-dimensional image into a three- In order to select the depth information, one or more dependent objects included in the main object area are set so that the main object and the dependent objects can be managed as one group, thereby efficiently managing a plurality of objects In case of inputting the depth information of the object, it is possible to identify the objects which are influenced by the depth information of the predetermined object at a glance by displaying the object in the group unit, thereby improving the convenience of inputting depth information and obtaining detailed editing results Image conversion system and method for converting a two-dimensional image into a three-dimensional image For a recording medium.
3차원 입체 영상(stereoscopic image)에 대한 관심이 높아지면서 입체영상을 생성하기 위한 다양한 방법들이 개발되고 있다. 입체 영상을 생성하는 방법 중에는 2차원 비디오 영상을 3차원 입체 영상으로 변환하는 방법이 있다. 2차원 비디오 영상을 3차원 입체 영상으로 변환하는 경우, 이미 만들어진 비디오 콘텐츠를 활용할 수 있으며 별도의 촬영장비를 이용하지 않고도 3차원 입체 영상을 얻을 수 있다는 장점이 있다.As interest in 3D stereoscopic images increases, various methods for generating stereoscopic images are being developed. Among the methods of generating a stereoscopic image, there is a method of converting a two-dimensional video image into a three-dimensional stereoscopic image. When a two-dimensional video image is converted into a three-dimensional image, it is possible to utilize the already-created video content, and it is possible to obtain a three-dimensional image without using a separate photographing device.
2차원 평면 영상을 3차원 입체 영상으로 변환시키기 위해서는, 2차원 평면 영상으로부터 서로 다른 시차 정보를 가지는 좌측 영상과 우측 영상을 생성해야 한다. 이에, 2차원 평면 영상에 표시된 객체들에 깊이(depth)정보를 부여하여 깊이 맵(Depth Map)을 생성하고 깊이 맵에 기초하여 좌측 영상과 우측 영상을 생성함으로써 2차원 평면 영상을 3차원 입체 영상으로 변환하고 있다. 이에, 3차원 입체 영상의 품질은 깊이 맵의 정확성에 따라 크게 좌우된다.In order to convert a 2D plane image into a 3D stereoscopic image, it is necessary to generate a left image and a right image having different parallax information from a 2D plane image. Accordingly, a depth map is generated by providing depth information to objects displayed on a two-dimensional plane image, and a left image and a right image are generated based on the depth map, thereby generating a three- . Thus, the quality of the 3D stereoscopic image greatly depends on the accuracy of the depth map.
한편, 깊이 맵을 생성하는 방법으로는 2차원 영상에서 객체를 추출하고 각 객체에 대해 깊이정보를 설정하는 방법이 있다. 각 객체에 설정된 깊이정보는 3차원 영상 렌더링 해당 객체들에 각각 적용되어 전체적으로 입체감을 갖는 영상이 생성된다. 따라서, 깊이정보가 부여된 객체의 개수가 많을수록 고품질의 3차원 입체 영상을 얻을 수 있다.On the other hand, as a method of generating a depth map, there is a method of extracting an object from a two-dimensional image and setting depth information for each object. The depth information set for each object is applied to the corresponding objects of the three-dimensional image rendering to generate an image having a three-dimensional sense as a whole. Therefore, the higher the number of objects to which the depth information is given, the higher quality three-dimensional stereoscopic image can be obtained.
그런데, 종래기술에 따른 영상 변환 시스템은 2차원 영상의 객체들을 각기 독립적으로 관리하고 있기 때문에, 작업자가 객체의 깊이정보를 설정하거나 편집하고자 하는 경우 선택된 객체만이 표시된다. 따라서, 객체의 개수가 증가할 수록 이들을 관리하기는 어려워지므로 설정할 수 있는 객체의 개수에 한계가 있다. However, since the image conversion system according to the related art manages the objects of the two-dimensional image independently, only the selected object is displayed when the operator sets or edits the depth information of the object. Therefore, as the number of objects increases, it becomes difficult to manage them, and thus the number of objects that can be set is limited.
또한, 상호 연관된 영역에 위치하고 있는 객체들의 깊이정보를 설정하거나 편집하는 경우, 사용자는 이들을 일일이 선택하여 편집해야 하는 어려움이 있다.In addition, when setting or editing depth information of objects located in mutually related areas, the user has difficulty in selecting and editing them individually.
본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로서, 본 발명은 2차원 영상을 3차원 영상으로 변환하기 위해 사용자가 2차원 영상에서 객체를 선택하여 깊이정보를 입력하고자 하는 경우, 주 객체의 영역 내에 포함되는 하나 이상의 종속 객체를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 관리할 수 있도록 함으로써, 다수개의 객체를 효율적으로 관리할 수 있도록 하고, 객체의 깊이정보를 입력하는 경우 그룹 단위로 객체를 표시하여 소정 객체의 깊이정보에 의해 영향을 받게 되는 객체들을 한눈에 확인할 수 있도록 하여 깊이정보 입력의 편의성을 증진시키고 세밀한 편집 결과물을 얻을 수 있도록 하는 2차원 영상을 3차원 영상으로 변환하는 영상 변환 시스템과 방법 및 그에 대한 기록매체를 제공하는데 그 기술적 과제가 있다.SUMMARY OF THE INVENTION The present invention has been conceived to solve the above-described problems, and it is an object of the present invention to provide an image processing apparatus and method, in which, when a user selects an object in a two- The main object and the dependent object can be managed as one group by setting one or more dependent objects included in the object, thereby enabling efficient management of a plurality of objects. In the case of inputting the depth information of the object, Dimensional image to convert the two-dimensional image into a three-dimensional image so as to improve the convenience of inputting depth information and obtain detailed editing results by allowing the user to confirm the objects to be influenced by the depth information of a predetermined object at a glance, A system and method, and a recording medium therefor.
상술한 목적을 달성하기 위한 본 발명의 일 측면에 따르면, 상기 2차원 영상에서 적어도 둘 이상의 객체를 정의한 객체정보와 상기 객체의 깊이정보를 입력 받는 사용자 입력장치; 상기 사용자 입력장치에서 선택된 둘 이상의 객체에 상호 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장 및 관리하고, 상기 각 객체에 설정된 깊이정보를 인식하여 깊이 맵을 생성하는 깊이 맵 생성 장치; 상기 2차원 영상과 상기 선택된 객체를 디스플레이하는 디스플레이장치; 및 상기 2차원 영상을 상기 디스플레이장치에 표시하고, 상기 2차원 영상의 주 객체가 선택된 경우 상기 종속 객체도 함께 표시하는 영상 제어 장치를 포함하는 영상 변환 시스템이 제공된다.According to an aspect of the present invention, there is provided a method of generating a two-dimensional image, the method comprising: inputting object information defining at least two objects in the two-dimensional image and depth information of the object; A depth map generation unit configured to store and manage a main object and a dependent object as a group by setting mutual dependency relation between two or more objects selected by the user input device and to recognize a depth information set for each object, ; A display device for displaying the two-dimensional image and the selected object; And an image control device displaying the two-dimensional image on the display device and displaying the dependent object together when the main object of the two-dimensional image is selected.
여기서, 상기 깊이 맵 생성 장치는, 상기 사용자 입력장치에서 선택된 둘 이상의 객체에 상호 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장 및 관리하는 객체정보 추출모듈; 상기 사용자 입력장치로 입력되는 Z값을 객체의 깊이정보로 인식하는 깊이정보 인식모듈; 및 인식된 상기 객체의 인식정보에 기초하여 깊이 맵을 생성하는 깊이 맵을 포함할 수 있다.Here, the depth map generating device may include an object information extracting module for storing and managing a main object and a dependent object as one group by establishing mutual dependency relation between two or more objects selected from the user input device; A depth information recognition module that recognizes a Z value input to the user input device as depth information of an object; And a depth map for generating a depth map based on the recognition information of the recognized object.
그리고, 상기 객체정보 추출모듈은, 상기 객체정보를 입력 받고 상기 영상 제어장치가 요청한 객체정보를 출력하는 객체정보 입출력부; 상기 입력된 객체를 주 객체와 상기 주 객체에 종속된 종속 객체로 분류하는 객체간 주종속 설정부와; 및 상기 주 객체와 종속 객체가 저장된 객체정보 저장부를 포함할 수 있다.The object information extraction module may include an object information input / output unit for receiving the object information and outputting object information requested by the image control apparatus; An inter-object main dependency setting unit for classifying the input object as a main object and a subordinate object subordinate to the main object; And an object information storage unit in which the main object and the dependent object are stored.
여기서, 상기 주 객체는 입력된 객체들 중 다른 객체들을 포함하는 영역으로 정의된 객체이고, 상기 종속 객체는 상기 주 객체의 영역 내에 포함된 객체일 수 있다.Here, the main object is an object defined as an area including other objects among the input objects, and the dependent object may be an object included in the area of the main object.
상술한 목적을 달성하기 위한 본 발명의 다른 측면에 따르면, 상기 2차원 영상에서 객체를 정의한 적어도 둘 이상의 객체정보에 대해 상호 종속 관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장 및 관리하는 객체정보 추출모듈; 상기 객체에 대해 입력된 깊이정보를 인식하는 깊이정보 인식모듈; 및 상기 각 객체에 입력된 깊이정보에 기초하여 깊이 맵을 생성하는 깊이 맵 생성모듈을 포함하는 깊이 맵 생성 장치가 제공된다.According to another aspect of the present invention, there is provided a method for managing a two-dimensional image, the method comprising: storing and managing a main object and a dependent object in a group by setting mutual dependency relations for at least two or more object information defining the object in the two- An object information extraction module; A depth information recognition module for recognizing depth information input to the object; And a depth map generation module that generates a depth map based on the depth information input to each object.
여기서, 상기 객체정보 추출모듈은, 상기 객체정보를 입출력 하는 객체정보 입출력부; 입력된 객체들 중 다른 객체들을 포함하는 영역으로 정의된 객체를 주 객체로 설정하고, 상기 주 객체의 영역 내에 포함된 객체들을 종속 객체로 설정하는 객체간 주종속 설정부; 및 상기 주 객체와 종속 객체를 하나의 그룹으로 저장하고 상기 객체정보 입출력부를 통해 상기 주 객체의 출력이 선택된 경우 상기 주 객체와 종속 객체를 함께 제공하는 객체정보 저장부를 포함할 수 있다.Here, the object information extraction module may include an object information input / output unit for inputting / outputting the object information; An inter-object main dependency setting unit which sets an object defined as an area including other objects among the input objects as a main object and sets the objects included in the main object area as a dependent object; And an object information storage unit for storing the main object and the dependent objects as a group and providing the main object and the dependent object together when the output of the main object is selected through the object information input / output unit.
상술한 목적을 달성하기 위한 본 발명의 또 다른 측면에 따르면, 3차원 변환을 위해 입력된 2차원 영상을 3차원 공간에 표시하는 단계; 상기 2차원 영상에서 적어도 둘 이상의 객체를 정의한 객체정보를 입력 받는 단계; 상기 둘 이상의 객체에 대해 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장하는 단계; 상기 주 객체가 선택된 경우 상기 종속 객체도 함께 표시하는 단계; 상기 객체의 깊이정보를 입력받아 깊이 맵을 생성하는 단계; 및 상기 깊이 맵에 따라 상기 2차원 영상을 3차원 영상으로 렌더링하는 단계를 포함하는 영상 변환 방법이 제공된다.According to another aspect of the present invention, there is provided a method of transforming a two-dimensional image, the method comprising: displaying a two-dimensional image input for three-dimensional transformation in a three-dimensional space; Receiving object information defining at least two objects in the two-dimensional image; Storing a main object and a dependent object as a group by setting a dependency relation on the two or more objects; Displaying the dependent object together when the main object is selected; Receiving depth information of the object and generating a depth map; And rendering the two-dimensional image as a three-dimensional image according to the depth map.
여기서, 상기 둘 이상의 객체에 대해 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장하는 단계는, 상기 입력된 객체들 중 다른 객체들을 포함하는 영역으로 정의된 객체를 주 객체로 설정하고, 상기 주 객체의 영역 내에 포함된 객체들을 종속 객체로 설정하는 단계를 포함할 수 있다.In this case, the step of setting the dependency relation between the two or more objects and storing the main object and the dependent objects as one group may include setting an object defined as an area including other objects among the input objects as a main object , And setting the objects included in the area of the main object as a dependent object.
그리고, 상기 객체의 깊이정보를 입력받아 깊이 맵을 생성하는 단계는, 상기 객체의 Z값을 입력받아 상기 객체의 깊이정보를 인식하는 단계를 포함할 수 있다.The step of receiving the depth information of the object and generating the depth map may include receiving the depth value of the object by receiving the Z value of the object.
상술한 목적을 달성하기 위한 본 발명의 또 다른 측면에 따르면, 2차원 영상에서 적어도 둘 이상의 객체를 정의한 객체정보를 입력 받는 단계; 상기 둘 이상의 객체에 대해 종속관계를 설정하여 주 객체와 종속 객체를 설정하여 하나의 그룹으로 저장하는 단계; 상기 주 객체가 선택된 경우 상기 종속 객체도 함께 표시하는 단계; 상기 주 객체와 종속 객체의 깊이정보를 입력 받는 단계; 및 상기 각 객체에 입력된 깊이정보에 기초하여 깊이 맵을 생성하는 단계를 포함하는 깊이 맵 처리 방법이 제공된다.According to another aspect of the present invention, there is provided an image processing method comprising: inputting object information defining at least two objects in a two-dimensional image; Setting a dependency relation between the two or more objects to set a main object and a dependent object, and storing the main object and the dependent object as a group; Displaying the dependent object together when the main object is selected; Receiving depth information of the main object and the dependent object; And generating a depth map based on the depth information input to each of the objects.
여기서, 상기 둘 이상의 객체에 대해 종속관계를 설정하여 주 객체와 종속 객체를 설정하여 하나의 그룹으로 저장하는 단계는, 상기 입력된 객체들 중 다른 객체들을 포함하는 영역으로 정의된 객체를 주 객체로 설정하고, 상기 주 객체의 영역 내에 포함된 객체들을 종속 객체로 설정하는 단계를 포함할 수 있다.The step of setting a dependency relation between the two or more objects to set a main object and a dependent object and storing the main object and the dependent object as a group may further include the step of storing an object defined as an area including other objects among the input objects as a main object And setting objects included in an area of the main object as a dependent object.
상술한 목적을 달성하기 위한 본 발명의 또 다른 측면에 따르면, 2차원 영상을 3차원 영상으로 변환함에 있어서, 상기 2차원 영상에서 적어도 둘 이상의 객체를 정의한 객체정보를 입력 받는 단계; 상기 둘 이상의 객체에 대해 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장하는 단계; 상기 주 객체가 선택된 경우 상기 종속 객체도 함께 표시하는 단계; 상기 객체의 깊이정보를 입력받아 깊이 맵을 생성하는 단계; 및 상기 깊이 맵에 따라 상기 2차원 영상을 3차원 영상으로 렌더링하는 단계를 포함하는 영상 처리 방법이 프로그램으로 기록되고 전자 장치에서 판독 가능한 기록매체가 제공된다.According to another aspect of the present invention, there is provided a method of converting a two-dimensional image into a three-dimensional image, the method comprising: receiving object information defining at least two objects in the two-dimensional image; Storing a main object and a dependent object as a group by setting a dependency relation on the two or more objects; Displaying the dependent object together when the main object is selected; Receiving depth information of the object and generating a depth map; And rendering the two-dimensional image as a three-dimensional image according to the depth map, wherein the image is recorded by a program and readable in an electronic device.
상술한 바와 같이 본 발명에 따른 2차원 영상을 3차원 영상으로 변환하기 위해 사용자가 2차원 영상에서 객체를 선택하여 깊이정보를 입력하고자 하는 경우, 주 객체의 영역 내에 포함되는 하나 이상의 종속 객체를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 관리할 수 있도록 함으로써, 다수개의 객체를 효율적으로 관리할 수 있다.As described above, in order to convert a two-dimensional image according to the present invention into a three-dimensional image, when a user selects an object in the two-dimensional image and inputs depth information, one or more dependent objects included in the region of the main object are set So that the main object and the dependent object can be managed as one group, thereby efficiently managing a plurality of objects.
또한, 객체의 깊이정보를 입력하는 경우 그룹 단위로 객체를 표시하여 소정 객체의 깊이정보에 의해 영향을 받게 되는 객체들을 한눈에 확인할 수 있도록 하여 깊이정보 입력의 편의성을 증진시키고 세밀한 편집 결과물을 얻을 수 있으며, 이에, 변환된 3차원 영상의 품질을 향상시킬 수 있는 효과가 있다.In addition, when the depth information of the object is inputted, the objects are displayed in group units, so that the objects that are affected by the depth information of the predetermined object can be confirmed at a glance, thereby improving the convenience of inputting depth information and obtaining detailed editing results Thus, there is an effect that the quality of the converted three-dimensional image can be improved.
도 1은 본 발명의 실시예에 따른 2차원 영상을 3차원 영상으로 변환하는 영상 변환 시스템의 제어블럭도,
도 2는 본 발명의 실시예에 따른 깊이 맵 처리장치의 제어블럭도,
도 3은 도 2의 객체정보 추출부의 제어블럭도,
도 4는 본 발명의 실시예에 따른 2차원 영상을 3차원 영상으로 변환하는 영상 변환 방법의 흐름도,
도 5는 본 발명의 실시예에 따른 영상 변환 시스템의 작업 화면의 표시 상태도이다.1 is a control block diagram of an image conversion system for converting a two-dimensional image into a three-dimensional image according to an embodiment of the present invention,
2 is a control block diagram of a depth map processing apparatus according to an embodiment of the present invention,
FIG. 3 is a control block diagram of the object information extracting unit of FIG. 2,
FIG. 4 is a flowchart of an image conversion method for converting a two-dimensional image into a three-dimensional image according to an embodiment of the present invention;
5 is a display state diagram of a work screen of the image conversion system according to the embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 보다 상세히 설명하기로 한다. 첨부 도면을 참조하여 설명함에 있어 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description with reference to the accompanying drawings, the same or corresponding components will be denoted by the same reference numerals, and redundant description thereof will be omitted.
도 1은 본 발명의 실시예에 따른 2차원 영상을 3차원 영상으로 변환하는 영상 변환 시스템(100)의 제어블럭도이다. 본 발명의 실시예에 따른 영상 변환 시스템(100)는 입력된 2차원 영상에 대해 사용자가 깊이정보를 설정할 수 있도록 그래픽 인터페이스를 제공하고, 사용자의 입력에 따라 깊이 맵(depth map)을 생성하여 3차원 영상을 모델링한다.1 is a control block diagram of an
도 1에 도시된 바와 같이, 본 발명의 영상 변환 시스템(100)는 2차원 영상 입력장치(110), 사용자 입력장치(120), 디스플레이장치(130), 영상 제어장치(140), 깊이 맵 생성장치(200) 및 3차원 영상 렌더링 장치(160)를 포함한다.1, the
2차원 영상 입력장치(110)는 3차원 영상으로 변환하고자 하는 2차원 영상을 입력 받는다.The two-dimensional
사용자 입력장치(120)는 영상 변환 시스템(100)의 기능 선택 및 제어를 위한 사용자 인터페이스를 제공하고, 사용자의 입력을 영상 제어장치(140)에 전달한다. 사용자는 사용자 입력장치(120)를 통해 2차원 영상에 표시된 객체를 폐곡선으로 선택하고 해당 객체에 깊이정보를 입력할 수 있다. 영상에서 선택되는 객체는 에지 인식 등의 영상 인식 기술을 이용하여 자동으로 선택되도록 하거나, 혹은 사용자 입력장치(120)를 통해 베지어 곡선(Bezier curve)을 설정하여 객체를 선택하도록 할 수 있다. 베지어 곡선은 몇 개의 제어점을 선택하여 점과 점 사이가 연결되도록 함으로써 생성되는 불규칙한 곡선을 뜻한다. 또한, 사용자는 사용자 입력장치(120)를 통해 객체를 선택하여 깊이정보를 입력할 수 있다.The
디스플레이장치(130)는 입력된 2차원 영상과 영상변환을 위해 깊이정보를 입력하는 일련의 작업 과정과 입력 결과, 처리 결과 등을 사용자에게 표시한다. 깊이정보를 입력하기 위한 디스플레이장치(130) 화면에는 3차원 공간의 x, y평면에 2차원 영상이 위치하고 깊이정보가 입력된 객체는 입력된 깊이만큼 Z축 방향으로 이동한 공간에 위치한다. 이에, 사용자는 각 객체의 깊이정보를 직관적으로 인식하고 편집할 수 있다.The
깊이 맵 생성장치(200)는 사용자가 입력한 객체의 깊이정보에 기초하여 깊이 맵(depth map)을 생성한다. 객체는 2차원 영상에서 사용자가 직접 베지어 곡선으로 선택하거나, 에지 검출기술 등의 영상인식 기능을 이용하여 자동으로 선택될 수 있으며, 자동 및 수동작업을 병행하여 객체를 선택하는 것도 가능하다. 객체정보 추출모듈(210)을 통해 입출력 되는 객체정보는 영상에서 선택된 객체의 식별정보, x, y좌표 등을 포함할 수 있다. The depth
여기서, 본 발명은 깊이 맵 처리 시 사용자가 직접 사용자 입력장치(120)를 통해 객체를 선택하고, 주 객체 내에 종속 객체를 설정하여 편집할 수 있도록 한다. 이러한 깊이 맵 생성장치(200)의 깊이정보 설정 및 편집 과정들은 디스플레이장치(130)를 통해 확인이 가능하다. Here, in the depth map processing, the user directly selects an object through the
3차원 영상 렌더링 장치(160)는 깊이 맵 생성장치(200)에서 생성된 깊이 맵(depth map)을 이용하여 입력된 2차원 영상을 3차원 영상으로 변환한다. 3차원 영상 렌더링 장치(160)는 깊이 맵(depth map)을 이용하여 서로 다른 시차 정보를 가진 좌측 영상과 우측 영상을 생성하고 서로 다른 시차 정보를 가진 좌측 영상과 우측 영상을 조합하여 3차원 영상을 생성한다.The three-dimensional
영상 제어장치(140)는 영상 변환 시스템(100)에 입력된 2차원 영상을 디스플레이장치(130)에 표시하고 사용자 입력장치(120)로 입력되는 사용자의 객체 선택 신호, 깊이 맵 설정 신호 등을 깊이 맵 처리장치로 전달한다. The
영상 제어장치(140)는 깊이 맵 처리장치를 통해 처리되는 깊이 맵 설정, 편집, 생성 과정을 디스플레이장치(130)에 표시한다. 영상 제어장치(140)는 사용자가 2차원 영상에서 특정 객체를 선택하고 해당 객체를 Z축 방향으로 이동시켜 깊이정보를 입력하는 과정을 디스플레이장치(130)에 표시한다. The
영상 제어장치(140)는 깊이 맵 처리장치를 통해 생성된 깊이 맵(depth map)을 이용하여 3차원 영상 렌더링 장치(160)를 제어하여 3차원 영상을 생성하고 이를 디스플레이장치(130)에 표시한다.The
여기서, 본 발명의 실시예에 따른 깊이 맵 처리장치의 구성을 도 2 및 도 3을 참조하여 상세히 설명한다. 도 2는 본 발명의 실시예에 따른 깊이 맵 처리장치의 제어블럭도이고 도 3은 도 2이 객체정보 추출모듈(210)의 제어블럭도이다.Hereinafter, the configuration of a depth map processing apparatus according to an embodiment of the present invention will be described in detail with reference to FIG. 2 and FIG. FIG. 2 is a control block diagram of a depth map processing apparatus according to an embodiment of the present invention. FIG. 3 is a control block diagram of the object information extraction module 210. FIG.
도 2에 도시된 바와 같이 깊이 맵 처리장치는 객체정보 추출모듈(210), 깊이정보 인식모듈(220), 깊이 맵 생성모듈(230)을 포함한다.As shown in FIG. 2, the depth map processing apparatus includes an object information extraction module 210, a depth information recognition module 220, and a depth
객체정보 추출모듈(210)은 2차원 영상에서 깊이정보 설정을 위해 선택된 객체의 정보를 추출하여 저장하고, 사용자 입력장치(120)를 통해 객체의 깊이정보 수정 요청이 입력된 경우 저장된 객체정보를 영상제어장치에 제공한다. 객체정보 추출모듈(210)은 깊이 맵 설정을 위해 설정된 객체들을 주 객체와 주 객체의 영역에 포함된 종속 객체로 설정하여 저장하고, 주 객체의 정보가 요청되는 경우 해당 주 객체에 포함된 종속 객체들의 정보도 함께 제공한다. The object information extraction module 210 extracts and stores the information of the object selected for setting the depth information in the two-dimensional image and stores the stored object information when the depth information modification request of the object is input through the
이러한 객체정보 추출모듈(210)은 도 3에 도시된 바와 같이, 객체정보 입출력부(310), 객체간 주종속 설정부(312) 및 객체정보 저장부(314)를 포함한다.As shown in FIG. 3, the object information extraction module 210 includes an object information input /
객체정보 입출력부(310)는 영상 제어장치(140)의 요청에 따라 객체정보를 입력 받거나 저장된 객체정보를 출력한다. 객체정보는 객체 식별을 위한 x, y좌표, 식별정보 등을 포함할 수 있다. 2차원 영상에서 객체는 사용자가 직접 베지어 곡선으로 선택하거나, 에지 검출기술 등의 영상인식 기능을 이용하여 자동으로 선택될 수 있으며, 자동 및 수동작업을 병행하여 객체를 선택하는 것도 가능하다.The object information input /
객체간 주종속 설정부(312)는 입력된 객체를 주 객체와 해당 주 객체에 종속된 종속 객체로 분류하여 객체정보 저장부(314)에 저장한다. 객체간 주종속 설정부(312)는 주 객체를 단위로 종속 객체들의 그룹을 설정한다. 종속 객체는 주 객체의 영역 내에 하나 이상 다수개가 설정될 수 있으며, 주 객체가 선택될 시 해당 주 객체에 속하는 종속 객체의 그룹 또한 자동으로 선택된다. 한편, 객체간 주종속 관계는 객체간 주종속 설정부(312)에 의해 자동으로 설정되거나, 혹은, 사용자가 직접 객체들의 주종관계를 설정하도록 하는 것도 가능하다.The inter-object main
객체정보 저장부(314)에는 주 객체와 그에 포함되는 종속 객체의 그룹이 저장된다. 즉, 주 객체1에는 종속 객체1, 종속 객체2...종속 객체N의 그룹이 포함될 수 있다. 이에, 깊이정보 설정을 위해 설정되는 객체의 숫자가 증가하더라도 주 객체를 중심으로 용이하게 관리할 수 있다. The object
이러한 구성에 의해, 객체정보 입출력부(310)를 통해 2차원 영상의 객체들이 선택되면 객체간 주종속 설정부(312)는 각 객체들의 주종관계를 판단하여 주 객체의 정보와 주 객체의 영역에 포함된 다수개의 종속 객체를 객체정보 저장부(314)에 저장한다. 이후, 주 객체가 선택되면 해당 주 객체에 포함된 종속 객체들도 함께 선택되어 객체정보 입출력부(310)를 통해 출력된다.When the objects of the two-dimensional image are selected through the object information input /
깊이정보 인식모듈(220)은 객체에 설정된 Z값에 따라 해당 객체의 깊이정보를 추출한다. 2차원 영상에서 선택된 객체는 사용자의 선택에 따라 3차원 공간의 소정 Z지점에 위치하게 된다. 깊이정보 인식모듈(220)은 이러한 객체의 Z값을 이용하여 해당 객체의 깊이정보를 인식할 수 있다. 여기서, 본 발명은 하나의 주 객체를 선택하면 주 객체의 영역 내에 설정된 종속 객체들도 모두 함께 표시되어 각 객체의 깊이정보를 입력할 수 있다. 따라서, 주 객체의 깊이가 설정된 경우 그에 포함된 종속 객체의 깊이는 주 객체의 깊이를 기준으로 편집하여 설정할 수 있기 때문에 깊이정보를 용이하게 입력할 수 있다.The depth information recognition module 220 extracts depth information of the object according to the Z value set in the object. The selected object in the two-dimensional image is positioned at a predetermined Z point in the three-dimensional space according to the user's selection. The depth information recognition module 220 can recognize the depth information of the object using the Z value of the object. In the present invention, if one main object is selected, the dependent objects set in the main object area are all displayed together so that depth information of each object can be input. Accordingly, when the depth of the main object is set, the depth of the dependent object included therein can be set by editing based on the depth of the main object, so that the depth information can be easily input.
깊이 맵 생성모듈(230)은 깊이정보 인식모듈(220)에서 인식된 각 객체의 깊이정보에 기초하여 입력된 2차원 영상의 깊이 맵(depth map)을 생성한다. The depth
이러한 구성에 따라, 사용자는 작업중인 2차원 영상에서 주 객체와 주 객체 내에 포함되는 종속 객체를 하나의 그룹으로 관리할 수 있다. 이에, 다수개의 객체를 효율적으로 관리할 수 있어 더 많은 수의 객체를 설정할 수 있으므로 3차원 영상의 품질을 향상시킬 수 있다. According to this configuration, the user can manage the main object and the dependent objects included in the main object as a group in the two-dimensional image that is being worked on. Accordingly, a plurality of objects can be efficiently managed, and a larger number of objects can be set, thereby improving the quality of a three-dimensional image.
그리고, 주 객체와 그에 포함된 종속 객체들을 한번에 선택하여 그룹 단위의 편집을 수행할 수 있기 때문에 깊이정보의 입력 및 편집을 작업을 용이하게 수행할 수 있다. 또한, 주 객체의 깊이가 설정된 경우 그에 포함된 종속 객체의 깊이는 주 객체의 깊이를 기준으로 편집하여 설정할 수 있기 때문에 깊이정보를 용이하게 입력할 수 있다.Since the main object and the dependent objects included therein can be selected at a time and group-based editing can be performed, input and editing of depth information can be easily performed. Also, when the depth of the main object is set, the depth of the dependent object included therein can be set by editing based on the depth of the main object, so that the depth information can be easily input.
도 4는 본 발명의 실시예에 따른 2차원 영상을 3차원 영상으로 변환하는 영상 변환 방법의 흐름도이다.4 is a flowchart of an image conversion method for converting a two-dimensional image into a three-dimensional image according to an embodiment of the present invention.
영상 변환 시스템(100)에 2차원 영상이 입력되면(S110), 영상 제어장치(140)는 2차원 영상을 3차원 공간의 XY 평면에 디스플레이한다.When a two-dimensional image is input to the image conversion system 100 (S110), the
사용자는 디스플레이장치(130)에서 2차원 영상을 확인하고 사용자 입력장치(120)를 제1객체를 선택 입력할 수 있다(S112). The user can check the two-dimensional image on the
또한, 사용자는 2차원 영상에서 제2객체를 선택 입력할 수 있다(S114).Also, the user can select and input the second object from the two-dimensional image (S114).
객체정보 추출모듈(210)의 객체간 주종속 설정부(312)에서는 입력된 제1객체와 제2객체의 정보를 추출하여 두 객체의 영역을 확인한다(S114).The inter-object main
확인 결과 제1객체의 영역에 제2객체가 포함된 경우 객체간 주종속 설정부(312)는 제1객체를 주 객체로 설정하고 제2객체를 제1객체의 종속 객체로 설정한다(S116). 여기서, 객체 간의 주종관계는 사용자가 직접 설정하도록 하는 것도 가능하다.If the second object is included in the area of the first object, the inter-object main
상호 주종 관계가 설정된 객체들은 그룹 단위로 관리되어, 주 객체를 선택하면 그에 포함된 종속 객체들이 함께 선택된다. 이에, 객체의 깊이정보를 입력하는 경우 주 객체와 종속 객체를 상호 연동하여 편집할 수 있다(S118).The objects with mutual master relations are managed on a group basis, and when the main object is selected, dependent objects included in the main object are selected together. Accordingly, when the depth information of the object is inputted, the main object and the dependent object can be interlinked and edited (S118).
이상 설명한 바와 같이, 본 발명은 주 객체와 종속 객체를 하나의 그룹 단위로 관리하여 선택 및 편집 시 주 객체를 선택하면 그에 따른 종속 객체들이 자동으로 선택되도록 하고 있다. 이에, 종속 객체들의 깊이정보를 입력하는 경우 이미 설정된 주 객체의 깊이정보를 편집하는 수준에서 깊이정보 입력을 완료할 수 있으므로 깊이정보 입력 작업을 용이하게 한다. 또한, 주 객체 내에 다수개의 종속 객체를 설정하여 관리할 수 있도록 함으로써, 관리할 수 있는 객체의 수가 증가하여 세밀한 깊이 맵을 얻을 수 있다.As described above, according to the present invention, a main object and a dependent object are managed in a group unit, and when a main object is selected and edited, the dependent objects are automatically selected. Accordingly, when the depth information of the dependent objects is inputted, the depth information input can be completed at the level of editing the depth information of the main object which is already set, thereby facilitating the depth information input operation. In addition, by setting and managing a plurality of dependent objects within the main object, the number of objects to be managed increases, and a detailed depth map can be obtained.
본 발명의 실시예에 따른 영상 변환 시스템(100)의 작업 과정을 도 5를 참조하여 설명한다. The operation process of the
도 5에 도시된 바와 같이, 본 발명의 실시예에 따른 영상 변환 시스템(100)의 디스플레이장치(130)에는 2차원 영상이 x,y평면에 위치하고 Z축 방향으로 객체를 이동시킴으로써 해당 객체의 깊이정보를 입력할 수 있다.5, in the
사용자는 2차원 영상에서 인물의 얼굴을 객체 A로 선택하고 이를 Z축 방향으로 이동시켜 깊이정보를 설정할 수 있다. The user can set the depth information by selecting the face of the person in the two-dimensional image as the object A and moving it in the Z-axis direction.
이 후, 객체 A 내에서 눈에 해당하는 객체 a-1과 객체 a-2를 선택할 수 있다. Thereafter, objects a-1 and a-2 corresponding to the eyes in the object A can be selected.
객체 a-1과 객체 a-2는 객체 A 내에서 선택된 것이기 때문에, 얼굴에 해당하는 객체 A는 주 객체로 설정되고 눈에 해당하는 객체 a-1과 객체 a-2는 종속 객체로 설정된다. 이에, 얼굴에 해당하는 객체 A에 설정된 깊이정보를 기준으로 눈에 해당하는 객체 a-1과 객체 a-2의 깊이정보를 조정하여 깊이정보를 설정할 수 있다.Since the object a-1 and the object a-2 are selected in the object A, the object A corresponding to the face is set as the main object, and the object a-1 and the object a-2 corresponding to the eye are set as the dependent object. Accordingly, the depth information can be set by adjusting the depth information of the object a-1 and the object a-2 corresponding to the eye based on the depth information set on the object A corresponding to the face.
그리고, 추 후 다시 작업을 진행하고자 하는 경우 사용자가 객체 A를 선택하면 종속 객체인 객체 a-1과 객체 a-2도 자동으로 되므로 깊이정보에 의해 상호 영향을 받게 되는 객체들을 한눈에 확인할 수 있다. 또한, 주 객체 A의 깊이정보를 기준으로 종속 객체인 객체 a-1과 객체 a-2의 깊이정보를 가감하여 입력할 수 있으므로 깊이정보를 용이하게 입력 및 편집할 수 있다.When the user selects object A, the objects a-1 and a-2, which are dependent objects, are also automatically displayed, so that the objects that are mutually influenced by the depth information can be checked at a glance . In addition, since the depth information of the object a-1 and the object a-2, which are dependent objects, can be added and input based on the depth information of the main object A, the depth information can be easily input and edited.
그리고, 얼굴에 해당하는 객체 A 내에서, 코, 잎, 눈썹 등의 또 다른 객체들을 객체 A의 종속 객체로 설정하여 객체 A인 얼굴 객체와 함께 관리할 수 있기 때문에 객체 관리의 효율성을 향상시킬 수 있다. In addition, since another object such as nose, leaf, eyebrow, etc. can be managed as a dependent object of the object A in the object A corresponding to the face, it can be managed together with the face object of the object A, have.
이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Thus, those skilled in the art will appreciate that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the embodiments described above are to be considered in all respects only as illustrative and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.
본 발명은 2차원 영상을 3차원 영상으로 변환하기 위해 사용자가 2차원 영상에서 객체를 선택하여 깊이정보를 입력하고자 하는 경우, 주 객체의 영역 내에 포함되는 하나 이상의 종속 객체를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 관리할 수 있도록 함으로써, 다수개의 객체를 효율적으로 관리할 수 있도록 하고, 객체의 깊이정보를 입력하는 경우 그룹 단위로 객체를 표시하여 소정 객체의 깊이정보에 의해 영향을 받게 되는 객체들을 한눈에 확인할 수 있도록 하여 깊이정보 입력의 편의성을 증진시키고 세밀한 편집 결과물을 얻을 수 있도록 하는 2차원 영상을 3차원 영상으로 변환하는 영상 변환 시스템과 방법 및 그에 대한 기록매체를 제공하는 데에 이용할 수 있다.In order to convert a two-dimensional image into a three-dimensional image, when a user selects an object in a two-dimensional image and inputs depth information, one or more dependent objects included in the region of the main object are set, By managing the objects in a group, it is possible to efficiently manage a plurality of objects. In the case of inputting the depth information of the objects, the objects are displayed in units of groups to be influenced by the depth information of a predetermined object A system and method for converting a two-dimensional image into a three-dimensional image, which enables a user to confirm objects at a glance, thereby improving the convenience of inputting depth information and obtaining detailed editing results, and a recording medium therefor .
100 : 영상 변환 시스템 110 : 2차원 영상 입력장치
120 : 사용자 입력장치 130 : 디스플레이장치
140 : 영상 제어장치 160 : 3차원 영상 렌더링 장치
200 : 깊이 맵 생성장치 210 : 객체정보 추출모듈
220 : 깊이정보 인식모듈 230 : 깊이 맵 생성모듈
310 : 객체정보 입출력부 312 : 객체간 주종속 설정부
314 : 객체정보 저장부100: image conversion system 110: two-dimensional image input device
120: user input device 130: display device
140: Image control device 160: 3D image rendering device
200: depth map generating device 210: object information extracting module
220: depth information recognition module 230: depth map generation module
310: Object information input / output unit 312: Main interdependency setting unit between objects
314: Object information storage unit
Claims (12)
상기 사용자 입력장치에서 선택된 둘 이상의 객체에 상호 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장 및 관리하고, 상기 각 객체에 설정된 깊이정보를 인식하여 깊이 맵을 생성하는 깊이 맵 생성 장치;
상기 2차원 영상과 상기 선택된 객체를 디스플레이하는 디스플레이장치; 및
상기 2차원 영상을 상기 디스플레이장치에 표시하고, 상기 2차원 영상의 주 객체가 선택된 경우 상기 종속 객체도 함께 표시하는 영상 제어 장치를 포함하는 영상 변환 시스템.A user input device for inputting object information defining at least two objects and depth information of the object in a two-dimensional image;
A depth map generation unit configured to store and manage a main object and a dependent object as a group by setting mutual dependency relation between two or more objects selected by the user input device and to recognize a depth information set for each object, ;
A display device for displaying the two-dimensional image and the selected object; And
Dimensional image to display the two-dimensional image on the display device, and when the main object of the two-dimensional image is selected, the dependent object is also displayed together.
상기 깊이 맵 생성 장치는,
상기 사용자 입력장치에서 선택된 둘 이상의 객체에 상호 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장 및 관리하는 객체정보 추출모듈;
상기 사용자 입력장치로 입력되는 Z값을 객체의 깊이정보로 인식하는 깊이정보 인식모듈; 및
인식된 상기 객체의 인식정보에 기초하여 깊이 맵을 생성하는 깊이 맵 생성 모듈을 포함하는 것을 특징으로 하는 영상 변환 시스템.The method according to claim 1,
Wherein the depth map generating device comprises:
An object information extraction module for storing and managing a main object and a dependent object in one group by setting mutual dependency relation between two or more objects selected from the user input device;
A depth information recognition module that recognizes a Z value input to the user input device as depth information of an object; And
And a depth map generation module for generating a depth map based on the recognized recognition information of the object.
상기 객체정보 추출모듈은,
상기 객체정보를 입력 받고 상기 영상 제어장치가 요청한 객체정보를 출력하는 객체정보 입출력부;
상기 입력된 객체를 주 객체와 상기 주 객체에 종속된 종속 객체로 분류하는 객체간 주종속 설정부와; 및
상기 주 객체와 종속 객체가 저장된 객체정보 저장부를 포함하는 것을 특징으로 하는 영상 변환 시스템.3. The method of claim 2,
Wherein the object information extraction module comprises:
An object information input / output unit receiving the object information and outputting object information requested by the image control apparatus;
An inter-object main dependency setting unit for classifying the input object as a main object and a subordinate object subordinate to the main object; And
And an object information storage unit for storing the main object and the dependent object.
상기 객체간 주종속 설정부는,
상기 주 객체는 입력된 객체들 중 다른 객체들을 포함하는 영역으로 정의된 객체이고, 상기 종속 객체는 상기 주 객체의 영역 내에 포함된 객체인 것을 특징으로 하는 영상 변환 시스템.The method of claim 3,
The inter-object main dependency setting unit,
Wherein the main object is an object defined as an area including other objects among the input objects, and the dependent object is an object included in an area of the main object.
상기 깊이 맵 생성 장치는,
상기 2차원 영상에서 객체를 정의한 적어도 둘 이상의 객체정보에 대해 상호 종속 관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장 및 관리하는 객체정보 추출모듈;
상기 객체에 대해 입력된 깊이정보를 인식하는 깊이정보 인식모듈; 및
상기 각 객체에 입력된 깊이정보에 기초하여 깊이 맵을 생성하는 깊이 맵 생성모듈을 포함하는 영상 변환 시스템.The method according to claim 1,
Wherein the depth map generating device comprises:
An object information extraction module for storing and managing a main object and a dependent object as one group by setting mutual dependency relation for at least two or more object information defining the object in the two-dimensional image;
A depth information recognition module for recognizing depth information input to the object; And
And a depth map generation module that generates a depth map based on depth information input to each object.
상기 객체정보 추출모듈은,
상기 객체정보를 입출력 하는 객체정보 입출력부;
입력된 객체들 중 다른 객체들을 포함하는 영역으로 정의된 객체를 주 객체로 설정하고, 상기 주 객체의 영역 내에 포함된 객체들을 종속 객체로 설정하는 객체간 주종속 설정부; 및
상기 주 객체와 종속 객체를 하나의 그룹으로 저장하고 상기 객체정보 입출력부를 통해 상기 주 객체의 출력이 선택된 경우 상기 주 객체와 종속 객체를 함께 제공하는 객체정보 저장부를 포함하는 것을 특징으로 하는 영상 변환 시스템.6. The method of claim 5,
Wherein the object information extraction module comprises:
An object information input / output unit for inputting and outputting the object information;
An inter-object main dependency setting unit which sets an object defined as an area including other objects among the input objects as a main object and sets the objects included in the main object area as a dependent object; And
And an object information storage unit for storing the main object and the dependent object in one group and providing the main object and the dependent object together when the output of the main object is selected through the object information input / output unit. .
상기 2차원 영상에서 적어도 둘 이상의 객체를 정의한 객체정보를 입력 받는 단계;
상기 둘 이상의 객체에 대해 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장하는 단계;
상기 주 객체가 선택된 경우 상기 종속 객체도 함께 표시하는 단계;
상기 객체의 깊이정보를 입력받아 깊이 맵을 생성하는 단계; 및
상기 깊이 맵에 따라 상기 2차원 영상을 3차원 영상으로 렌더링하는 단계를 포함하는 영상 변환 방법.Displaying a two-dimensional image input for three-dimensional conversion in a three-dimensional space;
Receiving object information defining at least two objects in the two-dimensional image;
Storing a main object and a dependent object as a group by setting a dependency relation on the two or more objects;
Displaying the dependent object together when the main object is selected;
Receiving depth information of the object and generating a depth map; And
And rendering the two-dimensional image as a three-dimensional image according to the depth map.
상기 둘 이상의 객체에 대해 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장하는 단계는,
상기 입력된 객체들 중 다른 객체들을 포함하는 영역으로 정의된 객체를 주 객체로 설정하고, 상기 주 객체의 영역 내에 포함된 객체들을 종속 객체로 설정하는 단계를 포함하는 것을 특징으로 하는 영상 변환 방법.8. The method of claim 7,
Wherein the step of storing the main object and the dependent object as a group by setting a dependency relation for the two or more objects comprises:
Setting an object defined as an area including other objects among the input objects as a main object and setting objects included in an area of the main object as a dependent object.
상기 객체의 깊이정보를 입력받아 깊이 맵을 생성하는 단계는,
상기 객체의 Z값을 입력받아 상기 객체의 깊이정보를 인식하는 단계를 포함하는 것을 특징으로 하는 영상 변환 방법.8. The method of claim 7,
Wherein the step of generating the depth map by receiving the depth information of the object comprises:
And receiving the Z value of the object and recognizing the depth information of the object.
상기 둘 이상의 객체에 대해 종속관계를 설정하여 주 객체와 종속 객체를 설정하여 하나의 그룹으로 저장하는 단계;
상기 주 객체가 선택된 경우 상기 종속 객체도 함께 표시하는 단계;
상기 주 객체와 종속 객체의 깊이정보를 입력 받는 단계; 및
상기 각 객체에 입력된 깊이정보에 기초하여 깊이 맵을 생성하는 단계를 포함하는 깊이 맵 처리 방법.Receiving object information defining at least two objects in a two-dimensional image;
Setting a dependency relation between the two or more objects to set a main object and a dependent object, and storing the main object and the dependent object as a group;
Displaying the dependent object together when the main object is selected;
Receiving depth information of the main object and the dependent object; And
And generating a depth map based on the depth information input to each object.
상기 둘 이상의 객체에 대해 종속관계를 설정하여 주 객체와 종속 객체를 설정하여 하나의 그룹으로 저장하는 단계는,
상기 입력된 객체들 중 다른 객체들을 포함하는 영역으로 정의된 객체를 주 객체로 설정하고, 상기 주 객체의 영역 내에 포함된 객체들을 종속 객체로 설정하는 단계를 포함하는 것을 특징으로 하는 깊이 맵 처리 방법.11. The method of claim 10,
Setting a dependency relation between the two or more objects to set a main object and a dependent object, and storing the main object and the dependent object as a group,
Setting an object defined as an area including other objects among the input objects as a main object and setting objects included in an area of the main object as a dependent object, .
상기 2차원 영상에서 적어도 둘 이상의 객체를 정의한 객체정보를 입력 받는 단계; 상기 둘 이상의 객체에 대해 종속관계를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 저장하는 단계; 상기 주 객체가 선택된 경우 상기 종속 객체도 함께 표시하는 단계; 상기 객체의 깊이정보를 입력받아 깊이 맵을 생성하는 단계; 및 상기 깊이 맵에 따라 상기 2차원 영상을 3차원 영상으로 렌더링하는 단계를 포함하는 영상 처리 방법이 프로그램으로 기록되고 전자 장치에서 판독 가능한 기록매체.In converting a two-dimensional image into a three-dimensional image,
Receiving object information defining at least two objects in the two-dimensional image; Storing a main object and a dependent object as a group by setting a dependency relation on the two or more objects; Displaying the dependent object together when the main object is selected; Receiving depth information of the object and generating a depth map; And rendering the two-dimensional image as a three-dimensional image according to the depth map, wherein the image is recorded by a program and readable by an electronic device.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110125867A KR101390961B1 (en) | 2011-11-29 | 2011-11-29 | Conversion system for two dimensional image to three dimensional image, method thereof and recordable medium storing the method |
PCT/KR2012/009002 WO2013081304A1 (en) | 2011-11-28 | 2012-10-30 | Image conversion apparatus and method for converting two-dimensional image to three-dimensional image, and recording medium for same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110125867A KR101390961B1 (en) | 2011-11-29 | 2011-11-29 | Conversion system for two dimensional image to three dimensional image, method thereof and recordable medium storing the method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130059735A KR20130059735A (en) | 2013-06-07 |
KR101390961B1 true KR101390961B1 (en) | 2014-05-07 |
Family
ID=48858505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110125867A KR101390961B1 (en) | 2011-11-28 | 2011-11-29 | Conversion system for two dimensional image to three dimensional image, method thereof and recordable medium storing the method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101390961B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102286572B1 (en) * | 2015-03-04 | 2021-08-06 | 한국전자통신연구원 | Device and Method for new 3D Video Representation from 2D Video |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001526477A (en) | 1997-12-05 | 2001-12-18 | ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド | Image conversion and coding technology |
JP2009290905A (en) | 2009-09-10 | 2009-12-10 | Panasonic Corp | Displaying apparatus and method |
-
2011
- 2011-11-29 KR KR1020110125867A patent/KR101390961B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001526477A (en) | 1997-12-05 | 2001-12-18 | ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド | Image conversion and coding technology |
JP2009290905A (en) | 2009-09-10 | 2009-12-10 | Panasonic Corp | Displaying apparatus and method |
Also Published As
Publication number | Publication date |
---|---|
KR20130059735A (en) | 2013-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110675489B (en) | Image processing method, device, electronic equipment and storage medium | |
EP1958149B1 (en) | Stereoscopic image display method and apparatus, method for generating 3d image data from a 2d image data input and an apparatus for generating 3d image data from a 2d image data input | |
CN111832745B (en) | Data augmentation method and device and electronic equipment | |
JP6439214B2 (en) | Image processing apparatus, image processing method, computer program for image processing, and information recording medium storing image processing computer program | |
US20200258309A1 (en) | Live in-camera overlays | |
CN104574267A (en) | Guiding method and information processing apparatus | |
Zollmann et al. | Interactive 4D overview and detail visualization in augmented reality | |
CN107004256A (en) | The method and apparatus that real-time adaptive for noise depth or anaglyph is filtered | |
JP2017016663A (en) | Image composition method and device | |
KR20130091541A (en) | The method and apparatus for creating 3d image based on user interaction | |
KR101390961B1 (en) | Conversion system for two dimensional image to three dimensional image, method thereof and recordable medium storing the method | |
CN105163103B (en) | Stereo-picture is represented with stepped construction to analyze the technology of the target in image | |
US20110142336A1 (en) | Similar shader search apparatus and method using image feature extraction | |
KR101820456B1 (en) | Method And Apparatus for Generating Depth MAP | |
KR101071911B1 (en) | Method for creation 3 dimensional image | |
KR102082132B1 (en) | Device and Method for new 3D Video Representation from 2D Video | |
CN110524665B (en) | Method, device, medium and equipment for processing wooden products | |
CN107563958B (en) | Holographic image conversion method and system | |
KR102286572B1 (en) | Device and Method for new 3D Video Representation from 2D Video | |
JP2014071895A (en) | Object division device and method | |
KR101388668B1 (en) | Conversion device for two dimensional image to three dimensional image, method thereof and recordable medium storing the method | |
KR20130059733A (en) | Conversion device for two dimensional image to three dimensional image, method thereof and recordable medium storing the method | |
US20150124077A1 (en) | Charged particle beam adjustment assistance device and method | |
US8963928B2 (en) | Stereoscopic image processing apparatus and stereoscopic image processing method | |
KR101330523B1 (en) | Conversion device for two dimensional image to three dimensional image, method thereof and recordable medium storing the method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20170407 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20180413 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20190405 Year of fee payment: 6 |