KR101709974B1 - Method and System for Generating Depth Contour of Depth Map - Google Patents

Method and System for Generating Depth Contour of Depth Map Download PDF

Info

Publication number
KR101709974B1
KR101709974B1 KR1020140153108A KR20140153108A KR101709974B1 KR 101709974 B1 KR101709974 B1 KR 101709974B1 KR 1020140153108 A KR1020140153108 A KR 1020140153108A KR 20140153108 A KR20140153108 A KR 20140153108A KR 101709974 B1 KR101709974 B1 KR 101709974B1
Authority
KR
South Korea
Prior art keywords
depth map
depth
region
frame
quantization
Prior art date
Application number
KR1020140153108A
Other languages
Korean (ko)
Other versions
KR20160054157A (en
Inventor
조충상
고민수
신화선
강주형
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020140153108A priority Critical patent/KR101709974B1/en
Priority to PCT/KR2015/000974 priority patent/WO2016072559A1/en
Publication of KR20160054157A publication Critical patent/KR20160054157A/en
Application granted granted Critical
Publication of KR101709974B1 publication Critical patent/KR101709974B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

뎁스맵 등심선 생성 방법 및 시스템이 제공된다. 본 발명의 실시예에 따른 뎁스맵 등심선 생성 방법은, 뎁스맵의 뎁스값들을 다수의 양자화 단계들로 양자화 하고, 양자화된 뎁스맵에서 등심선을 생성한다. 이에 의해, 2D 영상 콘텐츠를 3D 영상 콘텐츠로 변환하는 과정에서, 뎁스맵 등심선을 자동으로 생성할 수 있게 되어, 수작업을 통해 그래픽툴에서 뎁스맵 경계의 곡선을 그리는 작업이 필요 없게 된다. 이에 의해, 필요한 인력의 감소는 물론, 작업 속도를 크게 향상시킬 수 있게 된다.A method and system for creating a depth map fillet line is provided. The depth map isomorphism generation method according to an embodiment of the present invention quantizes the depth values of a depth map into a plurality of quantization steps and generates an isomorphism in a quantized depth map. Accordingly, in the process of converting the 2D image contents to the 3D image contents, the depth map isomorphism can be automatically generated, so that it is not necessary to manually draw the curve of the depth map boundary in the graphic tool. This makes it possible to greatly reduce the required manpower and to greatly improve the working speed.

Description

뎁스맵 등심선 생성 방법 및 시스템{Method and System for Generating Depth Contour of Depth Map}TECHNICAL FIELD [0001] The present invention relates to a method and system for generating a depth map,

본 발명은 3D 영상 처리에 관한 것으로, 더욱 상세하게는 2D 영상 콘텐츠를 3D 영상 콘텐츠로 변환하는데 있어 필요한 뎁스맵을 생성하고 활용하는 방법에 관한 것이다.
The present invention relates to 3D image processing, and more particularly, to a method of generating and utilizing a depth map necessary for converting a 2D image content to a 3D image content.

수요에 비해 공급이 매우 부족하여, 3D 영상 콘텐츠의 부재가 심각한 현 상황에서, 3D 영상 변환 기술은 3D 영상 콘텐츠 확보 측면에서 그 중요성이 증대하고 있다.In the present situation where there is a serious lack of 3D image contents due to insufficient supply compared to the demand, the importance of 3D image conversion technology is increasing in terms of securing 3D image contents.

3D 영상 변환 기술은 아날로그나 디지털로 촬영된 기존의 2D 영상을 콘텐츠를 3D 영상 콘텐츠로 변환시키는 기술이다. 변환 기술의 기법들은 다양하지만 어느 방법이든 입력된 2D 영상에 포함된 단안 입체 정보를 해석하여 단안 영상의 뎁스를 추정한 뎁스맵을 생성하여 시차에 맞는 좌우 영상을 출력하는 것이 기본 원리이다.3D image conversion technology converts existing 2D images captured by analog or digital into content into 3D image content. Although the techniques of the conversion technique are various, in either method, the basic principle is to generate a depth map that estimates the depth of the monocular image by analyzing the monocular stereoscopic information included in the input 2D image and output the left and right images according to the time difference.

고화질을 유지하기 위해, 3D 영상 변환 기술은 매 프레임마다 모두 수작업을 거치고 있으며, 이 때문에 다수의 인력과 오랜 작업 시간이 소요되는 바, 궁극적으로는 3D 영상 콘텐츠의 생산성 문제가 시장 형성의 큰 걸림돌로 작용하고 있다.In order to maintain high image quality, the 3D image conversion technique is performed manually every frame, which requires a lot of manpower and long working time. As a result, the productivity problem of 3D image contents is a major obstacle to the formation of the market .

또한, 3D 영상 변환 작업은 매우 노동 집약적이라는 특징이 있다. 정밀한 변환 작업 시, 작업 과정에서 영상의 매 프레임마다 모두 수작업을 거쳐야하기 때문에 다수의 인력과 오랜 작업 시간이 필요하다. 완성도 높은 3D 영상을 원할수록 이러한 작업의 강도는 더욱 높아진다.Also, 3D image conversion work is very labor intensive. Precise conversion requires a lot of manpower and long working time because every frame of the image has to be manually manipulated during the work process. The more intricate 3D images the higher the intensity of these tasks.

2D 영상의 3D 영상 변환은 먼저 영상 정보를 분석해 사물과 배경, 전경과 후경 등을 분리하고, 각각의 사물과 배경에 대해 입체 값을 부여해 입체 영상으로 만들어내는 과정으로 이루어진다.3D image conversion of 2D image consists of the process of analyzing image information and separating object and background, foreground and background, and giving stereoscopic values to each object and background to produce stereoscopic image.

자동 방식에서는 사물과 배경의 분리, 뎁스값 부여가 자동으로 이루어지는 데 반해 수작업에서는 기술자의 노하우에 의거해 수동적인 작업을 거친다. 이러한 변환에는 오토 컨버팅(auto converting)과 수작업 혼합(semi-auto), 완전 수작업의 3가지 작업 방식이 있다.In the automatic method, separation of objects and backgrounds and assignment of depth values are performed automatically, whereas in manual work, manual work is performed based on know-how of the technician. There are three ways to do this: auto-converting, semi-auto, and fully manual.

오토 컨버팅은 변환 장치나 소프트웨어가 설치되어있으면 자동으로 변환해주기 때문에 비용이 저렴하지만 입체품질이 매우 낮다. 수작업으로 이루어지는 수동방식은 매우 우수한 입체감을 얻을 수 있지만, 많은 인력과 시간, 그리고 비용이 많이 든다는 단점이 있다.Autoconverting is cost-effective because it converts automatically when a conversion device or software is installed, but the stereoscopic quality is very low. The manual method, which is a manual method, can obtain a very good stereoscopic effect, but it has a disadvantage that it requires a lot of manpower, time and cost.

현재 진행되고 있는 기존 영화의 3D 영상으로의 변환은 대부분이 프레임 별로 작업하는 완전 수작업 방식으로 이루어지고 있다. 오토 컨버팅과 수작업 방식의 중간인 반자동 또는 혼합방식의 변환 방식의 시스템으로 작업하는 변환 업체들이 많으며, 작업량의 비율이 자동과 수동 중 어떤 방식에 더 비중을 두느냐에 따라달리 변환 작업을 하고 있는 시점이다.The conversion of the existing movie into the 3D image is performed in a completely manual manner, in which most of the operations are performed frame by frame. There are many conversion companies that work with semi-automatic or hybrid conversion system, which is the middle between auto conversion and manual mode, and it is time to convert differently depending on whether the ratio of workload is more automatic or manual .

앞으로도 자동으로 3D 영상으로 변환해주는 시스템은 발전할 것이나, 오토컨버팅 방식은 3D 영상 콘텐츠의 부재를 때우기 위한 일시적인 방편일 뿐 점점 사라질 것으로 예상되고 있다. 완성도 높은 변환 작업에는 수동방식의 장점을 살리고 단점을 극복할 수 있는 다양한 효율적인 기술의 개발이 필요하다.
In the future, a system that automatically converts 3D images will develop, but the auto-conversion method is expected to disappear only as a temporary measure to stop the absence of 3D image contents. A high-quality conversion process requires the development of a variety of efficient technologies that can take advantage of the manual approach and overcome the drawbacks.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 2D 영상 콘텐츠를 3D 영상 콘텐츠로 변환하는 과정에서, 연속적인 뎁스값을 갖는 뎁스맵으로부터 등심선을 생성하는 방법 및 장치를 제공함에 있다.
SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and apparatus for generating a bezel from a depth map having a continuous depth value in a process of converting a 2D image content to a 3D image content, .

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 뎁스맵 등심선 생성 방법은, 뎁스맵의 뎁스값들을 다수의 양자화 단계들로 양자화 하는 단계; 및 양자화된 뎁스맵에서 등심선을 생성하는 단계;를 포함한다.According to an aspect of the present invention, there is provided a method of generating a depth map of a depth map, the method comprising: quantizing depth values of a depth map into a plurality of quantization steps; And generating a bezel in the quantized depth map.

그리고, 상기 양자화 단계는, 뎁스맵의 뎁스값들을 선형 양자화 또는 비선형 양자화할 수 있다.The quantization step may linearly or nonlinearly quantize the depth values of the depth map.

또한, 본 발명의 일 실시예에 따른 뎁스맵 등심선 생성 방법은, 양자화된 뎁스맵의 경계 부분에 존재하는 페더를 제거하는 단계;를 더 포함할 수 있다.According to another aspect of the present invention, there is provided a method of generating a depth map of a depth map, the method including removing a feather at a boundary of a quantized depth map.

그리고, 본 발명의 일 실시예에 따른 뎁스맵 등심선 생성 방법은, 양자화된 뎁스맵에서 영역 크기가 임계 크기 보다 작은 영역을 페더 영역으로 설정하는 단계; 및 상기 페더 영역을 뎁스값 차이가 가장 작은 주변 영역의 뎁스값으로 변환하는 단계;를 더 포함할 수 있다.According to another aspect of the present invention, there is provided a depth map creating method for a depth map, the method comprising: setting a region having a region size smaller than a critical size in a quantized depth map as a feather region; And converting the feather region to a depth value of a surrounding region having a smallest depth value difference.

또한, 본 발명의 일 실시예에 따른 뎁스맵 등심선 생성 방법은, 상기 등심선의 굴곡점들을 추출하는 단계; 및 상기 굴곡점들 사이의 곡선을 다른 타입의 곡선으로 변환하는 단계;를 더 포함할 수 있다.According to another aspect of the present invention, there is provided a method of generating a depth map isometric line including extracting inflection points of the bezel; And converting the curve between the inflection points into another type of curve.

한편, 본 발명의 다른 실시예에 따른, 컴퓨터로 읽을 수 있는 기록매체에는, 뎁스맵의 뎁스값들을 다수의 양자화 단계들로 양자화 하는 단계; 및 양자화된 뎁스맵에서 등심선을 생성하는 단계;를 포함하는 것을 특징으로 하는 뎁스맵 등심선 생성 방법을 수행할 수 있는 프로그램이 기록된다.
According to another aspect of the present invention, there is provided a computer-readable recording medium having a plurality of quantization steps for quantizing depth values of a depth map, And generating an isomorphism in the quantized depth map. A program for performing a depth map isomorphism generation method is recorded.

이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 2D 영상 콘텐츠를 3D 영상 콘텐츠로 변환하는 과정에서, 뎁스맵 등심선을 자동으로 생성할 수 있게 되어, 수작업을 통해 그래픽툴에서 뎁스맵 경계의 곡선을 그리는 작업이 필요 없게 된다. 이에 의해, 필요한 인력의 감소는 물론, 작업 속도를 크게 향상시킬 수 있게 된다.As described above, according to the embodiments of the present invention, it is possible to automatically generate a depth map beautifying line in the process of converting a 2D image content to a 3D image content, so that a curve of a depth map boundary It is not necessary to draw the image. This makes it possible to greatly reduce the required manpower and to greatly improve the working speed.

또한, 본 발명의 실시예들에 따르면, 뎁스맵 등심선의 모든 구간을 베지어 곡선으로 변환하기 때문에 미세 보정이 용이하다는 장점이 있다.
In addition, according to the embodiments of the present invention, all intervals of the depth map is converted into Bezier curves, which facilitates fine correction.

도 1은 본 발명이 적용가능한 3D 콘텐츠 제작 방법의 설명에 제공되는 흐름도,
도 2는, 도 1의 부연 설명에 제공되는 도면,
도 3은 본 발명의 일 실시예에 따른, 뎁스맵 등심선 생성 방법의 설명에 제공되는 흐름도,
도 4는 뎁스맵 선형 양자화 결과를 예시한 도면,
도 5는 뎁스맵 비선형 양자화 결과를 예시한 도면,
도 6은 양자화된 뎁스맵의 페더를 나타낸 도면,
도 7은 양자화된 뎁스맵에 레이블링 기법을 이용하여 페더 영역을 추출한 결과를 예시한 도면,
도 8은 페더 영역을 제거하는 기법의 설명에 제공되는 도면,
도 9는 페더 영역이 제거된 양자화된 뎁스맵을 예시한 도면,
도 10은 양자화된 뎁스맵에서 양자화 단계별로 생성한 마스크를 도시한 도면,
도 11은 각 양자화 단계별 등심선을 나타낸 도면,
도 12는 양자화된 뎁스맵 등심선을 나타낸 도면,
도 13은 등심선 내 굴곡 정도를 계산하는 방법을 나타낸 도면,
도 14는 굴곡점 후보들에서 최종 굴곡점을 추출한 결과를 나타낸 도면,
도 15는 베지어 곡선을 이용하여 등심선을 재생성한 뎁스맵을 나타낸 도면, 그리고,
도 16은 본 발명의 다른 실시예에 따른 3D 콘텐츠 제작 시스템의 블럭도이다.
BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a flow chart provided in the description of a 3D content production method to which the present invention is applicable; Fig.
Fig. 2 is a diagram provided in a side view of Fig. 1,
Figure 3 is a flow chart provided in the description of a depth map isokinetic line generation method, according to an embodiment of the present invention;
4 is a diagram illustrating the result of depth map linear quantization,
5 is a diagram illustrating a result of a depth map nonlinear quantization,
6 is a diagram showing a feather of a quantized depth map,
7 is a diagram illustrating a result of extracting a feather region using a labeling technique in a quantized depth map,
8 is a diagram provided in the description of a technique for removing a feather region,
9 is a diagram illustrating a quantized depth map in which a feather region is removed,
FIG. 10 is a diagram showing masks generated for each quantization step in a quantized depth map,
FIG. 11 is a view showing isometric lines for each quantization step,
12 is a diagram showing a quantized depth map isosbene,
13 is a diagram showing a method of calculating the degree of bend in the isosbene,
14 is a diagram showing the result of extracting a final bending point from bending point candidates,
FIG. 15 is a view showing a depth map in which a bezier curve is reproduced,
16 is a block diagram of a 3D content production system according to another embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
Hereinafter, the present invention will be described in detail with reference to the drawings.

1. 3D 콘텐츠 제작1. 3D Content Production

도 1은 본 발명이 적용가능한 3D 콘텐츠 제작 방법의 설명에 제공되는 흐름도이다. 도시된 3D 콘텐츠 제작 방법은, 2D 콘텐츠로부터 3D 콘텐츠를 생성하는 과정이다.1 is a flow chart provided in the description of a 3D content production method to which the present invention is applicable. The illustrated 3D content production method is a process of generating 3D content from 2D content.

도 1에 도시된 바와 같이, 먼저 2D 영상 콘텐츠를 입력받아(S105), 샷(Shot) 단위로 분할한다(S110). S110단계에 의해 2D 영상 콘텐츠는 다수의 샷들로 분할된다. 동일 샷에 포함된 프레임들은 동일/유사한 배경을 갖는다.As shown in FIG. 1, first, the 2D image content is input (S105) and divided into shots (S110). In step S110, the 2D image content is divided into a plurality of shots. Frames included in the same shot have the same / similar background.

S110단계에서의 샷 분할은 전문 아티스트에 의한 수작업으로 수행될 수도 있고, 유사한 프레임들을 샷 단위로 구분하는 프로그램을 이용하여 자동으로 수행될 수도 있다.The shot division in step S110 may be performed manually by a professional artist, or may be performed automatically using a program for dividing similar frames into shot units.

이후, 하나의 샷을 선정하고(S115), 선정된 샷에서 키-프레임을 선정한다(S120). S115단계에서의 샷 선정은, 2D 영상 콘텐츠에서 샷의 시간 순서에 따라 순차적으로 자동 선정(즉, 첫 번째 샷을 먼저 선정하고, 이후 다음 샷을 선정)할 수 있음은 물론, 전문 아티스트의 판단에 의해 선정 순서를 다른 순서로 정할 수도 있다. 이하에서는, 샷 선정이 샷의 시간 순서 따라 순차적으로 이루어지는 것을 상정하겠다.Thereafter, one shot is selected (S115), and a key-frame is selected from the selected shot (S120). The shot selection in step S115 can be automatically selected sequentially (i.e., the first shot is selected first and then the next shot is selected) according to the time order of the shot in the 2D image content, The order of selection may be determined in a different order. Hereinafter, it is assumed that the shot selection is sequentially performed in accordance with the time sequence of the shot.

아울러, S120단계에서의 키-프레임 선정도 샷을 구성하는 프레임들 중 시간적으로 가장 앞선 프레임(즉, 첫 번째 프레임)을 키-프레임으로 자동 선정할 수 있음은 물론, 전문 아티스트의 판단에 의해 그 밖의 다른 프레임을 키-프레임으로 선정할 수도 있다. 이하에서는, 키-프레임이 샷의 첫 번째 프레임인 것을 상정하겠다.In addition, it is possible to automatically select the temporally preceding frame (i.e., the first frame) among the frames constituting the key-frame selection shot in step S120 as a key-frame, Other out-of-frame frames may be selected as key-frames. Hereinafter, it is assumed that the key-frame is the first frame of the shot.

다음, S120단계에서 선정된 키-프레임에 대한 뎁스맵(Depth Map)을 생성한다(S125). S125단계에서의 뎁스맵 생성 역시 프로그램을 이용한 자동 생성은 물론, 전문 아티스트의 수작업에 의한 생성도 가능하다.Next, in step S 120, a depth map for the selected key-frame is generated (S 125). The depth map generation in step S125 can be performed not only by the automatic generation using the program, but also by the manual operation of the professional artist.

이후, S125단계에서 생성된 뎁스맵의 등심선을 생성한다(S130). S130단계에서, 뎁스맵 등심선은 프로그램을 이용하여 뎁스맵을 뎁스에 따라, 다수의 양자화 단계들로 양자화 처리하여 생성한다.Thereafter, the depth map of the depth map generated in step S125 is generated (S130). In step S130, the depth map is generated by quantizing the depth map using a plurality of quantization steps according to the depth using a program.

다음, S130단계에서 생성된 등심선을 다음-프레임에 매치시키다(S135). 움직임 객체가 있거나 화각이 이동하여, 다음-프레임이 이전-프레임인 키-프레임과 다른 부분이 있는 경우, 키-프레임의 등심선은 다음-프레임에 정확히 매치되지 않는다.Next, the isoform created in step S130 is matched to the next-frame (step S135). If there is a motion object, the angle of view is shifted, and there is a portion of the keyframe that is different from the keyframe in which the next-frame is the previous-frame, the filler of the keyframe is not exactly matched to the next-frame.

이에 따라, 다음-프레임에 완전히 매치되도록, 등심선을 부분적으로 이동 처리(매치 무브)한다(S140). S140단계에서의 등심선 이동 처리 역시 프로그램을 이용하여 자동으로 수행된다. S140단계에 의해, 다음-프레임에 완전하게 매치된 등심선이 생성된다.Accordingly, the isosbian is partially moved (matched) so as to perfectly match the next-frame (S140). The isochronous moving process in step S140 is also automatically performed using the program. By step S140, a fully matched iso-line is generated in the next-frame.

이후, S140단계에서 매치 무브된 등심선을 기반으로, 다음-프레임의 뎁스맵을 생성한다(S145). S145단계에서 생성되는 다음-프레임의 뎁스맵은 양자화된 상태의 뎁스맵이다.Thereafter, in step S 140, a depth map of the next-frame is generated based on the matched bezel (S 145). The depth map of the next-frame generated in step S145 is a depth map of the quantized state.

이에, 뎁스맵을 보간하여, 다음-프레임의 뎁스맵을 완성한다(S150). S150단계에서의 뎁스맵 보간 처리 역시 프로그램을 이용하여 자동으로 수행된다.Then, the depth map is interpolated to complete the depth map of the next-frame (S150). The depth map interpolation process in step S150 is also automatically performed using a program.

S135단계 내지 S150단계는, 샷을 구성하는 모든 프레임들에 대해 완료될 때까지 반복된다(S155). 즉, 샷의 두 번째 프레임에 대한 뎁스맵이 완성되면, 두 번째 프레임의 등심선을 세 번째 프레임에 매치시키고(S135), 등심선 매치 무브를 수행한 후에(S140), 매치 무브된 등심선을 기반으로, 세 번째 프레임의 뎁스맵을 생성하고(S145), 보간을 통해 뎁스맵을 완성하게 되며(S150), 세 번째 프레임 이후의 프레임들에 대해서도 동일한 작업이 수행된다.Steps S135 to S150 are repeated until all frames constituting the shot are completed (S155). That is, when the depth map for the second frame of the shot is completed, the isoquadrature of the second frame is matched to the third frame (S135), the isochronous match move is performed (S140), and based on the match- The depth map of the third frame is generated (S145), and the depth map is completed through the interpolation (S150), and the same operation is performed on the frames after the third frame.

샷을 구성하는 모든 프레임들에 대해 뎁스맵 생성이 완료되면(S155-Y), 두 번째 샷에 대해 S115단계 내지 S155단계를 반복하며, 두 번째 샷을 구성하는 모든 프레임들에 대해 뎁스맵 생성이 완료되면, 이후의 샷들에 대해서도 동일한 작업이 수행된다.When the depth map generation for all the frames constituting the shot is completed (S155-Y), steps S115 to S155 are repeated for the second shot, and depth map generation is performed for all the frames constituting the second shot Once completed, the same operation is performed for subsequent shots.

2D 영상 콘텐츠를 구성하는 모든 샷들에 대해 위 절차가 완료되면(S160-Y), 지금까지 생성된 뎁스맵들을 이용하여, 2D 영상 콘텐츠를 구성하는 프레임들을 3D 변환처리한다(S165). 그리고, S165단계에서 변환처리 결과를 3D 영상 콘텐츠로 출력한다(S170).When the above procedure is completed for all the shots constituting the 2D image content (S160-Y), the 3D images of the frames constituting the 2D image content are converted using the depth maps generated so far (S165). Then, in step S165, the conversion processing result is output as the 3D image content (S170).

도 2는, 도 1의 부연 설명에 제공되는 도면이다. 도 2에는,Fig. 2 is a view provided in a side view of Fig. 1. Fig. 2,

1) S115단계에서 선정된 샷을 구성하는 프레임들 중 첫 번째 프레임을 키-프레임으로 선정하고(S120),1) The first frame among the frames constituting the shot selected in step S115 is selected as a key frame (S120)

2) 선정된 키-프레임에 대한 뎁스맵을 생성한 후에(S125),2) generating a depth map for the selected key-frame (S125)

3) 뎁스맵의 등심선을 추출하고(S130),3) Extract the isomorphism of the depth map (S130)

4) 추출한 등심선을 다음-프레임에 매치시켜, 매치 무브한 후(S135, S140),4) Match the extracted isosceles to the next-frame, perform match move (S135, S140)

5) 매치 무브된 등심선을 기반으로, 다음-프레임의 뎁스맵을 생성하고(S145),5) A depth map of the next-frame is generated based on the match-moved bezel (S145)

6) 생성된 뎁스맵을 보간하여, 다음-프레임의 뎁스맵을 완성(S150)하는 과정이 도식적으로 나타나 있다.
6) interpolating the generated depth map and completing the depth map of the next-frame (S150).

2. 2. 뎁스맵Depth map 등심선 생성 Crease

도 1과 도 2에 도시된 S130단계의 뎁스맵 등심선 생성 과정에 대해, 도 3을 참조하여 상세히 설명한다. 도 3은 본 발명의 일 실시예에 따른, 뎁스맵 등심선 생성 방법의 설명에 제공되는 흐름도이다.The process of generating the depth map of the depth map in step S130 shown in FIGS. 1 and 2 will be described in detail with reference to FIG. 3 is a flow chart provided in the description of a depth map isokinetic line generation method according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 먼저, 키-프레임의 뎁스맵을 입력받고(S131), 입력된 뎁스맵에 대해 선형 양자화(S132) 또는 비선형 양자화(S133)를 수행한다. S131단계에서 입력되는 뎁스맵에서 뎁스들값은 연속적인 반면, S132단계 또는 S133단계에 의해 뎁스맵의 뎁스값들은 다수의 양자화 단계들로 양자화 된다.As shown in FIG. 3, first, a depth map of a key frame is received (S131), and linear quantization (S132) or non-linear quantization (S133) is performed on the input depth map. Depth values in the depth map input in step S131 are continuous while depth values of the depth map are quantized into a plurality of quantization steps by step S132 or S133.

S132단계 또는 S133단계에 적용할 양자화 단계의 개수는 필요와 사양에 따라 지정할 수 있다.The number of quantization steps to be applied to step S132 or step S133 may be specified according to requirements and specifications.

이후, 양자화된 뎁스맵의 경계 부분들에 존재하는 페더를 제거하고(S134), 페더가 제거된 양자화된 뎁스맵에서 등심선을 추출한다(S135). S135단계에서 추출하는 등심선은 뎁스맵에서 동일한 뎁스값을 갖는 화소들을 연결한 선이다.Thereafter, the faders existing in the boundary portions of the quantized depth map are removed (S134), and the flesh lines are extracted from the quantized depth map from which the feather is removed (S135). The isosceles extracted in step S135 are lines connecting pixels having the same depth value in the depth map.

다음, 뎁스맵의 등심선에서 굴곡점들을 추출하고(S136), 굴곡점들 사이의 곡선을 베지어 곡선으로 변환하여(S137), 뎁스맵 등심선을 완성한다. S136단계에서 추출되는 굴곡점들은 등심선에서 방향 변화가 큰 지점들을 말한다.Next, the bending points are extracted from the isosceles of the depth map (S136), and the curve between the bending points is converted into a Bezier curve (S137) to complete the depth map fillet. The inflection points extracted in step S136 refer to points having a large change in direction from the bezel.

S137단계에서의 변환은, 2개의 굴곡점들과 그 사이의 1/4, 3/4 지점의 중간점을 계산하여, 총 4개의 포인트를 이용하여 3차 베지어 커브의 제어 포인트들을 계산하고, 계산된 제어 포인트들을 이용하여 베지어 곡선으로 변환하는 과정에 의한다.In the conversion in step S137, the control points of the cubic Bezier curve are calculated using the total of four points by calculating the two inflection points and the midpoint between the 1/4 and 3/4 points therebetween, And transforming it into a Bezier curve using the calculated control points.

이하에서, 도 3을 구성하는 단계들에 대해, 보다 구체적으로 설명한다.
Hereinafter, the steps constituting Fig. 3 will be described in more detail.

3. 키-프레임 3. Key-frame 뎁스맵Depth map 선형 양자화 Linear quantization

키-프레임 뎁스맵 선형 양자화는, 사용자가 설정한 양자화 단계의 개수에 따라 뎁스맵의 뎁스값 범위를 동일한 크기로 구분하여 뎁스맵을 양자화 하는 기법으로 아래의 식 (1)로 나타낼 수 있다.The key-frame depth map linear quantization is a technique of quantizing the depth map by dividing the depth value range of the depth map into the same size according to the number of quantization steps set by the user, and can be represented by the following equation (1).

Figure 112014106762719-pat00001
(1)
Figure 112014106762719-pat00001
(One)

여기서, x는 입력된 키-프레임 뎁스맵의 뎁스값을 나타내며 xMax, xMin은 각 각 뎁스맵에서의 최고 뎁스값, 최소 뎁스값을 나타낸다. 그리고, step은 양자화 단계의 개수를 나타내며 Δ는 양자화 단계의 크기를 나타낸다. 마지막으로, Q(x)는 양자화된 뎁스값을 나타낸다.Here, x represents the depth value of the input key-frame depth map, and x Max and x Min represent the maximum depth value and the minimum depth value of each depth map, respectively. And, step represents the number of quantization steps and? Represents the size of the quantization step. Finally, Q (x) represents the quantized depth value.

위 식 (1)로 표현된 바와 같이, 양자화 단계의 크기는, 뎁스맵에서의 최고 뎁스값과 최소 뎁스값을 파악하고, 이들의 차를 사용자가 설정한 양자화 단계의 개수로 나누어 산출함을 알 수 있다.As expressed by the above equation (1), the size of the quantization step is calculated by grasping the maximum depth value and the minimum depth value in the depth map and dividing the difference by the number of quantization steps set by the user .

위 식 (1)을 이용하면, 입력된 키-프레임 뎁스맵이 나타낼수 있는 뎁스값의 범위를 동일한 크기의 양자화 단계로 구분한 양자화 뎁스맵을 얻을 수 있다. 도 4에는 선형 양자화 기법을 통해 얻은 양자화 뎁스맵과 그 히스토그램을 나타내었다. 도 4에서, (a)는 입력된 키-프레임 뎁스맵이고, (b)는 양자화 단계의 크기를 10으로 설정하여 선형 양자화한 뎁스맵이며, (c)는 양자화 단계의 크기를 20으로 설정하여 선형 양자화한 뎁스맵이다.
Using the above equation (1), it is possible to obtain a quantization depth map in which the range of the depth values that can be represented by the input key-frame depth map is divided into quantization steps of the same size. FIG. 4 shows a quantization depth map obtained by linear quantization and a histogram thereof. 4, (a) is an input key-frame depth map, (b) is a depth map in which the size of the quantization step is set to 10, and (c) It is a linear quantized depth map.

4. 키-프레임 4. Key-frame 뎁스맵Depth map 비선형 양자화 Nonlinear quantization

키-프레임 뎁스맵 비선형 양자화는, 사용자가 설정한 양자화 단계의 개수에 따라 각 양자화 단계의 크기를 키-프레임 뎁스맵에 최적화된 크기로 계산하여 키-프레임 뎁스맵을 양자화하는 기법이다.The key-frame depth map nonlinear quantization is a technique for quantizing the key-frame depth map by calculating the size of each quantization step according to the number of quantization steps set by the user, to an optimum size for the key-frame depth map.

최적화된 양자화 단계의 크기를 계산하기 위해 K-means 군집화 기법을 사용할 수 있다. 아래의 (2)는 K-Means 군집화 기법을 이용한 키-프레임 뎁스맵 비선형 양자화의 식을 나타낸다.A K-means clustering technique can be used to calculate the size of the optimized quantization step. The following (2) shows the expression of the key-frame depth map nonlinear quantization using the K-Means clustering technique.

Figure 112014106762719-pat00002
(2)
Figure 112014106762719-pat00002
(2)

여기서, k는 양자화 단계의 개수를 나타내며, μi는 i번째 양자화 단계의 평균값을 나타낸다. 또한, Si는 i번째 양자화 단계에 속하는 화소들의 집합을 나타내며, xj는 집합에 속하는 화소의 뎁스값을 나타낸다. 그리고, V는 전체 분산을 나타낸다.Here, k represents the number of quantization steps and μ i represents an average value of the i-th quantization step. Also, S i denotes a set of pixels belonging to the i-th quantization step, and x j denotes a depth value of a pixel belonging to the set. V represents the total dispersion.

키-프레임 뎁스맵 비선형 양자화는, 사용자가 설정한 양자화 단계의 개수에 따라 양자화 단계의 크기를 동일하게 나누고, 각 단계의 중심값을 양자화 단계의 초기 평균값들로 정한다. 이후, 뎁스맵의 각 화소들을 초기 평균값들과 비교하여 가장 가까운 값을 찾고 그 양자화 단계의 집합으로 구분한다. 그리고, 전체 뎁스맵이 구분되면 각 양자화 단계에 속한 집합의 평균값을 다시 계산하여 양자화 단계의 평균값으로 갱신한다. 이 과정을 현재의 평균값들과 갱신된 평균값들이 변하지 않거나 전체 분산값이 더 이상 작아지지 않을 때까지 반복한다. 모든 과정이 완료되면 양자화 단계의 집합에 속한 화소들을 그 집합의 평균값으로 대체하여 비선형 양자화를 수행한다.The key-frame depth map nonlinear quantization divides the quantization step size equally according to the number of quantization steps set by the user, and sets the center value of each step as the initial average values of the quantization step. Then, each pixel of the depth map is compared with the initial average values, and the nearest value is found and classified into a set of the quantization steps. If the entire depth map is classified, the average value of the sets belonging to each quantization step is calculated again and updated to the average value of the quantization step. This process is repeated until the current average values and the updated average values do not change or the total variance value no longer decreases. When all the processes are completed, nonlinear quantization is performed by replacing the pixels belonging to the set of quantization steps with the average value of the set.

도 5에는 비선형 양자화 기법을 통해 얻은 양자화 뎁스맵과 그 히스토그램을 나타내었다. 도 5에서, (a)는 입력된 키-프레임 뎁스맵이고, (b)는 양자화 단계의 크기를 10으로 설정하여 비선형 양자화한 뎁스맵이며, (c)는 양자화 단계의 크기를 20으로 설정하여 비선형 양자화한 뎁스맵이다.
FIG. 5 shows a quantization depth map obtained by nonlinear quantization and a histogram thereof. 5, (a) is an input key-frame depth map, (b) is a non-linear quantized depth map by setting the size of the quantization step to 10, (c) It is a non-linear quantized depth map.

5. 양자화된 5. Quantized 뎁스맵의Depth map 페더Feather 제거 remove

원본 뎁스맵의 경계에는 부드러운 변화를 위한 페더 영역이 존재한다. 선형 또는 비선형 양자화 기법을 통해 생성된 양자화 뎁스맵의 경계 부분에는 페더 영역이 작은 영역들로 나타난다. At the boundary of the original depth map, there is a feather area for smooth change. The feather region appears as small regions at the boundary of the quantization depth map generated by the linear or nonlinear quantization technique.

도 6에는 양자화된 뎁스맵의 페더를 나타내었다. 도 6의 (a)에는 원본 뎁스맵을, (b)에는 양자화된 뎁스맵을 각각 나타내었다.FIG. 6 shows a feather of a quantized depth map. Fig. 6 (a) shows the original depth map, and Fig. 6 (b) shows the quantized depth map.

양자화된 뎁스맵에서 페더 영역을 추출하기 위해, 레이블링 기법을 이용한다. 레이블링 기법은 영상에서 주변 화소와 연속으로 같은 값을 갖는 영역을 하나의 영역으로 분리하는 기법이다. 레이블링 기법을 이용하여 양자화된 뎁스맵을 각각의 영역으로 분리하면, 페더들은 주변 뎁스값들과 다른 뎁스값을 갖기 때문에 하나의 작은 영역으로 분리된다.To extract the feather region from the quantized depth map, a labeling technique is used. The labeling technique is a technique for separating regions having the same value continuously into neighboring pixels in an image into one region. When the quantized depth map is divided into the respective regions using the labeling technique, the featherers are separated into one small region because they have different depth values from the surrounding depth values.

페더 영역은 페더 영역이 아닌 다른 영역과는 다르게 매우 작은 영역이기 때문에 영역에 속한 화소 수가 매우 작은 특징이 있다. 따라서, 레이블링 기법으로 분리된 영역에 속한 화소 수가 일정 임계치보다 작을 경우 페더 영역으로 추출한다.Since the feather region is a very small region unlike the other region than the feather region, the number of pixels belonging to the region is very small. Therefore, if the number of pixels belonging to the separated region by the labeling technique is smaller than a certain threshold value, it is extracted as a feather region.

도 7에는 양자화된 뎁스맵에 레이블링 기법을 이용하여 페더 영역을 추출한 예를 나타내었다. 도 7의 (a)에는 레이블링으로 페더 영역을 추출한 결과를 나타내었고, 도 7의 (b)에는 페더 영역을 확대하여 나타내었다.FIG. 7 shows an example of extracting a feather region using a labeling technique in a quantized depth map. FIG. 7A shows a result of extracting the feather region by labeling, and FIG. 7B shows an enlarged view of the feather region.

도 8은 페더 영역을 제거하는 기법의 설명에 제공되는 도면이다. 도 8에서, A 영역은 페더 영역을 나타내고, B 영역과 C 영역은 비-페더 영역(페더가 아닌 영역)을 나타낸다.8 is a diagram provided in the description of a technique for removing a feather region. In Fig. 8, the area A represents a feather area, and the area B and the area C represent non-feather areas (non-feather areas).

페더 영역을 제거하기 위해, 페더 영역인 A 영역의 주변 화소의 뎁스값을 탐색하고, 탐색된 뎁스값과 페더 영역의 뎁스값의 차이값을 구한다. 그리고, 가장 작은 차이값을 보이는 주변 화소의 뎁스값으로 페더 영역의 뎁스값을 대체하여 페더 영역을 제거 한다.In order to remove the feather area, the depth value of the surrounding pixels of the area A, which is the feather area, is searched, and the difference value between the searched depth value and the depth value of the feather area is obtained. Then, the depth value of the feather region is replaced with the depth value of the neighboring pixel having the smallest difference value to remove the feather region.

이 기법에 의해 페더 영역이 제거된 양자화된 뎁스맵을 도 9에 예시하였다. 도 9의 (a)에는 페더 영역이 제거되지 않은 양자화된 뎁스맵을 나타내었고, 도 9의 (b)에는 페더 영역이 제거된 양자화된 뎁스맵을 나타내었다.
A quantized depth map in which the feather region is removed by this technique is illustrated in FIG. FIG. 9A shows a quantized depth map in which a feathered area is not removed, and FIG. 9B shows a quantized depth map in which a feathered area is removed.

6. 양자화 6. Quantization 뎁스맵Depth map 기반 등심선 추출 Based bechle extraction

양자화 뎁스맵 기반 등심선 추출은, 페더가 제거된 양자화 뎁스맵에서 같은 뎁스값을 갖는 영역을 잇는 폐곡선을 생성하는 과정이다.The quantization depth map based isilluminated line extraction is a process of generating a closed curve connecting a region having the same depth value in the quantization depth map from which the feather is removed.

이를 위해, 도 10에 도시된 바와 같이, 먼저 양자화된 뎁스맵에서 양자화 단계별로 마스크를 생성한다. 다음, 도 11에 도시된 바와 같이, 각 양자화 단계별로 생성된 마스크에서 외곽선 추출을 수행한다. 이에 의해, 각 양자화 단계별 등심선을 얻을 수 있다.To this end, as shown in FIG. 10, a mask is first generated for each quantization step in the quantized depth map. Next, as shown in FIG. 11, an outline is extracted from the mask generated for each quantization step. By doing this, it is possible to obtain the isochronous line for each quantization step.

이후, 각 양자화 단계별로 등심선을 통합하면, 도 12에 도시된 바와 같이, 양자화된 뎁스맵 등심선을 얻을 수 있게 된다.
Then, when the isomensis lines are integrated for each quantization step, a quantized depth map isomorphism can be obtained as shown in FIG.

7. 등심선 내 굴곡점 추출7. Extraction of bending point in the bony line

굴곡점은 등심선에서 방향의 변화가 큰 지점을 의미한다. 추출된 등심선에서 각각의 곡선을 구분하기 위해 굴곡점을 추출한다. 도 13에 등심선 내 굴곡 정도를 계산하는 방법을 나타내었고, 아래의 식 (3)은 등심선 내의 기준 화소의 굴곡정도를 계산하는 식이다.The inflection point means a point where the change in direction from the bezoar line is large. Extraction points are extracted in order to distinguish each curve from the extracted bechymetry. Fig. 13 shows a method of calculating the degree of bend in the biceps, and Equation (3) below calculates the degree of bending of the reference pixels in the biceps.

Figure 112014106762719-pat00003
(3)
Figure 112014106762719-pat00003
(3)

여기서, D는 기준 화소의 굴곡 정도를 나타낸다. 그리고, FV는 기준 화소 이전의 화소들의 방향 성분 분포를 나타내고, PV는 기준 화소 이후들의 화소의 방향 성분 분포를 나타낸다. WH와 WL은 각각 기준 화소의 방향과 가장 비슷한 방향의 가중치와 기준 화소의 방향과 가장 다른 방향의 가중치를 나타내며, S는 기준 화소 이전, 이후의 방향 분포를 계산할 화소수를 나타내고, d는 기준 화소와의 거리를 나타낸다. 마지막으로 Bi ,d는 d 거리에 있는 화소가 i 방향이면 1의 값, 아니면 0의 값을 갖는다. 등심선의 한 화소의 굴곡 정도를 구하기 위해 앞, 뒤의 화소들의 방향 변화 분포를 계산하며 앞, 뒤의 분포의 차이값을 구해서 기준 화소의 방향 변화의 정도를 계산할 수 있다. 등심선 내의 모든 화소에 대해 굴곡 정도 D를 계산하고 이값이 일정 임계치를 넘을 경우 그 화소를 굴곡점 후보로 정한다.Here, D represents the degree of bending of the reference pixel. And, FV represents the direction component distribution of the pixels before the reference pixel, and PV represents the direction component distribution of the pixels after the reference pixel. W H and W L represent the weights in the direction most similar to the direction of the reference pixel and the weight in the direction most different from the direction of the reference pixel, S denotes the number of pixels to calculate the direction distribution before and after the reference pixel, Represents the distance from the reference pixel. Finally, B i , d has a value of 1 if the pixel at distance d is i-direction, or 0 otherwise. In order to obtain the degree of bending of one pixel of the bezel, it is possible to calculate the direction change distribution of the pixels before and after and calculate the difference of the direction of the reference pixel by obtaining the difference value of the distribution before and after. The degree of bend D is calculated for all the pixels in the bezel line, and when the value exceeds a certain threshold value, the pixel is determined as the bending point candidate.

굴곡점 후보들은 등심선에 변화가 시작되는 부분부터 연속적으로 나타난다. 따라서, 연속적인 굴곡점 후보들에서 최대 굴곡 정도를 갖는 굴곡점 후보를 최종 굴곡점으로 추출한다. 도 14에는 굴곡점 후보들에서 최종 굴곡점을 추출한 결과를 나타내었다. 구체적으로, 도 14의 (a)에는 굴곡점 후보들을 녹색으로 나타내었고, 도 14의 (b)에는 최종 굴곡점을 녹색으로 나타내었다.
The flexion point candidates appear consecutively from the beginning of the change in the wrist line. Therefore, the bending point candidate having the maximum bending degree in the continuous bending point candidates is extracted as the final bending point. Fig. 14 shows the result of extracting the final bending point from the bending point candidates. Specifically, Fig. 14 (a) shows the bending point candidates in green, and Fig. 14 (b) shows the final bending point in green.

8. 굴곡점 사이 곡선의 8. Curve between inflection points 베지어Bezier 곡선 변환 Curve transformation

각 양자화 단계의 등심선은 추출된 굴곡점을 양끝점으로 하여 각각의 곡선들로 나눌 수 있는데, 이 곡선들을 각각 3차 베지어 곡선으로 변환한다. 본 발명의 실시예에서는 양끝의 굴곡점과 그 사이의 중간점을 계산하고, 이 점들을 이용하여 베지어 곡선 식을 추정한다. 이를 통해, 추청된 베지어 곡선의 제어 포인트들을 얻는다. 아래의 식 (4)는 3차 베지어 곡선의 식을 나타낸다.The isosceles of each quantization step can be divided into respective curves with the extracted bending point as both ends, and these curves are converted into cubic Bezier curves, respectively. In the embodiment of the present invention, the bending point of the both ends and the midpoint between them are calculated, and the Bezier curve equation is estimated using these points. This gives the control points of the estimated Bezier curve. The following equation (4) represents the equation of the cubic Bezier curve.

Figure 112014106762719-pat00004
(4)
Figure 112014106762719-pat00004
(4)

여기서, P는 베지어 곡선의 제어 포인트를 나타내며, t는 0~1사이의 곡선의 변화구간을 나타낸다. 마지막으로, B(t)는 t구간일 때 베지어 곡선의 포인트를 나타낸다. 식 (4)를 식 (5)와 같이 t값을 나타내는 T행렬, 제어 포인트를 나타내는 P행렬, t의 계수들을 나타내는 M행렬들의 곱의 형태로 나타낼 수 있다. 행렬의 곱의 형태로 변환하면 식 (6)과 같이 나타낼 수 있다.Here, P represents the control point of the Bezier curve, and t represents the change period of the curve between 0 and 1. Finally, B (t) represents the point of the Bezier curve at time t. Equation (4) can be expressed in the form of a product of a T matrix representing t values, a P matrix representing control points, and M matrices representing coefficients of t as in equation (5). (6) can be expressed as the product of matrix multiplication.

Figure 112014106762719-pat00005
(5)
Figure 112014106762719-pat00005
(5)

Figure 112014106762719-pat00006
(6)
Figure 112014106762719-pat00006
(6)

아래의 식 (7)과 같이 입력으로 받는 양끝의 굴곡점과 그 사이의 중간점들의 행렬인 K는 다시 x성분과 y성분으로 각각 나누어 생각할 수 있다. 본 발명의 실시예에서는 중간점으로 1/4, 3/4 지점의 2개의 값을 계산하여 총 4개의 점을 입력으로 사용한다.As shown in the following equation (7), K, the matrix of the midpoints between the bending points of the both ends received by the input, can be considered as the x component and the y component separately. In the embodiment of the present invention, two values of 1/4 and 3/4 points are calculated as intermediate points, and a total of four points are used as inputs.

Figure 112014106762719-pat00007
(7)
Figure 112014106762719-pat00007
(7)

아래의 식 (8)과 같이 입력된 점들의 값들과 곡선의 처음과 끝인 굴곡점을 이용하여 비율을 계산하면 그 입력 점의 대략적인 t값을 구할 수가 있다. 모든 입력 점들에 대해 t값을 각각 구해 이를 행렬로 나타내면 아래의 식 (9)와 같다.If the ratio is calculated using the values of the input points and the curved points at the beginning and end of the curve as shown in the following equation (8), the approximate t value of the input point can be obtained. The t values for all input points are obtained and expressed as a matrix, as shown in the following equation (9).

Figure 112014106762719-pat00008
(8)
Figure 112014106762719-pat00008
(8)

Figure 112014106762719-pat00009
(9)
Figure 112014106762719-pat00009
(9)

최적의 곡선을 만들기 위해 실제 등심선의 점들과 베지어 곡선을 통해 복원한 점들과의 화소 위치 차이를 구해서 생성한 베지어 곡선의 오차를 계산한다. 식 (10)은 y성분에 대해 오차를 구하는 식을 나타내며 이를 행렬의 계산으로 정리한 식 또한 나타낸다.To create an optimal curve, we calculate the error of the Bezier curve by calculating the pixel position difference between the points of the actual isokinos and the restored points through the Bezier curve. Equation (10) shows the formula for obtaining the error with respect to the y component and also shows the formula summarized by the matrix calculation.

Figure 112014106762719-pat00010
(10)
Figure 112014106762719-pat00010
(10)

식 (10)에서 오차값이 최소가 될 때의 Py행렬의 값이 최적의 베지어 곡선의 제어 포인트의 y성분이 된다. 식 (11)은 최소오차 기반의 Py의 값을 구하는 과정을 나타낸다.The value of the Py matrix when the error value is minimized in Eq. (10) becomes the y component of the control point of the optimal Bezier curve. Equation (11) shows the process of obtaining the value of Py based on the minimum error.

Figure 112014106762719-pat00011
(11)
Figure 112014106762719-pat00011
(11)

계산을 통해 최적의 베지어 곡선의 y성분 포인트를 얻었다면 입력을 x성분으로 바꾸여 같은 과정을 반복하면 최적의 x성분 또한 얻을 수 있다. 도 15는 변환된 베지어 곡선의 포인트들을 이용하여 등심선을 재생성한 뎁스맵을 나타내었다.
If we obtain the y component point of the optimal Bezier curve through calculation, we can obtain the optimal x component by changing the input to x component and repeating the same process. FIG. 15 shows a depth map regenerating the bezel using points of the converted Bezier curve.

9. 3D 콘텐츠 제작 시스템9. 3D content production system

도 16은 본 발명의 다른 실시예에 따른 3D 콘텐츠 제작 시스템의 블럭도이다. 본 발명의 실시예에 따른 3D 콘텐츠 제작 시스템(200)은, 도 16에 도시된 바와 같이, 2D 영상 입력부(210), 뎁스맵 생성부(220), 3D 변환부(230) 및 3D 영상 출력부(240)를 포함한다.16 is a block diagram of a 3D content production system according to another embodiment of the present invention. 16, a 3D content production system 200 according to an exemplary embodiment of the present invention includes a 2D image input unit 210, a depth map generation unit 220, a 3D conversion unit 230, (240).

뎁스맵 생성부(220)는 키-프레임 뎁스맵을 이용하여, 2D 영상 입력부(210)를 통해 입력되는 2D 영상 프레임들의 뎁스맵을 생성한다. 키-프레임 뎁스맵은, 2D 영상에서 샷 마다 하나씩 생성되는데, 프로그램에 의한 자동 생성은 물론, 전문 아티스트에 의한 수동 생성 모두가 가능하다.The depth map generator 220 generates a depth map of 2D image frames input through the 2D image input unit 210 using the key-frame depth map. The key-frame depth map is generated one by one for each shot in a 2D image, which can be generated both by a program and by a professional artist.

뎁스맵 생성부(220)는 키-프레임 뎁스맵의 등심선을 추출하고, 추출한 등심선을 다음-프레임에 매치시켜 매치 무브한 후, 매치 무브된 등심선을 기반으로 다음-프레임의 뎁스맵을 생성하고 보간하여 다음-프레임의 뎁스맵을 완성하는 절차에 의해, 2D 영상 프레임들에 대한 뎁스맵들을 생성한다.The depth map generator 220 extracts the isosceles of the key-frame depth map, matches the extracted isosceles to the next-frame and performs a match move, generates a depth map of the next-frame based on the match- Thereby generating depth maps for the 2D image frames by a procedure of completing the depth map of the next-frame.

3D 변환부(230)는 뎁스맵 생성부(220)에서 생성된 뎁스맵들을 이용하여, 2D 영상 프레임들을 3D 변환처리한다. 그리고, 3D 영상 출력부(240)는 3D 변환부(230)에 의한 변환처리 결과를 3D 영상으로 출력한다.
The 3D conversion unit 230 performs 3D conversion processing on the 2D image frames using the depth maps generated by the depth map generation unit 220. The 3D image output unit 240 outputs the result of the conversion process performed by the 3D conversion unit 230 as a 3D image.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

200 : 3D 콘텐츠 제작 시스템
210 : 2D 영상 입력부
220 : 뎁스맵 생성부
230 : 3D 변환부
240 : 3D 영상 출력부
200: 3D content production system
210: 2D image input unit
220: Depth map generation unit
230: 3D conversion unit
240: 3D image output unit

Claims (6)

뎁스맵의 뎁스값들을 다수의 양자화 단계들로 양자화 하는 단계;
양자화된 뎁스맵에서 영역 크기가 임계 크기 보다 작은 영역을 페더 영역으로 설정하는 단계;
상기 페더 영역을 뎁스값 차이가 가장 작은 주변 영역의 뎁스값으로 변환하는 단계;
상기 변환단계에 의해 변환된 뎁스맵에서 등심선을 생성하는 단계;
상기 등심선의 굴곡점들을 추출하는 단계; 및
상기 굴곡점들 사이의 곡선을 다른 타입의 곡선으로 변환하는 단계;를 포함하는 것을 특징으로 하는 뎁스맵 등심선 생성 방법.
Quantizing the depth values of the depth map into a plurality of quantization steps;
Setting a region having a region size smaller than a critical size in a quantized depth map as a feather region;
Converting the feather region into a depth value of a surrounding region having a smallest depth value difference;
Generating a bezel in the depth map transformed by the transforming step;
Extracting inflection points of the bezel; And
And converting a curve between the inflection points into another type of curve.
청구항 1에 있어서,
상기 양자화 단계는,
뎁스맵의 뎁스값들을 선형 양자화 또는 비선형 양자화하는 것을 특징으로 하는 뎁스맵 등심선 생성 방법.
The method according to claim 1,
Wherein the quantization step comprises:
Wherein the depth map is generated by linearly quantizing or non-linearly quantizing the depth values of the depth map.
삭제delete 삭제delete 삭제delete 뎁스맵의 뎁스값들을 다수의 양자화 단계들로 양자화 하는 단계; 및
양자화된 뎁스맵에서 영역 크기가 임계 크기 보다 작은 영역을 페더 영역으로 설정하는 단계;
상기 페더 영역을 뎁스값 차이가 가장 작은 주변 영역의 뎁스값으로 변환하는 단계;
상기 변환단계에 의해 변환된 뎁스맵에서 등심선을 생성하는 단계;
상기 등심선의 굴곡점들을 추출하는 단계; 및
상기 굴곡점들 사이의 곡선을 다른 타입의 곡선으로 변환하는 단계;를 포함하는 것을 특징으로 하는 뎁스맵 등심선 생성 방법을 수행할 수 있는 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체.
Quantizing the depth values of the depth map into a plurality of quantization steps; And
Setting a region having a region size smaller than a critical size in a quantized depth map as a feather region;
Converting the feather region into a depth value of a surrounding region having a smallest depth value difference;
Generating a bezel in the depth map transformed by the transforming step;
Extracting inflection points of the bezel; And
And converting the curved line between the curved points into another type of curved line. A computer-readable recording medium having recorded thereon a program for performing the method.
KR1020140153108A 2014-11-05 2014-11-05 Method and System for Generating Depth Contour of Depth Map KR101709974B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140153108A KR101709974B1 (en) 2014-11-05 2014-11-05 Method and System for Generating Depth Contour of Depth Map
PCT/KR2015/000974 WO2016072559A1 (en) 2014-11-05 2015-01-29 3d content production method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140153108A KR101709974B1 (en) 2014-11-05 2014-11-05 Method and System for Generating Depth Contour of Depth Map

Publications (2)

Publication Number Publication Date
KR20160054157A KR20160054157A (en) 2016-05-16
KR101709974B1 true KR101709974B1 (en) 2017-02-27

Family

ID=56108949

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140153108A KR101709974B1 (en) 2014-11-05 2014-11-05 Method and System for Generating Depth Contour of Depth Map

Country Status (1)

Country Link
KR (1) KR101709974B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101089344B1 (en) 2010-07-26 2011-12-02 주식회사 에이스엠이 Method for transforming mono image to 3d image using the depth map generated by equalizing technique
WO2013081304A1 (en) * 2011-11-28 2013-06-06 에스케이플래닛 주식회사 Image conversion apparatus and method for converting two-dimensional image to three-dimensional image, and recording medium for same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8330801B2 (en) * 2006-12-22 2012-12-11 Qualcomm Incorporated Complexity-adaptive 2D-to-3D video sequence conversion
KR20110135786A (en) * 2010-06-11 2011-12-19 삼성전자주식회사 Method and apparatus for encoding/decoding 3d video using depth transition data

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101089344B1 (en) 2010-07-26 2011-12-02 주식회사 에이스엠이 Method for transforming mono image to 3d image using the depth map generated by equalizing technique
WO2013081304A1 (en) * 2011-11-28 2013-06-06 에스케이플래닛 주식회사 Image conversion apparatus and method for converting two-dimensional image to three-dimensional image, and recording medium for same

Also Published As

Publication number Publication date
KR20160054157A (en) 2016-05-16

Similar Documents

Publication Publication Date Title
CN108986050B (en) Image and video enhancement method based on multi-branch convolutional neural network
US10542249B2 (en) Stereoscopic video generation method based on 3D convolution neural network
JP4954206B2 (en) Cut and paste video objects
CN111968217B (en) SMPL parameter prediction and human body model generation method based on picture
CN106846376B (en) Three-dimensional automatic camera track smoothing method
CN111915531A (en) Multi-level feature fusion and attention-guided neural network image defogging method
CN107507146B (en) Natural image soft shadow elimination method
CN101287142A (en) Method for converting flat video to tridimensional video based on bidirectional tracing and characteristic points correction
WO2018053952A1 (en) Video image depth extraction method based on scene sample library
CN106056607A (en) Monitoring image background modeling method based on robustness principal component analysis
CN110120034B (en) Image quality evaluation method related to visual perception
CN102609950A (en) Two-dimensional video depth map generation process
CN102457724A (en) Image motion detecting system and method
CN112132797A (en) Short video quality screening method
CN109978858B (en) Double-frame thumbnail image quality evaluation method based on foreground detection
KR20110112143A (en) A method for transforming 2d video to 3d video by using ldi method
KR101709974B1 (en) Method and System for Generating Depth Contour of Depth Map
CN111260706B (en) Dense depth map calculation method based on monocular camera
KR102268027B1 (en) Method for single image dehazing based on deep learning, recording medium and device for performing the method
CN115965844B (en) Multi-focus image fusion method based on visual saliency priori knowledge
CN110766117B (en) Two-dimensional code generation method and system
CN112508828A (en) Multi-focus image fusion method based on sparse representation and guided filtering
CN108257157B (en) Improved moving target detection method based on Lab color space and ViBe
CN110555414A (en) Target detection method, device, equipment and storage medium
CN111882495B (en) Image highlight processing method based on user-defined fuzzy logic and GAN

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200115

Year of fee payment: 4