KR20130001635A - Method and apparatus for generating depth map - Google Patents

Method and apparatus for generating depth map Download PDF

Info

Publication number
KR20130001635A
KR20130001635A KR1020110062518A KR20110062518A KR20130001635A KR 20130001635 A KR20130001635 A KR 20130001635A KR 1020110062518 A KR1020110062518 A KR 1020110062518A KR 20110062518 A KR20110062518 A KR 20110062518A KR 20130001635 A KR20130001635 A KR 20130001635A
Authority
KR
South Korea
Prior art keywords
image
condition
depth map
depth
image data
Prior art date
Application number
KR1020110062518A
Other languages
Korean (ko)
Other versions
KR101820456B1 (en
Inventor
우대식
김종대
박재범
전병기
정원석
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR1020110062518A priority Critical patent/KR101820456B1/en
Publication of KR20130001635A publication Critical patent/KR20130001635A/en
Application granted granted Critical
Publication of KR101820456B1 publication Critical patent/KR101820456B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation

Abstract

PURPOSE: A depth map producing method and an apparatus thereof are provided to express a three-dimensional effect which is more realistic than in a process converting from 2D image data to 3D data by producing a proper optimal depth map according to the analysis result of an image and preset conditions. CONSTITUTION: A pre-processing unit(110) performs the analysis and classification of input 2D image data. A conversion unit(120) selects a conversion algorithm corresponding to the classified image. The conversion unit produces a depth map according to the combination of a conversion algorithm. A post-processing unit(130) performs a depth filter compensation stabilizer about 3D image data. [Reference numerals] (A1,A2) Scene detection point; (BB) Motion-based tracking; (C1,C2) Motion field; (DD) MTD detection; (EE) Scene classification; (FF) Focus analysis; (GG) Context analysis; (HH) Saliency analysis; (II) Natural analysis; (JJ) Artificial analysis; (KK) Focus depth; (LL) Context depth; (MM) Object depth; (NN) Alpha depth; (OO) Vertical/edge; (PP) Depth filter compensation stabilizer

Description

깊이 맵 생성 방법 및 장치{Method And Apparatus for Generating Depth MAP}Method and apparatus for generating depth map {Method And Apparatus for Generating Depth MAP}

본 발명의 일 실시예는 깊이 맵 생성 방법 및 장치에 관한 것이다. 더욱 상세하게는, 2D 영상 데이터를 3D 영상 데이터로 변환하는 과정에서 보다 현실성 있는 입체감을 표현하기 위한 깊이 맵을 생성하기 위해 다양한 형태의 영상을 분석하고 분석 결과와 기 설정된 조건에 따라 영상을 분류하며, 분류된 각 영상에 맞는 최적의 변환 알고리즘을 조합한 깊이 맵 정보를 적용한 3D 영상 데이터를 제공하고자 하는 깊이 맵 생성 방법 및 장치에 관한 것이다.One embodiment of the present invention relates to a method and apparatus for generating a depth map. More specifically, in the process of converting 2D image data into 3D image data, various types of images are analyzed and classified according to analysis results and preset conditions in order to generate a depth map for expressing a more realistic three-dimensional effect. The present invention relates to a depth map generation method and apparatus for providing 3D image data to which depth map information combining an optimal transformation algorithm for each classified image is applied.

이 부분에 기술된 내용은 단순히 본 발명의 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The contents described in this section merely provide background information on the embodiment of the present invention and do not constitute the prior art.

디지털 기술이 고도로 발전하고, 방송과 통신의 융합으로 방송 매체가 다양해짐에 따라 디지털 기술의 특성을 이용한 방송 관련 부가 서비스들이 새롭게 선보이고 있다. 현재 TV와 같은 영상 서비스의 발전 방향은 고화질과 대화면으로 가고 있으나, 아직까지 2D 영상 컨텐츠만을 제공하기 때문에 현재의 영상 컨텐츠를 통해서 시청자는 입체감을 느낄 수 없다.As digital technology is highly developed and broadcasting media are diversified due to convergence of broadcasting and communication, broadcasting-related additional services using the characteristics of digital technology are newly introduced. Currently, the direction of the development of video services such as TV is moving toward high definition and large screens, but since it provides only 2D video contents, viewers cannot feel a three-dimensional effect through the current video contents.

이에 따라 점진적으로 입체 영상의 필요성이 대두되고 있는 실정이나 아직까지 입체 영상의 컨텐츠가 많이 부족한 실정이다. 입체 영상 처리기술은 차세대 정보통신 서비스 분야의 핵심 기술로서, 정보산업 사회로의 발달과 더불어 기술개발 경쟁이 치열한 최첨단 기술이다. 이러한 입체 영상 처리기술은 멀티미디어 응용에서 고품질의 영상 서비스를 제공하기 위해 필수적인 요소이며, 오늘날에는 이러한 정보통신 분야뿐만 아니라 방송, 의료, 교육, 군사, 게임 및 가상현실 등 그 응용분야가 매우 다양화되고 있다. Accordingly, the necessity of the stereoscopic image is gradually raised, but the content of the stereoscopic image is still insufficient. Stereoscopic image processing technology is a core technology in the field of next-generation information and communication services, and is a cutting-edge technology in which competition for technology development is fierce with the development of the information industry society. Such stereoscopic image processing technology is an essential element to provide high quality video services in multimedia applications. Today, the application fields such as broadcasting, medical, education, military, game, and virtual reality are diversified. have.

따라서, 2D 영상 컨텐츠를 입체 영상 컨텐츠로 제공하는 기술이 필요한 실정이다. 하지만, 현재의 기술로는 정밀한 입체감을 표현하기 어려운 문제가 있다. 물론, 수동방식으로 정밀한 입체 영상 변환 효과를 제공할 수 있지만, 이러한, 수동방식으로 작업하는 경우, 사람이 시각적인 인지능력을 이용하여 매우 긴 시간에 걸쳐 작업을 수행해야 하는 문제가 있다.Accordingly, there is a need for a technology of providing 2D image content as stereoscopic image content. However, the current technology has a problem that it is difficult to express a precise three-dimensional effect. Of course, it is possible to provide a precise stereoscopic image conversion effect in a manual method, but when working in such a manual method, there is a problem that a person must perform a task for a very long time using visual cognitive ability.

전술한 문제점을 해결하기 위해 본 발명의 일 실시예는, 2D 영상 데이터를 3D 영상 데이터로 변환하는 과정에서 영상의 특징에 따른 변환 알고리즘의 조합을 이용하여 생성된 깊이 맵 정보를 적용하는 깊이 맵 생성 방법 및 장치를 제공하는 데 주된 목적이 있다.In order to solve the above-described problem, an embodiment of the present invention provides a depth map for applying depth map information generated by using a combination of transformation algorithms according to characteristics of an image in a process of converting 2D image data into 3D image data. The main purpose is to provide a method and apparatus.

전술한 목적을 달성하기 위해 본 발명의 일 실시예는, 입력된 2D 영상 데이터를 분석하여 분류하는 전처리부; 및 상기 분류된 영상에 해당하는 변환 알고리즘(Algorithm)을 선택하고, 상기 변환 알고리즘의 조합에 따른 깊이 맵(Depth MAP)를 생성하는 변환부를 포함하는 것을 특징으로 하는 깊이 맵 생성 장치를 제공한다.In order to achieve the above object, an embodiment of the present invention, a pre-processing unit for analyzing and classifying the input 2D image data; And a transform unit for selecting a transform algorithm corresponding to the classified image and generating a depth map according to a combination of the transform algorithms.

또한, 본 발명의 다른 목적에 의하면, 입력된 2D 영상 데이터를 분석하여 분류하는 전처리 단계; 및 상기 분류된 영상에 해당하는 변환 알고리즘(Algorithm)을 선택하고, 상기 변환 알고리즘의 조합에 따른 깊이 맵(Depth MAP)를 생성하는 변환 단계를 포함하는 것을 특징으로 하는 깊이 맵 생성 방법을 제공한다.In addition, according to another object of the present invention, a pre-processing step of analyzing and classifying the input 2D image data; And a transformation step of selecting a transformation algorithm corresponding to the classified image and generating a depth map according to a combination of the transformation algorithms.

이상에서 설명한 바와 같이 본 발명의 일 실시예에 의하면, 2D 영상 데이터를 3D 영상 데이터로 변환하는 과정에서 보다 현실성 있는 입체감을 표현하기 위한 깊이 맵을 생성하기 위해 다양한 형태의 영상을 분석하고 분석 결과와 기 설정된 조건에 따라 영상을 분류하며, 분류된 각 영상에 맞는 최적의 변환 알고리즘을 조합한 깊이 맵 정보를 제공할 수 있는 효과가 있다.As described above, according to an embodiment of the present invention, in the process of converting 2D image data into 3D image data, various types of images are analyzed to generate a depth map for expressing a more realistic three-dimensional effect, and the analysis result and Images are classified according to preset conditions, and the depth map information combining the optimal conversion algorithms according to the classified images may be provided.

또한, 본 발명의 일 실시예에 의하면, 종래의 단일방식의 영상처리 알고리즘을 통해서 깊이 맵을 생성할 때 발생하는 부적절한 오류를 최소화 시키기 위해 영상의 분석 결과와 기 설정된 조건에 따른 적절한 최적의 깊이 맵을 생성할 수 있는 효과가 있다. 또한, 본 발명의 일 실시예에 의하면, 영상의 형태에 따라 영상을 분류하고 각 분류된 영상의 특징에 맞는 최적의 알고리즘의 선정 및 그들의 조합 등을 통해서 최종적으로 생성되는 깊이 맵의 효율성을 높일 수 있는 효과가 있다. 또한, 본 발명의 일 실시예에 의하면, 인간의 인지능력의 효과를 내기 위해서 시각적 특성을 반영하는 영상으로 분류하는 과정을 제공하고, 이러한 분류에 최적의 효과를 내는 영상처리 알고리즘을 적용함으로써 최적의 입체감을 표현할 수 있는 효과가 있다.In addition, according to an embodiment of the present invention, in order to minimize an inappropriate error occurring when generating a depth map through a conventional single-image processing algorithm, an optimal depth map according to an analysis result of an image and a predetermined condition There is an effect that can generate. In addition, according to an embodiment of the present invention, it is possible to classify images according to the types of images and to increase the efficiency of the finally generated depth map by selecting an optimal algorithm suitable for the characteristics of each classified image and combining them. It has an effect. In addition, according to an embodiment of the present invention, to provide a process for classifying the image reflecting the visual characteristics in order to achieve the effect of human cognitive ability, and by applying an image processing algorithm that makes an optimal effect on such classification It is effective to express three-dimensional effect.

도 1은 본 발명의 일 실시예에 따른 깊이 맵 생성 장치를 개략적으로 나타낸 블럭 구성도,
도 2는 본 발명의 일 실시예에 따른 영상 분류를 위한 제 1 조건을 나타낸 표,
도 3은 본 발명의 일 실시예에 따른 변환 알고리즘 조합을 위한 제 2 조건을 나타낸 표,
도 4는 본 발명의 일 실시예에 따른 변환 알고리즘 신뢰도 결정을 위한 제 3 조건을 나타낸 표,
도 5는 본 발명의 일 실시예에 따른 깊이 맵 생성 방법을 설명하기 위한 순서도,
도 6은 본 발명의 일 실시예에 따른 깊이 맵을 생성하기 위한 예시도이다.
1 is a block diagram schematically illustrating an apparatus for generating a depth map according to an embodiment of the present invention;
2 is a table showing a first condition for image classification according to an embodiment of the present invention;
3 is a table showing a second condition for a combination of transform algorithms according to an embodiment of the present invention;
4 is a table illustrating a third condition for determining a conversion algorithm reliability according to an embodiment of the present invention;
5 is a flowchart illustrating a depth map generation method according to an embodiment of the present invention;
6 is an exemplary diagram for generating a depth map according to an embodiment of the present invention.

이하, 본 발명에 따른 일 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings an embodiment according to the present invention will be described in detail.

본 발명이 기재된 제 1 조건은 2D 영상을 분류하기 위한 조건을 포함한 정보로서, MTD(Modified Time Difference) 조건, 장면(Scence) 검출 조건 및 영상 특징 부여 조건 중 적어도 하나 이상의 조건을 포함한다. 또한, 제 2 조건은 영상 특징 정보의 조합에 따른 조합 정보를 가지며, 조합 정보마다 복수의 알고리즘과 기 설정된 깊이 맵 비율이 매칭된 정보를 말하며, 제 3 조건은 제 2 조건에 포함된 알고리즘에 따른 확률 정보를 포함한 정보를 말한다.The first condition in which the present invention is described is information including a condition for classifying a 2D image, and includes at least one or more of a modified time difference (MTD) condition, a scene detection condition, and an image characterization condition. The second condition may include combination information according to a combination of image feature information, and refers to information in which a plurality of algorithms and a predetermined depth map ratio match each combination information, and the third condition corresponds to an algorithm included in the second condition. Refers to information including probability information.

도 1은 본 발명의 일 실시예에 따른 깊이 맵 생성 장치를 개략적으로 나타낸 블럭 구성도이다.1 is a block diagram schematically illustrating an apparatus for generating a depth map according to an exemplary embodiment of the present invention.

본 발명에 기재된 깊이 맵 생성 장치(100)는 2D 영상 데이터를 자동으로 3D 영상 데이터로 변환하는 장치를 말한다.이때, 깊이 맵 생성 장치(100)가 2D 영상 데이터를 3D 영상 데이터로 변환하는 일반적인 과정에 대해 설명하자면, 2D 영상 데이터에서 객체 또는 배경 등을 구분하여 분리하고, 각각의 객체들에 대해서 적절한 깊이 맵을 할당하여 거리감을 준다. 또한, 최종적으로 렌더링 작업을 통해서 좌측 시야용 영상과 우측 시야용 영상에 해당하는 3D 영상 데이터를 생성한다. 이러한 작업은 사용자에 의해 수작업을 통해서 진행될 수도 있지만, 본 발명과 같이 변환 알고리즘을 통해 진행될 수 있다.The depth map generator 100 according to the present invention refers to an apparatus for automatically converting 2D image data into 3D image data. In this case, the depth map generator 100 converts 2D image data into 3D image data. In the following description, an object or a background is divided and separated from 2D image data, and an appropriate depth map is assigned to each object to give a sense of distance. Finally, 3D image data corresponding to the left view image and the right view image are generated through a rendering operation. This operation may be performed manually by the user, but may be performed through a conversion algorithm as in the present invention.

한편, 3D 영상 데이터에 대해 설명하자면, 3D 영상 데이터(입체 영상 데이터)의 표현은 기본적으로 인간의 눈과 같이 왼쪽, 오른쪽에서 촬영한 두 개의 영상을 필요로 한다. 즉, 왼쪽, 오른쪽에서 각각 독립적으로 촬영한 두 개의 영상을 인간의 눈에 각각 독립적으로 왼쪽에서 촬영한 영상은 왼쪽 눈에, 오른쪽에서 촬영한 영상은 오른쪽 눈에 보여줌으로써 입체감을 느끼게 된다. 따라서 입체 영상을 촬영하기 위한 방송 카메라는 두 개의 카메라가 붙어있는 형태이거나 두 개의 렌즈부를 구비하고 있다. 이와 같이 입체 영상은 왼쪽 영상과 오른쪽 영상을 필요로 하기 때문에 2D 영상 데이터를 3D 영상 데이터로 변환하는 과정에서 좌, 우에 해당하는 두 개의 영상을 만들어야 한다. On the other hand, to describe the 3D image data, the representation of the 3D image data (stereoscopic image data) basically requires two images taken from the left and right, such as the human eye. That is, two images taken independently from the left and the right are respectively shown to the human eye, and the images taken from the left independently to the left eye, and the images taken from the right to the right eye to feel a three-dimensional feeling. Therefore, a broadcast camera for capturing a stereoscopic image has two cameras attached thereto or has two lens units. Since the stereoscopic image requires the left image and the right image, two images corresponding to the left and right sides should be created in the process of converting the 2D image data into the 3D image data.

깊이 맵 생성 장치(100)가 2D 영상 데이터를 3D 영상 데이터로 변환하는 과정은 수작업 또는 프로그램에 의한 자동화 작업으로 가능하다. 물론 자동화 작업은 변환 알고리즘을 이용한 방법으로 수작업과 같은 작업이나 인간의 인지능력에 따른 현실적인 작업과정은 어렵지만 영상에 따라 적절한 변환 알고리즘을 통해서 상당히 개선된 결과를 얻을 수 있다. 예를 들어서, 일반적으로 2D 영상에서 3D 영상 생성에 필요한 깊이 맵을 생성하는 과정으로 수동방식의 경우는 사람이 직접 객체를 분리하고 각 개체별로 깊이 맵(값)을 할당하는 방식을 사용한다. 하지만, 자동 방식의 경우는 모션 분석, 주파수 분석, 히스토그램 분석과 같은 통상적인 영상 처리 방식을 사용하게 되는데 이것은 사람의 인지능력과 같이 판단하는 것이 불가능하기 때문에 오류를 발생할 수 있다. 즉, 여러 배경에 있는 객체(사람이나 자동차)를 분리해내는 것은 사람이 수동으로 작업하는 경우 즉각적으로 가능하지만, 프로그램을 통한 자동방식은 객체인 사람이나 자동차를 배경과 분리해 내는 것은 일반적으로는 어렵다. 하지만, 본 발명과 같이 적절한 조건이 주어진다면 이러한 오류를 최소화하며 영상 처리가 가능하다. 즉, 사람이나 자동차의 움직임이 존재한다면 모션 정보를 통해서 움직임이 없는 배경과 분리가 가능하고 또는 거리에 따른 블러(Blur) 현상을 이용하여 통상적으로 선명한 객체가 가까이 있다는 전제하에 가깝고 먼 객체의 구별이 가능하다. 또는 배경의 구조적인 특징들을 이용하여 정밀한 특징들을 표현하는 것은 어렵지만 전체적인 배경에 해당하는 깊이 맵의 생성도 가능하다. 즉, 영상이란 매우 다양한 형태이지만 앞서 설명한 바와 같이 영상의 특징적인 조건들을 분석한다면, 그에 맞는 최적의 변환 알고리즘을 적용시키는 것이 가능하다.The process of converting the 2D image data into the 3D image data by the depth map generating apparatus 100 may be performed by manual operation or an automated operation by a program. Of course, the automation task is a method using a conversion algorithm, but it is difficult to perform a task such as manual work or a realistic work process according to the human cognitive ability, but the result can be significantly improved through an appropriate conversion algorithm according to the image. For example, in general, a process of generating a depth map for generating a 3D image from a 2D image is a manual method in which a person directly separates an object and assigns a depth map (value) for each object. However, in the case of the automatic method, conventional image processing methods such as motion analysis, frequency analysis, and histogram analysis are used, which may cause an error because it is impossible to judge the human cognitive ability. In other words, separating objects (people or cars) from multiple backgrounds is instantaneous if a person works manually, while automatic programmatic separation of objects or cars from objects is generally possible. it's difficult. However, if appropriate conditions are given as in the present invention, this error can be minimized and image processing can be performed. That is, if there is a motion of a person or a car, it is possible to separate from the background without motion through motion information, or by using a blur phenomenon according to distance, a distinction between near and distant objects is normally provided on the premise that a clear object is near. It is possible. Or it is difficult to express precise features using structural features of the background, but it is also possible to create a depth map corresponding to the entire background. That is, the image is a variety of forms, but as described above, if the characteristic conditions of the image are analyzed, it is possible to apply the optimal conversion algorithm accordingly.

이러한, 깊이 맵 생성 장치(100)는 2D 영상 데이터를 3D 영상 데이터로 변환하기 위해 전처리부(110), 변환부(120) 및 후처리부(130)를 포함한다. 물론, 본 발명의 일 실시예에서는 깊이 맵 생성 장치(100)가 전처리부(110), 변환부(120) 및 후처리부(130)만을 포함하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 깊이 맵 생성 장치(100)에 포함되는 구성 요소에 대하여 다양하게 수정 및 변형하여 적용 가능할 것이다.The depth map generating apparatus 100 includes a preprocessor 110, a converter 120, and a postprocessor 130 to convert 2D image data into 3D image data. Of course, in one embodiment of the present invention, the depth map generating apparatus 100 is described as including only the preprocessor 110, the converter 120 and the post-processor 130, which is described in the embodiment of the present invention As merely illustrative of the idea, those skilled in the art to which an embodiment of the present invention belongs may be included in the depth map generating apparatus 100 without departing from the essential characteristics of the embodiment of the present invention. Various modifications and variations to the components will be applicable.

전처리부(110)의 일반적인 동작에 대해 설명하자면, 전처리부(110)는 영상을 분류하기 위한 동작을 수행하는데, 2D 영상 데이터가 연속적인 프레임의 집합으로 이루어져 있으므로 가능한 유사한 특성을 가지는 프레임 별로 2D 영상 데이터를 그룹화 하여 동일한 변환 알고리즘을 적용할 수 있도록 하는 영상 분류 과정을 수행한다.Referring to the general operation of the preprocessor 110, the preprocessor 110 performs an operation for classifying images. Since the 2D image data is composed of a set of consecutive frames, the 2D image for each frame having similar characteristics as possible. Image classification is performed to group the data so that the same transformation algorithm can be applied.

전처리부(110)가 수행하는 주요 동작에 대해 설명하자면, 전처리부(110)는 입력된 2D 영상 데이터를 분석하여 분류한다. 이때, 전처리부(110)는 2D 영상 데이터를 분류하기 위해 기 설정된 제 1 조건을 이용한다. 여기서, 제 1 조건에 대해 개략적으로 설명하자면, 제 1 조건은 MTD 조건, 장면 검출 조건 및 영상 특징 부여 조건 중 적어도 하나 이상의 조건을 포함한다.Referring to the main operations performed by the preprocessor 110, the preprocessor 110 analyzes and classifies the input 2D image data. In this case, the preprocessor 110 uses a preset first condition to classify the 2D image data. Here, to briefly describe the first condition, the first condition includes at least one or more of an MTD condition, a scene detection condition, and an image feature providing condition.

제 1 조건에 포함된 MTD 조건, 장면 검출 조건 및 영상 특징 부여 조건에 대해 설명하자면, MTD 조건은 2D 영상 데이터 중 MTD에 해당하는 프레임을 선별하는 조건이고, 장면 검출 조건은 2D 영상 데이터 중 MTD 검출 영상으로 분류되지 않은 그 나머지 영상 데이터에 대해 장면 전환점과 장면 전환점 내의 프레임을 유사 장면 그룹으로 그룹핑하는 조건이고, 영상 특징 부여 조건은 영상 특징 부여 조건을 수행하기 위해 유사 장면 그룹을 각 그룹별로 분석하여 영상 특징 정보를 부여하는 조건이다. 예를 들어서, 유사 장면 그룹으로 그룹핑된 영상은 현재 프레임(f(n)), 다음 프레임(f(n+1)) 및 그 다음 프레임(f(n+2)) 등등을 포함하게 되는 것이다.The MTD condition, the scene detection condition, and the image characteristic provision condition included in the first condition will be described. The MTD condition is a condition for selecting a frame corresponding to the MTD from the 2D image data, and the scene detection condition is a MTD detection from the 2D image data. The scene change point and the frames within the scene change point are grouped into similar scene groups for the remaining image data not classified as images, and the image characterization condition is analyzed by analyzing similar scene groups for each group to perform the image characterization condition. It is a condition to give image characteristic information. For example, an image grouped into a similar scene group includes a current frame f (n), a next frame f (n + 1), a next frame f (n + 2), and the like.

또한, 전처리부(110)가 MTD 조건을 수행하는 과정에 대해 구체적으로 설명하자면, 전처리부(110)는 MTD 검출 조건을 수행하기 위해, 2D 영상 데이터를 분석하고 2D 영상 데이터에서 수평(Horizontal)으로 이동하는 객체(Object) 또는 카메라의 수평 패닝(Panning)이 발생하는 프레임(f(m))을 MTD로 분류하고, MTD 검출 영상으로 그룹핑한다. 이때, 전처리부(110)는 MTD 조건을 수행할 때 2D 영상 데이터를 분석하기 위해 모션 벡터 분석(Motion Vector Analysis), 수평 카메라 패닝(Horizontal Camera Panning), 수평 객체 움직임(Horizontal Moving) 중 적어도 하나 이상의 기술을 이용한다. In addition, the process of performing the MTD condition by the preprocessor 110 will be described in detail. In order to perform the MTD detection condition, the preprocessor 110 analyzes the 2D image data and horizontally in the 2D image data. A frame f (m) in which horizontal panning of a moving object or a camera occurs is classified as an MTD and grouped into an MTD detection image. In this case, the preprocessor 110 may perform at least one of motion vector analysis, horizontal camera panning, and horizontal moving to analyze the 2D image data when performing the MTD condition. Use technology

또한, 전처리부(110)가 장면 검출 조건을 수행하는 과정에 대해 구체적으로 설명하자면, 전처리부(110)는 장면 검출 조건을 수행하기 위해, 2D 영상 데이터 중 MTD 검출 영상으로 분류되지 않은 그 나머지 영상 데이터에 대해 장면 전환점과 장면 전환점 내의 프레임을 유사 장면 그룹으로 그룹핑한다. 이때, 전처리부(110)는 2D 영상 데이터 중 MTD로 분류되지 않은 그 나머지 영상 데이터 중 현재 프레임(f(n))을 장면 검출 시점(Scene Detection Point)으로 설정한 후 현재 프레임을 기준으로 히스토그램 정보, 엣지 정보 및 모션 정보 중 어느 하나가 기 설정된 임계치 이상으로 불일치하는 시점까지의 프레임을 장면 전환점으로 인식한다. 이때, 전처리부(110)는 현재 프레임과 다음 프레임을 비교하여 현재 프레임에서 다음 프레임으로 전환될 때 변동되는 부분을 판별하고, 판별된 변동 부분이 현재 프레임과 다음 프레임 간에 상호 연관성이 없는 경우, 독립적인 하나의 유사 장면 그룹으로 판단한다.In addition, the process of performing the scene detection condition by the preprocessor 110 will be described in detail. In order to perform the scene detection condition, the preprocessor 110 performs the rest of the image not classified as the MTD detection image of the 2D image data. For the data, scene change points and frames within the scene change points are grouped into similar scene groups. At this time, the preprocessor 110 sets the current frame f (n) among the remaining image data not classified as MTD among the 2D image data as a scene detection point, and then histogram information based on the current frame. For example, the frame until the point at which one of the edge information and the motion information is inconsistent over a preset threshold is recognized as a scene change point. At this time, the preprocessing unit 110 compares the current frame and the next frame to determine a portion to be changed when switching from the current frame to the next frame, and if the determined variation is not correlated between the current frame and the next frame, It is determined as one similar scene group.

또한, 전처리부(110)가 영상 특징 부여 조건을 수행하는 과정에 대해 구체적으로 설명하자면, 전처리부(110)는 영상 특징 부여 조건을 수행하기 위해 유사 장면 그룹을 각 그룹별로 분석하여 영상 특징 정보를 부여한다. 여기서, 영상 특징 정보는 정적 영상(Static), 동적 영상(Dynamic), 가까운 영상(Close up), 먼 영상(Non Close up), 자연적 영상(Natural) 및 인공적 영상(Artificial) 중 적어도 하나 이상의 정보를 포함한다. 이때, 전처리부(110)는 영상 특징 부여 조건을 수행하기 위해, 모션 벡터, 글로벌 모션 벡터, 로컬 모션 벡터, 엣지 변화 정보 및 히스토그램 정보 중 적어도 하나 이상의 정보를 이용하여 유사 장면 그룹 내의 객체의 움직임이나 역동성을 확인하고, 확인 결과에 근거하여 정적 영상과 동적 영상 중 어느 하나로 분류한다. 또한, 전처리부(110)는 영상 특징 부여 조건을 수행하기 위해, 스펙트럼 분석, 블러 분석(Blur Analysis), 특징점 검출(Saliency Detection), 포커스 분석(Focus Analysis) 중 적어도 하나 이상의 정보를 이용하여 유사 장면 그룹이 가까운 영상과 먼 영상 중 어느 하나로 분류한다. 또한, 전처리부(110)는 영상 특징 부여 조건을 수행하기 위해, 스펙트럼 분석(Spectrum Analysis), 엣지 변화 정보(Edge), 컬라 히스토그램(Color Histogram) 정보, 알파 블렌딩(Alpha Blending) 알고리즘, 수평 엣지 강조(Horizontal Edge Emphasis) 중 적어도 하나 이상의 정보를 이용하여 유사 장면 그룹이 자연적 영상과 인공적 영상 중 어느 하나로 분류한다.In addition, the process of the preprocessing unit 110 to perform the image characteristic provision condition will be described in detail. The preprocessing unit 110 analyzes similar scene groups for each group to perform the image characteristic provision condition. Grant. The image characteristic information may include at least one of static, dynamic, close, non-close, natural, and artificial images. Include. At this time, the preprocessing unit 110 uses at least one or more of a motion vector, a global motion vector, a local motion vector, edge change information, and histogram information to perform an image characterization condition. The dynamics are checked and classified into either static or dynamic image based on the confirmed result. In addition, the preprocessing unit 110 may perform a similar scene using at least one or more information of spectrum analysis, blur analysis, feature detection, and focus analysis to perform image characterization conditions. Groups are classified into either near or far images. In addition, the preprocessor 110 performs spectral analysis, edge change information, color histogram information, alpha blending algorithm, and horizontal edge emphasis to perform image characterization conditions. Similar scene groups are classified into either natural image or artificial image using at least one or more information of (Horizontal Edge Emphasis).

변환부(120)의 일반적인 동작에 대해 설명하자면, 전처리부(110)에 의핸 분류된 영상에 해당하는 최적의 변환 알고리즘을 선택하고, 이를 2D 영상 데이터에 적용한다. 한편, 이러한 변환부(120)는 2D 영상 데이터를 3D 영상 데이터이로 변환하는 과정에서 영상객체추출 (Object Extraction / Segmentation), 영상거리인식 (Depth Map Computation), 영상생성 (Rendering / Occlusion)을 수행한다.Referring to the general operation of the transform unit 120, the optimal conversion algorithm corresponding to the classified image by the preprocessor 110 is selected and applied to the 2D image data. Meanwhile, the conversion unit 120 performs object extraction / segmentation, depth map computation, and rendering / occclusion in the process of converting 2D image data into 3D image data. .

한편, 본 발명의 일 실시예에 따른 변환부(120)의 주요 동작 과정에 대해 설명하자면, 변환부(120)는 전처리부(110)의 의해 분류된 영상에 해당하는 변환 알고리즘(Algorithm)을 선택하고, 변환 알고리즘의 조합에 따른 깊이 맵(Depth MAP)를 생성한다. 이때 변환부(120)는 전처리부(110)를 통해 영상 특징 부여 조건을 수행한 분류된 영상에 대한 변환 알고리즘을 선택하기 위해 제 2 조건을 이용한다. 여기서, 제 2 조건은 영상 특징 정보의 조합에 따른 조합 정보를 가지며, 조합 정보마다 복수의 알고리즘과 기 설정된 깊이 맵 비율이 매칭된 정보이다. 또한, 제 2 조건에 포함된 복수의 알고리즘은 알파 블렌딩(Alpha Blending) 알고리즘, 컨텍스트 뎁스(Context Depth) 알고리즘, 수직 뎁스(Vertical Depth) 알고리즘, 객체 뎁스(Object Depth) 알고리즘 및 포커스 뎁스(Focus Depth) 알고리즘 중 적어도 하나 이상의 알고리즘을 포함한다. 또한, 제 2 조건에 포함된 깊이 맵 비율은 메인 뎁스(Main Depth), 서브 1 뎁스(Sub 1 Depth), 서브 2 뎁스(Sub 2 Depth) 및 옵셔널 뎁스(Optional Depth) 중 적어도 하나 이상에 대한 깊이 맵 비율을 포함한다.Meanwhile, to describe the main operation process of the converter 120 according to an embodiment of the present invention, the converter 120 selects a conversion algorithm corresponding to the image classified by the preprocessor 110. Next, a depth map according to the combination of the conversion algorithms is generated. In this case, the conversion unit 120 uses the second condition to select a conversion algorithm for the classified image that has performed the image characterization condition through the preprocessor 110. Here, the second condition has combination information according to the combination of the image feature information, and is information in which a plurality of algorithms and a predetermined depth map ratio are matched for each combination information. In addition, the plurality of algorithms included in the second condition may include an alpha blending algorithm, a context depth algorithm, a vertical depth algorithm, an object depth algorithm, and a focus depth. At least one of the algorithms. In addition, the depth map ratio included in the second condition may correspond to at least one of a main depth, a sub 1 depth, a sub 2 depth, and an optional depth. Contains the depth map ratio.

변환부(120)가 깊이 맵을 생성하는 과정에 대해 구체적으로 설명하자면, 변환부(120)는 전처리부(110)에 의해 분류된 영상에 해당하는 변환 알고리즘(Algorithm)을 선택하고, 변환 알고리즘의 조합에 따른 깊이 맵(Depth MAP)를 생성한다. 한편, 변환부(120)는 변환 알고리즘에 대한 신뢰도가 미반영된 상태에서 깊이 맵을 생성할 수 있는데, 이에 대해 설명하자면, 변환부(120)는 영상 특징 부여 조건을 수행한 분류된 영상에 포함된 영상 특징 정보에 따라 제 2 조건에 부합하는 조합 정보를 추출하고, 조합 정보에 매칭된 변환 알고리즘과 깊이 맵 비율에 근거하여 신뢰도 미반영 깊이 맵 비율을 산출한다. 이때, 변환부(120)는 [수학식 1]을 이용하여 신뢰도 미반영 깊이 맵을 산출한다.In detail, a process of generating the depth map by the transform unit 120, the transform unit 120 selects a transform algorithm corresponding to the image classified by the preprocessor 110, and selects the transform algorithm. Create a depth map according to the combination. Meanwhile, the transform unit 120 may generate a depth map in a state where the reliability of the transform algorithm is not reflected. To explain this, the transform unit 120 is included in the classified image that performs the image characterization condition. The combination information matching the second condition is extracted according to the image feature information, and the reliability non-reflective depth map ratio is calculated based on the conversion algorithm matched with the combination information and the depth map ratio. At this time, the conversion unit 120 calculates the reliability unreflected depth map by using Equation 1.

Figure pat00001
Figure pat00001

(A,B,C: 각 알고리즘, α: 기 설정된 메인 뎁스 비율, β: 기 설정된 서브 1 뎁스 비율, γ: 기 설정된 서브 2 뎁스 비율) (A, B, C: each algorithm, α: preset main depth ratio, β: preset sub 1 depth ratio, γ: preset sub 2 depth ratio)

한편, 변환부(120)는 변환 알고리즘에 대한 신뢰도가 반영된 상태에서 깊이 맵을 생성할 수 있는데, 이에 대해 설명하자면, 변환부(120)는 변환 알고리즘 신뢰도(Fidelith)를 결정하기 위해 기 설정된 제 3 조건을 이용한다. 여기서, 제 3 조건은 제 2 조건에 포함된 알고리즘에 따른 확률 정보를 포함한다. 변환부(120)는 [수학식 2]를 이용하여 신뢰도 반영 깊이 맵을 산출한다.Meanwhile, the transformation unit 120 may generate a depth map in a state where the reliability of the transformation algorithm is reflected. To this end, the transformation unit 120 may be configured to determine a transformation algorithm fidelity. Use conditions. Here, the third condition includes probability information according to an algorithm included in the second condition. The converter 120 calculates the reliability reflection depth map by using Equation 2.

Figure pat00002
Figure pat00002

(A,B,C: 각 알고리즘, α`: 기 설정된 메인 뎁스 비율×A의 확률 정보, β`: 기 설정된 서브 1 뎁스 비율×B의 확률 정보, γ`: 기 설정된 서브 2 뎁스 비율×C의 확률 정보) (A, B, C: each algorithm, α`: probability information of preset main depth ratio XA, β`: probability information of preset sub-1 depth ratio × B, γ`: preset sub-2 depth ratio × C Probability information)

한편, 본 발명의 일 실시예에 따른 변환부(120)는 2D 데이터에 깊이 맵을 적용한 3D 영상 데이터를 생성한다. 즉, 변환부(120)가 2D 데이터에 깊이 맵을 적용한 3D 영상 데이터를 생성하는 과정에 대해 보다 구체적으로 설명하자면, 변환부(120)는 깊이 맵을 적용한 좌측 시야용 이미지 및 우측 시야용 이미지가 렌더링(Rendering)된 3D 영상 데이터를 생성한다. 또한, 변환부(120)는 전처리부(110)의 의해 그룹핑된 MTD 검출 영상을 이용하여 3D 영상 데이터인 좌측 시야용 이미지 또는 우측 시야용 이미지를 생성한다.Meanwhile, the converter 120 generates 3D image data by applying a depth map to 2D data. That is, the process of generating the 3D image data in which the converter 120 applies the depth map to the 2D data will be described in detail. The converter 120 may include a left view image and a right view image to which the depth map is applied. Generates rendered 3D image data. In addition, the converter 120 generates an image for the left view or an image for the right view, which is 3D image data, using the MTD detection image grouped by the preprocessor 110.

후처리부(130)의 일반적인 동작에 대해 설명하자면, 3D 영상 데이터 대해서 완성도를 높이기 위해 3D 영상 데이터를 안정화한다. 즉, 후처리부(130)가 수행하는 동작에 대해 보다 구체적으로 설명하자면, 후처리부(130)는 3D 영상 데이터에 대한 뎁스 필터 보상 안정(Depth Filter Compensation Stabilizer)을 수행하여 3D 영상 데이터에 반영된 깊이 맵 정보가 기 설정된 임계치를 초과하지 않는 경우, 3D 영상 데이터가 안정화된 것으로 확인한다.Referring to the general operation of the post-processing unit 130, the 3D image data is stabilized in order to increase the completeness of the 3D image data. In other words, the operation performed by the post-processing unit 130 will be described in more detail. The post-processing unit 130 performs a depth filter compensation stabilization on 3D image data to reflect the depth map reflected in the 3D image data. If the information does not exceed the preset threshold, it is confirmed that the 3D image data is stabilized.

도 2는 본 발명의 일 실시예에 따른 영상 분류를 위한 제 1 조건을 나타낸 표이다.2 is a table showing a first condition for image classification according to an embodiment of the present invention.

도 2에 도시된 제 1 조건은 MTD 조건, 장면 검출 조건 및 영상 특징 부여 조건 중 적어도 하나 이상의 조건을 포함한다. 즉, 도 2에 도시된 제 1 조건은 영상의 특징이나 조건에 맞게 가장 최적의 변환 알고리즘을 선정하기 위해서는 2D 영상 데이터를 분류하기 위한 조건을 나타낸다. 즉, 2D 영상 데이터를 분류하기 위한 기준으로는 도 2에 도시된 바와 같이 크게 세 가지로 분류한다. The first condition illustrated in FIG. 2 includes at least one or more of an MTD condition, a scene detection condition, and an image characteristic condition. That is, the first condition illustrated in FIG. 2 represents a condition for classifying 2D image data in order to select the most optimal conversion algorithm according to the feature or condition of the image. That is, three types of standards for classifying 2D image data are classified as illustrated in FIG. 2.

먼저, 도 2의 1번 항목인 MTD 조건은 2D 영상 데이터 중 MTD에 해당하는 프레임을 선별하는 조건이다. 즉, MTD 조건에 대해 설명하자면, 깊이 맵 생성 장치(100)는 MTD 조건을 수행하기 위해, 2D 영상 데이터를 분석하고 2D 영상 데이터에서 수평으로 이동하는 객체 또는 카메라의 수평 패닝이 발생하는 프레임(f(m))을 MTD로 분류하고, MTD 검출 영상으로 그룹핑한다. 이때, 깊이 맵 생성 장치(100)는 MTD 조건을 수행할 때 2D 영상 데이터를 분석하기 위해 모션 벡터 분석, 수평 카메라 패닝, 수평 객체 움직임 중 적어도 하나 이상의 기술을 이용한다. 또한, 깊이 맵 생성 장치(100)는 장면 검출 조건을 수행하기 위해, 2D 영상 데이터 중 MTD 검출 영상으로 분류되지 않은 그 나머지 영상 데이터에 대해 장면 전환점과 장면 전환점 내의 프레임을 유사 장면 그룹으로 그룹핑한다.First, the MTD condition of item 1 of FIG. 2 is a condition for selecting a frame corresponding to the MTD from the 2D image data. That is, to describe the MTD condition, the depth map generating apparatus 100 analyzes 2D image data and performs horizontal panning of an object or a camera moving horizontally in the 2D image data in order to perform the MTD condition (f). (m)) is classified as MTD and grouped by MTD detection image. In this case, the depth map generating apparatus 100 uses at least one of motion vector analysis, horizontal camera panning, and horizontal object movement to analyze 2D image data when performing the MTD condition. In addition, the depth map generating apparatus 100 groups the scene change point and the frames in the scene change point into similar scene groups with respect to the remaining image data not classified as the MTD detection image among the 2D image data in order to perform the scene detection condition.

도 2의 2번 항목은 장면 검출 조건은 장면 검출 조건은 2D 영상 데이터 중 MTD 검출 영상으로 분류되지 않은 그 나머지 영상 데이터에 대해 장면 전환점과 장면 전환점 내의 프레임을 유사 장면 그룹으로 그룹핑하는 조건이다. 즉, 장면 검출 조건에 대해 설명하자면, 깊이 맵 생성 장치(100)는 2D 영상 데이터 중 MTD로 분류되지 않은 그 나머지 영상 데이터 중 현재 프레임(f(n))을 장면 검출 시점으로 설정한 후 현재 프레임을 기준으로 히스토그램 정보, 엣지 정보 및 모션 정보 중 어느 하나가 기 설정된 임계치 이상으로 불일치하는 시점까지의 프레임을 장면 전환점으로 인식한다. 이때, 깊이 맵 생성 장치(100)는 현재 프레임과 다음 프레임을 비교하여 현재 프레임에서 다음 프레임으로 전환될 때 변동되는 부분을 판별하고, 판별된 변동 부분이 현재 프레임과 다음 프레임 간에 상호 연관성이 없는 경우, 독립적인 하나의 유사 장면 그룹으로 판단한다.Item 2 of FIG. 2 is a scene detection condition, and the scene detection condition is a condition for grouping scene transition points and frames in the scene change points into similar scene groups for the remaining image data not classified as MTD detection images among 2D image data. That is, to describe the scene detection condition, the depth map generating apparatus 100 sets the current frame f (n) among the remaining image data not classified as MTD among the 2D image data as the scene detection time point, and then the current frame. Based on this, a frame until a point at which one of the histogram information, the edge information, and the motion information is inconsistent over a predetermined threshold value is recognized as a scene change point. In this case, the depth map generating apparatus 100 compares the current frame with the next frame to determine a portion that is changed when the current frame is switched from the current frame to the next frame, and when the determined variation is not correlated between the current frame and the next frame. In other words, it is determined as an independent similar group of scenes.

도 2의 3번 항목은 영상 특징 부여 조건은 영상 특징 부여 조건을 수행하기 위해 유사 장면 그룹을 각 그룹별로 분석하여 영상 특징 정보를 부여하는 조건이다. 즉, 영상 특징 부여 조건에 대해 설명하자면, 깊이 맵 생성 장치(100)는 영상 특징 부여 조건을 수행하기 위해 유사 장면 그룹을 각 그룹별로 분석하여 영상 특징 정보를 부여한다. 여기서, 영상 특징 정보는 정적 영상, 동적 영상, 가까운 영상, 먼 영상, 자연적 영상 및 인공적 영상 중 적어도 하나 이상의 정보를 포함한다. 이때, 깊이 맵 생성 장치(100)는 영상 특징 부여 조건을 수행하기 위해, 모션 벡터, 글로벌 모션 벡터, 로컬 모션 벡터, 엣지 변화 정보 및 히스토그램 정보 중 적어도 하나 이상의 정보를 이용하여 유사 장면 그룹 내의 객체의 움직임이나 역동성을 확인하고, 확인 결과에 근거하여 정적 영상과 동적 영상 중 어느 하나로 분류한다. 또한, 깊이 맵 생성 장치(100)는 영상 특징 부여 조건을 수행하기 위해, 스펙트럼 분석, 블러 분석, 특징점 검출, 포커스 분석 중 적어도 하나 이상의 정보를 이용하여 유사 장면 그룹이 가까운 영상과 먼 영상 중 어느 하나로 분류한다. 또한, 깊이 맵 생성 장치(100)는 영상 특징 부여 조건을 수행하기 위해, 스펙트럼 분석, 엣지 변화 정보, 컬라 히스토그램 정보, 알파 블렌딩 알고리즘, 수평 엣지 강조 중 적어도 하나 이상의 정보를 이용하여 유사 장면 그룹이 자연적 영상과 인공적 영상 중 어느 하나로 분류한다.Item 3 of FIG. 2 is a condition for granting image feature information by analyzing similar scene groups for each group to perform the image feature grant condition. That is, to describe the image feature providing condition, the depth map generating apparatus 100 analyzes a similar scene group for each group and assigns the image feature information to perform the image feature providing condition. Here, the image feature information includes at least one or more of a static image, a dynamic image, a near image, a far image, a natural image, and an artificial image. At this time, the depth map generating apparatus 100 uses at least one of motion vector, global motion vector, local motion vector, edge change information, and histogram information to perform an image characterization condition. The motion or dynamics are checked and classified into either static or dynamic image based on the result of the confirmation. In addition, the depth map generating apparatus 100 may perform at least one of a near scene image and a far image having a similar scene group using at least one or more information of spectrum analysis, blur analysis, feature point detection, and focus analysis to perform an image characteristic condition. Classify. In addition, the depth map generating apparatus 100 may perform a similar scene group using at least one of spectrum analysis, edge change information, color histogram information, alpha blending algorithm, and horizontal edge emphasis to perform image characterization conditions. Classify into either image or artificial image.

도 3은 본 발명의 일 실시예에 따른 변환 알고리즘 조합을 위한 제 2 조건을 나타낸 표이다.3 is a table showing a second condition for a combination of transform algorithms according to an embodiment of the present invention.

제 1 조건을 토대로 입력된 2D 영상 데이터의 분류가 완료 되면 이를 기반으로 가장 타당성이 있다고 판단되는 최적의 알고리즘을 선택할 수 있다. 이때, 깊이 맵 생성 장치(100)는 도 3에 도시된 제 2 조건을 이용할 수 있다. 즉, 제 1 조건을 토대로 분류된 영상 각각에 대해 적절한 알고리즘을 순서대로 나열하면 도 3에 도시된 제 2 조건과 같다.When the classification of the input 2D image data is completed based on the first condition, an optimal algorithm determined to be most valid may be selected based on this. In this case, the depth map generating apparatus 100 may use the second condition illustrated in FIG. 3. That is, when the appropriate algorithms are arranged in order for each of the images classified based on the first condition, they are the same as the second condition shown in FIG. 3.

제 2 조건은 영상 특징 정보의 조합에 따른 조합 정보를 가지며, 조합 정보마다 복수의 알고리즘과 기 설정된 깊이 맵 비율이 매칭된 정보이다. 제 2 조건에 포함되는 복수의 알고리즘은 알파 블렌딩 알고리즘, 컨텍스트 뎁스 알고리즘, 수직 뎁스 알고리즘, 객체 뎁스 알고리즘 및 포커스 뎁스 알고리즘 중 적어도 하나 이상의 알고리즘을 포함한다. 또한, 제 2 조건에 포함되는 깊이 맵 비율은 메인 뎁스, 서브 1 뎁스, 서브 2 뎁스 및 옵셔널 뎁스 중 적어도 하나 이상에 대한 깊이 맵 비율을 포함한다.The second condition has combination information according to a combination of image feature information, and is information in which a plurality of algorithms and a predetermined depth map ratio are matched for each combination information. The plurality of algorithms included in the second condition include at least one or more of an alpha blending algorithm, a context depth algorithm, a vertical depth algorithm, an object depth algorithm, and a focus depth algorithm. Also, the depth map ratio included in the second condition includes a depth map ratio with respect to at least one of a main depth, a sub 1 depth, a sub 2 depth, and an optional depth.

분류된 영상에 해당하는 영상 특징 정보를 확인하면, 도 3의 제 2 조건과 같이 특정 알고리즘의 조합이 정해지고, 그에 해당하는 깊이 맵 비중이 메인 뎁스, 서브 1 뎁스, 서브 2 뎁스, 옵셔널 뎁스로 나누어진다. 또한, 도 3의 제 2 조건과 같이 깊이 맵의 비율은 60 %, 25 %, 10 % 및 5 %의 초기 비율(초기 대표값)을 가질 수 있다. 이러한, 초기 비율은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 초기 비율을 다양하게 수정 및 변형하여 적용 가능할 것이다. 또한, 이러한 초기 비율을 반영한 깊이 맵은 영상 처리의 진행 단계에서 자동화된 방안으로 영상의 특성에 따라 [수학식 1]과 같이 결정될 수 있으며, 신뢰도를 포함하여 결정되는 경우 영상 특성에 따라 [수학식 2]와 같이 결정될 수 있다. 즉, 깊이 맵 생성 장치(100)는 영상 특징 부여 조건을 수행한 분류된 영상에 포함된 영상 특징 정보에 따라 제 2 조건에 부합하는 조합 정보를 추출하고, 조합 정보에 매칭된 변환 알고리즘과 깊이 맵 비율에 근거하여 신뢰도 미반영 깊이 맵 비율을 산출한다. 깊이 맵 생성 장치(100)는 [수학식 1]을 이용하여 신뢰도 미반영 깊이 맵을 산출한다.When the image characteristic information corresponding to the classified image is checked, a combination of specific algorithms is determined as in the second condition of FIG. 3, and the corresponding depth map specific gravity is a main depth, a sub 1 depth, a sub 2 depth, and an optional depth. Divided into In addition, as in the second condition of FIG. 3, the ratio of the depth map may have an initial ratio (initial representative value) of 60%, 25%, 10%, and 5%. Such initial ratios are merely illustrative of the technical idea of the present invention, and those skilled in the art to which the present invention pertains may vary the initial ratio in various ways without departing from the essential characteristics of the present invention. It will be applicable to the modification. In addition, the depth map reflecting the initial ratio may be determined as shown in [Equation 1] according to the characteristics of the image as an automated scheme in the process of image processing. In the case of including the reliability, the depth map may be determined according to the image characteristics. 2]. That is, the depth map generating apparatus 100 extracts the combination information corresponding to the second condition according to the image feature information included in the classified image that performs the image feature providing condition, and converts the depth algorithm and the conversion algorithm matched to the combination information. Based on the ratio, the reliability unreflected depth map ratio is calculated. The depth map generating apparatus 100 calculates the reliability unreflected depth map by using Equation 1.

도 3의 제 2 조건에 대한 예를 들자면, 분류된 영상의 영상 특징 정보를 확인한 결과, 영상 특징 정보가 '정적 영상', '가까운 영상' 및 '자연적 영상'으로 분류된 영상의 경우, 깊이 맵의 메인 뎁스는 '객체 뎁스(Object Depth)'가 되며 백그라운드인 각각의 서브 뎁스 1, 2는 '알파 블렌딩 뎁스', '포커스 뎁스'의 순서로 각각 60 %, 25 %, 10 % 정도의 비율로 결정된다. 따라서 결과적으로 각 뎁스의 비율에 따라서 합산한 값으로 깊이 맵이 설정된다.As an example of the second condition of FIG. 3, when the image feature information of the classified image is checked, in the case of the image classified as the static image, the near image, and the natural image, the depth map 'S main depth is' Object Depth', and each sub-depth 1 and 2 in the background is in the order of 'alpha blending depth' and 'focus depth' in the ratio of 60%, 25% and 10%, respectively. Is determined. Therefore, as a result, the depth map is set to the value summed up according to the ratio of each depth.

도 4는 본 발명의 일 실시예에 따른 변환 알고리즘 신뢰도 결정을 위한 제 3 조건을 나타낸 표이다.4 is a table showing a third condition for determining a conversion algorithm reliability according to an embodiment of the present invention.

제 1 조건과 제 2 조건에 따라 선택된 변환 알고리즘의 조합이 결정되고, 이들의 적절한 비율로 합산된 결과의 깊이 맵을 얻을 수 있지만, 추가적으로 각 알고리즘의 신뢰성을 반영할 필요가 있다. 이러한, 알고리즘 신뢰도를 반영하는 이유로는 제 1 조건을 통해 분류된 영상의 불확실성 때문이다. 즉, 영상 처리란 오류가 포함될 수 있고 영상 자체의 분류가 사람의 눈으로 확인하더라도 애매한 경우가 있기 때문에, 자동으로 영상의 분류를 판단하는 경우에도 불확실성 가지게 된다. 따라서 이러한 불확실성을 보완하기 위해 분류되는 결과에 대해서도 확률 정보를 반영하는 것이다.The combination of the selected conversion algorithms is determined according to the first condition and the second condition, and a depth map of the result summed at an appropriate ratio thereof can be obtained, but it is necessary to additionally reflect the reliability of each algorithm. The reason for reflecting the algorithm reliability is the uncertainty of the images classified through the first condition. In other words, the image processing may include an error, and even if the classification of the image itself is confirmed by the human eye, there is uncertainty even when automatically determining the classification of the image. Therefore, the probability information is reflected in the results classified to compensate for these uncertainties.

예를 들어서, 가까운 영상과 먼 영상의 구별이 온(ON) 또는 오프(OFF)와 같이 결정되기 어려운 경우, 영상처리를 통한 확률로 표현이 되는데, 해당 영상에 대해서 스펙트럼 분석을 수행하고, 이를 다시 SVM(Support Vector Machine)을 통해서 해당 영상이 어느 쪽으로 분류될지를 결정하게 된다. 이때, 이러한 과정에서 학습을 통해서 정해진 비율을 반영하고, 이에 따라 해당 영상을 어느 쪽으로 분류할 지의 수치적인 요소가 나오고 이것이 결과적으로 분류될 상대적인 확률에 해당하게 된다. For example, when the distinction between the near and far images is difficult to determine, such as ON or OFF, it is expressed as a probability through image processing, and the spectral analysis is performed on the corresponding images. The support vector machine (SVM) determines which direction the image is classified. At this time, in this process, the ratio is determined through learning, and accordingly, a numerical element of which to classify the corresponding image comes out and this corresponds to a relative probability to be classified as a result.

따라서, 도 4의 제 3 조건과 같이 해당 알고리즘마다 각각의 신뢰도를 설정한다. 이때, 해당 확률은 정해진 것이 아니고 각 영상 분류과정마다 결과로 주어지는 값이 반영된다. 한편, 확률이 50 %를 넘는 경우, 해당 알고리즘 분류를 위한 선택 기준이 될 수 있다. 이때, 분류를 위한 기준이 확률이 50 %를 넘는 경우라 하더라고 절대적으로 완전하다고 볼 수 없기 때문에 제 3 조건과 같은 부가적인 수단을 반영하는 것이다.Therefore, as in the third condition of FIG. 4, each reliability is set for each corresponding algorithm. At this time, the probability is not determined but the result value is reflected for each image classification process. On the other hand, if the probability is more than 50%, it may be a selection criterion for classifying the algorithm. In this case, the criteria for classification reflect additional means such as the third condition because they cannot be considered absolutely complete even if the probability exceeds 50%.

즉, 깊이 맵 생성 장치(100)는 이러한 신뢰도를 반영한 깊이 맵을 생성하기 위해 [수학식 2]를 이용할 수 있다. 여기서, 깊이 맵 생성 장치(100)는 변환 알고리즘 신뢰도를 결정하기 위해 기 설정된 제 3 조건을 이용한다. 깊이 맵 생성 장치(100)는 [수학식 2]를 이용하여 신뢰도 반영 깊이 맵을 산출한다. 따라서 결과적으로 깊이 맵 생성 장치(100) 제 2 조건에 따라 선택된 알고리즘을 조합하고 각각의 깊이 맵 비율을 반영하는 과정에서 제 3 조건에 확률 정보를 반영하며 이러한 확률 정보에 근거하여 보다 신뢰성있는 깊이 맵을 산출할 수 있을 것이다.That is, the depth map generator 100 may use Equation 2 to generate a depth map reflecting such reliability. Here, the depth map generating apparatus 100 uses a preset third condition to determine the conversion algorithm reliability. The depth map generating apparatus 100 calculates the reliability reflection depth map by using Equation 2. As a result, in the process of combining the algorithms selected according to the second condition of the depth map generating apparatus 100 and reflecting the respective depth map ratios, the probability information is reflected in the third condition and the depth map is more reliable based on the probability information. Can be calculated.

도 5는 본 발명의 일 실시예에 따른 깊이 맵 생성 방법을 설명하기 위한 순서도이다.5 is a flowchart illustrating a depth map generation method according to an embodiment of the present invention.

깊이 맵 생성 장치(100)가 수행하는 주요 동작에 대해 설명하자면, 깊이 맵 생성 장치(100)는 입력된 2D 영상 데이터(S510)를 분석하여 분류하기 위해 기 설정된 제 1 조건을 수행한다(S520). 여기서, 제 1 조건에 대해 개략적으로 설명하자면, 제 1 조건은 MTD 조건, 장면 검출 조건 및 영상 특징 부여 조건 중 적어도 하나 이상의 조건을 포함한다. 즉, 제 1 조건에 포함된 MTD 조건, 장면 검출 조건 및 영상 특징 부여 조건에 대해 설명하자면, MTD 조건은 2D 영상 데이터 중 MTD에 해당하는 프레임을 선별하는 조건이고, 장면 검출 조건은 2D 영상 데이터 중 MTD 검출 영상으로 분류되지 않은 그 나머지 영상 데이터에 대해 장면 전환점과 장면 전환점 내의 프레임을 유사 장면 그룹으로 그룹핑하는 조건이고, 영상 특징 부여 조건은 영상 특징 부여 조건을 수행하기 위해 유사 장면 그룹을 각 그룹별로 분석하여 영상 특징 정보를 부여하는 조건이다.The main operation performed by the depth map generating apparatus 100 will be described. The depth map generating apparatus 100 performs a preset first condition in order to analyze and classify the input 2D image data S510 (S520). . Here, to briefly describe the first condition, the first condition includes at least one or more of an MTD condition, a scene detection condition, and an image feature providing condition. That is, the MTD condition, the scene detection condition, and the image feature granting condition included in the first condition will be described. The MTD condition is a condition for selecting a frame corresponding to the MTD from the 2D image data, and the scene detection condition is selected from the 2D image data. The scene change point and the frames within the scene change point are grouped into similar scene groups with respect to the remaining image data not classified as the MTD detection image, and the image characterization condition is a similar scene group for each group to perform the image characterization condition. It is a condition that gives image characteristic information by analyzing.

단계 S520에서 깊이 맵 생성 장치(100)가 MTD 조건을 수행하는 과정에 대해 구체적으로 설명하자면, 깊이 맵 생성 장치(100)는 MTD 조건을 수행하기 위해, 2D 영상 데이터를 분석하고 2D 영상 데이터에서 수평으로 이동하는 객체 또는 카메라의 수평 패닝이 발생하는 프레임(f(m))을 MTD로 분류하고, MTD 검출 영상으로 그룹핑한다. 이때, 깊이 맵 생성 장치(100)는 MTD 조건을 수행할 때 2D 영상 데이터를 분석하기 위해 모션 벡터 분석, 수평 카메라 패닝, 수평 객체 움직임 중 적어도 하나 이상의 기술을 이용한다. In detail, a process of performing the MTD condition by the depth map generating apparatus 100 in step S520 will be described in detail. In order to perform the MTD condition, the depth map generating apparatus 100 analyzes 2D image data and performs horizontal processing on the 2D image data. A frame f (m) in which horizontal panning of an object moving to or a camera occurs is classified as an MTD, and grouped into an MTD detected image. In this case, the depth map generating apparatus 100 uses at least one of motion vector analysis, horizontal camera panning, and horizontal object movement to analyze 2D image data when performing the MTD condition.

또한, 깊이 맵 생성 장치(100)는 장면 검출 조건을 수행한다(S530). 깊이 맵 생성 장치(100)가 S530을 수행하는 과정에 대해 설명하자면, 2D 영상 데이터 중 MTD 검출 영상으로 분류되지 않은 그 나머지 영상 데이터에 대해 장면 전환점과 장면 전환점 내의 프레임을 유사 장면 그룹으로 그룹핑한다. 또한, 깊이 맵 생성 장치(100)가 장면 검출 조건을 수행하는 과정에 대해 보다 구체적으로 설명하자면, 깊이 맵 생성 장치(100)는 2D 영상 데이터 중 MTD로 분류되지 않은 그 나머지 영상 데이터 중 현재 프레임(f(n))을 장면 검출 시점으로 설정한 후 현재 프레임을 기준으로 히스토그램 정보, 엣지 정보 및 모션 정보 중 어느 하나가 기 설정된 임계치 이상으로 불일치하는 시점까지의 프레임을 장면 전환점으로 인식한다. 이때, 깊이 맵 생성 장치(100)는 현재 프레임과 다음 프레임을 비교하여 현재 프레임에서 다음 프레임으로 전환될 때 변동되는 부분을 판별하고, 판별된 변동 부분이 현재 프레임과 다음 프레임 간에 상호 연관성이 없는 경우, 독립적인 하나의 유사 장면 그룹으로 판단한다.In addition, the depth map generating apparatus 100 performs a scene detection condition (S530). A process of performing the depth map generating apparatus 100 by S530 may be performed by grouping scene change points and frames in the scene change points into similar scene groups with respect to the remaining image data which is not classified as the MTD detection image among the 2D image data. In addition, the process of performing the scene detection condition by the depth map generating apparatus 100 will be described in more detail. The depth map generating apparatus 100 may include a current frame among the remaining image data not classified as MTD among 2D image data. After setting f (n)) as the scene detection time, a frame up to a time point at which one of the histogram information, edge information, and motion information is inconsistent over a preset threshold is recognized as a scene change point. In this case, the depth map generating apparatus 100 compares the current frame with the next frame to determine a portion that is changed when the current frame is switched from the current frame to the next frame, and when the determined variation is not correlated between the current frame and the next frame. In other words, it is determined as an independent similar group of scenes.

깊이 맵 생성 장치(100)는 영상 특징 부여 조건을 수행한다(S540). 단계 S540에서 깊이 맵 생성 장치(100)가 영상 특징 부여 조건을 수행하는 과정에 대해 설명하자면, 깊이 맵 생성 장치(100)는 영상 특징 부여 조건을 수행하기 위해 유사 장면 그룹을 각 그룹별로 분석하여 영상 특징 정보를 부여한다. 여기서, 영상 특징 정보는 정적 영상, 동적 영상, 가까운 영상, 먼 영상, 자연적 영상 및 인공적 영상 중 적어도 하나 이상의 정보를 포함한다. 이때, 깊이 맵 생성 장치(100)는 영상 특징 부여 조건을 수행하기 위해, 모션 벡터, 글로벌 모션 벡터, 로컬 모션 벡터, 엣지 변화 정보 및 히스토그램 정보 중 적어도 하나 이상의 정보를 이용하여 유사 장면 그룹 내의 객체의 움직임이나 역동성을 확인하고, 확인 결과에 근거하여 정적 영상과 동적 영상 중 어느 하나로 분류한다. 또한, 깊이 맵 생성 장치(100)는 영상 특징 부여 조건을 수행하기 위해, 스펙트럼 분석, 블러 분석, 특징점 검출, 포커스 분석 중 적어도 하나 이상의 정보를 이용하여 유사 장면 그룹이 가까운 영상과 먼 영상 중 어느 하나로 분류한다. 또한, 깊이 맵 생성 장치(100)는 영상 특징 부여 조건을 수행하기 위해, 스펙트럼 분석, 엣지 변화 정보, 컬라 히스토그램 정보, 알파 블렌딩 알고리즘, 수평 엣지 강조 중 적어도 하나 이상의 정보를 이용하여 유사 장면 그룹이 자연적 영상과 인공적 영상 중 어느 하나로 분류한다.The depth map generating apparatus 100 performs an image feature providing condition (S540). In operation S540, the depth map generating apparatus 100 performs an image feature providing condition. The depth map generating device 100 analyzes a similar scene group for each group to perform an image feature providing condition. Give feature information. Here, the image feature information includes at least one or more of a static image, a dynamic image, a near image, a far image, a natural image, and an artificial image. At this time, the depth map generating apparatus 100 uses at least one of motion vector, global motion vector, local motion vector, edge change information, and histogram information to perform an image characterization condition. The motion or dynamics are checked and classified into either static or dynamic image based on the result of the confirmation. In addition, the depth map generating apparatus 100 may perform at least one of a near scene image and a far image having a similar scene group using at least one or more information of spectrum analysis, blur analysis, feature point detection, and focus analysis to perform an image characteristic condition. Classify. In addition, the depth map generating apparatus 100 may perform a similar scene group using at least one of spectrum analysis, edge change information, color histogram information, alpha blending algorithm, and horizontal edge emphasis to perform image characterization conditions. Classify into either image or artificial image.

즉, 깊이 맵 생성 장치(100)는 단계 S510 내지 단계 S540을 통해 영상을 분류하기 위한 동작을 수행하는데, 2D 영상 데이터가 연속적인 프레임의 집합으로 이루어져 있으므로 가능한 유사한 특성을 가지는 프레임 별로 2D 영상 데이터를 그룹화 하여 동일한 변환 알고리즘을 적용할 수 있도록 하는 영상 분류 과정을 수행하는 것이다.That is, the depth map generating apparatus 100 performs an operation for classifying an image through steps S510 to S540. Since the 2D image data is composed of a set of continuous frames, the depth map generating apparatus 100 performs 2D image data for each frame having similar characteristics as possible. The image classification process is performed by grouping to apply the same conversion algorithm.

깊이 맵 생성 장치(100)는 영상 특징 부여 조건이 수행된 분류된 영상에 해당하는 변환 알고리즘을 선택한다(S550). 단계 S550을 수행할 때 깊이 맵 생성 장치(100)는 영상 특징 부여 조건을 수행한 분류된 영상에 대한 변환 알고리즘을 선택하기 위해 제 2 조건을 이용한다. 여기서, 제 2 조건은 영상 특징 정보의 조합에 따른 조합 정보를 가지며, 조합 정보마다 복수의 알고리즘과 기 설정된 깊이 맵 비율이 매칭된 정보이다. 또한, 제 2 조건에 포함된 복수의 알고리즘은 알파 블렌딩 알고리즘, 컨텍스트 뎁스 알고리즘, 수직 뎁스 알고리즘, 객체 뎁스 알고리즘 및 포커스 뎁스 알고리즘 중 적어도 하나 이상의 알고리즘을 포함한다. 또한, 제 2 조건에 포함된 깊이 맵 비율은 메인 뎁스, 서브 1 뎁스, 서브 2 뎁스 및 옵셔널 뎁스 중 적어도 하나 이상에 대한 깊이 맵 비율을 포함한다.The depth map generating apparatus 100 selects a conversion algorithm corresponding to the classified image on which the image characteristic condition is performed (S550). When performing step S550, the depth map generating apparatus 100 uses the second condition to select a conversion algorithm for the classified image that has performed the image characteristic condition. Here, the second condition has combination information according to the combination of the image feature information, and is information in which a plurality of algorithms and a predetermined depth map ratio are matched for each combination information. Also, the plurality of algorithms included in the second condition may include at least one of an alpha blending algorithm, a context depth algorithm, a vertical depth algorithm, an object depth algorithm, and a focus depth algorithm. Also, the depth map ratio included in the second condition includes a depth map ratio with respect to at least one of a main depth, a sub 1 depth, a sub 2 depth, and an optional depth.

깊이 맵 생성 장치(100)는 변환 알고리즘의 조합에 따른 깊이 맵을 생성한다(S560). 단계 S560에 대해 보다 구체적으로 설명하자면, 깊이 맵 생성 장치(100)는 변환 알고리즘에 대한 신뢰도가 미반영된 상태에서 깊이 맵을 생성할 수 있는데, 이에 대해 설명하자면, 깊이 맵 생성 장치(100)는 영상 특징 부여 조건을 수행한 분류된 영상에 포함된 영상 특징 정보에 따라 제 2 조건에 부합하는 조합 정보를 추출하고, 조합 정보에 매칭된 변환 알고리즘과 깊이 맵 비율에 근거하여 신뢰도 미반영 깊이 맵 비율을 산출한다. 이때, 깊이 맵 생성 장치(100)는 [수학식 1]을 이용하여 신뢰도 미반영 깊이 맵을 산출한다. 한편, 깊이 맵 생성 장치(100)는 변환 알고리즘에 대한 신뢰도가 반영된 상태에서 깊이 맵을 생성할 수 있는데, 이에 대해 설명하자면, 깊이 맵 생성 장치(100)는 변환 알고리즘 신뢰도깊이 맵 생성 장치(100)를 결정하기 위해 기 설정된 제 3 조건을 이용한다. 여기서, 제 3 조건은 제 2 조건에 포함된 알고리즘에 따른 확률 정보를 포함한다. 깊이 맵 생성 장치(100)는 [수학식 2]를 이용하여 신뢰도 반영 깊이 맵을 산출한다.The depth map generating apparatus 100 generates a depth map according to a combination of transformation algorithms (S560). In more detail with reference to step S560, the depth map generating apparatus 100 may generate the depth map in a state where the reliability of the conversion algorithm is not reflected. The combination information matching the second condition is extracted according to the image feature information included in the classified image that performs the feature assignment condition, and the reliability non-reflective depth map ratio is calculated based on the conversion algorithm matched with the combination information and the depth map ratio. do. At this time, the depth map generating apparatus 100 calculates the reliability unreflected depth map by using Equation 1. Meanwhile, the depth map generator 100 may generate a depth map in a state where the reliability of the transform algorithm is reflected. To this end, the depth map generator 100 may convert the depth algorithm to the depth map generator 100. Use the third predetermined condition to determine the. Here, the third condition includes probability information according to an algorithm included in the second condition. The depth map generating apparatus 100 calculates the reliability reflection depth map by using Equation 2.

깊이 맵 생성 장치(100)는 2D 데이터에 깊이 맵을 적용한 3D 영상 데이터를 생성한다(S570). 단계 S570에 대해 보다 구체적으로 설명하자면, 깊이 맵 생성 장치(100)는 깊이 맵을 적용한 좌측 시야용 이미지 및 우측 시야용 이미지가 렌더링된 3D 영상 데이터를 생성한다. 또한, 깊이 맵 생성 장치(100)는 그룹핑된 MTD 검출 영상을 이용하여 3D 영상 데이터인 좌측 시야용 이미지 또는 우측 시야용 이미지를 생성한다. 깊이 맵 생성 장치(100) 3D 영상 데이터 대해서 완성도를 높이기 위해 3D 영상 데이터를 안정화를 수행한다(S580). 단계 S580에 대해 보다 구체적으로 설명하자면, 깊이 맵 생성 장치(100)는 3D 영상 데이터에 대한 뎁스 필터 보상 안정을 수행하여 3D 영상 데이터에 반영된 깊이 맵 정보가 기 설정된 임계치를 초과하지 않는 경우, 3D 영상 데이터가 안정화된 것으로 확인한다.The depth map generating apparatus 100 generates 3D image data to which the depth map is applied to the 2D data (S570). In more detail with reference to step S570, the depth map generating apparatus 100 generates 3D image data in which a left view image and a right view image to which the depth map is applied are rendered. In addition, the depth map generating apparatus 100 generates a left view image or a right view image, which is 3D image data, using the grouped MTD detection image. The depth map generating apparatus 100 stabilizes the 3D image data in order to increase the completeness of the 3D image data (S580). In more detail with reference to step S580, the depth map generating apparatus 100 performs depth filter compensation on the 3D image data so that the depth map information reflected in the 3D image data does not exceed a preset threshold, and the 3D image Confirm that the data is stabilized.

도 5에서는 단계 S510 내지 단계 S580을 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 5에 기재된 순서를 변경하여 실행하거나 단계 S510 내지 단계 S580 중 하나 이상의 단계를 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 5는 시계열적인 순서로 한정되는 것은 아니다.In FIG. 5, steps S510 to S580 are described as being sequentially executed. However, this is merely illustrative of the technical idea of an embodiment of the present invention, and the general knowledge in the technical field to which an embodiment of the present invention belongs. Those having a variety of modifications and variations may be applicable by changing the order described in FIG. 5 or executing one or more steps of steps S510 to S580 in parallel without departing from the essential characteristics of an embodiment of the present invention. 5 is not limited to the time series order.

전술한 바와 같이 도 5에 기재된 본 발명의 일 실시예에 따른 깊이 맵 생성 방법은 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 본 발명의 일 실시예에 따른 깊이 맵 생성 방법을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 이러한 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 발명의 일 실시예를 구현하기 위한 기능적인(Functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명의 일 실시예가 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있을 것이다.As described above, the depth map generation method according to an embodiment of the present invention described in FIG. 5 may be implemented in a program and recorded in a computer-readable recording medium. A computer-readable recording medium having recorded thereon a program for implementing a method for generating a depth map according to an embodiment of the present invention includes all kinds of recording devices storing data that can be read by a computer system. Examples of such computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, etc., and also implemented in the form of a carrier wave (e.g., transmission over the Internet) . The computer readable recording medium may also be distributed over a networked computer system so that computer readable code is stored and executed in a distributed manner. In addition, functional programs, code, and code segments for implementing an embodiment of the present invention may be easily inferred by programmers skilled in the art to which an embodiment of the present invention belongs.

도 6은 본 발명의 일 실시예에 따른 깊이 맵을 생성하기 위한 예시도이다.6 is an exemplary diagram for generating a depth map according to an embodiment of the present invention.

도 6에 도시된 (A) 영상은 제 1 조건에 의해 '정적 영상'이면서 '가까운 영상이고, '자연적 영상'으로 분류된 경우, 도 6의 (B)에 도시된 바와 같이, 깊이 맵 생성 장치(100)는 제 2 조건에 따라 특징점 검출에 따른 '새'를 객체로 추출하게 되며, 도 6의 (C)에 도시된 바와 같이, '배경'과 '객체'에 원본 영상에서 얻은 영상 특징 정보를 이용하여 '알파 블렌딩 방식'을 적용하여 최종적인 결과를 얻을 수 있다. 한편, '포커스 뎁스'를 추가적으로 적용할 수도 있다.When the image (A) shown in FIG. 6 is a static image, a close image, and classified as a natural image according to the first condition, as illustrated in FIG. According to the second condition, 100 extracts a 'bird' according to feature point detection as an object, and as shown in FIG. 6C, image characteristic information obtained from an original image in 'background' and 'object'. By using the 'alpha blending method' can be obtained the final result. Meanwhile, 'focus depth' may be additionally applied.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.

이상에서 설명한 바와 같이 본 발명은 2D 영상 데이터를 3D 영상 데이터로 변환하는 과정에서 영상의 특징에 따른 변환 알고리즘의 조합을 이용하여 생성된 깊이 맵 정보를 적용하는 분야에 적용되어, 2D 영상 데이터를 3D 영상 데이터로 변환하는 과정에서 보다 현실성 있는 입체감을 표현하기 위한 깊이 맵을 생성하기 위해 다양한 형태의 영상을 분석하고 분석 결과와 기 설정된 조건에 따라 영상을 분류하며, 분류된 각 영상에 맞는 최적의 변환 알고리즘을 조합한 깊이 맵 정보를 제공할 수 있는 효과를 발생하는 유용한 발명이다.As described above, the present invention is applied to a field for applying depth map information generated by using a combination of conversion algorithms according to characteristics of an image in a process of converting 2D image data into 3D image data, thereby converting 2D image data to 3D. In the process of converting to image data, various types of images are analyzed to classify images according to analysis results and preset conditions to generate a depth map for expressing a more realistic three-dimensional effect, and optimal conversion for each classified image is performed. It is a useful invention to generate an effect capable of providing depth map information combining algorithms.

100: 깊이 맵 생성 장치 110: 전처리부
120: 분석부 130: 후처리부
100: depth map generator 110: preprocessor
120: analysis unit 130: post-processing unit

Claims (36)

입력된 2D 영상 데이터를 분석하여 분류하는 전처리부; 및
상기 분류된 영상에 해당하는 변환 알고리즘(Algorithm)을 선택하고, 상기 변환 알고리즘의 조합에 따른 깊이 맵(Depth MAP)를 생성하는 변환부
를 포함하는 것을 특징으로 하는 깊이 맵 생성 장치.
A preprocessor for analyzing and classifying the input 2D image data; And
A transform unit that selects a transform algorithm corresponding to the classified image and generates a depth map according to a combination of the transform algorithms.
Depth map generating device comprising a.
제 1 항에 있어서,
상기 전처리부는,
상기 2D 영상 데이터를 분류하기 위해 기 설정된 제 1 조건을 이용하는 것을 특징으로 하는 깊이 맵 생성 장치.
The method of claim 1,
The preprocessing unit,
And a predetermined first condition is used to classify the 2D image data.
제 2 항에 있어서,
상기 제 1 조건은,
MTD(Modified Time Difference) 조건, 장면(Scence) 검출 조건 및 영상 특징 부여 조건 중 적어도 하나 이상의 조건을 포함하는 것을 특징으로 하는 깊이 맵 생성 장치.
The method of claim 2,
The first condition is,
And at least one or more of a modified time difference (MTD) condition, a scene detection condition, and an image characterization condition.
제 3 항에 있어서,
상기 MTD 조건은,
상기 2D 영상 데이터 중 MTD에 해당하는 프레임을 선별하는 조건인 것을 특징으로 하는 깊이 맵 생성 장치.
The method of claim 3, wherein
The MTD condition is,
And a condition for selecting a frame corresponding to MTD among the 2D image data.
제 3 항에 있어서,
상기 전처리부는,
상기 MTD 조건을 수행하기 위해, 상기 2D 영상 데이터를 분석하고 상기 2D 영상 데이터에서 수평(Horizontal)으로 이동하는 객체(Object) 또는 카메라의 수평 패닝(Panning)이 발생하는 프레임(f(m))을 MTD로 분류하고, MTD 검출 영상으로 그룹핑하는 것을 특징으로 하는 깊이 맵 생성 장치.
The method of claim 3, wherein
The preprocessing unit,
In order to perform the MTD condition, an object moving horizontally from the 2D image data and a frame f (m) where horizontal panning of the camera occurs from the 2D image data are generated. Depth map generation device characterized in that classified by the MTD, grouped by the MTD detection image.
제 5 항에 있어서,
상기 전처리부는,
상기 2D 영상 데이터를 분석하기 위해 모션 벡터 분석(Motion Vector Analysis), 수평 카메라 패닝(Horizontal Camera Panning), 수평 객체 움직임(Horizontal Moving) 중 적어도 하나 이상의 기술을 이용하는 것을 특징으로 하는 깊이 맵 생성 장치.
The method of claim 5, wherein
The preprocessing unit,
And at least one of motion vector analysis, horizontal camera panning, and horizontal moving to analyze the 2D image data.
제 5 항에 있어서,
상기 변환부는,
상기 MTD 검출 영상을 이용하여 3D 영상 데이터인 좌측 시야용 이미지 또는 우측 시야용 이미지를 생성하는 것을 특징으로 하는 깊이 맵 생성 장치.
The method of claim 5, wherein
Wherein,
And a left view image or a right view image, which is 3D image data, using the MTD detection image.
제 5 항에 있어서,
상기 전처리부는,
상기 장면 검출 조건을 수행하기 위해, 상기 2D 영상 데이터 중 상기 MTD 검출 영상으로 분류되지 않은 그 나머지 영상 데이터에 대해 장면 전환점과 장면 전환점 내의 프레임을 유사 장면 그룹으로 그룹핑하는 것을 특징으로 하는 깊이 맵 생성 장치.
The method of claim 5, wherein
The preprocessing unit,
In order to perform the scene detection condition, a depth map generating apparatus for grouping scene change points and frames in scene change points into similar scene groups with respect to the remaining image data not classified as the MTD detection image among the 2D image data. .
제 8 항에 있어서,
상기 전처리부는,
상기 2D 영상 데이터 중 상기 MTD로 분류되지 않은 그 나머지 영상 데이터 중 현재 프레임(f(n))을 장면 검출 시점(Scene Detection Point)으로 설정한 후 상기 현재 프레임을 기준으로 히스토그램 정보, 엣지 정보 및 모션 정보 중 어느 하나가 기 설정된 임계치 이상으로 불일치하는 시점까지의 프레임을 상기 장면 전환점으로 인식하는 것을 특징으로 하는 깊이 맵 생성 장치.
The method of claim 8,
The preprocessing unit,
Among the 2D image data, the current frame f (n) among the remaining image data not classified as the MTD is set as a scene detection point, and then histogram information, edge information, and motion based on the current frame. And a frame until a time point at which any one of the information does not match above a preset threshold as the scene change point.
제 9 항에 있어서,
상기 전처리부는,
상기 현재 프레임과 다음 프레임을 비교하여 상기 현재 프레임에서 상기 다음 프레임으로 전환될 때 변동되는 부분을 판별하고, 상기 판별된 변동 부분이 상기 현재 프레임과 상기 다음 프레임 간에 상호 연관성이 없는 경우, 독립적인 하나의 유사 장면 그룹으로 판단하는 것을 특징으로 하는 깊이 맵 생성 장치.
The method of claim 9,
The preprocessing unit,
Compares the current frame with a next frame to determine a portion to be changed when switching from the current frame to the next frame, and an independent one if the determined variation is not correlated between the current frame and the next frame And determine a similar scene group.
제 8 항에 있어서,
상기 전처리부는,
상기 영상 특징 부여 조건을 수행하기 위해 상기 유사 장면 그룹을 각 그룹별로 분석하여 영상 특징 정보를 부여하는 것을 특징으로 하는 깊이 맵 생성 장치.
The method of claim 8,
The preprocessing unit,
Depth map generation device characterized in that to analyze the similar scene group for each group to give the image feature information to perform the image feature assignment condition.
제 11 항에 있어서,
상기 영상 특징 정보는,
정적 영상(Static), 동적 영상(Dynamic), 가까운 영상(Close up), 먼 영상(Non Close up), 자연적 영상(Natural) 및 인공적 영상(Artificial) 중 적어도 하나 이상의 정보를 포함하는 것을 특징으로 하는 깊이 맵 생성 장치.
The method of claim 11,
The video feature information,
At least one of static, dynamic, close, non-close, natural and artificial images. Depth Map Generator.
제 12 항에 있어서,
상기 전처리부는,
상기 영상 특징 부여 조건을 수행하기 위해, 모션 벡터, 글로벌 모션 벡터, 로컬 모션 벡터, 엣지 변화 정보 및 히스토그램 정보 중 적어도 하나 이상의 정보를 이용하여 상기 유사 장면 그룹 내의 객체의 움직임이나 역동성을 확인하고, 확인 결과에 근거하여 상기 정적 영상과 상기 동적 영상 중 어느 하나로 분류하는 것을 특징으로 하는 깊이 맵 생성 장치.
13. The method of claim 12,
The preprocessing unit,
In order to perform the image characterization condition, at least one or more of a motion vector, a global motion vector, a local motion vector, edge change information, and histogram information is used to identify a motion or dynamics of an object in the similar scene group. And a depth map generating apparatus classified into one of the static image and the dynamic image based on a result of the checking.
제 12 항에 있어서,
상기 전처리부는,
상기 영상 특징 부여 조건을 수행하기 위해, 스펙트럼 분석, 블러 분석(Blur Analysis), 특징점 검출(Saliency Detection), 포커스 분석(Focus Analysis) 중 적어도 하나 이상의 정보를 이용하여 상기 유사 장면 그룹이 상기 가까운 영상과 상기 먼 영상 중 어느 하나로 분류하는 것을 특징으로 하는 깊이 맵 생성 장치.
13. The method of claim 12,
The preprocessing unit,
In order to perform the image characterization condition, the similar scene group is associated with the near image using at least one or more information of spectrum analysis, blur analysis, feature detection, and focus analysis. And a depth map generator according to one of the distant images.
제 12 항에 있어서,
상기 전처리부는,
상기 영상 특징 부여 조건을 수행하기 위해, 스펙트럼 분석(Spectrum Analysis), 엣지 변화 정보(Edge), 컬라 히스토그램(Color Histogram) 정보, 알파 블렌딩(Alpha Blending) 알고리즘, 수평 엣지 강조(Horizontal Edge Emphasis) 중 적어도 하나 이상의 정보를 이용하여 상기 유사 장면 그룹이 상기 자연적 영상과 상기 인공적 영상 중 어느 하나로 분류하는 것을 특징으로 하는 깊이 맵 생성 장치.
13. The method of claim 12,
The preprocessing unit,
In order to perform the image characterization condition, at least one of spectrum analysis, edge change information, color histogram information, alpha blending algorithm, and horizontal edge emphasis And the similar scene group is classified into one of the natural image and the artificial image by using one or more pieces of information.
제 12 항에 있어서,
상기 변환부는,
상기 영상 특징 부여 조건을 수행한 상기 분류된 영상에 대한 상기 변환 알고리즘을 선택하기 위해 제 2 조건을 이용하는 것을 특징으로 하는 깊이 맵 생성 장치.
13. The method of claim 12,
Wherein,
And a second condition is used to select the transform algorithm for the classified image that has performed the image characteristic condition.
제 16 항에 있어서,
상기 제 2 조건은,
상기 영상 특징 정보의 조합에 따른 조합 정보를 가지며, 상기 조합 정보마다 복수의 알고리즘과 기 설정된 깊이 맵 비율이 매칭된 정보인 것을 특징으로 하는 깊이 맵 생성 장치.
17. The method of claim 16,
The second condition is that,
Depth map generation device having combination information according to the combination of the image feature information, the plurality of algorithms and a predetermined depth map ratio is matched for each combination information.
제 17 항에 있어서,
상기 복수의 알고리즘은,
알파 블렌딩(Alpha Blending) 알고리즘, 컨텍스트 뎁스(Context Depth) 알고리즘, 수직 뎁스(Vertical Depth) 알고리즘, 객체 뎁스(Object Depth) 알고리즘 및 포커스 뎁스(Focus Depth) 알고리즘 중 적어도 하나 이상의 알고리즘을 포함하는 것을 특징으로 하는 깊이 맵 생성 장치.
The method of claim 17,
The plurality of algorithms,
And at least one of an alpha blending algorithm, a context depth algorithm, a vertical depth algorithm, an object depth algorithm, and a focus depth algorithm. Depth map generator.
제 17 항에 있어서,
상기 깊이 맵 비율은,
메인 뎁스(Main Depth), 서브 1 뎁스(Sub 1 Depth), 서브 2 뎁스(Sub 2 Depth) 및 옵셔널 뎁스(Optional Depth) 중 적어도 하나 이상에 대한 깊이 맵 비율을 포함하는 것을 특징으로 하는 깊이 맵 생성 장치.
The method of claim 17,
The depth map ratio is,
A depth map comprising a depth map ratio for at least one of a Main Depth, a Sub 1 Depth, a Sub 2 Depth, and an Optional Depth Generating device.
제 19 항에 있어서,
상기 변환부는,
상기 영상 특징 부여 조건을 수행한 상기 분류된 영상에 포함된 상기 영상 특징 정보에 따라 상기 제 2 조건에 부합하는 상기 조합 정보를 추출하고, 상기 조합 정보에 매칭된 상기 변환 알고리즘과 상기 깊이 맵 비율에 근거하여 신뢰도 미반영 깊이 맵 비율을 산출하는 것을 특징으로 하는 깊이 맵 생성 장치.
The method of claim 19,
Wherein,
Extracting the combination information corresponding to the second condition according to the image feature information included in the classified image that has performed the image feature providing condition, and extracts the combination information corresponding to the combination information and the depth map ratio. And a depth map ratio is calculated based on the reliability unreflected depth map ratio.
제 20 항에 있어서,
상기 변환부는,
Depth(f) = αA + βB + γC
(A,B,C: 각 알고리즘, α: 기 설정된 메인 뎁스 비율, β: 기 설정된 서브 1 뎁스 비율, γ: 기 설정된 서브 2 뎁스 비율)
의 수학식을 이용하여 신뢰도 미반영 깊이 맵을 산출하는 것을 특징으로 하는 깊이 맵 생성 장치.
21. The method of claim 20,
Wherein,
Depth (f) = αA + βB + γC
(A, B, C: each algorithm, α: preset main depth ratio, β: preset sub 1 depth ratio, γ: preset sub 2 depth ratio)
Depth map generation device characterized in that for calculating the reliability unreflected depth map using the equation.
제 18 항에 있어서,
상기 변환부는,
변환 알고리즘 신뢰도(Fidelith)를 결정하기 위해 기 설정된 제 3 조건을 이용하여 것을 특징으로 하는 깊이 맵 생성 장치.
The method of claim 18,
Wherein,
Depth map generating device using a third predetermined condition to determine the conversion algorithm (Fidelith).
제 22 항에 있어서,
상기 제 3 조건은,
상기 제 2 조건에 포함된 알고리즘에 따른 확률 정보를 포함하는 것을 특징으로 하는 깊이 맵 생성 장치.
The method of claim 22,
The third condition is that,
And depth information generating apparatus according to the algorithm included in the second condition.
제 23 항에 있어서,
상기 변환부는,
Depth(f`) = α`A + β`B + γ`C
(A,B,C: 각 알고리즘, α`: 기 설정된 메인 뎁스 비율×A의 확률 정보, β`: 기 설정된 서브 1 뎁스 비율×B의 확률 정보, γ`: 기 설정된 서브 2 뎁스 비율×C의 확률 정보)
의 수학식을 이용하여 신뢰도 반영 깊이 맵을 산출하는 것을 특징으로 하는 깊이 맵 생성 장치.
24. The method of claim 23,
Wherein,
Depth (f`) = α`A + β`B + γ`C
(A, B, C: each algorithm, α`: probability information of preset main depth ratio XA, β`: probability information of preset sub-1 depth ratio × B, γ`: preset sub-2 depth ratio × C Probability information)
Depth map generation device characterized in that for calculating the reliability reflected depth map using the equation.
제 1 항에 있어서,
상기 변환부는,
상기 2D 데이터에 상기 깊이 맵을 적용한 3D 영상 데이터를 생성하는 것을 특징으로 하는 깊이 맵 생성 장치.
The method of claim 1,
Wherein,
And generating 3D image data to which the depth map is applied to the 2D data.
제 25 항에 있어서,
상기 변환부는,
상기 깊이 맵을 적용한 좌측 시야용 이미지 및 우측 시야용 이미지가 렌더링(Rendering)된 상기 3D 영상 데이터를 생성하는 것을 특징으로 하는 깊이 맵 생성 장치.
The method of claim 25,
Wherein,
And generating the 3D image data in which the left view image and the right view image to which the depth map is applied are rendered.
제 1 항에 있어서,
상기 3D 영상 데이터를 안정화하는 후처리부를 추가로 포함하는 것을 특징으로 하는 깊이 맵 생성 장치.
The method of claim 1,
And a post-processing unit for stabilizing the 3D image data.
제 27 항에 있어서,
상기 후처리부는,
상기 3D 영상 데이터에 대한 뎁스 필터 보상 안정(Depth Filter Compensation Stabilizer)을 수행하여 상기 3D 영상 데이터에 반영된 깊이 맵 정보가 기 설정된 임계치를 초과하지 않는 경우, 상기 3D 영상 데이터가 안정화된 것으로 확인하는 것을 특징으로 하는 깊이 맵 생성 장치.
The method of claim 27,
The post-
When the depth map information reflected in the 3D image data does not exceed a preset threshold by performing depth filter compensation stabilization on the 3D image data, it is confirmed that the 3D image data is stabilized. Depth map generator.
입력된 2D 영상 데이터를 분석하여 분류하는 전처리 단계; 및
상기 분류된 영상에 해당하는 변환 알고리즘(Algorithm)을 선택하고, 상기 변환 알고리즘의 조합에 따른 깊이 맵(Depth MAP)를 생성하는 변환 단계
를 포함하는 것을 특징으로 하는 깊이 맵 생성 방법.
A preprocessing step of analyzing and classifying the input 2D image data; And
A transformation step of selecting a transformation algorithm corresponding to the classified image and generating a depth map according to a combination of the transformation algorithms
Depth map generation method comprising a.
제 29 항에 있어서,
상기 전처리 단계는,
상기 2D 영상 데이터를 분류하기 위해 MTD(Modified Time Difference) 조건, 장면(Scence) 검출 조건 및 영상 특징 부여 조건 중 적어도 하나 이상의 조건을 포함하는 제 1 조건을 이용하는 것을 특징으로 하는 깊이 맵 생성 방법.
30. The method of claim 29,
The pretreatment step,
And a first condition including at least one of a Modified Time Difference (MTD) condition, a Scene detection condition, and an image feature providing condition to classify the 2D image data.
제 30 항에 있어서,
상기 전처리부 단계는,
상기 MTD 조건을 수행하기 위해, 상기 2D 영상 데이터를 분석하고 상기 2D 영상 데이터에서 수평(Horizontal)으로 이동하는 객체(Object) 또는 카메라의 수평 패닝(Panning)이 발생하는 프레임(f(m))을 MTD로 분류하고, MTD 검출 영상으로 그룹핑하는 것을 특징으로 하는 깊이 맵 생성 방법.
31. The method of claim 30,
The preprocessor step,
In order to perform the MTD condition, an object moving horizontally from the 2D image data and a frame f (m) where horizontal panning of the camera occurs from the 2D image data are generated. Depth map generation method characterized in that classified by the MTD, grouped by the MTD detection image.
제 30 항에 있어서,
상기 전처리 단계는,
상기 장면 검출 조건을 수행하기 위해, 상기 2D 영상 데이터 중 상기 MTD 검출 영상으로 분류되지 않은 그 나머지 영상 데이터에 대해 장면 전환점과 장면 전환점 내의 프레임을 유사 장면 그룹으로 그룹핑하는 것을 특징으로 하는 깊이 맵 생성 방법.
31. The method of claim 30,
The pretreatment step,
In order to perform the scene detection condition, a depth map generation method for grouping scene transition points and frames in scene transition points into similar scene groups for the remaining image data not classified as the MTD detection image among the 2D image data. .
제 30 항에 있어서,
상기 전처리 단계는,
상기 영상 특징 부여 조건을 수행하기 위해 상기 유사 장면 그룹을 각 그룹별로 분석하여 영상 특징 정보를 부여하는 것을 특징으로 하는 깊이 맵 생성 방법.
31. The method of claim 30,
The pretreatment step,
And analyzing the similar scene group for each group and assigning image feature information to perform the image feature providing condition.
제 33 항에 있어서,
상기 변환 단계는,
상기 영상 특징 부여 조건을 수행한 상기 분류된 영상에 대한 상기 변환 알고리즘을 선택하기 위해 제 2 조건을 이용하는 것을 특징으로 하는 깊이 맵 생성 방법.
34. The method of claim 33,
The conversion step,
And a second condition is used to select the transform algorithm for the classified image which has performed the image characteristic condition.
제 34 항에 있어서,
상기 변환 단계는,
상기 영상 특징 부여 조건을 수행한 상기 분류된 영상에 포함된 상기 영상 특징 정보에 따라 상기 제 2 조건에 부합하는 상기 조합 정보를 추출하고, 상기 조합 정보에 매칭된 상기 변환 알고리즘과 상기 깊이 맵 비율에 근거하여 신뢰도 미반영 깊이 맵 비율을 산출하는 것을 특징으로 하는 깊이 맵 생성 방법.
35. The method of claim 34,
The conversion step,
Extracting the combination information corresponding to the second condition according to the image feature information included in the classified image that has performed the image feature providing condition, and extracts the combination information corresponding to the combination information and the depth map ratio. Calculating a depth map ratio without reflecting reliability based on the depth map generation method.
제 18 항에 있어서,
상기 변환 단계는,
변환 알고리즘 신뢰도(Fidelith)를 결정하기 위해 상기 제 2 조건에 포함된 알고리즘에 따른 확률 정보를 포함하는 제 3 조건을 이용하여 것을 특징으로 하는 깊이 맵 생성 방법.
The method of claim 18,
The conversion step,
And a third condition including probability information according to an algorithm included in the second condition to determine a transform algorithm reliability.
KR1020110062518A 2011-06-27 2011-06-27 Method And Apparatus for Generating Depth MAP KR101820456B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110062518A KR101820456B1 (en) 2011-06-27 2011-06-27 Method And Apparatus for Generating Depth MAP

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110062518A KR101820456B1 (en) 2011-06-27 2011-06-27 Method And Apparatus for Generating Depth MAP

Publications (2)

Publication Number Publication Date
KR20130001635A true KR20130001635A (en) 2013-01-04
KR101820456B1 KR101820456B1 (en) 2018-01-22

Family

ID=47834606

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110062518A KR101820456B1 (en) 2011-06-27 2011-06-27 Method And Apparatus for Generating Depth MAP

Country Status (1)

Country Link
KR (1) KR101820456B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104537637A (en) * 2014-11-11 2015-04-22 清华大学深圳研究生院 Method and device for estimating depth of single static image
KR20150108094A (en) * 2014-03-17 2015-09-25 에스케이플래닛 주식회사 Multiclass classification apparatus, method thereof and computer readable medium having computer program recorded therefor
WO2016171296A1 (en) * 2015-04-24 2016-10-27 재단법인 다차원 스마트 아이티 융합시스템 연구단 Method and device for estimating depth of image by using aperture of non-square and non-circle shape
WO2021076185A1 (en) * 2019-10-14 2021-04-22 Google Llc Joint depth prediction from dual-cameras and dual-pixels

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220028496A (en) 2020-08-28 2022-03-08 삼성전자주식회사 Holographic display apparatus and operating method of the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150108094A (en) * 2014-03-17 2015-09-25 에스케이플래닛 주식회사 Multiclass classification apparatus, method thereof and computer readable medium having computer program recorded therefor
CN104537637A (en) * 2014-11-11 2015-04-22 清华大学深圳研究生院 Method and device for estimating depth of single static image
CN104537637B (en) * 2014-11-11 2017-06-16 清华大学深圳研究生院 A kind of single width still image depth estimation method and device
WO2016171296A1 (en) * 2015-04-24 2016-10-27 재단법인 다차원 스마트 아이티 융합시스템 연구단 Method and device for estimating depth of image by using aperture of non-square and non-circle shape
WO2021076185A1 (en) * 2019-10-14 2021-04-22 Google Llc Joint depth prediction from dual-cameras and dual-pixels

Also Published As

Publication number Publication date
KR101820456B1 (en) 2018-01-22

Similar Documents

Publication Publication Date Title
US20190289359A1 (en) Intelligent video interaction method
JP5366824B2 (en) Method and system for converting 2D video to 3D video
Battiato et al. 3D stereoscopic image pairs by depth-map generation
CN102741879B (en) Method for generating depth maps from monocular images and systems using the same
US9460351B2 (en) Image processing apparatus and method using smart glass
Butler et al. Real-time adaptive foreground/background segmentation
US20170285916A1 (en) Camera effects for photo story generation
US9167232B2 (en) System for converting 2D video into 3D video
CN112464814A (en) Video processing method and device, electronic equipment and storage medium
US10762649B2 (en) Methods and systems for providing selective disparity refinement
JP2011509451A (en) Segmentation of image data
US20130257851A1 (en) Pipeline web-based process for 3d animation
KR102573933B1 (en) Method and apparatus for Machine Learning-based 4D Media Authoring
Lei et al. A novel key-frame extraction approach for both video summary and video index
KR20130001635A (en) Method and apparatus for generating depth map
JP2022538928A (en) Image processing method and apparatus, electronic device, computer-readable storage medium
WO2017167381A1 (en) Method for foreground and background determination in an image
CN110418148B (en) Video generation method, video generation device and readable storage medium
KR101125061B1 (en) A Method For Transforming 2D Video To 3D Video By Using LDI Method
KR101316848B1 (en) Apparatus and method for automatic object segmentation for background composition
CN112383824A (en) Video advertisement filtering method, device and storage medium
CN113313635A (en) Image processing method, model training method, device and equipment
CN113875227A (en) Information processing apparatus, information processing method, and program
Pourazad et al. Random forests-based 2D-to-3D video conversion
CN115065863B (en) Video generation method, device, electronic equipment and storage medium

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right