KR20110047814A - Apparatus and method for dividing moving picture data in moving picture system - Google Patents

Apparatus and method for dividing moving picture data in moving picture system Download PDF

Info

Publication number
KR20110047814A
KR20110047814A KR1020090104587A KR20090104587A KR20110047814A KR 20110047814 A KR20110047814 A KR 20110047814A KR 1020090104587 A KR1020090104587 A KR 1020090104587A KR 20090104587 A KR20090104587 A KR 20090104587A KR 20110047814 A KR20110047814 A KR 20110047814A
Authority
KR
South Korea
Prior art keywords
video data
information
frame
depth information
depth
Prior art date
Application number
KR1020090104587A
Other languages
Korean (ko)
Inventor
엄기문
방건
정원식
허남호
김진웅
이수인
박지민
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020090104587A priority Critical patent/KR20110047814A/en
Publication of KR20110047814A publication Critical patent/KR20110047814A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20161Level set

Abstract

PURPOSE: A video data partition apparatus and method thereof in a video system are provided to partition video data by using color information, depth information, and motion information in a video system. CONSTITUTION: A storing unit(110) stores a plurality of video data that is photographed by a plurality of image photographing device. A first extracting unit(121) extracts color information from video data for each frame. A first partition unit(131) partitions frames of video data and extracts depth information from video data. A second extracting unit(122) extracts motion information by suing color information. A second partition unit(132) partitions video data by using motion information and depth information.

Description

동영상 시스템에서 동영상 데이터 분할 장치 및 방법{Apparatus and method for dividing moving picture data in moving picture system}Apparatus and method for dividing moving picture data in moving picture system}

본 발명은 동영상 시스템에 관한 것으로, 특히 동영상 시스템에서 컬러 정보, 깊이 정보, 움직임 정보를 이용하여 동영상 데이터를 분할하는 장치 및 방법에 관한 것이다.The present invention relates to a moving picture system, and more particularly, to an apparatus and method for dividing moving picture data using color information, depth information, and motion information in a moving picture system.

동영상은 복수개의 프레임들로 구성되며, 복수개의 프레임들을 연속적으로 빠르게 재생함으로써 사용자에게 프레임에 포함된 객체들이 움직이는 것처럼 느끼도록 하는 영상이다. 이러한 동영상 데이터는 초당 프레임 수에 따라 화질이 결정된다. 즉, 동영상 데이트는 복수개의 프레임이 순간적으로 조금씩 바뀌면서 빠르게 넘어가는 영상으로, 1초에 몇 장의 프레임이 삽입되어 움직이는지에 따라 움직임의 부드러움이 결정된다. The video is composed of a plurality of frames, and is a video that makes the user feel as if the objects included in the frame is moving by playing the plurality of frames in quick succession. The quality of such video data is determined by the number of frames per second. In other words, the video date is a video that is quickly skipped as the plurality of frames change momentarily little by little, the smoothness of the movement is determined by how many frames are inserted and moved in one second.

일반적으로 사용자는 보다 화질이 좋은 동영상 데이터를 시청하고자 하기 때문에 동영상 데이터의 초당 프레임 수를 증가시켜 사용자의 요구를 만족시킨다. 하지만, 동영상 데이터의 초당 프레임 수가 증가하면 동영상 데이터의 크기가 커지기 때문에 동영상 데이터를 동영상 수신기로 송신하는 시간이 오래 걸린다. 이와 같은 이유로 동영상을 압축하는 방법이나, 동영상을 분할하는 방법이 연구되고 있다. 또한, 상기 동영상 분할 방법으로 이미지의 여러 특징을 기반으로 균일하고 유사한 영역 단위로 영상을 나누는 방법이 있으며, 의학 영상처리나 로봇 주행을 위한 영상 분석과 컴퓨터 비전 작업에 있어서 가장 중요한 요소 중의 하나이다. 이러한 이유로 동영상을 분할하는 방법은 스테레오 정합 및 컴퓨터 비전 분야에서 연구 대상이 되어 왔으며, 아직까지도 많은 연구가 이루어지고 있다.In general, since the user wants to view more high quality video data, the user's needs are satisfied by increasing the number of frames per second of the video data. However, when the number of frames per second of video data increases, the size of the video data increases, which takes a long time to transmit the video data to the video receiver. For this reason, a method of compressing a video or a method of segmenting a video has been studied. In addition, there is a method of dividing the image into uniform and similar area units based on various features of the image as the video segmentation method, which is one of the most important elements in image analysis and computer vision work for medical image processing or robot driving. For this reason, video segmentation methods have been studied in the field of stereo matching and computer vision, and much research has been done.

기존에 연구되었던 동영상 분할 방법은 동영상의 컬러, 에지, 텍스쳐 등과 같은 하위 특징들을 이용하여 동영상을 분할하였다. 하지만, 동영상의 컬러, 에지, 텍스쳐 만으로는 동영상의 정보를 모두 표현하기 힘들기 때문에 객체 별로 영상을 분할할 수 없다는 단점이 있다. 그래서 최근에는 동영상에 포함되는 객체들을 각각 분할 할 수 없는 단점을 해결하기 위해서 최근에는 하위 특징들의 조합을 이용하여 동영상을 분할하려는 연구들이 많이 진행되고 있다.The video segmentation method, which has been studied previously, segmented the video using sub-features such as color, edge, and texture of the video. However, since it is difficult to express all the information of the video only by the color, edge, and texture of the video, there is a disadvantage in that the image cannot be divided by objects. Recently, in order to solve the disadvantage that the objects included in the video cannot be divided, a lot of researches have recently been conducted to segment the video using the combination of sub-features.

그러나 현재 제안된 영상을 분할하는 방법은 동영상에 포함되는 객체의 컬러와 텍스쳐가 비슷할 경우에는 영상에 포함되는 객체별로 분할하는 것이 불가능하다. 따라서, 이러한 문제점을 해결하면서 영상을 분할할 수 있는 영상을 분할하는 방안이 필요하다.However, the currently proposed method of segmenting an image cannot be segmented for each object included in the image when the color and texture of the object included in the video are similar. Accordingly, there is a need for a method of segmenting an image that can segment an image while solving such a problem.

따라서, 본 발명의 목적은, 동영상 시스템에서 동영상 데이터 분할 장치 및 방법을 제공함에 있다. Accordingly, an object of the present invention is to provide a video data segmentation apparatus and method in a video system.

그리고, 본 발명의 다른 목적은, 동영상 시스템에서 컬러 정보, 깊이 정보, 움직임 정보를 이용하여 동영상 데이터를 분할하는 장치 및 방법을 제공함에 있다.Another object of the present invention is to provide an apparatus and method for dividing moving image data using color information, depth information, and motion information in a moving image system.

또한, 본 발명의 다른 목적은, 동영상 시스템에서 동영상의 프레임 별로 동영상 데이터의 컬러 정보, 깊이 정보, 움직임 정보를 추출하여 동영상 데이터를 분할하는 장치 및 방법을 제공함에 있다.Another object of the present invention is to provide an apparatus and method for dividing moving image data by extracting color information, depth information, and motion information of moving image data for each frame of the moving image in a moving image system.

아울러, 본 발명의 또 다른 목적은, 동영상 시스템에서 동영상으로부터 추출한 동영상 데이터의 컬러 정보, 깊이 정보, 움직임 정보를 업데이트 하여 분할된 동영상 데이터의 연속성을 유지시키는 동영상 데이터 분할 장치 및 방법을 제공함에 있다.In addition, another object of the present invention is to provide a video data segmentation apparatus and method for maintaining the continuity of the segmented video data by updating the color information, depth information, motion information of the video data extracted from the video in the video system.

상기한 목적들을 해결하기 위해 본 발명의 일 실시예에 따른 동영상 데이터 분할 장치는, 복수개의 영상촬영기기에 의해 촬영된 복수개의 동영상 데이터를 프레임별로 동기를 맞추어 저장하는 저장부; 상기 동영상 데이터에서 프레임별로 컬러 정보를 추출하는 제 1 추출부; 상기 동영상 데이터에서 프레임별로 깊이 정보를 추출하여 상기 동영상 데이터의 프레임들을 각각 전경 영역 및 배경 영역으로 분리하는 제 1 분리부; 상기 전경 영역과 배경 영역 및 상기 컬러 정보를 이용하여 프레임별로 움직임 정보를 추출하는 제 2 추출부; 및 상기 컬러 정보, 상기 깊이 정 보, 및 상기 움직임 정보를 이용하여 상기 동영상 데이터를 분할하는 제 2 분리부를 포함하는 것을 특징으로 한다.In order to solve the above objects, a video data segmentation apparatus according to an embodiment of the present invention includes a storage unit for synchronizing and storing a plurality of video data shot by a plurality of video photographing apparatuses frame by frame; A first extracting unit extracting color information for each frame from the video data; A first separator extracting depth information for each frame from the video data and separating the frames of the video data into a foreground area and a background area, respectively; A second extracting unit extracting motion information for each frame by using the foreground area, the background area, and the color information; And a second separator configured to segment the video data using the color information, the depth information, and the motion information.

본 발명의 일 실시예에 따른 동영상 데이터 분할 방법은, 복수개의 영상 촬영기기에 의해 촬영된 복수개의 동영상 데이터를 프레임별로 동기를 맞추어 저장하는 단계; 상기 동영상 데이터에서 프레임별로 컬러 정보 및 깊이 정보를 추출하는 단계; 상기 깊이 정보를 이용하여 상기 동영상 데이터의 프레임들을 각각 전경 영역 및 배경 영역으로 분리하는 단계; 상기 전경 영역과 배경 영역 및 상기 컬러 정보를 이용하여 프레임별로 움직임 정보를 추출하는 단계; 및 상기 컬러 정보, 상기 깊이 정보, 및 상기 움직임 정보를 이용하여 상기 동영상 데이터를 분할하는 단계를 포함하는 것을 특징으로 한다.In accordance with another aspect of the present invention, there is provided a video data segmentation method comprising: synchronizing and storing a plurality of video data photographed by a plurality of video photographing apparatuses frame by frame; Extracting color information and depth information for each frame from the video data; Dividing the frames of the moving image data into a foreground area and a background area by using the depth information; Extracting motion information for each frame by using the foreground area, the background area, and the color information; And dividing the moving image data by using the color information, the depth information, and the motion information.

본 발명은, 동영상 시스템에서 동영상의 프레임 별로 동영상 데이터의 컬러 정보, 깊이 정보, 움직임 정보를 추출하여 동영상 데이터를 분할할 수 있다. 또한 본 발명은, 동영상 시스템에서 동영상으로부터 추출한 동영상 데이터의 컬러 정보, 깊이 정보, 움직임 정보를 업데이트 하여 분할된 동영상 데이터의 연속성을 유지시킬 수 있다. 본 발명은 스테레오 또는 다시점 깊이 정보 추출에 이용되어 프레임별 깊이 데이터의 연속성을 유지시킬 수 있다.According to the present invention, the video data may be extracted by color information, depth information, and motion information of the video data for each frame of the video. In addition, the present invention can maintain the continuity of the divided video data by updating the color information, depth information, and motion information of the video data extracted from the video in the video system. The present invention can be used to extract stereo or multi-view depth information to maintain continuity of depth data for each frame.

상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되어 있 는 상세한 설명을 통하여 보다 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. The above objects, features, and advantages will be more clearly understood from the following detailed description with reference to the accompanying drawings, and accordingly, those skilled in the art to which the present invention pertains may have the technical idea of the present invention. It will be easy to implement. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

본 발명은, 동영상 시스템에서, 동영상 데이터 분할 장치 및 방법을 제안한다. 여기서, 후술할 본 발명의 실시 예에서는 동영상 시스템에서 컬러 정보, 깊이 정보, 움직임 정보를 이용하여 동영상 데이터를 분할하는 장치 및 방법을 제안한다. 또한, 본 발명의 실시 예에서는 동영상 시스템에서 동영상으로부터 추출한 동영상 데이터의 컬러 정보, 깊이 정보, 움직임 정보를 업데이트 하여 분할된 동영상 데이터의 연속성을 유지시키는 동영상 데이터 분할 장치 및 방법을 제안한다. 그러면 여기서, 도 1을 참조하여 본 발명의 실시예에 따른 동영상 시스템에서 동영상 데이터를 분할하는 장치를 보다 구체적으로 설명하기로 한다. The present invention proposes a video data segmentation apparatus and method in a video system. Here, an embodiment of the present invention to be described later proposes an apparatus and method for segmenting video data using color information, depth information, and motion information in a video system. In addition, an embodiment of the present invention proposes a video data segmentation apparatus and method for maintaining the continuity of segmented video data by updating color information, depth information, and motion information of video data extracted from a video in a video system. Next, an apparatus for dividing video data in a video system according to an exemplary embodiment of the present invention will be described in more detail with reference to FIG. 1.

도 1은 본 발명의 실시예에 따른 동영상 시스템에서 동영상 데이터를 분할하는 장치의 구조를 개략적으로 도시한 도면이다. 1 is a diagram schematically illustrating a structure of an apparatus for dividing moving image data in a moving image system according to an exemplary embodiment of the present invention.

도 1을 참조하면, 본 발명에 따른 동영상 데이터 분할 장치는 저장부(110), 추출부(120), 분리부(130), 산출부(140), 조정부(150), 기록부(160)를 포함한다. 저장부(110)는 제 1 저장부(111)와 제 2 저장부(112)를 포함하며, 추출부(120)는 제 1 추출부(121)와 제 2 추출부(122)를 포함하고, 분리부(130)는 제 1 분리부(131)와 제 2 분리부(132)를 포함한다.Referring to FIG. 1, the video data splitting apparatus according to the present invention includes a storage unit 110, an extraction unit 120, a separation unit 130, a calculation unit 140, an adjustment unit 150, and a recording unit 160. do. The storage unit 110 includes a first storage unit 111 and a second storage unit 112, and the extraction unit 120 includes a first extraction unit 121 and a second extraction unit 122, The separator 130 includes a first separator 131 and a second separator 132.

여기서, 상기 동영상 데이터는, 도 1에 구체적으로 도시하지는 않았으나 다양한 형태의 복수의 영상 촬영기기들, 예컨대 다중 시점 비디오 카메라 또는 스테레오 비디오 카메라 및 깊이 카메라 등에 의해 촬영된 동영상 데이터로서, 상기 영상 촬영기기들에서 상기 동영상 데이터 분할장치로 수신된다. 상기 다중 시점 비디오 카메라는 적어도 하나 이상의 카메라를 통해 여러 시점에서 촬영된 컬러 동영상을 사용자에게 제공하는 카메라를 의미한다. 그리고 스테레오 비디오 카메라는 한 장의 영상에 좌/우 두 시점의 영상을 동시에 카메라를 의미한다. 또한, 깊이 동영상 데이터는 깊이 카메라에 의해 촬영되어 수신된 데이터를 의미한다.Although the video data is not specifically illustrated in FIG. 1, the video data is video data photographed by a plurality of video recording apparatuses of various types, for example, a multi-view video camera or a stereo video camera and a depth camera. Is received by the video data splitting apparatus. The multi-view video camera refers to a camera that provides a user with color video captured at various viewpoints through at least one camera. In addition, a stereo video camera means a camera that simultaneously records images of two left and right views on a single image. In addition, the depth video data refers to data captured and received by the depth camera.

상기 제 1 저장부(111)는 복수개의 카메라에 의해 촬영된 동영상 데이터를 수신하고, 동영상 데이터의 프레임들을 동기를 맞추어 저장한다. 상기 제 2 저장부(112)는 깊이 카메라에 의해 촬영된 깊이 동영상 데이터를 동기를 맞추어 저장한다. The first storage 111 receives video data photographed by a plurality of cameras, and stores frames of the video data in synchronization. The second storage unit 112 synchronizes and stores the depth video data captured by the depth camera.

상기 제 1 추출부(121)는 상기 제 1 저장부(111)에 저장된 동영상 데이터를 수신하고, 상기 동영상 데이터가 복수의 프레임들로 구성됨에 따라, 상기 동영상 데이터에서 프레임 별로 컬러 영상을 각각 분리하고, 상기 프레임 별로 분리한 컬러 영상을 각각 컬러 별로 분리한 후 컬러 별로 그룹화하여 상기 동영상 데이터의 컬러 정보를 추출한다. 여기서, 상기 제 1 추출부(121)는, 평균 이동 알고리즘을 이용하여 상기 동영상 데이터의 컬러 정보를 추출할 수 있을 뿐만 아니라, 상기 평균 이동 알고리즘 이외의 다른 다양한 형태의 알고리즘을 이용하여 컬러 정보를 추출할 수 있다. 그리고, 상기 평균 이동 알고리즘은, 동영상 데이터에서 모든 프레 임에 포함된 컬러들을 유사한 색상 별로 컬러를 분리하여 컬러 정보를 추출하는 방식이다.The first extractor 121 receives the video data stored in the first storage 111 and, as the video data is composed of a plurality of frames, separates the color image for each frame from the video data. The color images separated by the frames are separated by colors, and grouped by colors to extract color information of the video data. Here, the first extractor 121 may not only extract color information of the video data using an average moving algorithm, but also extract color information using various types of algorithms other than the average moving algorithm. can do. In addition, the average shift algorithm is a method of extracting color information by separating the colors included in all frames from the moving image data by similar colors.

상기 제 1 분리부(131)는, 상기 깊이 동영상 데이터를 상기 제 2 저장부(112)로부터 수신하고, 상기 깊이 동영상 데이터에서 프레임 별로 깊이 정보를 추출한 후, 상기 추출한 깊이 정보를 이용하여 깊이 동영상 데이터를 전경 영역과 배경 영역으로 분리하여 저장한다. 즉, 상기 제 1 분리부(131)는 수신한 깊이 동영상 데이터에서 깊이 영상 정보를 추출한다. The first separator 131 receives the depth video data from the second storage unit 112, extracts depth information for each frame from the depth video data, and then uses the extracted depth information to extract depth video data. Saves it into the foreground area and background area. That is, the first separator 131 extracts depth image information from the received depth video data.

여기서, 상기 깊이 동영상 데이터는, 상기 동영상 데이터에 포함된 다양한 형태의 영상들 중에서 깊이 정보를 포함하고 있는 영상, 예컨대 그레이 영상을 의미한다. 그리고, 상기 깊이 정보는, 상기 깊이 동영상 데이터의 프레임 내에서 소정 관점(viewpoint)으로부터 상기 프레임에 나타나 있는 객체까지의 거리를 지시하는 정보를 의미한다. 그에 따라, 상기 제 1 분리부(131)는, 소정의 관점으로부터 상기 프레임에 나타나 있는 객체의 거리를 픽셀 값으로 나타낼 수 있는 상기 깊이 정보를 추출한다.Here, the depth video data refers to an image including depth information among various types of images included in the video data, for example, a gray image. The depth information refers to information indicating a distance from a predetermined viewpoint to an object shown in the frame within the frame of the depth video data. Accordingly, the first separator 131 extracts the depth information that can represent the distance of the object represented in the frame as a pixel value from a predetermined viewpoint.

예를 들어 보다 구체적으로 설명하면, 상기 제 1 분리부(131)에 의해 나타낸 픽셀의 값이 0에 가까울수록 검은색에 가까운 색이며, 이러한 검은색에 가까울수록 소정의 시점으로부터 멀리 있는 객체를 의미한다. 또한, 상기 제 1 분리부(131)에 의해 나타낸 픽셀의 값이 255에 가까울수록 흰색에 가까운 색이며, 이러한 흰색흰색에 가까울수록 소정의 시점으로부터 가까이 있는 객체를 의미한다. For example, in more detail, as the value of the pixel indicated by the first separator 131 is closer to 0, the color is closer to black, and the closer to this black color is the object farther from the predetermined point of view. do. In addition, as the value of the pixel represented by the first separator 131 is closer to 255, the color is closer to white, and the closer to white, the closer the object is from a predetermined viewpoint.

상기 제 1 분리부(131)는, 전술한 바와 같이 깊이 동영상 데이터에서 프레임 별로 깊이 정보를 추출한 후, 상기 추출한 깊이 정보를 이용하여 깊이 동영상 데이터를 프레임 별로 전경 영역과 배경 영역으로 분리한다. 여기서, 상기 제 1 분리부(131)는, 상기 추출한 깊이 정보를 이용한 K-평균 그룹화 알고리즘을 통해 상기 깊이 동영상 데이터를 프레임 별로 전경 영역과 배경 영역으로 분리할 수 있을 뿐만 아니라, 상기 K-평균 그룹화 알고리즘 이외의 다른 다양한 형태의 알고리즘으로도 상기 깊이 동영상 데이터를 프레임 별로 전경 영역과 배경 영역으로 분리할 수 있다. 여기서, 상기 K-평균 그룹화 알고리즘은, 상기 깊이 동영상 데이터의 임의의 한 프레임 내에서 적어도 하나 이상의 픽셀을 랜덤 하게 K개 선택에 따른 기준점에 가까운 곳의 데이터들을 하나의 그룹에 포함시켜 분할하는 알고리즘을 의미한다.As described above, the first separator 131 extracts depth information for each frame from the depth video data, and then separates the depth video data into a foreground area and a background area for each frame by using the extracted depth information. Here, the first separator 131 may not only separate the depth video data into the foreground region and the background region by frame through the K-average grouping algorithm using the extracted depth information, but also the K-average grouping. In addition to the algorithm, various types of algorithms may separate the depth video data into a foreground area and a background area for each frame. Here, the K-average grouping algorithm may include an algorithm for splitting at least one or more pixels within a frame of the depth video data by including data in a group close to a reference point according to the K selection. it means.

상기 제 1 분리부(131)는, 깊이 동영상 데이터의 프레임 별로 임의의 K개의 그룹과 K개 그룹의 위치를 각각 설정하고, 상기 깊이 동영상 데이터에 대해 K개 그룹까지의 위치를 계산한다. 그리고, 상기 제 1 분리부(131)는 상기 계산된 위치가 가장 가까운 그룹에 해당 영역을 포함시켜 깊이 동영상 데이터를 프레임 별로 전경 영역과 배경 영역으로 분리한다.The first separator 131 sets positions of arbitrary K groups and K groups for each frame of the depth video data, and calculates positions up to K groups with respect to the depth video data. In addition, the first separator 131 divides the depth video data into a foreground area and a background area by frames by including the corresponding area in the group closest to the calculated position.

상기 제 2 추출부(122)는, 상기 전경 영역, 상기 배경 영역 및 상기 컬러 정보를 이용하여 상기 동영상 데이터에서 프레임 별로 움직임 정보를 추출한다. 다시 말해, 상기 제 2 추출부(122)는, 이전 프레임에 대한 컬러 정보가 존재하는 경우에는, 상기 전경 영역과 배경 영역을 이용하여 이전 프레임에 대한 컬러 정보와 현재 프레임의 컬러 정보를 비교한 후, 상기 비교 결과를 통해 움직임 정보를 추출한다.The second extractor 122 extracts motion information for each frame from the video data by using the foreground area, the background area, and the color information. In other words, when the color information of the previous frame exists, the second extractor 122 compares the color information of the previous frame with the color information of the current frame by using the foreground area and the background area. The motion information is extracted through the comparison result.

상기 제 2 분리부(132)는, 상기 컬러 정보, 상기 깊이 정보, 및 상기 움직임 정보를 이용하여 상기 동영상 데이터를 분할한다. 다시 말해, 상기 제 2 분리부(132)는 기준 시점, 예컨대 현재 프레임에 대한 각 프레임, 예컨대 이전 프레임들을 상기 제 1 분리부(131)에서 분리된 전경 영역과 배경 영역에 각각 컬러 정보를 이용하여 동영상 데이터를 분할한다.The second separator 132 divides the moving image data using the color information, the depth information, and the motion information. In other words, the second separator 132 uses color information for each of the frames, for example, previous frames, for the current frame, for example, in the foreground area and the background area separated from the first separator 131. Split video data.

여기서, 상기 제 2 분리부(132)는, 상기 제 1 분리부(131)에서 분리된 전경 영역과 배경 영역에 각각 컬러 정보를 이용하는 동영상 데이터 분할 알고리즘을 적용한다. 상기 동영상 데이터 분할 알고리즘은, Comaniciu 등이 제안한 평균 이동(mean shift) 알고리즘이나 Yuri boycov 등이 제안한 그랩 컷(Grab Cut) 알고리즘 등이 될 수 있다. 상기 평균 이동 알고리즘은, 동영상 데이터의 컬러를 이용하여 정적 동영상 데이터를 분할하는 알고리즘을 확장한 알고리즘으로, 동영상 데이터를 분할할 수 있는 알고리즘을 의미한다. 여기서, 상기 평균 이동 알고리즘은, 물체의 형태 변화에 영향을 받지 않고 동영상 데이터를 분할할 수 있는 알고리즘으로 동적 동영상 데이터를 분할하는 알고리즘이다.Here, the second separator 132 applies a moving image data segmentation algorithm using color information to the foreground region and the background region separated by the first separator 131. The moving picture data segmentation algorithm may be a mean shift algorithm proposed by Comaniciu or the like, or a grab cut algorithm proposed by Yuri boycov or the like. The average moving algorithm is an algorithm that extends an algorithm for dividing static video data using color of video data, and refers to an algorithm capable of segmenting video data. Here, the average moving algorithm is an algorithm for dividing dynamic video data into an algorithm capable of dividing video data without being affected by the shape change of an object.

그리고 상기 제 2 분리부(132)는, 상기 이전 프레임에 대한 동영상 데이터의 분할 결과와, 상기 현재 프레임에 대한 동영상 데이터의 분할 결과를 산출부(140)로 전송한다.The second separator 132 transmits the splitting result of the moving picture data for the previous frame and the splitting result of the moving picture data for the current frame to the calculator 140.

상기 산출부(140)는, 제 2 분리부(132)에서 분할된 동영상 데이터의 각 프레임마다 전경 영역과 배경 영역에 대한 깊이 추정을 수행하기 위해 상기 깊이 추정시 사용할 깊이 탐색 범위를 각각 결정한다. 예컨대, 상기 산출부(140)는, 출력된 현재 프레임에 대한 동영상 데이터의 분할 결과를 이용하여 상기 깊이 추정시 사용 할 깊이 탐색 범위를 각각 결정한다. 이때, 상기 산출부(140)는, 이전 프레임의 깊이 정보와 현재 프레임의 깊이 정보 중에서 깊이 탐색 범위 결정을 위해 사용할 기준 깊이 정보를 선택하며, 여기서는, 설명의 편의를 위해 상기 현재 프레임의 깊이 정보를 기준 깊이 정보로 선택하는 것으로 가정하여 설명하기로 한다. 또한, 상기 산출부(140)는, 전술한 바와 같이 기준 깊이 정보를 선택한 후, 상기 선택한 기준 깊이 정보에 하기 조건 1 내지 조건 3을 모두 만족하는 깊이 정보를 업데이트하여 상기 분할된 동영상의 각 프레임에 대한 깊이 정보가 보관된 최종 기준 깊이 정보를 산출한다.The calculator 140 determines a depth search range to be used for the depth estimation to perform depth estimation on the foreground area and the background area for each frame of the video data divided by the second separator 132. For example, the calculator 140 determines a depth search range to be used for the depth estimation by using the split result of the video data of the current frame. In this case, the calculator 140 selects reference depth information to be used for determining the depth search range from the depth information of the previous frame and the depth information of the current frame, and here, the depth information of the current frame is provided for convenience of description. It is assumed that the selection is made with reference depth information. In addition, the calculator 140 selects the reference depth information as described above, updates the selected depth information that satisfies the following condition 1 to condition 3 to each frame of the divided video. Calculate the final reference depth information where the depth information is stored.

구체적으로 설명하면, 상기 산출부(140)는, 하기 조건 1 내지 조건 3을 모두 만족하는 각 프레임, 예컨대 이전 프레임 별로 최적의 움직임 영역을 검색하며, 이를 위해 상기 산출부(140)는, 현재 프레임을 각 프레임들, 예컨대 이전 프레임들에 각각 슬라이딩(sliding)하여 각 프레임 별로 최적의 움직임 영역을 검색한다. Specifically, the calculator 140 searches for an optimal motion region for each frame, for example, a previous frame, that satisfies all of the following conditions 1 to 3, and for this purpose, the calculator 140 searches for a current frame. Sliding each frame, for example, previous frames, searches for an optimal movement region for each frame.

조건 1. S와 중첩되는 S'의 화소 비율 > 임계 비율 and Condition 1. Pixel ratio of S 'overlapping S> critical ratio and

조건 2. S와 S'의 중첩되는 영역에서 S와 S'내 화소 간 컬러 차이 < 임계 컬러 차이 and Condition 2. Color Difference between Pixels in S and S 'in Overlapping Regions of S and S' <Critical Color Difference and

조건 3. S와 S'의 중첩되는 영역에서 S와 S'내 화소 간 깊이 차이 < 임계 깊이 차이Condition 3. Depth difference between pixels in S and S 'in the overlapping area of S and S' <critical depth difference

상기 조건들에서, S는 이전 프레임을 의미하고 S'는 현재 프레임을 의미한 다. 또한, 상기 깊이 차이는 이전 프레임의 깊이 정보와 현재 프레임의 깊이 정보 간의 차이 값이다. 중첩되는 영역은 이전 프레임과 현재 프레임이 대응하여 중복되는 영역을 의미한다. 따라서, 산출부(140)는 이전 프레임에 포함된 화소들의 깊이 정보를 평균하여 평균 깊이 정보를 산출하고, 상기 산출한 평균 깊이 정보를 전술한 현재 프레임에서의 기준 깊이 정보에 보관하여 최종 기준 깊이 정보를 산출한다. 이렇게 기준 깊이 정보와 최종 기준 깊이 정보를 산출한 산출부는, 하기 수학식 1과 같이 상기 깊이 추정시 사용할 깊이 탐색 범위를 각각 결정한다. 다음으로, 상기 제 1 처리부(211)는 선택된 기준 깊이 정보를 중심으로 하기 <수학식 1>와 같이 설정된 깊이 탐색 범위에서 유사도가 높은 깊이 정보를 탐색한다.In the above conditions, S means a previous frame and S 'means a current frame. Also, the depth difference is a difference value between the depth information of the previous frame and the depth information of the current frame. The overlapping area means an area where the previous frame and the current frame correspond to each other. Therefore, the calculation unit 140 calculates average depth information by averaging depth information of pixels included in a previous frame, and stores the calculated average depth information in the reference depth information of the current frame as described above to obtain final reference depth information. Calculate The calculation unit that calculates the reference depth information and the final reference depth information in this way determines the depth search range to be used for the depth estimation, as shown in Equation 1 below. Next, the first processor 211 searches for depth information with high similarity in the depth search range set as shown in Equation 1 based on the selected reference depth information.

기준 깊이(x, y) - 오차 × 기준 깊이(x, y) < 깊이 탐색 범위 < 기준 깊이(x, y) + 오차 × 기준 깊이(x, y) Reference Depth (x, y)-Error × Reference Depth (x, y) <Depth Search Range <Reference Depth (x, y) + Error × Reference Depth (x, y)

상기 <수학식 1>를 참조하면, 기준 깊이는, 상기 최종 기준 깊이 정보를 의미한다. 또한, 상기 깊이 탐색 범위는, <수학식 1>에 나타낸 바와 같이 범위가 결정된다. 즉, 상기 산출부(140)는 상기 깊이 탐색 범위에서 유사도 알고리즘을 이용하여 유사도가 높은 깊이 정보를 탐색한다. 상기 유사도 알고리즘은, SSD(Sum of Squared Distance), SAD(Sum of Absolute), NCC(Normalized Correlation Coefficient), MAD(Mean Absolute Difference) 등이 될 수 있다. 그러면 이하에서 는, MAD 알고리즘을 이용하여 상기 깊이 탐색 범위 내에서 유사도가 높은 깊이 정보를 결정하는 과정을 설명하기로 한다.Referring to Equation 1, the reference depth refers to the final reference depth information. In addition, the depth search range is determined as shown in Equation (1). That is, the calculator 140 searches for depth information with high similarity using a similarity algorithm in the depth search range. The similarity algorithm may be a sum of squared distance (SSD), a sum of absolute (SAD), a normalized correlation coefficient (NCC), a mean absolute difference (MAD), or the like. Next, a process of determining depth information having high similarity within the depth search range using a MAD algorithm will be described.

이하, <수학식 2>을 참조하여 평균 절대 차이를 이용하여 유사도를 계산하는 과정을 설명한다. Hereinafter, a process of calculating the similarity using the mean absolute difference will be described with reference to Equation 2.

Figure 112009067021706-PAT00001
Figure 112009067021706-PAT00001

상기 <수학식 2>을 참조하면, yi와 yj는 분할된 동영상 데이터의 각 프레임에 대한 컬러 값을 나타낸다. 동영상 데이터는 복수개의 촬영기기에 의해 촬영되기 때문에 하나의 영상에 대해서 다중 시점이 존재한다. 상기 다중 시점은, 제 1 시점 영역, 예컨대 좌측 영상 및 제 2 시점 영역, 예컨대 우측 영역을 포함한다. SL은 좌측 영상의 영역을 나타내고, SR은 우측 영상의 영역을 나타낸다. A(S)는 분할된 동영상 데이터의의 크기를 나타낸다. 즉, 상기 산출부(140)는 상기 <수학식 2>를 이용하여 상기 깊이 탐색 범위에서 유사도 차이가 가장 작은 깊이 정보를 결정하고, 상기 결정된 가장 작은 깊이 정보를 상기 수학식 1에서 나타낸 상기 최종 기준 깊이 정보에 업데이트한다.Referring to Equation 2, yi and yj represent color values for each frame of the divided video data. Since moving image data is captured by a plurality of photographing apparatuses, multiple viewpoints exist for one image. The multiple views include a first view area, for example, a left image and a second view area, for example, a right area. SL represents an area of the left image, and SR represents an area of the right image. A (S) represents the size of the divided video data. That is, the calculation unit 140 determines depth information having the smallest similarity difference in the depth search range by using Equation 2, and uses the final criterion represented by the determined minimum depth information in Equation 1 below. Update to depth information.

하지만, 상기 전경 영역과 상기 배경 영역에 존재하는 객체 사이의 경계선이나 서로 다른 깊이 정보를 가진 두 객체 사이의 경계선이 존재하는 경우에는 차폐 영역(occlusion area)가 발생할 수 있다. 상기 차폐 영역(occlusion area)으로 인하여 오정합이 발생될 수 있기 때문에 산출부(140)은, 상기 발생되는 오정합에 상응하여 상기 최종 깊이 정보를 조정한다. 그런 다음, 상기 산출부(140)는, 상기 현재 프레임의 최종 깊이 정보, 이전 프레임의 깊이 정보 및 상기 초기 깊이 정보 중 하나의 정보를 선택하여 최종적으로 깊이 정보를 결정한다. 즉, 상기 이전 프레임의 깊이 정보, 상기 현재 프레임의 최종 깊이 정보, 상기 초기 깊이 정보 각각으로부터 얻어지는 기준 시점과 다른 시점 동영상 데이터들 내의 대응점 간 평균 절대 차이 값을 비교하여 가장 차이 값이 작은 깊이 정보를 선택하게 된다. However, an occlusion area may occur when a boundary line between the object existing in the foreground area and the background area or a boundary line between two objects having different depth information exists. Since mismatches may occur due to the occlusion area, the calculator 140 adjusts the final depth information according to the mismatches generated. Then, the calculator 140 selects one of the final depth information of the current frame, the depth information of the previous frame, and the initial depth information to finally determine the depth information. That is, depth information having the smallest difference value is compared by comparing an average absolute difference between reference points obtained from each of depth information of the previous frame, final depth information of the current frame, and initial depth information, and corresponding points in other viewpoint video data. Will be chosen.

그런 다음, 상기 조정부(150)는, 최종적으로 상기 선택된 기준 깊이 정보를 기준 시점 카메라를 제외한 다른 시점 카메라로 투영시킨다. 상기 기준 깊이 정보는 기준시점 카메라에 대한 깊이 정보이기 때문에, 기준 시점 카메라를 제외한 다른 시점 카메라의 깊이 정보를 얻기 위해서 투영시킨다. 이때, 동영상 데이터내의 객체 사이의 경계선이나 서로 다른 깊이 정보를 가진 두 객체 사이의 경계선으로 인하여 차폐 영역(occlusion area)이 발생할 수 있다. 또한, 상기 차폐 영역으로 인해 홀(hole)이 발생된다. 상기 조정부(150)는 상기 차폐영역으로 발생한 홀을 홀 주변 화소의 깊이 정보로 상기 홀을 보상한다. 그런 다음, 상기 기록부(160)는 상기 기준 시점 및 상기 다른 시점 카메라에 의해 촬영된 각 시점 동영상 데이터의 최종 깊이 정보를 디지털 동영상 데이터로 기록한다. 그러면 여기서, 도 3을 참조하여 본 발명의 실시 예에 따른 동영상 시스템에서 동영상 데이터를 분할하는 과정을 보다 구체적으로 설명하기로 한다. Then, the adjusting unit 150 finally projects the selected reference depth information to another viewpoint camera except the reference viewpoint camera. Since the reference depth information is depth information of the reference viewpoint camera, the reference depth information is projected to obtain depth information of another viewpoint camera except for the reference viewpoint camera. In this case, an occlusion area may occur due to a boundary line between objects in the moving image data or a boundary line between two objects having different depth information. In addition, a hole is generated due to the shielding area. The adjusting unit 150 compensates for the hole generated as the shielding area with depth information of pixels around the hole. Then, the recording unit 160 records the final depth information of each viewpoint video data photographed by the reference viewpoint and the other viewpoint camera as digital video data. Next, a process of dividing the video data in the video system according to an exemplary embodiment of the present invention will be described in more detail with reference to FIG. 3.

도 2는 발명의 실시 예에 따른 동영상 시스템에서 동영상 데이터를 분할하는 과정을 개략적으로 도시한 도면이다. 2 is a diagram schematically illustrating a process of dividing video data in a video system according to an exemplary embodiment of the present invention.

도 2 참조하면, 상기 동영상 데이터 분할 장치는, 210단계에서 복수개의 카메라에 의해 촬영된 동영상 데이터와 깊이 카메라에 의해 촬영된 깊이 동영상 데이터를 수신하고, 상기 동영상 데이터와 깊이 동영상 데이터를 동기를 맞추어 저장한다. 여기서, 상기 동영상 데이터는, 다양한 형태의 복수의 영상 촬영기기들, 예컨대 다중 시점 비디오 카메라 또는 스테레오 비디오 카메라 및 깊이 카메라 등에 의해 촬영된 동영상 데이터로서, 상기 영상 촬영기기들에서 상기 동영상 데이터 분할장치로 수신된다. 상기 다중 시점 비디오 카메라는 적어도 하나 이상의 카메라를 통해 여러 시점에서 촬영된 동영상을 사용자에게 제공하는 카메라를 의미한다. 그리고 스테레오 비디오 카메라는 한 장의 영상에 좌/우 두 시점의 영상을 동시에 제공하는 카메라를 의미한다. 또한, 깊이 동영상 데이터는 깊이 카메라에 의해 촬영되어 수신된 데이터를 의미한다.Referring to FIG. 2, in operation 210, the video data splitting apparatus receives video data photographed by a plurality of cameras and depth video data photographed by a depth camera, and synchronizes the video data and depth video data in synchronization. do. Here, the video data is video data photographed by a plurality of video recording apparatuses of various types, for example, a multi-view video camera or a stereo video camera and a depth camera, and received from the video recording apparatuses by the video data splitting apparatus. do. The multi-view video camera refers to a camera that provides a user with moving images captured at various viewpoints through at least one camera. The stereo video camera refers to a camera that simultaneously provides images of two left and right views in one image. In addition, the depth video data refers to data captured and received by the depth camera.

그런 다음, 상기 동영상 데이터 분할 장치는, 220단계에서 상기 동영상 데이터에서 프레임 별로 컬러 영상을 각각 분리하고, 상기 프레임 별로 분리한 컬러 영상을 각각 컬러 별로 분리한 후 컬러 별로 그룹화하여 상기 동영상 데이터의 컬러 정보를 추출한다. 여기서, 상기 동영상 데이터 분할 장치는, 평균 이동 알고리즘을 이용하여 상기 동영상 데이터의 컬러 정보를 추출할 수 있을 뿐만 아니라, 상기 평균 이동 알고리즘 이외의 다른 다양한 형태의 알고리즘을 이용하여 컬러 정보를 추출할 수 있다. 그리고, 상기 평균 이동 알고리즘은, 동영상 데이터에서 모든 프레 임에 포함된 컬러들을 유사한 색상 별로 컬러를 분리하여 컬러 정보를 추출하는 방식이다.In operation 220, the video data splitting apparatus separates the color image from the video data for each frame, separates the color image separated for each frame for each color, and groups the color image to color information of the video data. Extract Here, the moving picture data dividing apparatus may not only extract color information of the moving picture data using an average moving algorithm, but also extract color information using various types of algorithms other than the average moving algorithm. . In addition, the average shift algorithm is a method of extracting color information by separating the colors included in all frames from the moving image data by similar colors.

다음으로, 상기 동영상 데이터 분할 장치는, 230단계에서, 깊이 영상의 초기 깊이 정보를 이용하여 전경 영역과 배경 영역으로 분리한다. 즉 여기서, 상기 동영상 데이터에 포함된 다양한 형태의 영상들 중에서 깊이 정보를 포함하고 있는 영상, 예컨대 그레이 영상을 의미한다. 그리고, 상기 깊이 정보는, 상기 깊이 동영상 데이터의 프레임 내에서 소정 관점(viewpoint)으로부터 상기 프레임에 나타나 있는 객체까지의 거리를 지시하는 정보를 의미한다. 그에 따라, 상기 제 1 분리부(131)는, 소정의 관점으로부터 상기 프레임에 나타나 있는 객체의 거리를 픽셀 값으로 나타낼 수 있는 상기 깊이 정보를 추출한다.In operation 230, the moving image data dividing apparatus separates the foreground and background regions using initial depth information of the depth image. That is, the image includes depth information, for example, a gray image, from among various types of images included in the video data. The depth information refers to information indicating a distance from a predetermined viewpoint to an object shown in the frame within the frame of the depth video data. Accordingly, the first separator 131 extracts the depth information that can represent the distance of the object represented in the frame as a pixel value from a predetermined viewpoint.

예를 들어 보다 구체적으로 설명하면, 상기 동영상 데이터 분할 장치에 의해 나타낸 픽셀의 값이 0에 가까울수록 검은색에 가까운 색이며, 이러한 검은색에 가까울수록 소정의 시점으로부터 멀리 있는 객체를 의미한다. 또한, 상기 동영상 데이터 분할 장치에 의해 나타낸 픽셀의 값이 255에 가까울수록 흰색에 가까운 색이며, 이러한 흰색흰색에 가까울수록 소정의 시점으로부터 가까이 있는 객체를 의미한다. For example, in more detail, the closer the value of the pixel indicated by the moving picture data dividing device to zero is the color closer to black, the closer to this black means the object farther from the predetermined viewpoint. In addition, as the value of the pixel represented by the moving picture data dividing apparatus is closer to 255, the color is closer to white, and the closer to white, the closer the object is from a predetermined viewpoint.

그리고, 상기 동영상 데이터 분할 장치는, 전술한 바와 같이 깊이 동영상 데이터에서 프레임 별로 깊이 정보를 추출한 후, 상기 추출한 깊이 정보를 이용하여 깊이 동영상 데이터를 프레임 별로 전경 영역과 배경 영역으로 분리한다. 여기서, 상기 제 1 분리부(131)는, 상기 추출한 깊이 정보를 이용한 K-평균 그룹화 알고리 즘을 통해 상기 깊이 동영상 데이터를 프레임 별로 전경 영역과 배경 영역으로 분리할 수 있을 뿐만 아니라, 상기 K-평균 그룹화 알고리즘 이외의 다른 다양한 형태의 알고리즘으로도 상기 깊이 동영상 데이터를 프레임 별로 전경 영역과 배경 영역으로 분리할 수 있다. 여기서, 상기 K-평균 그룹화 알고리즘은, 상기 깊이 동영상 데이터의 임의의 한 프레임 내에서 적어도 하나 이상의 픽셀을 랜덤 하게 K개 선택에 따른 기준점에 가까운 곳의 데이터들을 하나의 그룹에 포함시켜 분할하는 알고리즘을 의미한다. 상기 동영상 데이터 분할 장치는, 깊이 동영상 데이터의 프레임 별로 임의의 K개의 그룹과 K개 그룹의 위치를 각각 설정하고, 상기 깊이 동영상 데이터에 대해 K개 그룹까지의 위치를 계산한다. 그리고, 상기 동영상 데이터 분할 장치는, 상기 계산된 위치가 가장 가까운 그룹에 해당 영역을 포함시켜 깊이 동영상 데이터를 프레임 별로 전경 영역과 배경 영역으로 분리한다.As described above, the video data dividing apparatus extracts depth information for each frame from the depth video data, and then separates the depth video data into a foreground area and a background area for each frame by using the extracted depth information. Here, the first separator 131 may not only separate the depth video data into the foreground region and the background region by frame, but also through the K-average grouping algorithm using the extracted depth information. In addition to the average grouping algorithm, various types of algorithms may separate the depth video data into a foreground area and a background area for each frame. Here, the K-average grouping algorithm may include an algorithm for splitting at least one or more pixels within a frame of the depth video data by including data in a group close to a reference point according to the K selection. it means. The video data splitting apparatus sets positions of arbitrary K groups and K groups for each frame of the depth video data, and calculates positions up to K groups for the depth video data. The video data splitting apparatus includes the corresponding area in the group closest to the calculated position to separate the depth video data into the foreground area and the background area for each frame.

다음으로, 상기 동영상 데이터 분할 장치는, 240단계에서, 상기 전경 영역, 상기 배경 영역 및 상기 컬러 정보를 이용하여 상기 동영상 데이터에서 프레임 별로 움직임 정보를 추출한다. 다시 말해, 상기 동영상 데이터 분할 장치는, 이전 프레임에 대한 컬러 정보가 존재하는 경우에는, 상기 전경 영역과 배경 영역을 이용하여 이전 프레임에 대한 컬러 정보와 현재 프레임의 컬러 정보를 비교한 후, 상기 비교 결과를 통해 움직임 정보를 추출한다.In operation 240, the moving image data dividing apparatus extracts motion information for each frame from the moving image data using the foreground area, the background area, and the color information. In other words, when there is color information about a previous frame, the video data dividing apparatus compares the color information of the previous frame and the color information of the current frame using the foreground area and the background area, and then compares the color information. The motion information is extracted through the result.

그런 다음, 상기 동영상 데이터 분할 장치는, 250단계에서 상기 동영상 데이터 분할 장치는, 상기 컬러 정보, 상기 깊이 정보, 및 상기 움직임 정보를 이용하여 상기 동영상 데이터를 분할한다. 다시 말해, 상기 동영상 데이터 분할 장치는, 기준 시점, 예컨대 현재 프레임에 대한 각 프레임, 예컨대 이전 프레임들을 분리된 전경 영역과 배경 영역에 각각 컬러 정보를 이용하여 동영상 데이터를 분할한다.In operation 250, the video data dividing apparatus divides the video data using the color information, the depth information, and the motion information. In other words, the video data dividing apparatus divides the video data by using the color information in the foreground area and the background area of each reference frame, for example, the previous frame, which are separated from each other.

여기서, 상기 동영상 데이터 분할 장치는, 분리된 전경 영역과 배경 영역에 각각 컬러 정보를 이용하는 동영상 데이터 분할 알고리즘을 적용한다. 상기 동영상 데이터 분할 알고리즘은, Comaniciu 등이 제안한 평균 이동(mean shift) 알고리즘이나 Yuri boycov 등이 제안한 그랩 컷(Grab Cut) 알고리즘 등이 될 수 있다. 상기 평균 이동 알고리즘은, 동영상 데이터의 컬러를 이용하여 정적 동영상 데이터를 분할하는 알고리즘을 확장한 알고리즘으로, 동영상 데이터를 분할할 수 있는 알고리즘을 의미한다. 여기서, 상기 평균 이동 알고리즘은, 물체의 형태 변화에 영향을 받지 않고 동영상 데이터를 분할할 수 있는 알고리즘으로 동적 동영상 데이터를 분할하는 알고리즘이다. 그러면 여기서, 도 3을 참조하여 본 발명의 실시예에 따른 동영상 시스템에서 동영상 데이터를 분할하는 장치를 이용하여 변이 및 깊이를 추출하는 과정을 보다 구체적으로 설명하기로 한다.Here, the video data segmentation apparatus applies a video data segmentation algorithm using color information to the separated foreground and background regions, respectively. The moving picture data segmentation algorithm may be a mean shift algorithm proposed by Comaniciu or the like, or a grab cut algorithm proposed by Yuri boycov or the like. The average moving algorithm is an algorithm that extends an algorithm for dividing static video data using color of video data, and refers to an algorithm capable of segmenting video data. Here, the average moving algorithm is an algorithm for dividing dynamic video data into an algorithm capable of dividing video data without being affected by the shape change of an object. Next, the process of extracting the variation and depth using the apparatus for dividing the video data in the video system according to the embodiment of the present invention will be described in more detail with reference to FIG. 3.

도 3은 본 발명에 따른 동영상 시스템에서 동영상 데이터를 분할하는 장치를 이용하여 변이 및 깊이 추출하는 과정을 개략적으로 도시한 도면이다.FIG. 3 is a diagram schematically illustrating a process of extracting disparity and depth using an apparatus for dividing video data in a video system according to the present invention.

도 3을 참조하면, 먼저, 상기 동영상 데이터 분할 장치는, 310단계에서 이전 프레임에 대한 동영상 데이터의 분할 정보와 깊이 정보가 존재하면 상기 동영상 데이터 분할 장치는, 320단계에서 기준 깊이를 선택한다. 반면, 이전 프레임에 대한 동영상 데이터의 분할 정보와 깊이 정보가 존재하지 않다면 상기 동영상 데이터 분할 장치는, 330단계에서 영역 단위 깊이를 계산한다. 보다 구체적으로 설명하면, 상기 동영상 데이터 분할 장치는, 분할된 동영상 데이터의 각 프레임마다 전경 영역과 배경 영역에 대한 깊이 추정을 수행하기 위해 상기 깊이 추정시 사용할 깊이 탐색 범위를 각각 결정한다. 예컨대, 상기 동영상 데이터 분할 장치는, 출력된 현재 프레임에 대한 동영상 데이터의 분할 결과를 이용하여 상기 깊이 추정시 사용할 깊이 탐색 범위를 각각 결정한다. 이때, 상기 동영상 데이터 분할 장치는, 이전 프레임의 깊이 정보와 현재 프레임의 깊이 정보 중에서 깊이 탐색 범위 결정을 위해 사용할 기준 깊이 정보를 선택하며, 여기서는, 설명의 편의를 위해 상기 현재 프레임의 깊이 정보를 기준 깊이 정보로 선택하는 것으로 가정하여 설명하기로 한다. 또한, 상기 동영상 데이터 분할 장치는, 전술한 바와 같이 기준 깊이 정보를 선택한 후, 상기 선택한 기준 깊이 정보에 상기 조건 1 내지 조건 3을 모두 만족하는 깊이 정보를 업데이트하여 상기 분할된 동영상 데이트의 각 프레임에 대한 깊이 정보가 보관된 최종 기준 깊이 정보를 산출한다. 여기서, 조건 1 내지 조건 3은 앞서 구체적으로 설명하였음으로 여기서는 그에 관한 구체적인 설명을 생략하기로 한다.Referring to FIG. 3, first, in operation 310, when the segmentation information and the depth information of the video data of the previous frame exist, the video data segmentation apparatus selects a reference depth. On the other hand, if the segmentation information and depth information of the video data for the previous frame does not exist, the video data segmentation apparatus calculates the area unit depth in step 330. In more detail, the moving picture data dividing apparatus determines a depth search range to be used for the depth estimation for performing depth estimation on the foreground area and the background area for each frame of the divided moving picture data. For example, the moving picture data dividing apparatus determines a depth search range to be used for the depth estimation using the split result of the moving picture data for the current frame. In this case, the video data splitting apparatus selects reference depth information to be used for determining a depth search range from depth information of a previous frame and depth information of a current frame, and here, the depth information of the current frame is referred to for convenience of description. It is assumed that the selection is made with depth information. In addition, the video data segmentation apparatus selects the reference depth information as described above, and then updates the depth information satisfying all of the conditions 1 to 3 to the selected reference depth information and then applies it to each frame of the divided video data. Calculate the final reference depth information where the depth information is stored. Here, since the conditions 1 to 3 have been described in detail above, detailed description thereof will be omitted.

다음으로, 상기 동영상 데이터 분할 장치는, 340단계에서, 상기 산출된 최종기준 깊이 정보를 중심으로 상기 <수학식 1>와 같이 설정된 깊이 탐색 범위에서 유사도가 높은 깊이 정보를 탐색한다. 여기서, <수학식 1>에 대한 설명은 앞서 구체적으로 설명하였음으로 여기서는 그에 관한 구체적인 설명을 생략하기로 한다. 즉, 상기 동영상 데이터 분할 장치는, 상기 깊이 탐색 범위에서 유사도 알고리즘을 이용하여 유사도가 높은 깊이 정보를 탐색한다. 상기 유사도 알고리즘은, SSD(Sum of Squared Distance), SAD(Sum of Absolute), NCC(Normalized Correlation Coefficient), MAD(Mean Absolute Difference) 등이 될 수 있다. 상기 동영상 데이터 분할 장치는, 340단계에서, MAD 알고리즘을 이용하여 상기 깊이 탐색 범위 내에서 유사도가 높은 깊이 정보를 결정한다.In operation 340, the moving image data dividing apparatus searches for depth information having high similarity in the depth search range set as shown in Equation 1 based on the calculated final reference depth information. Here, since the description of Equation 1 has been described above in detail, a detailed description thereof will be omitted. That is, the video data splitting apparatus searches depth information having a high similarity level using a similarity algorithm in the depth search range. The similarity algorithm may be a sum of squared distance (SSD), a sum of absolute (SAD), a normalized correlation coefficient (NCC), a mean absolute difference (MAD), or the like. In operation 340, the moving image data dividing apparatus determines depth information having high similarity within the depth search range using a MAD algorithm.

그런 다음, 상기 동영상 데이터 분할 장치는, 350단계에서, 깊이 카메라의 초기 깊이, 영역 단위 깊이, 화소 단위 깊이 중 유사도가 가장 높은 깊이를 선택한다. 그리고, 상기 동영상 데이터 분할 장치는, 360단계에서, 상기 전경 영역과 상기 배경 영역에 존재하는 객체 사이의 경계선이나 서로 다른 깊이 정보를 가진 두 객체 사이의 경계선부분에 존재하는 상기 최종 깊이 정보를 조정한다. In operation 350, the moving image data dividing apparatus selects a depth having the highest similarity among the initial depth, the depth of a region, and the depth of a pixel of the depth camera. In operation 360, the moving picture data dividing apparatus adjusts the final depth information existing at the boundary between the object existing in the foreground area and the background area or at the boundary between two objects having different depth information. .

그런 다음, 상기 동영상 데이터 분할 장치는, 370단계에서 최종적으로 상기 선택된 기준 깊이 정보를 기준 시점 카메라를 제외한 다른 시점 카메라로 투영시킨다. 상기 기준 깊이 정보는 기준시점 카메라에 대한 깊이 정보이기 때문에, 기준 시점 카메라를 제외한 다른 시점 카메라의 깊이 정보를 얻기 위해서 투영시킨다. 이때, 동영상 데이터내의 객체 사이의 경계선이나 서로 다른 깊이 정보를 가진 두 객체 사이의 경계선으로 인하여 차폐 영역(occlusion area)이 발생할 수 있다. 또한, 상기 차폐 영역으로 인해 홀(hole)이 발생된다. 상기 동영상 데이터 분할 장치는, 380단계에서 상기 홀을 홀의 주변 화소의 깊이 정보 상기 홀을 보상한다. 그런 다음, 상기 동영상 데이터 분할 장치는, 390단계에서 상기 기준 시점 및 상기 다른 시점 카메라에 의해 촬영된 각 시점 동영상 데이터의 최종 깊이 정보를 디지털 동영상으로 기록한다. In operation 370, the moving image data dividing apparatus finally projects the selected reference depth information to another viewpoint camera except for the reference viewpoint camera. Since the reference depth information is depth information of the reference viewpoint camera, the reference depth information is projected to obtain depth information of another viewpoint camera except for the reference viewpoint camera. In this case, an occlusion area may occur due to a boundary line between objects in the moving image data or a boundary line between two objects having different depth information. In addition, a hole is generated due to the shielding area. In operation 380, the moving image data dividing apparatus compensates the hole for the depth information of the pixels around the hole. In operation 390, the moving image data dividing apparatus records final depth information of each moving image data captured by the reference viewpoint and the other viewpoint camera as a digital moving image.

한편, 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로, 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 안되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다. Meanwhile, in the detailed description of the present invention, specific embodiments have been described, but various modifications may be made without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the scope of the following claims, but also by the equivalents of the claims.

도 1은 본 발명의 실시 예에 따른 동영상 시스템에서 동영상 데이터를 분할하는 장치의 구조를 개략적으로 도시한 도면,1 is a view schematically showing the structure of an apparatus for dividing video data in a video system according to an embodiment of the present invention;

도 2는 발명의 실시 예에 따른 동영상 시스템에서 동영상 데이터를 분할하는 과정을 개략적으로 도시한 도면,2 is a diagram schematically illustrating a process of dividing video data in a video system according to an exemplary embodiment of the present invention;

도 3은 본 발명에 따른 동영상 시스템에서 동영상 데이터를 분할하는 장치를 이용하여 변이 및 깊이 추출하는 과정을 개략적으로 도시한 도면.3 is a diagram schematically illustrating a process of extracting variation and depth using an apparatus for dividing video data in a video system according to the present invention;

Claims (10)

동영상 데이터 분할 장치에 있어서, In the video data splitting apparatus, 복수개의 영상 촬영기기에 의해 촬영된 복수개의 동영상 데이터를 프레임별로 동기를 맞추어 저장하는 저장부; A storage unit which synchronizes and stores the plurality of video data captured by the plurality of video photographing apparatuses frame by frame; 상기 동영상 데이터에서 프레임별로 컬러 정보를 추출하는 제 1 추출부; A first extracting unit extracting color information for each frame from the video data; 상기 동영상 데이터에서 프레임별로 깊이 정보를 추출하여 상기 동영상 데이터의 프레임들을 각각 전경 영역 및 배경 영역으로 분리하는 제 1 분리부; A first separator extracting depth information for each frame from the video data and separating the frames of the video data into a foreground area and a background area, respectively; 상기 전경 영역과 배경 영역 및 상기 컬러 정보를 이용하여 프레임별로 움직임 정보를 추출하는 제 2 추출부; 및 A second extracting unit extracting motion information for each frame by using the foreground area, the background area, and the color information; And 상기 컬러 정보, 상기 깊이 정보, 및 상기 움직임 정보를 이용하여 상기 동영상 데이터를 분할하는 제 2 분리부A second separator configured to segment the video data using the color information, the depth information, and the motion information 를 포함함을 특징으로 하는 동영상 데이터 분할 장치.Video data segmentation apparatus comprising a. 제 1 항에 있어서, 상기 제 1 추출부는, The method of claim 1, wherein the first extraction unit, 상기 동영상 데이터에서 프레임별 컬러 영상을 각각의 컬러별로 분리한 후 그룹화하여 상기 컬러 정보를 추출하는 것을 특징으로 하는 동영상 데이터 분할 장치. And extracting the color information by dividing the color image for each frame from the video data for each color and grouping the color images. 제 1 항에 있어서, 상기 제 1 분리부는, The method of claim 1, wherein the first separation unit, 상기 동영상 데이터에서 프레임별 그레이 영상을 각각 소정의 시점으로부터 객체까지의 거리를 픽셀 값으로 산출하여 상기 깊이 정보를 추출하는 것을 특징으로 하는 동영상 데이터 분할 장치.And extracting the depth information by calculating a distance from a predetermined viewpoint to an object as a pixel value in the gray image for each frame in the moving image data. 제 1 항에 있어서, 상기 제 1 추출부는, The method of claim 1, wherein the first extraction unit, 상기 전경 영역과 상기 배경 영역을 통해 상기 동영상 데이터에서 프레임별 컬러 정보와 깊이 정보를 비교하여 움직임 정보를 추출하는 것을 특징으로 하는 동영상 데이터 분할 장치. The moving picture data segmentation apparatus may include extracting motion information by comparing color information and depth information of each frame from the moving picture data through the foreground area and the background area. 제 1 항에 있어서, 상기 제 2 분리부는, The method of claim 1, wherein the second separation unit, 상기 전경 영역과 상기 배경 영역에 각각 상기 컬러 정보를 기반으로 동영상 분할 알고리즘을 이용하여 상기 동영상 데이터를 분할하는 것을 특징으로 하는 동영상 데이터 분할 장치. And dividing the moving image data into the foreground region and the background region by using a moving image dividing algorithm based on the color information. 제 1 항에 있어서, The method of claim 1, 상기 동영상 데이터의 프레임들 중 기준 프레임을 결정하고, 상기 기준 프레임과 다른 프레임들 간의 중첩 영역을 이용하여 상기 프레임별로 각각의 깊이 정보를 평균화하는 산출부를 더 포함하는 것을 특징으로 하는 동영상 데이터 분할 장치. And a calculator configured to determine a reference frame among the frames of the video data and to average depth information for each frame by using an overlapping area between the reference frame and other frames. 제 6 항에 있어서, 상기 산출부는,The method of claim 6, wherein the calculation unit, 상기 평균화된 깊이 정보를 이용하여 프레임별 깊이 정보 탐색 범위를 설정하고, 상기 설정된 탐색 범위에서 상기 깊이 정보의 유사도를 산출하는 것을 특징으로 하는 동영상 데이터 분할 장치. The depth information search range for each frame is set using the averaged depth information, and the similarity degree of the depth information is calculated in the set search range. 제 7 항에 있어서, 상기 산출부는,The method of claim 7, wherein the calculation unit, 상기 산출한 유사도를 이용하여 상기 추출한 깊이 정보를 업데이트하고, 상기 전경 영역과 상기 배경 영역 간의 차폐 영역(occlusion area)에 상응한 오정합으로 상기 업데이트된 깊이 정보를 조정하여 상기 분할된 동영상 데이터의 깊이 정보를 산출하는 것을 특징으로 하는 동영상 데이터 분할 장치. The extracted depth information is updated using the calculated similarity, and the updated depth information is adjusted by mismatching corresponding to an occlusion area between the foreground area and the background area to adjust the depth of the divided video data. Moving picture data segmentation apparatus characterized by calculating information. 동영상 데이터 분할 방법에 있어서, In the video data segmentation method, 복수개의 영상 촬영기기에 의해 촬영된 복수개의 동영상 데이터를 A plurality of video data shot by a plurality of video recording devices 프레임별로 컬러 정보 및 깊이 정보를 추출하는 단계; Extracting color information and depth information for each frame; 상기 깊이 정보를 이용하여 상기 동영상 데이터의 프레임들을 각각 전경 영역 및 배경 영역으로 분리하는 단계; Dividing the frames of the moving image data into a foreground area and a background area by using the depth information; 상기 전경 영역과 배경 영역 및 상기 컬러 정보를 이용하여 프레임별로 움직임 정보를 추출하는 단계;Extracting motion information for each frame by using the foreground area, the background area, and the color information; 상기 컬러 정보, 상기 깊이 정보, 및 상기 움직임 정보를 이용하여 상기 동영상 데이터를 분할하는 단계; 및Dividing the moving image data using the color information, the depth information, and the motion information; And 상기 동영상 데이터의 프레임들 간의 중첩 영역을 이용하여 상기 프레임별로 각각의 깊이 정보를 평균화한 후, 상기 평균화한 깊이 정보를 이용하여 상기 분할된 동영상 데이터의 깊이 정보를 산출하는 단계; Averaging depth information for each frame by using overlapping regions between the frames of the moving image data, and calculating depth information of the divided moving image data using the averaged depth information; 를 포함을 특징으로 하는 동영상 데이터 분할 방법.Video data segmentation method comprising a. 제 9 항에 있어서, 상기 컬러 정보 및 깊이 정보를 추출하는 단계는, The method of claim 9, wherein the extracting the color information and the depth information comprises: 상기 동영상 데이터에서 프레임별 컬러 영상을 각각의 컬러로 분리한 후 그룹화하여 상기 컬러 정보를 추출하고, Extracting the color information by separating the color image of each frame from the video data into respective colors and grouping them; 상기 동영상 데이터에서 프레임별 그레이 영상을 각각 소정의 시점으로부터 객체까지의 거리를 픽셀 값으로 산출하여 상기 깊이 정보를 추출함을 특징으로 하는 동영상 데이터 분할 방법.And extracting the depth information from the moving image data by calculating a distance from a predetermined viewpoint to an object as a pixel value in each frame gray image.
KR1020090104587A 2009-10-30 2009-10-30 Apparatus and method for dividing moving picture data in moving picture system KR20110047814A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090104587A KR20110047814A (en) 2009-10-30 2009-10-30 Apparatus and method for dividing moving picture data in moving picture system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090104587A KR20110047814A (en) 2009-10-30 2009-10-30 Apparatus and method for dividing moving picture data in moving picture system

Publications (1)

Publication Number Publication Date
KR20110047814A true KR20110047814A (en) 2011-05-09

Family

ID=44239048

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090104587A KR20110047814A (en) 2009-10-30 2009-10-30 Apparatus and method for dividing moving picture data in moving picture system

Country Status (1)

Country Link
KR (1) KR20110047814A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130128097A (en) * 2012-05-16 2013-11-26 전자부품연구원 Object recognition method and apparatus using depth information
KR20140065894A (en) * 2012-11-22 2014-05-30 삼성전자주식회사 Apparatus and method for processing color image using depth image
KR101426878B1 (en) * 2012-09-20 2014-08-05 가시오게산키 가부시키가이샤 Moving picture processing apparatus, moving picture processing method, and storage medium
US9542728B2 (en) 2012-09-20 2017-01-10 Samsung Electronics Co., Ltd. Apparatus and method for processing color image using depth image
CN111064964A (en) * 2019-06-24 2020-04-24 杭州海康威视数字技术股份有限公司 Encoding and decoding method, device and equipment

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130128097A (en) * 2012-05-16 2013-11-26 전자부품연구원 Object recognition method and apparatus using depth information
KR101426878B1 (en) * 2012-09-20 2014-08-05 가시오게산키 가부시키가이샤 Moving picture processing apparatus, moving picture processing method, and storage medium
US9542728B2 (en) 2012-09-20 2017-01-10 Samsung Electronics Co., Ltd. Apparatus and method for processing color image using depth image
KR20140065894A (en) * 2012-11-22 2014-05-30 삼성전자주식회사 Apparatus and method for processing color image using depth image
CN111064964A (en) * 2019-06-24 2020-04-24 杭州海康威视数字技术股份有限公司 Encoding and decoding method, device and equipment
CN111064964B (en) * 2019-06-24 2021-02-26 杭州海康威视数字技术股份有限公司 Encoding and decoding method, device and equipment

Similar Documents

Publication Publication Date Title
US9300947B2 (en) Producing 3D images from captured 2D video
US8798160B2 (en) Method and apparatus for adjusting parallax in three-dimensional video
US10542249B2 (en) Stereoscopic video generation method based on 3D convolution neural network
KR101520619B1 (en) Method and apparatus for determining view positions of stereoscopic images for stereo synchronization
KR100793076B1 (en) Edge-adaptive stereo/multi-view image matching apparatus and its method
US20110044502A1 (en) Motion detection method, apparatus and system
KR100953076B1 (en) Multi-view matching method and device using foreground/background separation
KR20160060403A (en) Method and apparatus for calibrating image
US9769460B1 (en) Conversion of monoscopic visual content to stereoscopic 3D
JP6173218B2 (en) Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
US9661307B1 (en) Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D
KR100560464B1 (en) Multi-view display system with viewpoint adaptation
KR20110047814A (en) Apparatus and method for dividing moving picture data in moving picture system
JP7401663B2 (en) Joint depth estimation from dual cameras and dual pixels
KR101698314B1 (en) Aparatus and method for deviding of static scene based on statistics of images
JP2015146526A (en) Image processing system, image processing method, and program
US20080226159A1 (en) Method and System For Calculating Depth Information of Object in Image
US9113153B2 (en) Determining a stereo image from video
JP2012238932A (en) 3d automatic color correction device and color correction method and color correction program
EP2932710B1 (en) Method and apparatus for segmentation of 3d image data
KR20160085708A (en) Method and apparatus for generating superpixels for multi-view images
Doulamis et al. Unsupervised semantic object segmentation of stereoscopic video sequences
JP6901424B2 (en) Image processing device and image processing method
Lee et al. Segment-based multi-view depth map estimation using belief propagation from dense multi-view video
Wu et al. Stereoscopic video conversion based on depth tracking

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination