KR20110047814A - Apparatus and method for dividing moving picture data in moving picture system - Google Patents
Apparatus and method for dividing moving picture data in moving picture system Download PDFInfo
- Publication number
- KR20110047814A KR20110047814A KR1020090104587A KR20090104587A KR20110047814A KR 20110047814 A KR20110047814 A KR 20110047814A KR 1020090104587 A KR1020090104587 A KR 1020090104587A KR 20090104587 A KR20090104587 A KR 20090104587A KR 20110047814 A KR20110047814 A KR 20110047814A
- Authority
- KR
- South Korea
- Prior art keywords
- video data
- information
- frame
- depth information
- depth
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20161—Level set
Abstract
Description
본 발명은 동영상 시스템에 관한 것으로, 특히 동영상 시스템에서 컬러 정보, 깊이 정보, 움직임 정보를 이용하여 동영상 데이터를 분할하는 장치 및 방법에 관한 것이다.The present invention relates to a moving picture system, and more particularly, to an apparatus and method for dividing moving picture data using color information, depth information, and motion information in a moving picture system.
동영상은 복수개의 프레임들로 구성되며, 복수개의 프레임들을 연속적으로 빠르게 재생함으로써 사용자에게 프레임에 포함된 객체들이 움직이는 것처럼 느끼도록 하는 영상이다. 이러한 동영상 데이터는 초당 프레임 수에 따라 화질이 결정된다. 즉, 동영상 데이트는 복수개의 프레임이 순간적으로 조금씩 바뀌면서 빠르게 넘어가는 영상으로, 1초에 몇 장의 프레임이 삽입되어 움직이는지에 따라 움직임의 부드러움이 결정된다. The video is composed of a plurality of frames, and is a video that makes the user feel as if the objects included in the frame is moving by playing the plurality of frames in quick succession. The quality of such video data is determined by the number of frames per second. In other words, the video date is a video that is quickly skipped as the plurality of frames change momentarily little by little, the smoothness of the movement is determined by how many frames are inserted and moved in one second.
일반적으로 사용자는 보다 화질이 좋은 동영상 데이터를 시청하고자 하기 때문에 동영상 데이터의 초당 프레임 수를 증가시켜 사용자의 요구를 만족시킨다. 하지만, 동영상 데이터의 초당 프레임 수가 증가하면 동영상 데이터의 크기가 커지기 때문에 동영상 데이터를 동영상 수신기로 송신하는 시간이 오래 걸린다. 이와 같은 이유로 동영상을 압축하는 방법이나, 동영상을 분할하는 방법이 연구되고 있다. 또한, 상기 동영상 분할 방법으로 이미지의 여러 특징을 기반으로 균일하고 유사한 영역 단위로 영상을 나누는 방법이 있으며, 의학 영상처리나 로봇 주행을 위한 영상 분석과 컴퓨터 비전 작업에 있어서 가장 중요한 요소 중의 하나이다. 이러한 이유로 동영상을 분할하는 방법은 스테레오 정합 및 컴퓨터 비전 분야에서 연구 대상이 되어 왔으며, 아직까지도 많은 연구가 이루어지고 있다.In general, since the user wants to view more high quality video data, the user's needs are satisfied by increasing the number of frames per second of the video data. However, when the number of frames per second of video data increases, the size of the video data increases, which takes a long time to transmit the video data to the video receiver. For this reason, a method of compressing a video or a method of segmenting a video has been studied. In addition, there is a method of dividing the image into uniform and similar area units based on various features of the image as the video segmentation method, which is one of the most important elements in image analysis and computer vision work for medical image processing or robot driving. For this reason, video segmentation methods have been studied in the field of stereo matching and computer vision, and much research has been done.
기존에 연구되었던 동영상 분할 방법은 동영상의 컬러, 에지, 텍스쳐 등과 같은 하위 특징들을 이용하여 동영상을 분할하였다. 하지만, 동영상의 컬러, 에지, 텍스쳐 만으로는 동영상의 정보를 모두 표현하기 힘들기 때문에 객체 별로 영상을 분할할 수 없다는 단점이 있다. 그래서 최근에는 동영상에 포함되는 객체들을 각각 분할 할 수 없는 단점을 해결하기 위해서 최근에는 하위 특징들의 조합을 이용하여 동영상을 분할하려는 연구들이 많이 진행되고 있다.The video segmentation method, which has been studied previously, segmented the video using sub-features such as color, edge, and texture of the video. However, since it is difficult to express all the information of the video only by the color, edge, and texture of the video, there is a disadvantage in that the image cannot be divided by objects. Recently, in order to solve the disadvantage that the objects included in the video cannot be divided, a lot of researches have recently been conducted to segment the video using the combination of sub-features.
그러나 현재 제안된 영상을 분할하는 방법은 동영상에 포함되는 객체의 컬러와 텍스쳐가 비슷할 경우에는 영상에 포함되는 객체별로 분할하는 것이 불가능하다. 따라서, 이러한 문제점을 해결하면서 영상을 분할할 수 있는 영상을 분할하는 방안이 필요하다.However, the currently proposed method of segmenting an image cannot be segmented for each object included in the image when the color and texture of the object included in the video are similar. Accordingly, there is a need for a method of segmenting an image that can segment an image while solving such a problem.
따라서, 본 발명의 목적은, 동영상 시스템에서 동영상 데이터 분할 장치 및 방법을 제공함에 있다. Accordingly, an object of the present invention is to provide a video data segmentation apparatus and method in a video system.
그리고, 본 발명의 다른 목적은, 동영상 시스템에서 컬러 정보, 깊이 정보, 움직임 정보를 이용하여 동영상 데이터를 분할하는 장치 및 방법을 제공함에 있다.Another object of the present invention is to provide an apparatus and method for dividing moving image data using color information, depth information, and motion information in a moving image system.
또한, 본 발명의 다른 목적은, 동영상 시스템에서 동영상의 프레임 별로 동영상 데이터의 컬러 정보, 깊이 정보, 움직임 정보를 추출하여 동영상 데이터를 분할하는 장치 및 방법을 제공함에 있다.Another object of the present invention is to provide an apparatus and method for dividing moving image data by extracting color information, depth information, and motion information of moving image data for each frame of the moving image in a moving image system.
아울러, 본 발명의 또 다른 목적은, 동영상 시스템에서 동영상으로부터 추출한 동영상 데이터의 컬러 정보, 깊이 정보, 움직임 정보를 업데이트 하여 분할된 동영상 데이터의 연속성을 유지시키는 동영상 데이터 분할 장치 및 방법을 제공함에 있다.In addition, another object of the present invention is to provide a video data segmentation apparatus and method for maintaining the continuity of the segmented video data by updating the color information, depth information, motion information of the video data extracted from the video in the video system.
상기한 목적들을 해결하기 위해 본 발명의 일 실시예에 따른 동영상 데이터 분할 장치는, 복수개의 영상촬영기기에 의해 촬영된 복수개의 동영상 데이터를 프레임별로 동기를 맞추어 저장하는 저장부; 상기 동영상 데이터에서 프레임별로 컬러 정보를 추출하는 제 1 추출부; 상기 동영상 데이터에서 프레임별로 깊이 정보를 추출하여 상기 동영상 데이터의 프레임들을 각각 전경 영역 및 배경 영역으로 분리하는 제 1 분리부; 상기 전경 영역과 배경 영역 및 상기 컬러 정보를 이용하여 프레임별로 움직임 정보를 추출하는 제 2 추출부; 및 상기 컬러 정보, 상기 깊이 정 보, 및 상기 움직임 정보를 이용하여 상기 동영상 데이터를 분할하는 제 2 분리부를 포함하는 것을 특징으로 한다.In order to solve the above objects, a video data segmentation apparatus according to an embodiment of the present invention includes a storage unit for synchronizing and storing a plurality of video data shot by a plurality of video photographing apparatuses frame by frame; A first extracting unit extracting color information for each frame from the video data; A first separator extracting depth information for each frame from the video data and separating the frames of the video data into a foreground area and a background area, respectively; A second extracting unit extracting motion information for each frame by using the foreground area, the background area, and the color information; And a second separator configured to segment the video data using the color information, the depth information, and the motion information.
본 발명의 일 실시예에 따른 동영상 데이터 분할 방법은, 복수개의 영상 촬영기기에 의해 촬영된 복수개의 동영상 데이터를 프레임별로 동기를 맞추어 저장하는 단계; 상기 동영상 데이터에서 프레임별로 컬러 정보 및 깊이 정보를 추출하는 단계; 상기 깊이 정보를 이용하여 상기 동영상 데이터의 프레임들을 각각 전경 영역 및 배경 영역으로 분리하는 단계; 상기 전경 영역과 배경 영역 및 상기 컬러 정보를 이용하여 프레임별로 움직임 정보를 추출하는 단계; 및 상기 컬러 정보, 상기 깊이 정보, 및 상기 움직임 정보를 이용하여 상기 동영상 데이터를 분할하는 단계를 포함하는 것을 특징으로 한다.In accordance with another aspect of the present invention, there is provided a video data segmentation method comprising: synchronizing and storing a plurality of video data photographed by a plurality of video photographing apparatuses frame by frame; Extracting color information and depth information for each frame from the video data; Dividing the frames of the moving image data into a foreground area and a background area by using the depth information; Extracting motion information for each frame by using the foreground area, the background area, and the color information; And dividing the moving image data by using the color information, the depth information, and the motion information.
본 발명은, 동영상 시스템에서 동영상의 프레임 별로 동영상 데이터의 컬러 정보, 깊이 정보, 움직임 정보를 추출하여 동영상 데이터를 분할할 수 있다. 또한 본 발명은, 동영상 시스템에서 동영상으로부터 추출한 동영상 데이터의 컬러 정보, 깊이 정보, 움직임 정보를 업데이트 하여 분할된 동영상 데이터의 연속성을 유지시킬 수 있다. 본 발명은 스테레오 또는 다시점 깊이 정보 추출에 이용되어 프레임별 깊이 데이터의 연속성을 유지시킬 수 있다.According to the present invention, the video data may be extracted by color information, depth information, and motion information of the video data for each frame of the video. In addition, the present invention can maintain the continuity of the divided video data by updating the color information, depth information, and motion information of the video data extracted from the video in the video system. The present invention can be used to extract stereo or multi-view depth information to maintain continuity of depth data for each frame.
상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되어 있 는 상세한 설명을 통하여 보다 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. The above objects, features, and advantages will be more clearly understood from the following detailed description with reference to the accompanying drawings, and accordingly, those skilled in the art to which the present invention pertains may have the technical idea of the present invention. It will be easy to implement. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.
본 발명은, 동영상 시스템에서, 동영상 데이터 분할 장치 및 방법을 제안한다. 여기서, 후술할 본 발명의 실시 예에서는 동영상 시스템에서 컬러 정보, 깊이 정보, 움직임 정보를 이용하여 동영상 데이터를 분할하는 장치 및 방법을 제안한다. 또한, 본 발명의 실시 예에서는 동영상 시스템에서 동영상으로부터 추출한 동영상 데이터의 컬러 정보, 깊이 정보, 움직임 정보를 업데이트 하여 분할된 동영상 데이터의 연속성을 유지시키는 동영상 데이터 분할 장치 및 방법을 제안한다. 그러면 여기서, 도 1을 참조하여 본 발명의 실시예에 따른 동영상 시스템에서 동영상 데이터를 분할하는 장치를 보다 구체적으로 설명하기로 한다. The present invention proposes a video data segmentation apparatus and method in a video system. Here, an embodiment of the present invention to be described later proposes an apparatus and method for segmenting video data using color information, depth information, and motion information in a video system. In addition, an embodiment of the present invention proposes a video data segmentation apparatus and method for maintaining the continuity of segmented video data by updating color information, depth information, and motion information of video data extracted from a video in a video system. Next, an apparatus for dividing video data in a video system according to an exemplary embodiment of the present invention will be described in more detail with reference to FIG. 1.
도 1은 본 발명의 실시예에 따른 동영상 시스템에서 동영상 데이터를 분할하는 장치의 구조를 개략적으로 도시한 도면이다. 1 is a diagram schematically illustrating a structure of an apparatus for dividing moving image data in a moving image system according to an exemplary embodiment of the present invention.
도 1을 참조하면, 본 발명에 따른 동영상 데이터 분할 장치는 저장부(110), 추출부(120), 분리부(130), 산출부(140), 조정부(150), 기록부(160)를 포함한다. 저장부(110)는 제 1 저장부(111)와 제 2 저장부(112)를 포함하며, 추출부(120)는 제 1 추출부(121)와 제 2 추출부(122)를 포함하고, 분리부(130)는 제 1 분리부(131)와 제 2 분리부(132)를 포함한다.Referring to FIG. 1, the video data splitting apparatus according to the present invention includes a
여기서, 상기 동영상 데이터는, 도 1에 구체적으로 도시하지는 않았으나 다양한 형태의 복수의 영상 촬영기기들, 예컨대 다중 시점 비디오 카메라 또는 스테레오 비디오 카메라 및 깊이 카메라 등에 의해 촬영된 동영상 데이터로서, 상기 영상 촬영기기들에서 상기 동영상 데이터 분할장치로 수신된다. 상기 다중 시점 비디오 카메라는 적어도 하나 이상의 카메라를 통해 여러 시점에서 촬영된 컬러 동영상을 사용자에게 제공하는 카메라를 의미한다. 그리고 스테레오 비디오 카메라는 한 장의 영상에 좌/우 두 시점의 영상을 동시에 카메라를 의미한다. 또한, 깊이 동영상 데이터는 깊이 카메라에 의해 촬영되어 수신된 데이터를 의미한다.Although the video data is not specifically illustrated in FIG. 1, the video data is video data photographed by a plurality of video recording apparatuses of various types, for example, a multi-view video camera or a stereo video camera and a depth camera. Is received by the video data splitting apparatus. The multi-view video camera refers to a camera that provides a user with color video captured at various viewpoints through at least one camera. In addition, a stereo video camera means a camera that simultaneously records images of two left and right views on a single image. In addition, the depth video data refers to data captured and received by the depth camera.
상기 제 1 저장부(111)는 복수개의 카메라에 의해 촬영된 동영상 데이터를 수신하고, 동영상 데이터의 프레임들을 동기를 맞추어 저장한다. 상기 제 2 저장부(112)는 깊이 카메라에 의해 촬영된 깊이 동영상 데이터를 동기를 맞추어 저장한다. The
상기 제 1 추출부(121)는 상기 제 1 저장부(111)에 저장된 동영상 데이터를 수신하고, 상기 동영상 데이터가 복수의 프레임들로 구성됨에 따라, 상기 동영상 데이터에서 프레임 별로 컬러 영상을 각각 분리하고, 상기 프레임 별로 분리한 컬러 영상을 각각 컬러 별로 분리한 후 컬러 별로 그룹화하여 상기 동영상 데이터의 컬러 정보를 추출한다. 여기서, 상기 제 1 추출부(121)는, 평균 이동 알고리즘을 이용하여 상기 동영상 데이터의 컬러 정보를 추출할 수 있을 뿐만 아니라, 상기 평균 이동 알고리즘 이외의 다른 다양한 형태의 알고리즘을 이용하여 컬러 정보를 추출할 수 있다. 그리고, 상기 평균 이동 알고리즘은, 동영상 데이터에서 모든 프레 임에 포함된 컬러들을 유사한 색상 별로 컬러를 분리하여 컬러 정보를 추출하는 방식이다.The
상기 제 1 분리부(131)는, 상기 깊이 동영상 데이터를 상기 제 2 저장부(112)로부터 수신하고, 상기 깊이 동영상 데이터에서 프레임 별로 깊이 정보를 추출한 후, 상기 추출한 깊이 정보를 이용하여 깊이 동영상 데이터를 전경 영역과 배경 영역으로 분리하여 저장한다. 즉, 상기 제 1 분리부(131)는 수신한 깊이 동영상 데이터에서 깊이 영상 정보를 추출한다. The
여기서, 상기 깊이 동영상 데이터는, 상기 동영상 데이터에 포함된 다양한 형태의 영상들 중에서 깊이 정보를 포함하고 있는 영상, 예컨대 그레이 영상을 의미한다. 그리고, 상기 깊이 정보는, 상기 깊이 동영상 데이터의 프레임 내에서 소정 관점(viewpoint)으로부터 상기 프레임에 나타나 있는 객체까지의 거리를 지시하는 정보를 의미한다. 그에 따라, 상기 제 1 분리부(131)는, 소정의 관점으로부터 상기 프레임에 나타나 있는 객체의 거리를 픽셀 값으로 나타낼 수 있는 상기 깊이 정보를 추출한다.Here, the depth video data refers to an image including depth information among various types of images included in the video data, for example, a gray image. The depth information refers to information indicating a distance from a predetermined viewpoint to an object shown in the frame within the frame of the depth video data. Accordingly, the
예를 들어 보다 구체적으로 설명하면, 상기 제 1 분리부(131)에 의해 나타낸 픽셀의 값이 0에 가까울수록 검은색에 가까운 색이며, 이러한 검은색에 가까울수록 소정의 시점으로부터 멀리 있는 객체를 의미한다. 또한, 상기 제 1 분리부(131)에 의해 나타낸 픽셀의 값이 255에 가까울수록 흰색에 가까운 색이며, 이러한 흰색흰색에 가까울수록 소정의 시점으로부터 가까이 있는 객체를 의미한다. For example, in more detail, as the value of the pixel indicated by the
상기 제 1 분리부(131)는, 전술한 바와 같이 깊이 동영상 데이터에서 프레임 별로 깊이 정보를 추출한 후, 상기 추출한 깊이 정보를 이용하여 깊이 동영상 데이터를 프레임 별로 전경 영역과 배경 영역으로 분리한다. 여기서, 상기 제 1 분리부(131)는, 상기 추출한 깊이 정보를 이용한 K-평균 그룹화 알고리즘을 통해 상기 깊이 동영상 데이터를 프레임 별로 전경 영역과 배경 영역으로 분리할 수 있을 뿐만 아니라, 상기 K-평균 그룹화 알고리즘 이외의 다른 다양한 형태의 알고리즘으로도 상기 깊이 동영상 데이터를 프레임 별로 전경 영역과 배경 영역으로 분리할 수 있다. 여기서, 상기 K-평균 그룹화 알고리즘은, 상기 깊이 동영상 데이터의 임의의 한 프레임 내에서 적어도 하나 이상의 픽셀을 랜덤 하게 K개 선택에 따른 기준점에 가까운 곳의 데이터들을 하나의 그룹에 포함시켜 분할하는 알고리즘을 의미한다.As described above, the
상기 제 1 분리부(131)는, 깊이 동영상 데이터의 프레임 별로 임의의 K개의 그룹과 K개 그룹의 위치를 각각 설정하고, 상기 깊이 동영상 데이터에 대해 K개 그룹까지의 위치를 계산한다. 그리고, 상기 제 1 분리부(131)는 상기 계산된 위치가 가장 가까운 그룹에 해당 영역을 포함시켜 깊이 동영상 데이터를 프레임 별로 전경 영역과 배경 영역으로 분리한다.The
상기 제 2 추출부(122)는, 상기 전경 영역, 상기 배경 영역 및 상기 컬러 정보를 이용하여 상기 동영상 데이터에서 프레임 별로 움직임 정보를 추출한다. 다시 말해, 상기 제 2 추출부(122)는, 이전 프레임에 대한 컬러 정보가 존재하는 경우에는, 상기 전경 영역과 배경 영역을 이용하여 이전 프레임에 대한 컬러 정보와 현재 프레임의 컬러 정보를 비교한 후, 상기 비교 결과를 통해 움직임 정보를 추출한다.The
상기 제 2 분리부(132)는, 상기 컬러 정보, 상기 깊이 정보, 및 상기 움직임 정보를 이용하여 상기 동영상 데이터를 분할한다. 다시 말해, 상기 제 2 분리부(132)는 기준 시점, 예컨대 현재 프레임에 대한 각 프레임, 예컨대 이전 프레임들을 상기 제 1 분리부(131)에서 분리된 전경 영역과 배경 영역에 각각 컬러 정보를 이용하여 동영상 데이터를 분할한다.The
여기서, 상기 제 2 분리부(132)는, 상기 제 1 분리부(131)에서 분리된 전경 영역과 배경 영역에 각각 컬러 정보를 이용하는 동영상 데이터 분할 알고리즘을 적용한다. 상기 동영상 데이터 분할 알고리즘은, Comaniciu 등이 제안한 평균 이동(mean shift) 알고리즘이나 Yuri boycov 등이 제안한 그랩 컷(Grab Cut) 알고리즘 등이 될 수 있다. 상기 평균 이동 알고리즘은, 동영상 데이터의 컬러를 이용하여 정적 동영상 데이터를 분할하는 알고리즘을 확장한 알고리즘으로, 동영상 데이터를 분할할 수 있는 알고리즘을 의미한다. 여기서, 상기 평균 이동 알고리즘은, 물체의 형태 변화에 영향을 받지 않고 동영상 데이터를 분할할 수 있는 알고리즘으로 동적 동영상 데이터를 분할하는 알고리즘이다.Here, the
그리고 상기 제 2 분리부(132)는, 상기 이전 프레임에 대한 동영상 데이터의 분할 결과와, 상기 현재 프레임에 대한 동영상 데이터의 분할 결과를 산출부(140)로 전송한다.The
상기 산출부(140)는, 제 2 분리부(132)에서 분할된 동영상 데이터의 각 프레임마다 전경 영역과 배경 영역에 대한 깊이 추정을 수행하기 위해 상기 깊이 추정시 사용할 깊이 탐색 범위를 각각 결정한다. 예컨대, 상기 산출부(140)는, 출력된 현재 프레임에 대한 동영상 데이터의 분할 결과를 이용하여 상기 깊이 추정시 사용 할 깊이 탐색 범위를 각각 결정한다. 이때, 상기 산출부(140)는, 이전 프레임의 깊이 정보와 현재 프레임의 깊이 정보 중에서 깊이 탐색 범위 결정을 위해 사용할 기준 깊이 정보를 선택하며, 여기서는, 설명의 편의를 위해 상기 현재 프레임의 깊이 정보를 기준 깊이 정보로 선택하는 것으로 가정하여 설명하기로 한다. 또한, 상기 산출부(140)는, 전술한 바와 같이 기준 깊이 정보를 선택한 후, 상기 선택한 기준 깊이 정보에 하기 조건 1 내지 조건 3을 모두 만족하는 깊이 정보를 업데이트하여 상기 분할된 동영상의 각 프레임에 대한 깊이 정보가 보관된 최종 기준 깊이 정보를 산출한다.The
구체적으로 설명하면, 상기 산출부(140)는, 하기 조건 1 내지 조건 3을 모두 만족하는 각 프레임, 예컨대 이전 프레임 별로 최적의 움직임 영역을 검색하며, 이를 위해 상기 산출부(140)는, 현재 프레임을 각 프레임들, 예컨대 이전 프레임들에 각각 슬라이딩(sliding)하여 각 프레임 별로 최적의 움직임 영역을 검색한다. Specifically, the
조건 1. S와 중첩되는 S'의 화소 비율 > 임계 비율 and Condition 1. Pixel ratio of S 'overlapping S> critical ratio and
조건 2. S와 S'의 중첩되는 영역에서 S와 S'내 화소 간 컬러 차이 < 임계 컬러 차이 and Condition 2. Color Difference between Pixels in S and S 'in Overlapping Regions of S and S' <Critical Color Difference and
조건 3. S와 S'의 중첩되는 영역에서 S와 S'내 화소 간 깊이 차이 < 임계 깊이 차이Condition 3. Depth difference between pixels in S and S 'in the overlapping area of S and S' <critical depth difference
상기 조건들에서, S는 이전 프레임을 의미하고 S'는 현재 프레임을 의미한 다. 또한, 상기 깊이 차이는 이전 프레임의 깊이 정보와 현재 프레임의 깊이 정보 간의 차이 값이다. 중첩되는 영역은 이전 프레임과 현재 프레임이 대응하여 중복되는 영역을 의미한다. 따라서, 산출부(140)는 이전 프레임에 포함된 화소들의 깊이 정보를 평균하여 평균 깊이 정보를 산출하고, 상기 산출한 평균 깊이 정보를 전술한 현재 프레임에서의 기준 깊이 정보에 보관하여 최종 기준 깊이 정보를 산출한다. 이렇게 기준 깊이 정보와 최종 기준 깊이 정보를 산출한 산출부는, 하기 수학식 1과 같이 상기 깊이 추정시 사용할 깊이 탐색 범위를 각각 결정한다. 다음으로, 상기 제 1 처리부(211)는 선택된 기준 깊이 정보를 중심으로 하기 <수학식 1>와 같이 설정된 깊이 탐색 범위에서 유사도가 높은 깊이 정보를 탐색한다.In the above conditions, S means a previous frame and S 'means a current frame. Also, the depth difference is a difference value between the depth information of the previous frame and the depth information of the current frame. The overlapping area means an area where the previous frame and the current frame correspond to each other. Therefore, the
상기 <수학식 1>를 참조하면, 기준 깊이는, 상기 최종 기준 깊이 정보를 의미한다. 또한, 상기 깊이 탐색 범위는, <수학식 1>에 나타낸 바와 같이 범위가 결정된다. 즉, 상기 산출부(140)는 상기 깊이 탐색 범위에서 유사도 알고리즘을 이용하여 유사도가 높은 깊이 정보를 탐색한다. 상기 유사도 알고리즘은, SSD(Sum of Squared Distance), SAD(Sum of Absolute), NCC(Normalized Correlation Coefficient), MAD(Mean Absolute Difference) 등이 될 수 있다. 그러면 이하에서 는, MAD 알고리즘을 이용하여 상기 깊이 탐색 범위 내에서 유사도가 높은 깊이 정보를 결정하는 과정을 설명하기로 한다.Referring to Equation 1, the reference depth refers to the final reference depth information. In addition, the depth search range is determined as shown in Equation (1). That is, the
이하, <수학식 2>을 참조하여 평균 절대 차이를 이용하여 유사도를 계산하는 과정을 설명한다. Hereinafter, a process of calculating the similarity using the mean absolute difference will be described with reference to Equation 2.
상기 <수학식 2>을 참조하면, yi와 yj는 분할된 동영상 데이터의 각 프레임에 대한 컬러 값을 나타낸다. 동영상 데이터는 복수개의 촬영기기에 의해 촬영되기 때문에 하나의 영상에 대해서 다중 시점이 존재한다. 상기 다중 시점은, 제 1 시점 영역, 예컨대 좌측 영상 및 제 2 시점 영역, 예컨대 우측 영역을 포함한다. SL은 좌측 영상의 영역을 나타내고, SR은 우측 영상의 영역을 나타낸다. A(S)는 분할된 동영상 데이터의의 크기를 나타낸다. 즉, 상기 산출부(140)는 상기 <수학식 2>를 이용하여 상기 깊이 탐색 범위에서 유사도 차이가 가장 작은 깊이 정보를 결정하고, 상기 결정된 가장 작은 깊이 정보를 상기 수학식 1에서 나타낸 상기 최종 기준 깊이 정보에 업데이트한다.Referring to Equation 2, yi and yj represent color values for each frame of the divided video data. Since moving image data is captured by a plurality of photographing apparatuses, multiple viewpoints exist for one image. The multiple views include a first view area, for example, a left image and a second view area, for example, a right area. SL represents an area of the left image, and SR represents an area of the right image. A (S) represents the size of the divided video data. That is, the
하지만, 상기 전경 영역과 상기 배경 영역에 존재하는 객체 사이의 경계선이나 서로 다른 깊이 정보를 가진 두 객체 사이의 경계선이 존재하는 경우에는 차폐 영역(occlusion area)가 발생할 수 있다. 상기 차폐 영역(occlusion area)으로 인하여 오정합이 발생될 수 있기 때문에 산출부(140)은, 상기 발생되는 오정합에 상응하여 상기 최종 깊이 정보를 조정한다. 그런 다음, 상기 산출부(140)는, 상기 현재 프레임의 최종 깊이 정보, 이전 프레임의 깊이 정보 및 상기 초기 깊이 정보 중 하나의 정보를 선택하여 최종적으로 깊이 정보를 결정한다. 즉, 상기 이전 프레임의 깊이 정보, 상기 현재 프레임의 최종 깊이 정보, 상기 초기 깊이 정보 각각으로부터 얻어지는 기준 시점과 다른 시점 동영상 데이터들 내의 대응점 간 평균 절대 차이 값을 비교하여 가장 차이 값이 작은 깊이 정보를 선택하게 된다. However, an occlusion area may occur when a boundary line between the object existing in the foreground area and the background area or a boundary line between two objects having different depth information exists. Since mismatches may occur due to the occlusion area, the
그런 다음, 상기 조정부(150)는, 최종적으로 상기 선택된 기준 깊이 정보를 기준 시점 카메라를 제외한 다른 시점 카메라로 투영시킨다. 상기 기준 깊이 정보는 기준시점 카메라에 대한 깊이 정보이기 때문에, 기준 시점 카메라를 제외한 다른 시점 카메라의 깊이 정보를 얻기 위해서 투영시킨다. 이때, 동영상 데이터내의 객체 사이의 경계선이나 서로 다른 깊이 정보를 가진 두 객체 사이의 경계선으로 인하여 차폐 영역(occlusion area)이 발생할 수 있다. 또한, 상기 차폐 영역으로 인해 홀(hole)이 발생된다. 상기 조정부(150)는 상기 차폐영역으로 발생한 홀을 홀 주변 화소의 깊이 정보로 상기 홀을 보상한다. 그런 다음, 상기 기록부(160)는 상기 기준 시점 및 상기 다른 시점 카메라에 의해 촬영된 각 시점 동영상 데이터의 최종 깊이 정보를 디지털 동영상 데이터로 기록한다. 그러면 여기서, 도 3을 참조하여 본 발명의 실시 예에 따른 동영상 시스템에서 동영상 데이터를 분할하는 과정을 보다 구체적으로 설명하기로 한다. Then, the adjusting
도 2는 발명의 실시 예에 따른 동영상 시스템에서 동영상 데이터를 분할하는 과정을 개략적으로 도시한 도면이다. 2 is a diagram schematically illustrating a process of dividing video data in a video system according to an exemplary embodiment of the present invention.
도 2 참조하면, 상기 동영상 데이터 분할 장치는, 210단계에서 복수개의 카메라에 의해 촬영된 동영상 데이터와 깊이 카메라에 의해 촬영된 깊이 동영상 데이터를 수신하고, 상기 동영상 데이터와 깊이 동영상 데이터를 동기를 맞추어 저장한다. 여기서, 상기 동영상 데이터는, 다양한 형태의 복수의 영상 촬영기기들, 예컨대 다중 시점 비디오 카메라 또는 스테레오 비디오 카메라 및 깊이 카메라 등에 의해 촬영된 동영상 데이터로서, 상기 영상 촬영기기들에서 상기 동영상 데이터 분할장치로 수신된다. 상기 다중 시점 비디오 카메라는 적어도 하나 이상의 카메라를 통해 여러 시점에서 촬영된 동영상을 사용자에게 제공하는 카메라를 의미한다. 그리고 스테레오 비디오 카메라는 한 장의 영상에 좌/우 두 시점의 영상을 동시에 제공하는 카메라를 의미한다. 또한, 깊이 동영상 데이터는 깊이 카메라에 의해 촬영되어 수신된 데이터를 의미한다.Referring to FIG. 2, in
그런 다음, 상기 동영상 데이터 분할 장치는, 220단계에서 상기 동영상 데이터에서 프레임 별로 컬러 영상을 각각 분리하고, 상기 프레임 별로 분리한 컬러 영상을 각각 컬러 별로 분리한 후 컬러 별로 그룹화하여 상기 동영상 데이터의 컬러 정보를 추출한다. 여기서, 상기 동영상 데이터 분할 장치는, 평균 이동 알고리즘을 이용하여 상기 동영상 데이터의 컬러 정보를 추출할 수 있을 뿐만 아니라, 상기 평균 이동 알고리즘 이외의 다른 다양한 형태의 알고리즘을 이용하여 컬러 정보를 추출할 수 있다. 그리고, 상기 평균 이동 알고리즘은, 동영상 데이터에서 모든 프레 임에 포함된 컬러들을 유사한 색상 별로 컬러를 분리하여 컬러 정보를 추출하는 방식이다.In
다음으로, 상기 동영상 데이터 분할 장치는, 230단계에서, 깊이 영상의 초기 깊이 정보를 이용하여 전경 영역과 배경 영역으로 분리한다. 즉 여기서, 상기 동영상 데이터에 포함된 다양한 형태의 영상들 중에서 깊이 정보를 포함하고 있는 영상, 예컨대 그레이 영상을 의미한다. 그리고, 상기 깊이 정보는, 상기 깊이 동영상 데이터의 프레임 내에서 소정 관점(viewpoint)으로부터 상기 프레임에 나타나 있는 객체까지의 거리를 지시하는 정보를 의미한다. 그에 따라, 상기 제 1 분리부(131)는, 소정의 관점으로부터 상기 프레임에 나타나 있는 객체의 거리를 픽셀 값으로 나타낼 수 있는 상기 깊이 정보를 추출한다.In
예를 들어 보다 구체적으로 설명하면, 상기 동영상 데이터 분할 장치에 의해 나타낸 픽셀의 값이 0에 가까울수록 검은색에 가까운 색이며, 이러한 검은색에 가까울수록 소정의 시점으로부터 멀리 있는 객체를 의미한다. 또한, 상기 동영상 데이터 분할 장치에 의해 나타낸 픽셀의 값이 255에 가까울수록 흰색에 가까운 색이며, 이러한 흰색흰색에 가까울수록 소정의 시점으로부터 가까이 있는 객체를 의미한다. For example, in more detail, the closer the value of the pixel indicated by the moving picture data dividing device to zero is the color closer to black, the closer to this black means the object farther from the predetermined viewpoint. In addition, as the value of the pixel represented by the moving picture data dividing apparatus is closer to 255, the color is closer to white, and the closer to white, the closer the object is from a predetermined viewpoint.
그리고, 상기 동영상 데이터 분할 장치는, 전술한 바와 같이 깊이 동영상 데이터에서 프레임 별로 깊이 정보를 추출한 후, 상기 추출한 깊이 정보를 이용하여 깊이 동영상 데이터를 프레임 별로 전경 영역과 배경 영역으로 분리한다. 여기서, 상기 제 1 분리부(131)는, 상기 추출한 깊이 정보를 이용한 K-평균 그룹화 알고리 즘을 통해 상기 깊이 동영상 데이터를 프레임 별로 전경 영역과 배경 영역으로 분리할 수 있을 뿐만 아니라, 상기 K-평균 그룹화 알고리즘 이외의 다른 다양한 형태의 알고리즘으로도 상기 깊이 동영상 데이터를 프레임 별로 전경 영역과 배경 영역으로 분리할 수 있다. 여기서, 상기 K-평균 그룹화 알고리즘은, 상기 깊이 동영상 데이터의 임의의 한 프레임 내에서 적어도 하나 이상의 픽셀을 랜덤 하게 K개 선택에 따른 기준점에 가까운 곳의 데이터들을 하나의 그룹에 포함시켜 분할하는 알고리즘을 의미한다. 상기 동영상 데이터 분할 장치는, 깊이 동영상 데이터의 프레임 별로 임의의 K개의 그룹과 K개 그룹의 위치를 각각 설정하고, 상기 깊이 동영상 데이터에 대해 K개 그룹까지의 위치를 계산한다. 그리고, 상기 동영상 데이터 분할 장치는, 상기 계산된 위치가 가장 가까운 그룹에 해당 영역을 포함시켜 깊이 동영상 데이터를 프레임 별로 전경 영역과 배경 영역으로 분리한다.As described above, the video data dividing apparatus extracts depth information for each frame from the depth video data, and then separates the depth video data into a foreground area and a background area for each frame by using the extracted depth information. Here, the
다음으로, 상기 동영상 데이터 분할 장치는, 240단계에서, 상기 전경 영역, 상기 배경 영역 및 상기 컬러 정보를 이용하여 상기 동영상 데이터에서 프레임 별로 움직임 정보를 추출한다. 다시 말해, 상기 동영상 데이터 분할 장치는, 이전 프레임에 대한 컬러 정보가 존재하는 경우에는, 상기 전경 영역과 배경 영역을 이용하여 이전 프레임에 대한 컬러 정보와 현재 프레임의 컬러 정보를 비교한 후, 상기 비교 결과를 통해 움직임 정보를 추출한다.In
그런 다음, 상기 동영상 데이터 분할 장치는, 250단계에서 상기 동영상 데이터 분할 장치는, 상기 컬러 정보, 상기 깊이 정보, 및 상기 움직임 정보를 이용하여 상기 동영상 데이터를 분할한다. 다시 말해, 상기 동영상 데이터 분할 장치는, 기준 시점, 예컨대 현재 프레임에 대한 각 프레임, 예컨대 이전 프레임들을 분리된 전경 영역과 배경 영역에 각각 컬러 정보를 이용하여 동영상 데이터를 분할한다.In
여기서, 상기 동영상 데이터 분할 장치는, 분리된 전경 영역과 배경 영역에 각각 컬러 정보를 이용하는 동영상 데이터 분할 알고리즘을 적용한다. 상기 동영상 데이터 분할 알고리즘은, Comaniciu 등이 제안한 평균 이동(mean shift) 알고리즘이나 Yuri boycov 등이 제안한 그랩 컷(Grab Cut) 알고리즘 등이 될 수 있다. 상기 평균 이동 알고리즘은, 동영상 데이터의 컬러를 이용하여 정적 동영상 데이터를 분할하는 알고리즘을 확장한 알고리즘으로, 동영상 데이터를 분할할 수 있는 알고리즘을 의미한다. 여기서, 상기 평균 이동 알고리즘은, 물체의 형태 변화에 영향을 받지 않고 동영상 데이터를 분할할 수 있는 알고리즘으로 동적 동영상 데이터를 분할하는 알고리즘이다. 그러면 여기서, 도 3을 참조하여 본 발명의 실시예에 따른 동영상 시스템에서 동영상 데이터를 분할하는 장치를 이용하여 변이 및 깊이를 추출하는 과정을 보다 구체적으로 설명하기로 한다.Here, the video data segmentation apparatus applies a video data segmentation algorithm using color information to the separated foreground and background regions, respectively. The moving picture data segmentation algorithm may be a mean shift algorithm proposed by Comaniciu or the like, or a grab cut algorithm proposed by Yuri boycov or the like. The average moving algorithm is an algorithm that extends an algorithm for dividing static video data using color of video data, and refers to an algorithm capable of segmenting video data. Here, the average moving algorithm is an algorithm for dividing dynamic video data into an algorithm capable of dividing video data without being affected by the shape change of an object. Next, the process of extracting the variation and depth using the apparatus for dividing the video data in the video system according to the embodiment of the present invention will be described in more detail with reference to FIG. 3.
도 3은 본 발명에 따른 동영상 시스템에서 동영상 데이터를 분할하는 장치를 이용하여 변이 및 깊이 추출하는 과정을 개략적으로 도시한 도면이다.FIG. 3 is a diagram schematically illustrating a process of extracting disparity and depth using an apparatus for dividing video data in a video system according to the present invention.
도 3을 참조하면, 먼저, 상기 동영상 데이터 분할 장치는, 310단계에서 이전 프레임에 대한 동영상 데이터의 분할 정보와 깊이 정보가 존재하면 상기 동영상 데이터 분할 장치는, 320단계에서 기준 깊이를 선택한다. 반면, 이전 프레임에 대한 동영상 데이터의 분할 정보와 깊이 정보가 존재하지 않다면 상기 동영상 데이터 분할 장치는, 330단계에서 영역 단위 깊이를 계산한다. 보다 구체적으로 설명하면, 상기 동영상 데이터 분할 장치는, 분할된 동영상 데이터의 각 프레임마다 전경 영역과 배경 영역에 대한 깊이 추정을 수행하기 위해 상기 깊이 추정시 사용할 깊이 탐색 범위를 각각 결정한다. 예컨대, 상기 동영상 데이터 분할 장치는, 출력된 현재 프레임에 대한 동영상 데이터의 분할 결과를 이용하여 상기 깊이 추정시 사용할 깊이 탐색 범위를 각각 결정한다. 이때, 상기 동영상 데이터 분할 장치는, 이전 프레임의 깊이 정보와 현재 프레임의 깊이 정보 중에서 깊이 탐색 범위 결정을 위해 사용할 기준 깊이 정보를 선택하며, 여기서는, 설명의 편의를 위해 상기 현재 프레임의 깊이 정보를 기준 깊이 정보로 선택하는 것으로 가정하여 설명하기로 한다. 또한, 상기 동영상 데이터 분할 장치는, 전술한 바와 같이 기준 깊이 정보를 선택한 후, 상기 선택한 기준 깊이 정보에 상기 조건 1 내지 조건 3을 모두 만족하는 깊이 정보를 업데이트하여 상기 분할된 동영상 데이트의 각 프레임에 대한 깊이 정보가 보관된 최종 기준 깊이 정보를 산출한다. 여기서, 조건 1 내지 조건 3은 앞서 구체적으로 설명하였음으로 여기서는 그에 관한 구체적인 설명을 생략하기로 한다.Referring to FIG. 3, first, in
다음으로, 상기 동영상 데이터 분할 장치는, 340단계에서, 상기 산출된 최종기준 깊이 정보를 중심으로 상기 <수학식 1>와 같이 설정된 깊이 탐색 범위에서 유사도가 높은 깊이 정보를 탐색한다. 여기서, <수학식 1>에 대한 설명은 앞서 구체적으로 설명하였음으로 여기서는 그에 관한 구체적인 설명을 생략하기로 한다. 즉, 상기 동영상 데이터 분할 장치는, 상기 깊이 탐색 범위에서 유사도 알고리즘을 이용하여 유사도가 높은 깊이 정보를 탐색한다. 상기 유사도 알고리즘은, SSD(Sum of Squared Distance), SAD(Sum of Absolute), NCC(Normalized Correlation Coefficient), MAD(Mean Absolute Difference) 등이 될 수 있다. 상기 동영상 데이터 분할 장치는, 340단계에서, MAD 알고리즘을 이용하여 상기 깊이 탐색 범위 내에서 유사도가 높은 깊이 정보를 결정한다.In
그런 다음, 상기 동영상 데이터 분할 장치는, 350단계에서, 깊이 카메라의 초기 깊이, 영역 단위 깊이, 화소 단위 깊이 중 유사도가 가장 높은 깊이를 선택한다. 그리고, 상기 동영상 데이터 분할 장치는, 360단계에서, 상기 전경 영역과 상기 배경 영역에 존재하는 객체 사이의 경계선이나 서로 다른 깊이 정보를 가진 두 객체 사이의 경계선부분에 존재하는 상기 최종 깊이 정보를 조정한다. In
그런 다음, 상기 동영상 데이터 분할 장치는, 370단계에서 최종적으로 상기 선택된 기준 깊이 정보를 기준 시점 카메라를 제외한 다른 시점 카메라로 투영시킨다. 상기 기준 깊이 정보는 기준시점 카메라에 대한 깊이 정보이기 때문에, 기준 시점 카메라를 제외한 다른 시점 카메라의 깊이 정보를 얻기 위해서 투영시킨다. 이때, 동영상 데이터내의 객체 사이의 경계선이나 서로 다른 깊이 정보를 가진 두 객체 사이의 경계선으로 인하여 차폐 영역(occlusion area)이 발생할 수 있다. 또한, 상기 차폐 영역으로 인해 홀(hole)이 발생된다. 상기 동영상 데이터 분할 장치는, 380단계에서 상기 홀을 홀의 주변 화소의 깊이 정보 상기 홀을 보상한다. 그런 다음, 상기 동영상 데이터 분할 장치는, 390단계에서 상기 기준 시점 및 상기 다른 시점 카메라에 의해 촬영된 각 시점 동영상 데이터의 최종 깊이 정보를 디지털 동영상으로 기록한다. In
한편, 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로, 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 안되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다. Meanwhile, in the detailed description of the present invention, specific embodiments have been described, but various modifications may be made without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the scope of the following claims, but also by the equivalents of the claims.
도 1은 본 발명의 실시 예에 따른 동영상 시스템에서 동영상 데이터를 분할하는 장치의 구조를 개략적으로 도시한 도면,1 is a view schematically showing the structure of an apparatus for dividing video data in a video system according to an embodiment of the present invention;
도 2는 발명의 실시 예에 따른 동영상 시스템에서 동영상 데이터를 분할하는 과정을 개략적으로 도시한 도면,2 is a diagram schematically illustrating a process of dividing video data in a video system according to an exemplary embodiment of the present invention;
도 3은 본 발명에 따른 동영상 시스템에서 동영상 데이터를 분할하는 장치를 이용하여 변이 및 깊이 추출하는 과정을 개략적으로 도시한 도면.3 is a diagram schematically illustrating a process of extracting variation and depth using an apparatus for dividing video data in a video system according to the present invention;
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090104587A KR20110047814A (en) | 2009-10-30 | 2009-10-30 | Apparatus and method for dividing moving picture data in moving picture system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090104587A KR20110047814A (en) | 2009-10-30 | 2009-10-30 | Apparatus and method for dividing moving picture data in moving picture system |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20110047814A true KR20110047814A (en) | 2011-05-09 |
Family
ID=44239048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090104587A KR20110047814A (en) | 2009-10-30 | 2009-10-30 | Apparatus and method for dividing moving picture data in moving picture system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20110047814A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130128097A (en) * | 2012-05-16 | 2013-11-26 | 전자부품연구원 | Object recognition method and apparatus using depth information |
KR20140065894A (en) * | 2012-11-22 | 2014-05-30 | 삼성전자주식회사 | Apparatus and method for processing color image using depth image |
KR101426878B1 (en) * | 2012-09-20 | 2014-08-05 | 가시오게산키 가부시키가이샤 | Moving picture processing apparatus, moving picture processing method, and storage medium |
US9542728B2 (en) | 2012-09-20 | 2017-01-10 | Samsung Electronics Co., Ltd. | Apparatus and method for processing color image using depth image |
CN111064964A (en) * | 2019-06-24 | 2020-04-24 | 杭州海康威视数字技术股份有限公司 | Encoding and decoding method, device and equipment |
-
2009
- 2009-10-30 KR KR1020090104587A patent/KR20110047814A/en not_active Application Discontinuation
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130128097A (en) * | 2012-05-16 | 2013-11-26 | 전자부품연구원 | Object recognition method and apparatus using depth information |
KR101426878B1 (en) * | 2012-09-20 | 2014-08-05 | 가시오게산키 가부시키가이샤 | Moving picture processing apparatus, moving picture processing method, and storage medium |
US9542728B2 (en) | 2012-09-20 | 2017-01-10 | Samsung Electronics Co., Ltd. | Apparatus and method for processing color image using depth image |
KR20140065894A (en) * | 2012-11-22 | 2014-05-30 | 삼성전자주식회사 | Apparatus and method for processing color image using depth image |
CN111064964A (en) * | 2019-06-24 | 2020-04-24 | 杭州海康威视数字技术股份有限公司 | Encoding and decoding method, device and equipment |
CN111064964B (en) * | 2019-06-24 | 2021-02-26 | 杭州海康威视数字技术股份有限公司 | Encoding and decoding method, device and equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9300947B2 (en) | Producing 3D images from captured 2D video | |
US8798160B2 (en) | Method and apparatus for adjusting parallax in three-dimensional video | |
US10542249B2 (en) | Stereoscopic video generation method based on 3D convolution neural network | |
KR101520619B1 (en) | Method and apparatus for determining view positions of stereoscopic images for stereo synchronization | |
KR100793076B1 (en) | Edge-adaptive stereo/multi-view image matching apparatus and its method | |
US20110044502A1 (en) | Motion detection method, apparatus and system | |
KR100953076B1 (en) | Multi-view matching method and device using foreground/background separation | |
KR20160060403A (en) | Method and apparatus for calibrating image | |
US9769460B1 (en) | Conversion of monoscopic visual content to stereoscopic 3D | |
JP6173218B2 (en) | Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching | |
US9661307B1 (en) | Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D | |
KR100560464B1 (en) | Multi-view display system with viewpoint adaptation | |
KR20110047814A (en) | Apparatus and method for dividing moving picture data in moving picture system | |
JP7401663B2 (en) | Joint depth estimation from dual cameras and dual pixels | |
KR101698314B1 (en) | Aparatus and method for deviding of static scene based on statistics of images | |
JP2015146526A (en) | Image processing system, image processing method, and program | |
US20080226159A1 (en) | Method and System For Calculating Depth Information of Object in Image | |
US9113153B2 (en) | Determining a stereo image from video | |
JP2012238932A (en) | 3d automatic color correction device and color correction method and color correction program | |
EP2932710B1 (en) | Method and apparatus for segmentation of 3d image data | |
KR20160085708A (en) | Method and apparatus for generating superpixels for multi-view images | |
Doulamis et al. | Unsupervised semantic object segmentation of stereoscopic video sequences | |
JP6901424B2 (en) | Image processing device and image processing method | |
Lee et al. | Segment-based multi-view depth map estimation using belief propagation from dense multi-view video | |
Wu et al. | Stereoscopic video conversion based on depth tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |