KR20160093765A - Real Time Image Object Extraction Method and System - Google Patents

Real Time Image Object Extraction Method and System Download PDF

Info

Publication number
KR20160093765A
KR20160093765A KR1020150014170A KR20150014170A KR20160093765A KR 20160093765 A KR20160093765 A KR 20160093765A KR 1020150014170 A KR1020150014170 A KR 1020150014170A KR 20150014170 A KR20150014170 A KR 20150014170A KR 20160093765 A KR20160093765 A KR 20160093765A
Authority
KR
South Korea
Prior art keywords
depth map
depth
average
generating
background
Prior art date
Application number
KR1020150014170A
Other languages
Korean (ko)
Inventor
홍성희
강훈종
김영민
홍지수
강현민
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020150014170A priority Critical patent/KR20160093765A/en
Publication of KR20160093765A publication Critical patent/KR20160093765A/en

Links

Images

Classifications

    • H04N13/0022
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • H04N13/0018
    • H04N13/0037
    • H04N13/0257
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Provided are a method and a system for extracting a real time image object. The method for extracting an object according to one embodiment of the present invention is as follows: generating depth maps for images containing only a background; calculating an average of the generated background depth maps; generating a depth map for images containing an object; and extracting the object by comparing the depth map and the average depth map. Therefore, instead of multiple textures, the method simplifies an object and one background area, such that an efficiency of a system can be improved. In addition, the method extracts objects more accurately, thereby easily producing relevant content from now on.

Description

실시간 영상 객체 분리 방법 및 시스템{Real Time Image Object Extraction Method and System}TECHNICAL FIELD The present invention relates to a real-time image object extraction method and system,

본 발명은 영상 객체 분리에 관한 것으로, 더욱 상세하게는 뎁스 맵을 이용하여 컬러 이미지에서 실시간으로 영상 객체를 분리하는 방법 및 시스템에 관한 것이다.
The present invention relates to image object separation, and more particularly, to a method and system for separating a video object in real time from a color image using a depth map.

기존의 실사 영상에서의 객체(Object)를 추출하는 방법은 카메라로부터 입력되는 스트림 정보인 컬러 이미지와 뎁스 맵(Depth Map)을 이용하여 가상공간에서 다수의 텍스처(Texture)를 만들고, 각각의 뎁스 맵에 맞는 픽셀의 구역을 구해서 컬러 이미지으로부터 해당 구역의 픽셀들을 복사하는 방식을 활용한다.A method of extracting an object from an existing real image is to create a plurality of textures in a virtual space using a color image and a depth map that are stream information input from a camera, And then copies the pixels of the corresponding region from the color image.

기존 기술은 일정 뎁스 맵 범위를 구해서 그 뎁스 맵 범위에 있는 컬러 이미지를 추출하여 하나의 텍스처를 만드는 방식이기 때문에, 다수의 텍스처들을 생성시키게 된다.The existing technique is to create a texture by extracting a certain depth map range and extracting a color image in the depth map range, so that a plurality of textures are generated.

이에, 뎁스 맵의 범위를 좁게 설정하면 할수록, 텍스처의 개수가 많아지게 되어, 시스템의 성능 또한 떨어지게 되는 문제를 야기한다.Therefore, the narrower the depth map is set, the more the number of textures is increased, and the performance of the system is deteriorated.

또한, 기존 방법은 각각의 텍스처가 뎁스 맵의 일부만으로 포함하고 있기 때문에, 그로부터 정확한 객체(Object)를 구분하기 어렵다는 문제도 내포하고 있다. 특히, 도 1에 제시한 영상의 경우, 객체와 배경 간의 뎁스 차가 크지 않아 뎁스 맵의 범위를 좁게 설정하면, 객체를 추출하기 매우 어렵다.
In addition, the conventional method has a problem that it is difficult to distinguish an accurate object from each texture since each texture includes only a part of the depth map. In particular, in the case of the image shown in FIG. 1, if the depth difference between the object and the background is not large and the range of the depth map is set narrow, it is very difficult to extract the object.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 실사 영상에서 객체를 보다 효율적으로 분리하되, 전체적인 시스템의 퍼포먼스를 향상시킬 수 있는 영상 객체 분리 방법 및 시스템을 제공함에 있다.
SUMMARY OF THE INVENTION It is an object of the present invention to provide a video object separation method and system capable of more efficiently separating objects from a real image and improving overall system performance have.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 객체 분리 방법은, 배경만 포함된 장면에 대한 뎁스 맵들을 생성하는 제1 생성단계; 생성된 배경 뎁스 맵들의 평균을 산출하는 단계; 객체가 포함된 장면에 대한 뎁스 맵을 생성하는 제2 생성단계; 및 제2 생성단계에서 생성된 뎁스 맵과 상기 산출단계에서 산출된 평균 뎁스 맵을 비교하여, 객체를 추출하는 단계;를 포함한다.According to an aspect of the present invention, there is provided an object separation method comprising: a first generating step of generating depth maps for a scene including only a background; Calculating an average of the generated background depth maps; A second generating step of generating a depth map for a scene including an object; And comparing the depth map generated in the second generating step with the average depth map calculated in the calculating step to extract an object.

그리고, 상기 추출단계는, 상기 제2 생성단계에서 생성된 뎁스 맵과 상기 산출단계에서 산출된 평균 뎁스 맵 간의 차를 기반으로 상기 객체를 추출할 수 있다.The extracting step may extract the object based on a difference between the depth map generated in the second generating step and the average depth map calculated in the calculating step.

또한, 상기 추출단계는, 상기 제2 생성단계에서 생성된 뎁스 맵과 상기 산출단계에서 산출된 평균 뎁스 맵 간의 차를 산출하여, 뎁스 값 차가 임계 값을 초과하는 영역을 상기 객체로 추출할 수 있다.Also, the extracting step may calculate a difference between the depth map generated in the second generating step and the average depth map calculated in the calculating step, and extract an area where the depth value difference exceeds the threshold value as the object .

그리고, 상기 추출 단계에서 추출한 객체들을 가상의 배경 이미지에 합성하는 단계;를 더 포함할 수 있다.And combining the objects extracted in the extracting step with a virtual background image.

또한, 상기 산출단계는, 편차가 임계치 이상으로 상이한 뎁스 맵은 평균 산출에서 제외할 수 있다.Also, in the calculating step, the depth map in which the deviation is greater than or equal to the threshold value may be excluded from the average calculation.

한편, 본 발명의 다른 실시예에 따른, 객체 분리 시스템은, 배경만 포함된 장면에 대한 뎁스 맵들을 생성하고, 객체가 포함된 장면에 대한 뎁스 맵을 생성하는 촬영부; 및 생성된 뎁스 맵들의 평균을 산출하고, 생성된 뎁스 맵과 산출된 평균 뎁스 맵을 비교하여, 객체를 추출하는 처리부;를 포함한다.
According to another aspect of the present invention, there is provided an object separation system, comprising: a photographing unit for generating depth maps for a scene including only a background and generating a depth map for a scene including the object; And a processor for calculating an average of the generated depth maps, comparing the generated depth map with the calculated average depth map, and extracting the object.

이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 다수의 텍스처 대신 객체와 하나의 배경 영역으로 단순화시켜, 시스템의 효율을 높일 수 있게 된다. 또한, 보다 정확하게 객체를 추출할 수 있게 되어, 향후 관련 컨텐츠 제작이 용이하다.
As described above, according to the embodiments of the present invention, it is possible to simplify an object and a background area instead of a plurality of textures, thereby increasing the efficiency of the system. In addition, it is possible to extract an object more accurately, and it is easy to produce related contents in the future.

도 1은 객체 추출의 문제점 제시를 위한 이미지,
도 2는 본 발명의 일 실시예에 따른 객체 분리 방법의 설명에 제공되는 흐름도,
도 3은, 도 2에 도시된 객체 분리 방법에 따른 객체 분리 결과를 나타낸 도면,
도 4는 본 발명의 실시예에 따른 객체 분리 방법에 대한 개념을 도식적으로 나타낸 도면, 그리고,
도 5는 본 발명의 다른 실시예에 따른 영상 시스템의 블럭도이다.
1 shows an image for presenting a problem of object extraction,
FIG. 2 is a flow chart for explaining an object separation method according to an embodiment of the present invention;
FIG. 3 is a view showing an object separation result according to the object separation method shown in FIG. 2;
4 is a diagram schematically illustrating a concept of an object separation method according to an embodiment of the present invention,
5 is a block diagram of an image system according to another embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.

도 2는 본 발명의 일 실시예에 따른 객체 분리 방법의 설명에 제공되는 흐름도이다. 본 발명의 실시예에 따른 객체 분리 방법에서는, 보다 정확하게 객체를 구분하기 위해, 뎁스 맵을 다수의 텍스처로 구분하지 않고, 객체를 제외한 나머지 배경을 하나의 영역으로 단순화 시키며, 이에 의해 시스템의 효율 역시 향상시킨다.2 is a flow chart provided in the description of an object separation method according to an embodiment of the present invention. In the object separating method according to the embodiment of the present invention, the depth map is not divided into a plurality of textures so as to more accurately distinguish objects, and the remaining background except for the object is simplified into one area, .

도 2에 도시된 바와 같이, 먼저 배경만 포함된 장면을 촬영하여(S110), 배경만이 포한된 뎁스 맵들을 생성/저장한다(S120). S110단계에서의 촬영 및 S120단계에서의 뎁스 맵 생성/저장에는, 스테레오 카메라를 이용할 수 있음은 물론 뎁스 카메라를 이용할 수도 있다.As shown in FIG. 2, a scene including only a background is photographed (S110), and depth maps containing only backgrounds are generated / stored (S120). A stereoscopic camera or a depth camera may be used for shooting in step S110 and generating / storing depth maps in step S120.

다음, S120단계에서 생성/저장된 배경 뎁스 맵들을 평균하여, 배경 평균 뎁스 맵을 산출한다(S130). 예를 들어, S130단계에서는 100개의 뎁스 맵을 픽셀 마다 모두 더하여, 100으로 나누어 배경 평균 뎁스 맵을 산출한다.Next, the background depth maps generated / stored in step S120 are averaged to calculate a background average depth map (S130). For example, in step S130, 100 depth maps are added for each pixel, and divided by 100 to calculate a background average depth map.

배경 평균 뎁스 맵 산출에 이용되는 뎁스 맵의 개수에 대한 제한은 없다. 100개가 아닌 다른 개수의 뎁스 맵을 평균하여, S130단계를 수행하는 것도 가능함은 물론이다.There is no restriction on the number of depth maps used for calculating the background average depth map. It is needless to say that the number of depth maps other than 100 may be averaged to perform step S130.

나아가, 다른 뎁스 맵과 뎁스 값 편차가 임계치 이상으로 상이한 뎁스 맵은 평균 산출에서 제외하는 것이 가능하다. 노이즈에 의해 왜곡된 뎁스 맵에 해당하기 때문이다. S130단계에서 산출된 배경 평균 뎁스 맵도 다른 뎁스 맵들과 함께 저장된다.Furthermore, it is possible to exclude a depth map in which the deviation of the depth value from the other depth maps is larger than the threshold value, from the average calculation. This is because it corresponds to a depth map distorted by noise. The background average depth map calculated in step S130 is also stored together with the other depth maps.

이후, 객체를 등장시켜 객체와 배경이 모두 포함된 장면을 촬영하여(S140), 객체와 배경이 모두 포한된 뎁스 맵들을 생성한다(S150).Then, a scene including both the object and the background is captured (S140), and depth maps including both the object and the background are created (S150).

다음, S150단계에서 생성된 뎁스 맵과 S130단계에서 산출된 배경 평균 뎁스 맵을 비교하여, 객체를 추출한다(S160). S160단계에서, 객체 추출은 뎁스 맵들 간의 차이값을 기반으로 수행된다.Next, the depth map generated in step S150 is compared with the background average depth map calculated in step S130, and an object is extracted (step S160). In step S160, the object extraction is performed based on the difference value between the depth maps.

구체적으로, S150단계에서 생성된 뎁스 맵과 S130단계에서 산출된 배경 평균 뎁스 맵 간의 차를 산출하여, 뎁스 값 차가 임계 값을 초과하는 영역을 객체로 추출하게 된다.Specifically, the difference between the depth map generated in step S150 and the background average depth map calculated in step S130 is calculated, and an area where the depth value difference exceeds the threshold value is extracted as an object.

도 2에 도시된 객체 분리 방법에 따른 객체 분리 결과를 도 3에 나타내었으며, 도 4에는 본 발명의 실시예에 따른 객체 분리 방법에 대한 개념을 도식적으로 나타내었다.FIG. 3 shows an object separation result according to the object separation method shown in FIG. 2, and FIG. 4 schematically shows a concept of an object separation method according to an embodiment of the present invention.

도 2와 도 4를 통해 알 수 있는 바와 같이, 본 발명의 실시예에 따른 객체 분리 방법에서는, 뎁스 맵을 뎁스 값에 따라 다수의 텍스처들로 구분하지 않고, 뎁스 맵의 배경을 평균 하나로 취급한다.2 and 4, in the object separating method according to the embodiment of the present invention, the depth map is not classified into a plurality of textures according to the depth value, and the background of the depth map is treated as an average .

이에 따라, 뎁스 맵을 참고로 이루어지는 컬러-이미지에서의 객체 분리가 간단하고 정확해진다. 또한, 도 2에 도시된 객체 분리 결과를 참고로 컬러-이미지에서 분리한 객체를 가상의 배경 이미지에 합성하는 CG 합성 결과가 보다 매끄럽게 이루어질 수 있다.Thus, object separation in the color-image with reference to the depth map is simple and accurate. Also, referring to the object separation result shown in FIG. 2, a CG synthesis result for synthesizing an object separated from a color image into a virtual background image can be made smoother.

도 5는 본 발명의 다른 실시예에 따른 영상 시스템의 블럭도이다. 본 발명의 실시예에 따른 영상 시스템은, 도 5에 도시된 바와 같이, 컬러 카메라(210), 뎁스 카메라(220), 컬러 영상 처리부(230), 뎁스 맵 처리부(240), 프로세서(250), 저장부(260) 및 출력부(270)를 포함한다.5 is a block diagram of an image system according to another embodiment of the present invention. 5, the image system includes a color camera 210, a depth camera 220, a color image processor 230, a depth map processor 240, a processor 250, A storage unit 260 and an output unit 270.

컬러 카메라(210)는 장면을 촬영하여 컬러 이미지를 생성하고, 뎁스 카메라(220)는 장면을 촬영하여 뎁스 맵을 생성한다.The color camera 210 photographs a scene to generate a color image, and the depth camera 220 photographs a scene to generate a depth map.

컬러 영상 처리부(230)는 컬러 카메라(210)에서 생성된 컬러 이미지에 필요한 영상 처리를 수행하고, 뎁스 맵 처리부(240)는 뎁스 카메라(220)에서 촬영된 뎁스 맵에 필요한 영상 처리를 수행한다.The color image processing unit 230 performs image processing necessary for the color image generated by the color camera 210 and the depth map processing unit 240 performs necessary image processing on the depth map captured by the depth camera 220.

특히, 뎁스 맵 처리부(240)는 뎁스 맵들을 평균하여 배경 평균 뎁스 맵을 산출하고, 이를 이용하여 객체와 배경이 모두 포함된 뎁스 맵으로부터 객체를 분리한다.In particular, the depth map processing unit 240 calculates the background average depth map by averaging the depth maps, and separates the object from the depth map including both the object and the background.

뎁스 맵으로부터 객체를 분리하는 과정은 도 2를 통해 상세히 설명한 바 있다.The process of separating objects from the depth map has been described in detail with reference to FIG.

프로세서(250)는 뎁스 맵 처리부(240)에 의해 수행된 객체 분리 결과를 참조하여, 컬러 카메라(210)에서 촬영되어 컬러 영상 처리부(230)에서 영상 처리된 컬러 이미지로부터 객체를 추출한다.The processor 250 extracts an object from the color image imaged by the color camera 210 and processed by the color image processing unit 230 by referring to the object separation result performed by the depth map processing unit 240.

또한, 프로세서(250)는 추출한 객체를 가상의 배경 이미지에 부가하여, 가상 이미지를 생성한다. 생성된 가상 이미지는 출력부(270)를 통해 표시된다.In addition, the processor 250 adds the extracted object to a virtual background image to generate a virtual image. The generated virtual image is displayed through the output unit 270.

저장부(260)는 생성된 컬러 이미지와 뎁스 이미지가 저장되고, 객체 추출 결과 및 가상 이미지 등이 아울러 저장된다.The storage unit 260 stores the generated color image and the depth image, and stores the object extraction result, the virtual image, and the like.

한편, 컬러 카메라(210)를 스테레오 카메라로 구현하는 경우, 뎁스 카메라(220)를 생략하고, 뎁스 맵 처리부(240)는 컬러 영상 처리부(230)에 편입시킬 수 있다.When the color camera 210 is implemented as a stereo camera, the depth camera 220 may be omitted, and the depth map processing unit 240 may incorporate the depth camera 220 into the color image processing unit 230.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

210 : 컬러 카메라
220 : 뎁스 카메라
230 : 컬러 영상 처리부
240 : 뎁스 맵 처리부
250 : 프로세서
210: Color camera
220: Depth camera
230: Color image processor
240: Depth map processor
250: Processor

Claims (6)

배경만 포함된 장면에 대한 뎁스 맵들을 생성하는 제1 생성단계;
생성된 배경 뎁스 맵들의 평균을 산출하는 단계;
객체가 포함된 장면에 대한 뎁스 맵을 생성하는 제2 생성단계; 및
제2 생성단계에서 생성된 뎁스 맵과 상기 산출단계에서 산출된 평균 뎁스 맵을 비교하여, 객체를 추출하는 단계;를 포함하는 것을 특징으로 하는 객체 분리 방법.
A first generating step of generating depth maps for a scene including only a background;
Calculating an average of the generated background depth maps;
A second generating step of generating a depth map for a scene including an object; And
And comparing the depth map generated in the second generating step with the average depth map calculated in the calculating step to extract an object.
청구항 1에 있어서,
상기 추출단계는,
상기 제2 생성단계에서 생성된 뎁스 맵과 상기 산출단계에서 산출된 평균 뎁스 맵 간의 차를 기반으로 상기 객체를 추출하는 것을 특징으로 하는 객체 분리 방법.
The method according to claim 1,
Wherein the extracting step comprises:
Wherein the object is extracted based on a difference between a depth map generated in the second generating step and an average depth map calculated in the calculating step.
청구항 2에 있어서,
상기 추출단계는,
상기 제2 생성단계에서 생성된 뎁스 맵과 상기 산출단계에서 산출된 평균 뎁스 맵 간의 차를 산출하여, 뎁스 값 차가 임계 값을 초과하는 영역을 상기 객체로 추출하는 것을 특징으로 하는 객체 분리 방법.
The method of claim 2,
Wherein the extracting step comprises:
Calculating a difference between the depth map generated in the second generating step and the average depth map calculated in the calculating step, and extracting an area where the depth value difference exceeds a threshold value as the object.
청구항 1에 있어서,
상기 추출 단계에서 추출한 객체들을 가상의 배경 이미지에 합성하는 단계;를 더 포함하는 것을 특징으로 하는 객체 분리 방법.
The method according to claim 1,
And combining the objects extracted in the extracting step with a virtual background image.
청구항 1에 있어서,
상기 산출단계는,
편차가 임계치 이상으로 상이한 뎁스 맵은 평균 산출에서 제외하는 것을 특징으로 하는 객체 분리 방법.
The method according to claim 1,
Wherein,
Wherein a depth map having a deviation greater than or equal to a threshold value is excluded from an average calculation.
배경만 포함된 장면에 대한 뎁스 맵들을 생성하고, 객체가 포함된 장면에 대한 뎁스 맵을 생성하는 촬영부; 및
생성된 뎁스 맵들의 평균을 산출하고, 생성된 뎁스 맵과 산출된 평균 뎁스 맵을 비교하여, 객체를 추출하는 처리부;를 포함하는 것을 특징으로 하는 객체 분리 시스템.
A shooting unit for generating depth maps for scenes containing only a background and generating a depth map for a scene including an object; And
And a processing unit for calculating an average of the generated depth maps and comparing the generated depth map with the calculated average depth map to extract an object.
KR1020150014170A 2015-01-29 2015-01-29 Real Time Image Object Extraction Method and System KR20160093765A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150014170A KR20160093765A (en) 2015-01-29 2015-01-29 Real Time Image Object Extraction Method and System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150014170A KR20160093765A (en) 2015-01-29 2015-01-29 Real Time Image Object Extraction Method and System

Publications (1)

Publication Number Publication Date
KR20160093765A true KR20160093765A (en) 2016-08-09

Family

ID=56712194

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150014170A KR20160093765A (en) 2015-01-29 2015-01-29 Real Time Image Object Extraction Method and System

Country Status (1)

Country Link
KR (1) KR20160093765A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010057105A (en) * 2008-08-29 2010-03-11 Tokyo Institute Of Technology Three-dimensional object tracking method and system
KR100948691B1 (en) * 2008-11-04 2010-03-18 한국전자통신연구원 Apparatus and method for providing 3d personal advertisement broadcasting and apparatus for receiving internet broadcasting
KR101337423B1 (en) * 2012-09-18 2013-12-06 전남대학교산학협력단 Method of moving object detection and tracking using 3d depth and motion information

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010057105A (en) * 2008-08-29 2010-03-11 Tokyo Institute Of Technology Three-dimensional object tracking method and system
KR100948691B1 (en) * 2008-11-04 2010-03-18 한국전자통신연구원 Apparatus and method for providing 3d personal advertisement broadcasting and apparatus for receiving internet broadcasting
KR101337423B1 (en) * 2012-09-18 2013-12-06 전남대학교산학협력단 Method of moving object detection and tracking using 3d depth and motion information

Similar Documents

Publication Publication Date Title
CN111066065B (en) System and method for hybrid depth regularization
JP5010729B2 (en) Method and system for generating a depth map for a video conversion system
US8447141B2 (en) Method and device for generating a depth map
JP4644669B2 (en) Multi-view image generation
JP5156837B2 (en) System and method for depth map extraction using region-based filtering
JP5680994B2 (en) Image cutting method and image cutting apparatus
US11589023B2 (en) Image processing apparatus, image processing method, and storage medium
JP6663652B2 (en) Stereo source image correction method and apparatus
US8982187B2 (en) System and method of rendering stereoscopic images
KR101618776B1 (en) Method for Enhancing 3-Dimensional Depth Image
JP2020129276A (en) Image processing device, image processing method, and program
US10074209B2 (en) Method for processing a current image of an image sequence, and corresponding computer program and processing device
KR101549929B1 (en) Method and apparatus of generating depth map
KR102362345B1 (en) Method and apparatus for processing image
KR101511315B1 (en) Method and system for creating dynamic floating window for stereoscopic contents
KR101451236B1 (en) Method for converting three dimensional image and apparatus thereof
JP2006302195A (en) Image processing method and image processing device
KR20160093765A (en) Real Time Image Object Extraction Method and System
KR101801898B1 (en) Method and apparatus for generating representing image from multi-view image
Wei et al. Iterative depth recovery for multi-view video synthesis from stereo videos
KR20190072742A (en) Calibrated Multi-Camera based Real-time Super Multi-View Image Synthesis Method and System
JP6504708B2 (en) Identification apparatus for identifying overlap of objects in foreground area, identification method and computer readable storage medium
JP5711634B2 (en) Image processing apparatus, image processing method, and image processing program
JP4249188B2 (en) Stereoscopic image cut-out position calculating device, program thereof, stereoscopic image cutout device, and program thereof
Li et al. A New Approach of 2D-to-3D Video Conversion and Its Implementation on Embedded System

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment