KR20160093765A - Real Time Image Object Extraction Method and System - Google Patents
Real Time Image Object Extraction Method and System Download PDFInfo
- Publication number
- KR20160093765A KR20160093765A KR1020150014170A KR20150014170A KR20160093765A KR 20160093765 A KR20160093765 A KR 20160093765A KR 1020150014170 A KR1020150014170 A KR 1020150014170A KR 20150014170 A KR20150014170 A KR 20150014170A KR 20160093765 A KR20160093765 A KR 20160093765A
- Authority
- KR
- South Korea
- Prior art keywords
- depth map
- depth
- average
- generating
- background
- Prior art date
Links
Images
Classifications
-
- H04N13/0022—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H04N13/0018—
-
- H04N13/0037—
-
- H04N13/0257—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/15—Processing image signals for colour aspects of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 영상 객체 분리에 관한 것으로, 더욱 상세하게는 뎁스 맵을 이용하여 컬러 이미지에서 실시간으로 영상 객체를 분리하는 방법 및 시스템에 관한 것이다.
The present invention relates to image object separation, and more particularly, to a method and system for separating a video object in real time from a color image using a depth map.
기존의 실사 영상에서의 객체(Object)를 추출하는 방법은 카메라로부터 입력되는 스트림 정보인 컬러 이미지와 뎁스 맵(Depth Map)을 이용하여 가상공간에서 다수의 텍스처(Texture)를 만들고, 각각의 뎁스 맵에 맞는 픽셀의 구역을 구해서 컬러 이미지으로부터 해당 구역의 픽셀들을 복사하는 방식을 활용한다.A method of extracting an object from an existing real image is to create a plurality of textures in a virtual space using a color image and a depth map that are stream information input from a camera, And then copies the pixels of the corresponding region from the color image.
기존 기술은 일정 뎁스 맵 범위를 구해서 그 뎁스 맵 범위에 있는 컬러 이미지를 추출하여 하나의 텍스처를 만드는 방식이기 때문에, 다수의 텍스처들을 생성시키게 된다.The existing technique is to create a texture by extracting a certain depth map range and extracting a color image in the depth map range, so that a plurality of textures are generated.
이에, 뎁스 맵의 범위를 좁게 설정하면 할수록, 텍스처의 개수가 많아지게 되어, 시스템의 성능 또한 떨어지게 되는 문제를 야기한다.Therefore, the narrower the depth map is set, the more the number of textures is increased, and the performance of the system is deteriorated.
또한, 기존 방법은 각각의 텍스처가 뎁스 맵의 일부만으로 포함하고 있기 때문에, 그로부터 정확한 객체(Object)를 구분하기 어렵다는 문제도 내포하고 있다. 특히, 도 1에 제시한 영상의 경우, 객체와 배경 간의 뎁스 차가 크지 않아 뎁스 맵의 범위를 좁게 설정하면, 객체를 추출하기 매우 어렵다.
In addition, the conventional method has a problem that it is difficult to distinguish an accurate object from each texture since each texture includes only a part of the depth map. In particular, in the case of the image shown in FIG. 1, if the depth difference between the object and the background is not large and the range of the depth map is set narrow, it is very difficult to extract the object.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 실사 영상에서 객체를 보다 효율적으로 분리하되, 전체적인 시스템의 퍼포먼스를 향상시킬 수 있는 영상 객체 분리 방법 및 시스템을 제공함에 있다.
SUMMARY OF THE INVENTION It is an object of the present invention to provide a video object separation method and system capable of more efficiently separating objects from a real image and improving overall system performance have.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 객체 분리 방법은, 배경만 포함된 장면에 대한 뎁스 맵들을 생성하는 제1 생성단계; 생성된 배경 뎁스 맵들의 평균을 산출하는 단계; 객체가 포함된 장면에 대한 뎁스 맵을 생성하는 제2 생성단계; 및 제2 생성단계에서 생성된 뎁스 맵과 상기 산출단계에서 산출된 평균 뎁스 맵을 비교하여, 객체를 추출하는 단계;를 포함한다.According to an aspect of the present invention, there is provided an object separation method comprising: a first generating step of generating depth maps for a scene including only a background; Calculating an average of the generated background depth maps; A second generating step of generating a depth map for a scene including an object; And comparing the depth map generated in the second generating step with the average depth map calculated in the calculating step to extract an object.
그리고, 상기 추출단계는, 상기 제2 생성단계에서 생성된 뎁스 맵과 상기 산출단계에서 산출된 평균 뎁스 맵 간의 차를 기반으로 상기 객체를 추출할 수 있다.The extracting step may extract the object based on a difference between the depth map generated in the second generating step and the average depth map calculated in the calculating step.
또한, 상기 추출단계는, 상기 제2 생성단계에서 생성된 뎁스 맵과 상기 산출단계에서 산출된 평균 뎁스 맵 간의 차를 산출하여, 뎁스 값 차가 임계 값을 초과하는 영역을 상기 객체로 추출할 수 있다.Also, the extracting step may calculate a difference between the depth map generated in the second generating step and the average depth map calculated in the calculating step, and extract an area where the depth value difference exceeds the threshold value as the object .
그리고, 상기 추출 단계에서 추출한 객체들을 가상의 배경 이미지에 합성하는 단계;를 더 포함할 수 있다.And combining the objects extracted in the extracting step with a virtual background image.
또한, 상기 산출단계는, 편차가 임계치 이상으로 상이한 뎁스 맵은 평균 산출에서 제외할 수 있다.Also, in the calculating step, the depth map in which the deviation is greater than or equal to the threshold value may be excluded from the average calculation.
한편, 본 발명의 다른 실시예에 따른, 객체 분리 시스템은, 배경만 포함된 장면에 대한 뎁스 맵들을 생성하고, 객체가 포함된 장면에 대한 뎁스 맵을 생성하는 촬영부; 및 생성된 뎁스 맵들의 평균을 산출하고, 생성된 뎁스 맵과 산출된 평균 뎁스 맵을 비교하여, 객체를 추출하는 처리부;를 포함한다.
According to another aspect of the present invention, there is provided an object separation system, comprising: a photographing unit for generating depth maps for a scene including only a background and generating a depth map for a scene including the object; And a processor for calculating an average of the generated depth maps, comparing the generated depth map with the calculated average depth map, and extracting the object.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 다수의 텍스처 대신 객체와 하나의 배경 영역으로 단순화시켜, 시스템의 효율을 높일 수 있게 된다. 또한, 보다 정확하게 객체를 추출할 수 있게 되어, 향후 관련 컨텐츠 제작이 용이하다.
As described above, according to the embodiments of the present invention, it is possible to simplify an object and a background area instead of a plurality of textures, thereby increasing the efficiency of the system. In addition, it is possible to extract an object more accurately, and it is easy to produce related contents in the future.
도 1은 객체 추출의 문제점 제시를 위한 이미지,
도 2는 본 발명의 일 실시예에 따른 객체 분리 방법의 설명에 제공되는 흐름도,
도 3은, 도 2에 도시된 객체 분리 방법에 따른 객체 분리 결과를 나타낸 도면,
도 4는 본 발명의 실시예에 따른 객체 분리 방법에 대한 개념을 도식적으로 나타낸 도면, 그리고,
도 5는 본 발명의 다른 실시예에 따른 영상 시스템의 블럭도이다.1 shows an image for presenting a problem of object extraction,
FIG. 2 is a flow chart for explaining an object separation method according to an embodiment of the present invention;
FIG. 3 is a view showing an object separation result according to the object separation method shown in FIG. 2;
4 is a diagram schematically illustrating a concept of an object separation method according to an embodiment of the present invention,
5 is a block diagram of an image system according to another embodiment of the present invention.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.
도 2는 본 발명의 일 실시예에 따른 객체 분리 방법의 설명에 제공되는 흐름도이다. 본 발명의 실시예에 따른 객체 분리 방법에서는, 보다 정확하게 객체를 구분하기 위해, 뎁스 맵을 다수의 텍스처로 구분하지 않고, 객체를 제외한 나머지 배경을 하나의 영역으로 단순화 시키며, 이에 의해 시스템의 효율 역시 향상시킨다.2 is a flow chart provided in the description of an object separation method according to an embodiment of the present invention. In the object separating method according to the embodiment of the present invention, the depth map is not divided into a plurality of textures so as to more accurately distinguish objects, and the remaining background except for the object is simplified into one area, .
도 2에 도시된 바와 같이, 먼저 배경만 포함된 장면을 촬영하여(S110), 배경만이 포한된 뎁스 맵들을 생성/저장한다(S120). S110단계에서의 촬영 및 S120단계에서의 뎁스 맵 생성/저장에는, 스테레오 카메라를 이용할 수 있음은 물론 뎁스 카메라를 이용할 수도 있다.As shown in FIG. 2, a scene including only a background is photographed (S110), and depth maps containing only backgrounds are generated / stored (S120). A stereoscopic camera or a depth camera may be used for shooting in step S110 and generating / storing depth maps in step S120.
다음, S120단계에서 생성/저장된 배경 뎁스 맵들을 평균하여, 배경 평균 뎁스 맵을 산출한다(S130). 예를 들어, S130단계에서는 100개의 뎁스 맵을 픽셀 마다 모두 더하여, 100으로 나누어 배경 평균 뎁스 맵을 산출한다.Next, the background depth maps generated / stored in step S120 are averaged to calculate a background average depth map (S130). For example, in step S130, 100 depth maps are added for each pixel, and divided by 100 to calculate a background average depth map.
배경 평균 뎁스 맵 산출에 이용되는 뎁스 맵의 개수에 대한 제한은 없다. 100개가 아닌 다른 개수의 뎁스 맵을 평균하여, S130단계를 수행하는 것도 가능함은 물론이다.There is no restriction on the number of depth maps used for calculating the background average depth map. It is needless to say that the number of depth maps other than 100 may be averaged to perform step S130.
나아가, 다른 뎁스 맵과 뎁스 값 편차가 임계치 이상으로 상이한 뎁스 맵은 평균 산출에서 제외하는 것이 가능하다. 노이즈에 의해 왜곡된 뎁스 맵에 해당하기 때문이다. S130단계에서 산출된 배경 평균 뎁스 맵도 다른 뎁스 맵들과 함께 저장된다.Furthermore, it is possible to exclude a depth map in which the deviation of the depth value from the other depth maps is larger than the threshold value, from the average calculation. This is because it corresponds to a depth map distorted by noise. The background average depth map calculated in step S130 is also stored together with the other depth maps.
이후, 객체를 등장시켜 객체와 배경이 모두 포함된 장면을 촬영하여(S140), 객체와 배경이 모두 포한된 뎁스 맵들을 생성한다(S150).Then, a scene including both the object and the background is captured (S140), and depth maps including both the object and the background are created (S150).
다음, S150단계에서 생성된 뎁스 맵과 S130단계에서 산출된 배경 평균 뎁스 맵을 비교하여, 객체를 추출한다(S160). S160단계에서, 객체 추출은 뎁스 맵들 간의 차이값을 기반으로 수행된다.Next, the depth map generated in step S150 is compared with the background average depth map calculated in step S130, and an object is extracted (step S160). In step S160, the object extraction is performed based on the difference value between the depth maps.
구체적으로, S150단계에서 생성된 뎁스 맵과 S130단계에서 산출된 배경 평균 뎁스 맵 간의 차를 산출하여, 뎁스 값 차가 임계 값을 초과하는 영역을 객체로 추출하게 된다.Specifically, the difference between the depth map generated in step S150 and the background average depth map calculated in step S130 is calculated, and an area where the depth value difference exceeds the threshold value is extracted as an object.
도 2에 도시된 객체 분리 방법에 따른 객체 분리 결과를 도 3에 나타내었으며, 도 4에는 본 발명의 실시예에 따른 객체 분리 방법에 대한 개념을 도식적으로 나타내었다.FIG. 3 shows an object separation result according to the object separation method shown in FIG. 2, and FIG. 4 schematically shows a concept of an object separation method according to an embodiment of the present invention.
도 2와 도 4를 통해 알 수 있는 바와 같이, 본 발명의 실시예에 따른 객체 분리 방법에서는, 뎁스 맵을 뎁스 값에 따라 다수의 텍스처들로 구분하지 않고, 뎁스 맵의 배경을 평균 하나로 취급한다.2 and 4, in the object separating method according to the embodiment of the present invention, the depth map is not classified into a plurality of textures according to the depth value, and the background of the depth map is treated as an average .
이에 따라, 뎁스 맵을 참고로 이루어지는 컬러-이미지에서의 객체 분리가 간단하고 정확해진다. 또한, 도 2에 도시된 객체 분리 결과를 참고로 컬러-이미지에서 분리한 객체를 가상의 배경 이미지에 합성하는 CG 합성 결과가 보다 매끄럽게 이루어질 수 있다.Thus, object separation in the color-image with reference to the depth map is simple and accurate. Also, referring to the object separation result shown in FIG. 2, a CG synthesis result for synthesizing an object separated from a color image into a virtual background image can be made smoother.
도 5는 본 발명의 다른 실시예에 따른 영상 시스템의 블럭도이다. 본 발명의 실시예에 따른 영상 시스템은, 도 5에 도시된 바와 같이, 컬러 카메라(210), 뎁스 카메라(220), 컬러 영상 처리부(230), 뎁스 맵 처리부(240), 프로세서(250), 저장부(260) 및 출력부(270)를 포함한다.5 is a block diagram of an image system according to another embodiment of the present invention. 5, the image system includes a
컬러 카메라(210)는 장면을 촬영하여 컬러 이미지를 생성하고, 뎁스 카메라(220)는 장면을 촬영하여 뎁스 맵을 생성한다.The
컬러 영상 처리부(230)는 컬러 카메라(210)에서 생성된 컬러 이미지에 필요한 영상 처리를 수행하고, 뎁스 맵 처리부(240)는 뎁스 카메라(220)에서 촬영된 뎁스 맵에 필요한 영상 처리를 수행한다.The color
특히, 뎁스 맵 처리부(240)는 뎁스 맵들을 평균하여 배경 평균 뎁스 맵을 산출하고, 이를 이용하여 객체와 배경이 모두 포함된 뎁스 맵으로부터 객체를 분리한다.In particular, the depth
뎁스 맵으로부터 객체를 분리하는 과정은 도 2를 통해 상세히 설명한 바 있다.The process of separating objects from the depth map has been described in detail with reference to FIG.
프로세서(250)는 뎁스 맵 처리부(240)에 의해 수행된 객체 분리 결과를 참조하여, 컬러 카메라(210)에서 촬영되어 컬러 영상 처리부(230)에서 영상 처리된 컬러 이미지로부터 객체를 추출한다.The
또한, 프로세서(250)는 추출한 객체를 가상의 배경 이미지에 부가하여, 가상 이미지를 생성한다. 생성된 가상 이미지는 출력부(270)를 통해 표시된다.In addition, the
저장부(260)는 생성된 컬러 이미지와 뎁스 이미지가 저장되고, 객체 추출 결과 및 가상 이미지 등이 아울러 저장된다.The
한편, 컬러 카메라(210)를 스테레오 카메라로 구현하는 경우, 뎁스 카메라(220)를 생략하고, 뎁스 맵 처리부(240)는 컬러 영상 처리부(230)에 편입시킬 수 있다.When the
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.
210 : 컬러 카메라
220 : 뎁스 카메라
230 : 컬러 영상 처리부
240 : 뎁스 맵 처리부
250 : 프로세서210: Color camera
220: Depth camera
230: Color image processor
240: Depth map processor
250: Processor
Claims (6)
생성된 배경 뎁스 맵들의 평균을 산출하는 단계;
객체가 포함된 장면에 대한 뎁스 맵을 생성하는 제2 생성단계; 및
제2 생성단계에서 생성된 뎁스 맵과 상기 산출단계에서 산출된 평균 뎁스 맵을 비교하여, 객체를 추출하는 단계;를 포함하는 것을 특징으로 하는 객체 분리 방법.
A first generating step of generating depth maps for a scene including only a background;
Calculating an average of the generated background depth maps;
A second generating step of generating a depth map for a scene including an object; And
And comparing the depth map generated in the second generating step with the average depth map calculated in the calculating step to extract an object.
상기 추출단계는,
상기 제2 생성단계에서 생성된 뎁스 맵과 상기 산출단계에서 산출된 평균 뎁스 맵 간의 차를 기반으로 상기 객체를 추출하는 것을 특징으로 하는 객체 분리 방법.
The method according to claim 1,
Wherein the extracting step comprises:
Wherein the object is extracted based on a difference between a depth map generated in the second generating step and an average depth map calculated in the calculating step.
상기 추출단계는,
상기 제2 생성단계에서 생성된 뎁스 맵과 상기 산출단계에서 산출된 평균 뎁스 맵 간의 차를 산출하여, 뎁스 값 차가 임계 값을 초과하는 영역을 상기 객체로 추출하는 것을 특징으로 하는 객체 분리 방법.
The method of claim 2,
Wherein the extracting step comprises:
Calculating a difference between the depth map generated in the second generating step and the average depth map calculated in the calculating step, and extracting an area where the depth value difference exceeds a threshold value as the object.
상기 추출 단계에서 추출한 객체들을 가상의 배경 이미지에 합성하는 단계;를 더 포함하는 것을 특징으로 하는 객체 분리 방법.
The method according to claim 1,
And combining the objects extracted in the extracting step with a virtual background image.
상기 산출단계는,
편차가 임계치 이상으로 상이한 뎁스 맵은 평균 산출에서 제외하는 것을 특징으로 하는 객체 분리 방법.
The method according to claim 1,
Wherein,
Wherein a depth map having a deviation greater than or equal to a threshold value is excluded from an average calculation.
생성된 뎁스 맵들의 평균을 산출하고, 생성된 뎁스 맵과 산출된 평균 뎁스 맵을 비교하여, 객체를 추출하는 처리부;를 포함하는 것을 특징으로 하는 객체 분리 시스템.A shooting unit for generating depth maps for scenes containing only a background and generating a depth map for a scene including an object; And
And a processing unit for calculating an average of the generated depth maps and comparing the generated depth map with the calculated average depth map to extract an object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150014170A KR20160093765A (en) | 2015-01-29 | 2015-01-29 | Real Time Image Object Extraction Method and System |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150014170A KR20160093765A (en) | 2015-01-29 | 2015-01-29 | Real Time Image Object Extraction Method and System |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20160093765A true KR20160093765A (en) | 2016-08-09 |
Family
ID=56712194
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150014170A KR20160093765A (en) | 2015-01-29 | 2015-01-29 | Real Time Image Object Extraction Method and System |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20160093765A (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010057105A (en) * | 2008-08-29 | 2010-03-11 | Tokyo Institute Of Technology | Three-dimensional object tracking method and system |
KR100948691B1 (en) * | 2008-11-04 | 2010-03-18 | 한국전자통신연구원 | Apparatus and method for providing 3d personal advertisement broadcasting and apparatus for receiving internet broadcasting |
KR101337423B1 (en) * | 2012-09-18 | 2013-12-06 | 전남대학교산학협력단 | Method of moving object detection and tracking using 3d depth and motion information |
-
2015
- 2015-01-29 KR KR1020150014170A patent/KR20160093765A/en active Search and Examination
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010057105A (en) * | 2008-08-29 | 2010-03-11 | Tokyo Institute Of Technology | Three-dimensional object tracking method and system |
KR100948691B1 (en) * | 2008-11-04 | 2010-03-18 | 한국전자통신연구원 | Apparatus and method for providing 3d personal advertisement broadcasting and apparatus for receiving internet broadcasting |
KR101337423B1 (en) * | 2012-09-18 | 2013-12-06 | 전남대학교산학협력단 | Method of moving object detection and tracking using 3d depth and motion information |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111066065B (en) | System and method for hybrid depth regularization | |
JP5010729B2 (en) | Method and system for generating a depth map for a video conversion system | |
US8447141B2 (en) | Method and device for generating a depth map | |
JP4644669B2 (en) | Multi-view image generation | |
JP5156837B2 (en) | System and method for depth map extraction using region-based filtering | |
JP5680994B2 (en) | Image cutting method and image cutting apparatus | |
US11589023B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP6663652B2 (en) | Stereo source image correction method and apparatus | |
US8982187B2 (en) | System and method of rendering stereoscopic images | |
KR101618776B1 (en) | Method for Enhancing 3-Dimensional Depth Image | |
JP2020129276A (en) | Image processing device, image processing method, and program | |
US10074209B2 (en) | Method for processing a current image of an image sequence, and corresponding computer program and processing device | |
KR101549929B1 (en) | Method and apparatus of generating depth map | |
KR102362345B1 (en) | Method and apparatus for processing image | |
KR101511315B1 (en) | Method and system for creating dynamic floating window for stereoscopic contents | |
KR101451236B1 (en) | Method for converting three dimensional image and apparatus thereof | |
JP2006302195A (en) | Image processing method and image processing device | |
KR20160093765A (en) | Real Time Image Object Extraction Method and System | |
KR101801898B1 (en) | Method and apparatus for generating representing image from multi-view image | |
Wei et al. | Iterative depth recovery for multi-view video synthesis from stereo videos | |
KR20190072742A (en) | Calibrated Multi-Camera based Real-time Super Multi-View Image Synthesis Method and System | |
JP6504708B2 (en) | Identification apparatus for identifying overlap of objects in foreground area, identification method and computer readable storage medium | |
JP5711634B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP4249188B2 (en) | Stereoscopic image cut-out position calculating device, program thereof, stereoscopic image cutout device, and program thereof | |
Li et al. | A New Approach of 2D-to-3D Video Conversion and Its Implementation on Embedded System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment |