KR20140102999A - Method and apparatus for image warping - Google Patents
Method and apparatus for image warping Download PDFInfo
- Publication number
- KR20140102999A KR20140102999A KR1020130016614A KR20130016614A KR20140102999A KR 20140102999 A KR20140102999 A KR 20140102999A KR 1020130016614 A KR1020130016614 A KR 1020130016614A KR 20130016614 A KR20130016614 A KR 20130016614A KR 20140102999 A KR20140102999 A KR 20140102999A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- shielded area
- shielded
- region
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000012545 processing Methods 0.000 abstract description 11
- 238000002156 mixing Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 12
- 230000007704 transition Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 7
- 230000035772 mutation Effects 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
Images
Classifications
-
- G06T3/18—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4007—Interpolation-based scaling, e.g. bilinear interpolation
Abstract
Description
본 발명은 영상 워핑을 위한 장치 및 방법에 관한 것으로, 더욱 상세하게는 미리 추출된 차폐영역 정보를 토대로 차폐영역과 비차폐영역을 구분하여 객체와 배경 경계인 깊이 불연속 지점 부근에서의 영상 왜곡을 줄이고, 입체감을 유지할 수 있는 영상 워핑 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and method for image warping, and more particularly, to an apparatus and method for image warping that divides a shielded area and an unshielded area based on previously extracted shielded area information to reduce image distortion in the vicinity of a depth discontinuity point, And to an image warping apparatus and method capable of maintaining a stereoscopic effect.
종래에는 일반적으로 다시점 영상 생성기법은 스테레오 영상으로부터 스테레오 정합 기법 등에 의해 변이를 계산하고, 변이 정보를 이용하여 생성된 중간 영상을 이용한다. Conventionally, the multi-view image generation technique calculates a variation from a stereo image by a stereo matching method and uses an intermediate image generated by using the variation information.
이처럼 변이를 이용한 다시점 영상 생성기법은 깊이 불연속 지점의 차폐영역으로 인해 깊이 불연속 지점에서의 변이 정보가 부정확해져 눈에 거슬리는 인위구조(artifact)가 홀 보간 처리된 영역에서 많이 나타나는 문제점이 있다.The multi-view image generation technique using the variation has a problem in that the variation information at the depth discontinuity point is inaccurate due to the shielding region of the depth discontinuity point, and artifacts that are uncomfortable in the hall interpolation process are generated.
한편, 최근에는 스테레오 영상에서 특징점 변이/광류 계산 등을 통해 영상의 일부 영역에 대해서만 변이 정보를 계산하고, 영상 중요도(saliency) 및 에지 직선 성분으로 정의되는 제한 조건을 이용하여 에너지 함수의 각항을 정의하고, 이를 가중 결합하여 정의되는 에너지 함수를 최소화 하는 영상 메쉬 그리드의 워핑(warping)식 계산에 의해 다시점 영상을 생성하는 영상워핑기반 다시점 영상 생성 기법의 사용이 증가하고 있다. Recently, in the stereo image, the variance information is calculated only for a partial region of the image through the feature point variation / optical flow calculation, and each term of the energy function is defined by using the constraint defined by the image saliency and the edge linear component And the weighted combination of them is used to minimize the energy function, and the warping method of the image mesh grid is used to generate multi - view images.
이처럼 영상워핑기반 다시점 영상 생성 기법은 변이 정보의 부정확성으로 인한 홀 및 인위구조의 발생은 적지만, 깊이 불연속 지점 또는 차폐영역 부근에서의 영상 왜곡으로 인한 깊이 차이 감소로 인해 스테레오 영상의 입체감이 감소하는 문제점이 있다. As described above, the multi-view image generation technique based on the image warping has a problem that the hole and the artificial structure are not generated due to the inaccuracy of the mutation information, but the stereoscopic effect of the stereo image is decreased due to the reduction of the depth difference due to the image distortion at the depth discontinuity point or near the shielding area .
따라서, 영상 워핑 시 깊이 불편속 지점 또는 차폐영역 부근에서의 영상 왜곡을 최소화하기 위한 기술이 요구된다. Therefore, there is a need for techniques to minimize image distortion in the point of depth discomfort or in the vicinity of the shielding area in image warping.
전술한 문제점을 해결하기 위한 본 발명의 목적은 미리 추출된 차폐영역 정보를 토대로 차폐영역과 비차폐영역을 구분하여 객체와 배경 경계인 깊이 불연속 지점 부근에서의 영상 왜곡을 줄이고, 입체감을 유지하기 위한 영상 워핑을 위한 장치 및 방법을 제공하는 것이다. It is an object of the present invention to solve the above-described problems by providing an image processing apparatus and method for separating a shielded area and an unshielded area based on previously extracted shielded area information to reduce image distortion in the vicinity of a depth discontinuity point, And to provide an apparatus and method for warping.
전술한 본 발명의 목적을 달성하기 위한 본 발명의 일 측면에 따른 영상 워핑 장치는 스테레오 원본 영상에 기초하여 차폐영역 정보를 생성하는 차폐영역 관리부; 및 상기 스테레오 원본 영상의 희소 변이 정보를 토대로 상기 차폐영역 정보의 변이를 보간하고, 상기 변이 보간된 차폐영역 정보에 따라 상기 차폐영역 정보를 재구성한 결과를 이용하여 상기 스테레오 원본 영상의 메쉬 워핑 시 차폐영역과 비차폐영역을 구분하여 가상 중간시점 영상을 생성하는 영상 처리부를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided an image warping apparatus including: a shielded area manager for generating shielded area information based on a stereo original image; And interpolating the variation of the shielded area information based on the rare variation information of the stereo original image and reconstructing the shielded area information according to the interpolated shielded area information, And an image processing unit for generating a virtual intermediate view image by separating the area and the non-shielded area.
상술한 영상 워핑을 위한 장치 및 방법에 따르면, 미리 추출된 차폐영역 정보를 토대로 스테레오 원본 영상을 차폐영역과 비차폐영역을 구분한 후 차폐영역 정보를 재구성한 영상을 이용하여 영상 워핑을 수행함에 따라 차폐영역 부근에서의 영상 왜곡을 줄일 수 있으며, 입체감을 유지하여 영상 품질을 향상시킬 수 있다. According to the apparatus and method for image warping described above, the image of the stereo original image is divided into the shielded area and the non-shielded area based on the extracted shielded area information, and then image warping is performed using the reconstructed image of the shielded area information The image distortion in the vicinity of the shielding region can be reduced, and the image quality can be improved by maintaining the stereoscopic effect.
또한, 본 발명의 실시예에 따르면, 스테레오 원본 영상을 색상 정보에 기반하여 분할하거나 또는 깊이 정보에 기반하여 의미있는 영역으로 분할한 후 영역별 메쉬 생성 및 영상 워핑을 적용함에 따라 차폐영역 부근에서의 깊이 불연속 유지 및 영상 왜곡을 감소시킬 수 있다.In addition, according to the embodiment of the present invention, a stereo original image is divided based on color information or divided into meaningful regions based on depth information, and mesh generation and image warping are applied to each region, Depth discontinuity maintenance and image distortion can be reduced.
도 1은 본 발명의 실시예에 따른 영상 워핑 장치를 개략적으로 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 차폐영역 정보를 생성하는 한 예를 개략적으로 나타내는 도면이다.
도 3은 본 발명의 실시예에 따른 스테레오 원본 영상을 차폐영역과 비차폐영역으로 구분한 한 예를 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 희소 변이 영상의 한 예를 나타내는 도면이다.
도 5는 본 발명의 실시예에 따른 스테레오 원본 영상을 영역 분할한 한 예를 나타내는 도면이다.
도 6는 본 발명의 실시예에 따른 차폐영역 정보를 재구성하는 한 예를 나타내는 도면이다.
도 7은 본 발명의 실시예에 따른 가상 중간시점 다시점 영상을 생성하는 한 예를 나타내는 도면이다.
도 8은 본 발명의 실시예에 따른 차폐영역 정보를 고려하여 영상 워핑을 수행하는 방법을 나타내는 흐름도이다.1 is a view schematically showing an image warping apparatus according to an embodiment of the present invention.
2 is a diagram schematically illustrating an example of generating shielded area information according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating an example of dividing a stereo original image according to an embodiment of the present invention into a shielded area and a non-shielded area.
4 is a diagram showing an example of a rare variation image according to an embodiment of the present invention.
5 is a diagram illustrating an example of segmenting a stereo original image according to an embodiment of the present invention.
6 is a diagram illustrating an example of reconstructing shielded area information according to an embodiment of the present invention.
7 is a diagram illustrating an example of generating a virtual intermediate viewpoint multi-view image according to an embodiment of the present invention.
8 is a flowchart illustrating a method of performing image warping in consideration of shielded area information according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are to be interpreted in an ideal or overly formal sense unless explicitly defined in the present application Do not.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate the understanding of the present invention, the same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.
도 1은 본 발명의 실시예에 따른 영상 워핑 장치를 개략적으로 나타내는 도면이다. 도 2는 본 발명의 실시예에 따른 차폐영역 정보를 생성하는 한 예를 개략적으로 나타내는 도면이다. 도 3은 본 발명의 실시예에 따른 스테레오 원본 영상을 차폐영역과 비차폐영역으로 구분한 한 예를 나타내는 도면이다. 도 4는 본 발명의 실시예에 따른 희소 변이 영상의 한 예를 나타내는 도면이다. 도 5는 본 발명의 실시예에 따른 스테레오 원본 영상을 영역 분할한 한 예를 나타내는 도면이다. 도 6는 본 발명의 실시예에 따른 차폐영역 정보를 재구성하는 한 예를 나타내는 도면이다. 도 7은 본 발명의 실시예에 따른 가상 중간시점 다시점 영상을 생성하는 한 예를 나타내는 도면이다. 도 8은 본 발명의 실시예에 따른 차폐영역 정보를 고려하여 영상 워핑을 수행하는 방법을 나타내는 흐름도이다. 1 is a view schematically showing an image warping apparatus according to an embodiment of the present invention. 2 is a diagram schematically illustrating an example of generating shielded area information according to an embodiment of the present invention. FIG. 3 is a diagram illustrating an example of dividing a stereo original image according to an embodiment of the present invention into a shielded area and a non-shielded area. 4 is a diagram showing an example of a rare variation image according to an embodiment of the present invention. 5 is a diagram illustrating an example of segmenting a stereo original image according to an embodiment of the present invention. 6 is a diagram illustrating an example of reconstructing shielded area information according to an embodiment of the present invention. 7 is a diagram illustrating an example of generating a virtual intermediate viewpoint multi-view image according to an embodiment of the present invention. 8 is a flowchart illustrating a method of performing image warping in consideration of shielded area information according to an embodiment of the present invention.
도 1에 도시한 바와 같이, 본 발명의 실시예에 따른 영상 워핑 장치(100)는 차폐영역 정보를 미리 추출하여 차폐영역과 비차폐영역을 분리한 후 메쉬 워핑(Mesh Warping)을 수행하여 가상 중간시점 영상 생성 시 차폐영역 부근에서의 영상 왜곡을 줄이고, 입체감을 유지시킨다.As shown in FIG. 1, the
이러한 영상 워핑 장치(100)는 영상 수신부(110), 차폐영역 관리부(120) 및 영상 처리부(130)를 포함한다. The
영상 수신부(110)는 스테레오 원본 영상을 입력받는다. 영상 수신부(110)는 입력된 스테레오 원본 영상을 차폐영역 관리부(120) 및 영상 처리부(130)로 전달한다. 본 발명의 실시예에 따른 스테레오 원본 영상은 스테레오 원본 좌영상(이하, "원본 좌영상"이라고 함) 및 스테레오 원본 우영상(이하, "원본 우영상"이라고 함)을 포함한다.The
차폐영역 관리부(120)는 차폐영역 정보 생성부(121) 및 영역 구분부(122)를 포함한다. The shielded
차폐영역 정보 생성부(121)는 영상 수신부(110)로부터 스테레오 원본 영상을 전달받는다. 차폐영역 정보 생성부(121)는 원본 좌영상과 원본 우영상 간에 상호 교차 변이를 추출한다. 차폐영역 정보 생성부(121)는 추출한 교차 변이를 토대로 원본 좌영상을 이용하여 원본 우영상 위치의 가상시점 영상(이하, "가상시점 우영상"이라고 함)을 생성하며, 원본 우영상을 이용하여 원본 좌영상 위치의 가상시점 영상(이하, "가상시점 좌영상"이라고 함)을 생성한다. The shielded area
그리고, 차폐영역 정보 생성부(121)는 원본 좌/우영상과 가상시점 좌/우영상의 차이를 이용하여 차폐영역 정보를 생성한다. 다시 말해, 차폐영역 정보 생성부(121)는 원본 좌영상과 가상시점 좌영상의 차이를 계산하여 좌측 차폐영역 정보를 생성한다. 동일한 방법으로, 차폐영역 정보 생성부(121)는 원본 우영상과 가상시점 우영상의 차이를 계산하여 우측 차폐영역 정보를 생성한다. 차폐영역 정보 생성부(121)는 생성된 좌측 차폐영역 정보 및 우측 차폐영역 정보를 영역 구분부(122)로 전달한다. 본 발명의 실시예에 따른 차폐영역 정보는 좌측 차폐영역 정보 및 우측 차폐영역 정보를 포함한다.The shielded area
구체적으로, 도 2에 도시한 바와 같이 차폐영역 정보 생성부(121)는 원본 좌영상(200a)의 변이 정보(210a)를 이용하여 원본 우영상(200b) 위치의 가상영상으로 가상시점 우영상(300b)을 생성한다. 동일한 방법으로, 차폐영역 정보 생성부(121)는 원본 우영상(200b)의 변이 정보(210b)를 이용하여 원본 좌영상(200a) 위치의 가상영상으로 가상시점 좌영상(300a)을 생성한다. 2, the shielded area
그리고, 차폐영역 정보 생성부(121)는 원본 좌영상(200a)과 가상시점 좌영상(300a)의 합성오차를 계산하여 좌측 차폐영역 정보(310a)를 생성한다. 차폐영역 정보 생성부(121)는 원본 우영상(200b)과 가상시점 우영상(300b)의 합성오차를 계산하여 우측 차폐영역 정보(310b)를 생성한다.The shielded area
이때, 차폐영역 정보 생성부(121)는 좌측 차폐영역 정보(310a)와 우측 차폐영역 정보(310b) 위치의 색상을 이진 영상 또는 차폐되지 않은 반대편 시점의 영상 색상으로 채워 저장한다. 예를 들어, 차폐영역 정보 생성부(121)는 가상시점 좌영상(300a) 내 차폐영역의 색상을 반대편 시점인 원본 우영상(200b)의 동일 영역에 대한 색상으로 채우며, 가상시점 우영상(300b) 내 차폐영역의 색상을 반대편 시점인 원본 좌영상(200a)의 동일 영역에 대한 영상색상으로 채워 저장한다.At this time, the shielded region
본 발명의 실시예에 따른 차폐영역은 전술한 방법에 한정되어 생성되지 않으며, 그 외에 차폐영역을 생성할 수 있는 다른 방법들을 적용하여 차폐영역 정보를 생성할 수 있다.The shielded area according to the embodiment of the present invention is not limited to the above-described method, and other methods capable of generating a shielded area may be applied to generate shielded area information.
다시 도 1을 참고하면, 영역 구분부(122)는 영상 수신부(110)로부터 원본 좌영상 및 원본 우영상을 전달받는다. 그리고, 영역 구분부(122)는 차폐영역 정보 생성부(121)로부터 좌측 차폐영역 정보 및 우측 차폐영역 정보를 전달받는다. 영역 구분부(122)는 좌측 차폐영역 정보를 이용하여 원본 좌영상을 차폐영역과 비차폐영역으로 구분한 결과로 좌측 영역 구분영상을 생성한다. 동일한 방법으로 영역 구분부(122)는 우측 차폐영역 정보를 이용하여 원본 우영상을 차폐영역과 비차폐영역으로 구분한 결과로 우측 영역 구분영상을 생성한다. 영역 구분부(122)는 좌측 영역 구분영상 및 우측 영역 구분영상을 영상처리부(130)로 전달한다.Referring again to FIG. 1, the
예를 들어, 도 3을 참고하면, 영역 구분부(122)는 영상 수신부(110)로부터 원본 좌영상(200a) 및 원본 우영상(200b)을 전달받는다. 영역 구분부(122)는 차폐영역 정보 생성부(121)로부터 좌측 차폐영역 정보(320a) 및 우측 차폐영역 정보(320b)를 전달받는다. 영역 구분부(122)는 좌측 차폐영역 정보(320a)를 토대로 원본 좌영상(200a)을 차폐영역과 비차폐영역으로 구분하여 좌측 영역 구분영상(400a)을 생성한다. 영역 구분부(122)는 우측 차폐영역 정보(320b)를 토대로 원본 우영상(200b)을 차폐영역과 비차폐영역으로 구분하여 우측 영역 구분영상(400b)을 생성한다. 본 발명의 실시예에 따른 비차폐영역은 차폐영역을 제외한 나머지 영역으로 정의한다.For example, referring to FIG. 3, the
다시 도 1을 참고하면, 영상 처리부(130)는 특징 검출부(131), 분할부(132), 재구성부(134), 변이 보간부(133) 및 영상 생성부(135)를 포함한다.Referring again to FIG. 1, the
특징 검출부(131)는 영상 수신부(110)로부터 스테레오 원본 영상을 전달받는다. 특징 검출부(131)는 스테레오 원본 영상으로부터 영상 중요도, 희소(Sparse) 변이, 직선 성분 등과 같은 장면 특징 정보를 검출한다. 여기서, 희소 변이 영상의 한 예는 도 4와 같다. 도 4의 (a)는 좌측 비차폐 희소 변이영상의 한 예이며, 도 4의 (b)는 우측 비차폐 희소 변이영상의 한 예이다. 이때, 검출된 장면 특징은 영상 생성부(135)에서 메쉬 워핑 기법을 이용하여 가상시점 다시점 영상을 생성할 때 제한 조건 등으로 이용된다.The
분할부(132)는 영상 수신부(110)로부터 스테레오 원본 영상을 전달받는다. 분할부(132)는 스테레오 원본 영상에 대한 영역 분할을 통해 스테레오 원본 영상을 의미 있는 영역들로 분할하여 영역 분할영상을 생성하며, 영역 분할영상의 한 예는 도 5와 같다. 도 5의 (a)는 스테레오 원본 영상이며, 도 5의 (b)는 도 5의 (a)를 의미 있는 영역들로 분할하여 생성한 영역 분할영상이다. 이때, 색상 정보에 기반하여 분할하거나 색상과 깊이 정보에 기반하여 스테레오 원본 영상을 의미 있는 영역으로 분할하여 영역 분할정보를 생성할 수 있다. The
다시 도 1 및 도 3을 참고하면, 변이 보간부(133)는 가상시점에서의 재구성 영상을 생성하기 위해 영상 수신부(110)로부터 원본 좌영상(200a) 및 원본 우영상(200b)을 전달받으며, 특징 검출부(131)로부터 희소 변이 영상을 전달받는다. 그리고, 변이 보간부(133)는 차폐영역 관리부(120)의 영역 구분부(122)로부터 좌측 영역 구분영상(400a)과 우측 영역 구분영상(400b)을 전달받는다. 변이 보간부(133)는 좌측 영역 구분영상(400a)의 좌측 차폐영역 정보(320a)에 대한 변이 보간을 수행하여 좌측 차폐영역 변이보간 영상을 생성한다. 그리고, 변이 보간부(133)는 우측 영역 구분영상(400b)의 우측 차폐영역 정보(320b)에 대한 변이 보간을 수행하여 우측 차폐영역 변이보간 영상을 생성한다. 이때, 변이 보간부(133)는 주위의 유효 변이를 갖는 화소들을 이용하여 변이 보간을 수행하되, 변이가 작은 배경에 가까운 변이에 가중치를 두어 보간을 수행한다. 변이 보간부(133)는 보간할 화소 선택시 변이 신뢰도가 높은 화소에 높은 가중치를 두어 선택한다. 변이 보간부(133)는 분할부(132)로부터 영역 분할 정보가 전달된 경우, 분할된 영역별로 변이 보간을 수행한다.1 and 3, the
다시 도 1을 참고하면, 재구성부(134)는 차폐영역 관리부(120)의 영역 구분부(122)로부터 원본 좌영상 및 원본 우영상을 차폐 영역과 비차폐 영역으로 구분하여 생성된 좌측 영역 구분영상 및 우측 영역 구분영상을 전달받는다. 재구성부(134)는 특징 검출부(131)로부터 장면 특징 정보를 전달받는다. 재구성부(134)는 생성될 가상시점 위치에 적합하도록 장면 특징 정보의 희소 변이 정보를 이용하여 좌측 영역 구분영상 및 우측 영역 구분영상의 차폐영역 정보를 재구성하여 좌측 재구성 영상 및 우측 재구성 영상을 생성한다. Referring again to FIG. 1, the
예를 들어, 도 6에 도시한 바와 같이, 재구성부(134)는 영역 구분부(122)로부터 좌측 영역 구분영상(400a) 및 우측 영역 구분영상(400b)을 전달받는다. 재구성부(134)는 특징 검출부(131)로부터 좌측 희소 변이영상(410a) 및 우측 희소 변이영상(410b)을 전달받는다. 재구성부(134)는 좌측 희소 변이영상(410a)을 토대로 좌측 영역 구분영상(400a)에 생성될 가상시점 위치로 변이 보간된 좌측 차폐영역 정보(320a)를 투영하는 방식으로 재구성(330a)하여 좌측 재구성 영상(500a)을 생성한다. 동일한 방법으로, 재구성부(134) 우측 희소 변이영상(410b)을 토대로 우측 영역 구분영상(400b)에 생성될 가상시점 위치로 변이 보간된 우측 차폐영역 정보(320b)를 투영하는 방식으로 재구성(330b)하여 우측 재구성 영상(500b)을 생성한다.For example, as shown in FIG. 6, the reconstructing
보다 구체적으로, 기준시점이 좌측 영역 구분영상(400a)의 시점이고, 차폐영역 정보가 입력될 때 미리 계산된 좌측 차폐영역 정보(320a)의 길이가 'N1'인 경우, 재구성부(134)는 좌측 희소 변이영상(410a)을 토대로 좌측 방향에서 우측 방향으로가는 가상시점 위치()(0<<1)와 좌측 차폐영역 정보(320a)의 길이(N1)를 곱하여 좌측 차폐영역 정보(320a)의 길이(N1 )를 재구성한다. 그리고, 재구성부(134)는 변이 보간된 좌측 차폐영역 정보(320a)를 가상시점 위치()(0<<1)와 곱하여 좌측 차폐영역 정보(320a)의 이동위치를 결정하여 좌측 재구성 차폐정보(330a)를 생성한다. More specifically, when the reference time point is the time point of the left
동일한 방법으로, 기준시점이 우측 영역 구분영상(400b)의 시점이고, 차폐영역 정보가 입력될 때 미리 계산된 우측 차폐영역 정보(320b)의 길이가 'N2'인 경우, 재구성부(134)는 우측 희소 변이영상(410b)을 토대로 우측 방향에서 좌측 방향으로가는 가상시점 위치(1-)(0<<1)와 우측 차폐영역 정보(320b)의 길이(N2)를 곱하여 우측 차폐영역 정보(320b)의 길이(N2(1-))를 재구성한다. 그리고, 재구성부(134)는 변이 보간된 우측 차폐영역 정보(320b)를 가상시점 위치(1-)(0<<1)와 곱하여 우측 차폐영역 정보(320b)의 이동위치를 결정하여 우측 재구성 차폐정보(330b)를 생성한다.In the same way, when the reference time point is the time point of the right
이때, 재구성하는 과정에서 차폐영역에서의 경계 잡음을 제거하기 위해 차폐영역의 경계를 배경이 있는 방향으로 확장시키는 것과 같은 후처리를 수행할 수도 있다.At this time, in order to remove the boundary noise in the shielding region in the process of reconstruction, post-processing such as extending the boundary of the shielding region in the direction of the background may be performed.
전술한 바와 같이 본 발명의 실시예에서는 이처럼 차폐되지 않은 객체가 차폐영역에 비해 변이가 커서 가상시점에서 많이 이동하므로 차폐영역이 새롭게 가려지게 되거나 새롭게 나타나는 영역이 발생하게 된다.As described above, in the embodiment of the present invention, since the unshielded object is shifted from the shielded region by a large amount, the shielded region is blocked or newly appeared.
다시 도 1을 참고하면, 영상 생성부(135)는 변이 보간부(133)로부터 좌측 차폐영역 변이보간 영상 및 우측 차폐영역 변이보간 영상을 전달받는다. 영상 생성부(135)는 특징 검출부(131)로부터 좌측 희소 변이영상 및 우측 희소 변이영상을 전달받는다. 영상 생성부(135)는 좌측 차폐영역 변이보간 영상, 우측 차폐영역 변이보간 영상, 좌측 희소 변이영상 및 우측 희소 변이영상을 토대로 메쉬 워핑에 의해 가상시점 영상을 생성할 때 사용하기 위해 차폐영역과 비차폐영역으로 구분하여 입력 영상별 블랜딩 가중치를 산출한다. 다시 말해, 영상 생성부(135)는 입력되는 영상과 생성될 가상 중간시점 다시점 영상간의 거리에 따라 "0"과 "1"사이의 값으로 블랜딩 가중치를 결정하되, 분할부(132)로부터 전달된 원본 좌영상 및 원본 우영상에 대한 영역 분할정보를 이용할 경우 각 영역별로 블랜딩 가중치를 산출한다. 한편, 영상 생성부(135)는 영역 분할정보를 이용하지 않을 경우 메쉬 그리드 단위로 블랜딩 가중치를 산출하되, 비차폐영역에서만 블랜딩 가중치를 산출하고, 차폐영역에 대해서는 좌우 시점 중 차폐되지 않은 시점 영상만을 이용하도록 블랜딩 가중치를 결정한다. Referring back to FIG. 1, the
영상 생성부(135)는 차폐영역과 비차폐영역으로 구분하여 계산된 블랜딩 가중치를 이용하여 원본 좌영상, 원본 우영상, 좌측 차폐영역 변이보간 영상 및 우측 차폐영역 변이보간 영상, 좌측 희소 변이영상 및 우측 희소 변이영상의 메쉬 워핑과 블랜딩을 통해 가상 중간시점 다시점 영상을 생성한다. 이때, 선택적으로 영역분할 정보를 이용가능 할 경우 메쉬 워핑은 분할된 영역 단위로 차폐영역과 비차폐영역으로 구분하여 가상 중간시점 다시점 영상을 생성한다. 또한, 영상 생성부(135)는 차폐영역에 대해서는 선택적으로 메쉬 워핑대신 변이기반 보간을 수행할 수도 있다. 이때, 차폐영역에 대한 경계 후처리는 선택적으로 수행한다.The
예를 들어, 도 7을 참고하면, 영상 생성부(135)는 영상 수신부(110)로부터 원본 좌영상(200a) 및 원본 우영상(200b)을 전달받으며, 특징 검출부(131)로부터 좌측 희소 변이영상(410a) 및 우측 희소 변이영상(410b)을 전달받는다. 영상 생성부(135)는 재구성부(134)로부터 좌측 재구성 영상(500a) 및 우측 재구성 영상(500b)을 전달받으며, 변이 보간부(133)로부터 좌측 차폐영역 변이보간 영상(600a) 및 우측 차폐영역 변이보간 영상(600b)을 전달받는다. 영상 생성부(135)는 차폐영역과 비차폐영역으로 구분하여 계산된 블랜딩 가중치에 따라 원본 좌영상(200a) 및 원본 우영상(200b)의 메쉬 워핑과 블랜딩을 통해 가상 중간시점 다시점 영상(700)을 생성한다. 7, the
보다 구체적으로, 영상 생성부(135)는 원본 좌영상(200a)의 블랜딩 가중치가 "0"이고, 원본 우영상(200b)의 블랜딩 가중치가 1"인 경우, 생성될 가상 중간시점 다시점 영상(700)의 가중치는 원본 좌/우영상(200a, 200b)과 가상 중간시점 다시점 영상(700)간의 거리에 따라 "0"과 "1"사이의 값으로 결정한다. 도 7에서는 차폐영역과 비차폐영역으로 구분된 가상 중간시점 다시점 영상(700)을 생성할 때 원본 좌/우영상(200a, 200b)의 가중치가 "0.5"로 결정된 것으로 가정한다. 즉, 영상 생성부(135)는 가상 중간시점 다시점 영상(700)을 생성할 때, 원본 좌영상(200a)의 차폐영역, 즉 좌측 재구성 차폐정보(330a)는 우측 차폐영역 변이보간 영상(600b)을 기반으로 원본 우영상(200b)의 차폐영역에 해당하는 영역의 메쉬 워핑을 이용하여 결정하며, 그 외 나머지 영역인 비차폐 영역은 원본 좌영상(200a)의 영역별 메쉬 워핑을 이용하여 결정한다. 그리고, 영상 생성부(135)는 가상 중간시점 다시점 영상(700)을 생성할 때, 원본 우영상(200b)의 차폐영역, 즉 우측 재구성 차폐정보(330b)는 좌측 차폐영역 변이보간 영상(600a)을 기반으로 원본 좌영상(200a)의 차폐영역에 해당하는 영역의 메쉬 워핑을 이용하여 결정하며, 그 외 나머지 영역인 비차폐 영역은 원본 우영상(200b)의 영역별 메쉬 워핑을 이용하여 결정한다.
More specifically, when the blending weight of the original
도 8은 본 발명의 실시예에 따른 차폐영역 정보를 고려하여 영상 워핑을 수행하는 방법을 나타내는 흐름도이다. 8 is a flowchart illustrating a method of performing image warping in consideration of shielded area information according to an embodiment of the present invention.
도 8에 도시한 바와 같이, 본 발명의 실시예에 따른 영상 워핑 장치(100)의 영상 수신부(110)는 스테레오 원본 영상을 전달받는다(S100). 스테레오 원본 영상은 원본 좌영상 및 원본 우영상을 포함한다. 영상 수신부(110)는 입력된 스테레오 원본 영상을 차폐영역 관리부(120) 및 영상 처리부(130)로 전달한다.As shown in FIG. 8, the
차폐영역 관리부(120)의 차폐영역 정보 생성부(121)는 스테레오 원본 영상을 이용하여 좌측 차폐영역 정보 및 우측 차폐영역 정보를 생성한다(S110). 차폐영역 정보 생성부(121)는 좌측 차폐영역 정보 및 우측 차폐영역 정보를 영역 구분부(122)로 전달한다. 영역 구분부(122)는 좌측 차폐영역 정보와 우측 차폐영역 정보를 이용하여 원본 좌영상 및 원본 우영상 각각을 차폐영역과 비차폐영역으로 구분한다(S120). 즉, 영역 구분부(122)는 좌측 차폐영역 정보를 토대로 원본 좌영상을 차폐영역과 비차폐영역으로 구분하여 좌측 영역 구분영상(400a)을 생성한다. 영역 구분부(122)는 우측 차폐영역 정보를 토대로 원본 우영상을 차폐영역과 비차폐영역으로 구분하여 우측 영역 구분영상(400b)을 생성한다[도 3 참고]. The shielded area
한편, 영상 처리부(130)의 변이 보간부(133)는 영역 구분부(122)로부터 좌측 영역 구분영상(400a)과 우측 영역 구분영상(400b)을 전달받는다. 변이 보간부(133)는 좌측 영역 구분영상(400a)의 좌측 차폐영역 정보(320a)에 대한 변이 보간을 수행하여 좌측 차폐영역 변이보간 영상을 생성한다. 그리고, 변이 보간부(133)는 우측 영역 구분영상(400b)의 우측 차폐영역 정보(320b)에 대한 변이 보간을 수행하여 우측 차폐영역 변이보간 영상을 생성한다(S130). The
재구성부(134)는 영역 구분부(122)로부터 좌측 영역 구분영상(400a)과 우측 영역 구분영상(400b)을 전달받는다. 특징 검출부(131)로부터 특징 검출부(131)로부터 좌측 희소 변이영상(410a) 및 우측 희소 변이영상(410b)를 전달받는다. 재구성부(134)는 좌측 희소 변이영상(410a)을 토대로 좌측 영역 구분영상(400a)에 생성될 가상시점 위치로 변이 보간된 좌측 차폐영역 정보(320a)를 투영하는 방식으로 재구성(330a)하여 좌측 재구성 영상(500a)을 생성하며, 우측 희소 변이영상(410b)을 토대로 우측 영역 구분영상(400b)에 생성될 가상시점 위치로 변이 보간된 우측 차폐영역 정보(320b)를 투영하는 방식으로 재구성(330b)하여 우측 재구성 영상(500b)을 생성한다(S140)[도 6 참고]. The
영상 생성부(135)는 차폐영역과 비차폐영역으로 구분하여 입력 영상별 블랜딩 가중치를 산출한다(S150). 그리고, 영상 생성부(135)는 차폐영역과 비차폐영역으로 구분하여 계산된 블랜딩 가중치에 따라 원본 좌영상(200a) 및 원본 우영상(200b)의 메쉬 워핑과 블랜딩을 통해 가상 중간시점 다시점 영상(700)을 생성한다(S160)[도 7 참고].
The
이상, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명하였으나 이는 본 발명의 권리 범위를 한정하는 것으로 해석될 수 없으며, 이하에서 기술되는 특허 청구 범위에 의해 판단되는 본 발명의 사상 및 범위를 벗어나지 않는 한도 내에서 해당 기술 분야에서 통상의 지식을 가진 자에 의해 다양하게 변형되어 실시될 수 있을 것이다. While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, And various modifications may be made by those skilled in the art without departing from the scope of the present invention.
100 : 영상 워핑 장치 110 : 영상 수신부
120 : 차폐영역 관리부 121 : 차폐영역 정보 생성부
122 : 영역 구분부 130 : 영상 처리부
131 : 특징 검출부 132 : 분할부
133 : 변이 보간부 134 : 재구성
135 : 영상 생성부
100: image warping device 110: image receiving unit
120: shielded area management unit 121: shielded area information generation unit
122: area division unit 130: image processing unit
131: feature detecting unit 132:
133: Transition interpolation section 134: Reconstruction
135:
Claims (1)
상기 스테레오 원본 영상의 희소 변이 정보를 토대로 상기 차폐영역 정보의 변이를 보간하고, 상기 변이 보간된 차폐영역 정보에 따라 상기 차폐영역 정보를 재구성한 결과를 이용하여 상기 스테레오 원본 영상의 메쉬 워핑 시 차폐영역과 비차폐영역을 구분하여 가상 중간시점 영상을 생성하는 영상 처리부
를 포함하는 것을 특징으로 하는 영상 워핑 장치. A shielded area management unit for generating shielded area information based on a stereo original image; And
The method of claim 1, further comprising: interpolating the variation of the shielded area information based on the sparse disparity information of the stereo original image, and reconstructing the shielded area information according to the interpolated shielded area information, And a non-shielded area to generate a virtual intermediate view image
Wherein the image warping device comprises:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130016614A KR102039741B1 (en) | 2013-02-15 | 2013-02-15 | Method and apparatus for image warping |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130016614A KR102039741B1 (en) | 2013-02-15 | 2013-02-15 | Method and apparatus for image warping |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140102999A true KR20140102999A (en) | 2014-08-25 |
KR102039741B1 KR102039741B1 (en) | 2019-11-01 |
Family
ID=51747547
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130016614A KR102039741B1 (en) | 2013-02-15 | 2013-02-15 | Method and apparatus for image warping |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102039741B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170109465A (en) * | 2016-03-21 | 2017-09-29 | 한국전자통신연구원 | Apparatus for reconstructing image and method using the same |
KR20200057612A (en) * | 2018-11-16 | 2020-05-26 | 한국전자통신연구원 | Method and apparatus for generating virtual viewpoint image |
CN112507051A (en) * | 2020-12-03 | 2021-03-16 | 北京梧桐车联科技有限责任公司 | Administrative division identification method, device, equipment and computer readable storage medium |
US11528461B2 (en) | 2018-11-16 | 2022-12-13 | Electronics And Telecommunications Research Institute | Method and apparatus for generating virtual viewpoint image |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102173419B1 (en) | 2020-07-14 | 2020-11-03 | 주식회사 아프로시스템즈 | Adaptive object detection system using detection area extension method of interest |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090068980A (en) * | 2007-12-24 | 2009-06-29 | 연세대학교 산학협력단 | Method for rendering virtual view for 2d/3d free view video generation |
KR20110063778A (en) * | 2008-08-29 | 2011-06-14 | 톰슨 라이센싱 | View synthesis with heuristic view blending |
KR20120016439A (en) | 2010-08-16 | 2012-02-24 | 삼성전자주식회사 | Image processing apparatus and method |
-
2013
- 2013-02-15 KR KR1020130016614A patent/KR102039741B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090068980A (en) * | 2007-12-24 | 2009-06-29 | 연세대학교 산학협력단 | Method for rendering virtual view for 2d/3d free view video generation |
KR20110063778A (en) * | 2008-08-29 | 2011-06-14 | 톰슨 라이센싱 | View synthesis with heuristic view blending |
KR20120016439A (en) | 2010-08-16 | 2012-02-24 | 삼성전자주식회사 | Image processing apparatus and method |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170109465A (en) * | 2016-03-21 | 2017-09-29 | 한국전자통신연구원 | Apparatus for reconstructing image and method using the same |
KR20200057612A (en) * | 2018-11-16 | 2020-05-26 | 한국전자통신연구원 | Method and apparatus for generating virtual viewpoint image |
US11528461B2 (en) | 2018-11-16 | 2022-12-13 | Electronics And Telecommunications Research Institute | Method and apparatus for generating virtual viewpoint image |
CN112507051A (en) * | 2020-12-03 | 2021-03-16 | 北京梧桐车联科技有限责任公司 | Administrative division identification method, device, equipment and computer readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
KR102039741B1 (en) | 2019-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9111389B2 (en) | Image generation apparatus and image generation method | |
US10728513B2 (en) | Image processing apparatus, image processing method, and storage medium | |
KR101798408B1 (en) | Method and apparatus for rendering high quality multi-view images for 3d display | |
US20150302592A1 (en) | Generation of a depth map for an image | |
US9171373B2 (en) | System of image stereo matching | |
KR20140102999A (en) | Method and apparatus for image warping | |
US9058682B2 (en) | Apparatus and method for virtual view generation on multi-view image reconstruction system by virtual emission of X-rays | |
JP2014150521A (en) | Method and system for increasing resolution of depth image | |
JP2013172190A (en) | Image processing device and image processing method and program | |
KR101855980B1 (en) | Hole filling method and apparatus | |
Ham et al. | Probability-based rendering for view synthesis | |
JPWO2009051065A1 (en) | Image generating method, apparatus, program thereof, and recording medium recording program | |
US20120113093A1 (en) | Modification of perceived depth by stereo image synthesis | |
KR20120137205A (en) | Method and apparatus for image processing | |
Kodera et al. | Filter based alpha matting for depth image based rendering | |
Sjöström et al. | Improved depth-image-based rendering algorithm | |
Leung et al. | Fast stereo matching by iterated dynamic programming and quadtree subregioning | |
KR20100087963A (en) | Method for generating interframe using optical flow algorithm | |
Islam et al. | Warping-based stereoscopic 3d video retargeting with depth remapping | |
JP2007052644A (en) | Free viewpoint video generation system | |
KR101760463B1 (en) | Method and Apparatus for correcting a depth map | |
Leung et al. | Iterated dynamic programming and quadtree subregioning for fast stereo matching | |
KR20130068520A (en) | Method and apparatus for warping image | |
JP5840114B2 (en) | How to generate a virtual image | |
Muddala et al. | Edge-preserving depth-image-based rendering method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
N231 | Notification of change of applicant | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |