KR20140102999A - Method and apparatus for image warping - Google Patents

Method and apparatus for image warping Download PDF

Info

Publication number
KR20140102999A
KR20140102999A KR1020130016614A KR20130016614A KR20140102999A KR 20140102999 A KR20140102999 A KR 20140102999A KR 1020130016614 A KR1020130016614 A KR 1020130016614A KR 20130016614 A KR20130016614 A KR 20130016614A KR 20140102999 A KR20140102999 A KR 20140102999A
Authority
KR
South Korea
Prior art keywords
image
shielded area
shielded
region
unit
Prior art date
Application number
KR1020130016614A
Other languages
Korean (ko)
Other versions
KR102039741B1 (en
Inventor
엄기문
신홍창
이왕로
임종명
고민수
유지상
이응돈
이현
김찬
정원식
허남호
Original Assignee
광운대학교 산학협력단
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광운대학교 산학협력단, 한국전자통신연구원 filed Critical 광운대학교 산학협력단
Priority to KR1020130016614A priority Critical patent/KR102039741B1/en
Publication of KR20140102999A publication Critical patent/KR20140102999A/en
Application granted granted Critical
Publication of KR102039741B1 publication Critical patent/KR102039741B1/en

Links

Images

Classifications

    • G06T3/18
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation

Abstract

A method and apparatus for image warping are provided. The image warping apparatus comprises a shielded area management unit for generating shielded area information based on a stereo source image; and an image processing unit which interpolates variations of the shielded area information based on rare variation information of the stereo source image, and separates a shielded area and a non-shielded area when mesh warping the stereo source image to generate a virtual intermediate viewpoint image by using the result of the shielded area information reconstruction according to the variation-interpolated shielded area information.

Description

영상 워핑을 위한 장치 및 방법{Method and apparatus for image warping}[0001] The present invention relates to a method and apparatus for image warping,

본 발명은 영상 워핑을 위한 장치 및 방법에 관한 것으로, 더욱 상세하게는 미리 추출된 차폐영역 정보를 토대로 차폐영역과 비차폐영역을 구분하여 객체와 배경 경계인 깊이 불연속 지점 부근에서의 영상 왜곡을 줄이고, 입체감을 유지할 수 있는 영상 워핑 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and method for image warping, and more particularly, to an apparatus and method for image warping that divides a shielded area and an unshielded area based on previously extracted shielded area information to reduce image distortion in the vicinity of a depth discontinuity point, And to an image warping apparatus and method capable of maintaining a stereoscopic effect.

종래에는 일반적으로 다시점 영상 생성기법은 스테레오 영상으로부터 스테레오 정합 기법 등에 의해 변이를 계산하고, 변이 정보를 이용하여 생성된 중간 영상을 이용한다. Conventionally, the multi-view image generation technique calculates a variation from a stereo image by a stereo matching method and uses an intermediate image generated by using the variation information.

이처럼 변이를 이용한 다시점 영상 생성기법은 깊이 불연속 지점의 차폐영역으로 인해 깊이 불연속 지점에서의 변이 정보가 부정확해져 눈에 거슬리는 인위구조(artifact)가 홀 보간 처리된 영역에서 많이 나타나는 문제점이 있다.The multi-view image generation technique using the variation has a problem in that the variation information at the depth discontinuity point is inaccurate due to the shielding region of the depth discontinuity point, and artifacts that are uncomfortable in the hall interpolation process are generated.

한편, 최근에는 스테레오 영상에서 특징점 변이/광류 계산 등을 통해 영상의 일부 영역에 대해서만 변이 정보를 계산하고, 영상 중요도(saliency) 및 에지 직선 성분으로 정의되는 제한 조건을 이용하여 에너지 함수의 각항을 정의하고, 이를 가중 결합하여 정의되는 에너지 함수를 최소화 하는 영상 메쉬 그리드의 워핑(warping)식 계산에 의해 다시점 영상을 생성하는 영상워핑기반 다시점 영상 생성 기법의 사용이 증가하고 있다. Recently, in the stereo image, the variance information is calculated only for a partial region of the image through the feature point variation / optical flow calculation, and each term of the energy function is defined by using the constraint defined by the image saliency and the edge linear component And the weighted combination of them is used to minimize the energy function, and the warping method of the image mesh grid is used to generate multi - view images.

이처럼 영상워핑기반 다시점 영상 생성 기법은 변이 정보의 부정확성으로 인한 홀 및 인위구조의 발생은 적지만, 깊이 불연속 지점 또는 차폐영역 부근에서의 영상 왜곡으로 인한 깊이 차이 감소로 인해 스테레오 영상의 입체감이 감소하는 문제점이 있다. As described above, the multi-view image generation technique based on the image warping has a problem that the hole and the artificial structure are not generated due to the inaccuracy of the mutation information, but the stereoscopic effect of the stereo image is decreased due to the reduction of the depth difference due to the image distortion at the depth discontinuity point or near the shielding area .

따라서, 영상 워핑 시 깊이 불편속 지점 또는 차폐영역 부근에서의 영상 왜곡을 최소화하기 위한 기술이 요구된다. Therefore, there is a need for techniques to minimize image distortion in the point of depth discomfort or in the vicinity of the shielding area in image warping.

한국 공개 특허 제 10-2012-0016439 호("영상 처리 장치 및 방법", 삼성전자, 2012.02.24 공개)Korean Patent Laid-Open No. 10-2012-0016439 ("Image Processing Apparatus and Method ", Samsung Electronics, published Feb. 24, 2012)

전술한 문제점을 해결하기 위한 본 발명의 목적은 미리 추출된 차폐영역 정보를 토대로 차폐영역과 비차폐영역을 구분하여 객체와 배경 경계인 깊이 불연속 지점 부근에서의 영상 왜곡을 줄이고, 입체감을 유지하기 위한 영상 워핑을 위한 장치 및 방법을 제공하는 것이다. It is an object of the present invention to solve the above-described problems by providing an image processing apparatus and method for separating a shielded area and an unshielded area based on previously extracted shielded area information to reduce image distortion in the vicinity of a depth discontinuity point, And to provide an apparatus and method for warping.

전술한 본 발명의 목적을 달성하기 위한 본 발명의 일 측면에 따른 영상 워핑 장치는 스테레오 원본 영상에 기초하여 차폐영역 정보를 생성하는 차폐영역 관리부; 및 상기 스테레오 원본 영상의 희소 변이 정보를 토대로 상기 차폐영역 정보의 변이를 보간하고, 상기 변이 보간된 차폐영역 정보에 따라 상기 차폐영역 정보를 재구성한 결과를 이용하여 상기 스테레오 원본 영상의 메쉬 워핑 시 차폐영역과 비차폐영역을 구분하여 가상 중간시점 영상을 생성하는 영상 처리부를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided an image warping apparatus including: a shielded area manager for generating shielded area information based on a stereo original image; And interpolating the variation of the shielded area information based on the rare variation information of the stereo original image and reconstructing the shielded area information according to the interpolated shielded area information, And an image processing unit for generating a virtual intermediate view image by separating the area and the non-shielded area.

상술한 영상 워핑을 위한 장치 및 방법에 따르면, 미리 추출된 차폐영역 정보를 토대로 스테레오 원본 영상을 차폐영역과 비차폐영역을 구분한 후 차폐영역 정보를 재구성한 영상을 이용하여 영상 워핑을 수행함에 따라 차폐영역 부근에서의 영상 왜곡을 줄일 수 있으며, 입체감을 유지하여 영상 품질을 향상시킬 수 있다. According to the apparatus and method for image warping described above, the image of the stereo original image is divided into the shielded area and the non-shielded area based on the extracted shielded area information, and then image warping is performed using the reconstructed image of the shielded area information The image distortion in the vicinity of the shielding region can be reduced, and the image quality can be improved by maintaining the stereoscopic effect.

또한, 본 발명의 실시예에 따르면, 스테레오 원본 영상을 색상 정보에 기반하여 분할하거나 또는 깊이 정보에 기반하여 의미있는 영역으로 분할한 후 영역별 메쉬 생성 및 영상 워핑을 적용함에 따라 차폐영역 부근에서의 깊이 불연속 유지 및 영상 왜곡을 감소시킬 수 있다.In addition, according to the embodiment of the present invention, a stereo original image is divided based on color information or divided into meaningful regions based on depth information, and mesh generation and image warping are applied to each region, Depth discontinuity maintenance and image distortion can be reduced.

도 1은 본 발명의 실시예에 따른 영상 워핑 장치를 개략적으로 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 차폐영역 정보를 생성하는 한 예를 개략적으로 나타내는 도면이다.
도 3은 본 발명의 실시예에 따른 스테레오 원본 영상을 차폐영역과 비차폐영역으로 구분한 한 예를 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 희소 변이 영상의 한 예를 나타내는 도면이다.
도 5는 본 발명의 실시예에 따른 스테레오 원본 영상을 영역 분할한 한 예를 나타내는 도면이다.
도 6는 본 발명의 실시예에 따른 차폐영역 정보를 재구성하는 한 예를 나타내는 도면이다.
도 7은 본 발명의 실시예에 따른 가상 중간시점 다시점 영상을 생성하는 한 예를 나타내는 도면이다.
도 8은 본 발명의 실시예에 따른 차폐영역 정보를 고려하여 영상 워핑을 수행하는 방법을 나타내는 흐름도이다.
1 is a view schematically showing an image warping apparatus according to an embodiment of the present invention.
2 is a diagram schematically illustrating an example of generating shielded area information according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating an example of dividing a stereo original image according to an embodiment of the present invention into a shielded area and a non-shielded area.
4 is a diagram showing an example of a rare variation image according to an embodiment of the present invention.
5 is a diagram illustrating an example of segmenting a stereo original image according to an embodiment of the present invention.
6 is a diagram illustrating an example of reconstructing shielded area information according to an embodiment of the present invention.
7 is a diagram illustrating an example of generating a virtual intermediate viewpoint multi-view image according to an embodiment of the present invention.
8 is a flowchart illustrating a method of performing image warping in consideration of shielded area information according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are to be interpreted in an ideal or overly formal sense unless explicitly defined in the present application Do not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate the understanding of the present invention, the same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.

도 1은 본 발명의 실시예에 따른 영상 워핑 장치를 개략적으로 나타내는 도면이다. 도 2는 본 발명의 실시예에 따른 차폐영역 정보를 생성하는 한 예를 개략적으로 나타내는 도면이다. 도 3은 본 발명의 실시예에 따른 스테레오 원본 영상을 차폐영역과 비차폐영역으로 구분한 한 예를 나타내는 도면이다. 도 4는 본 발명의 실시예에 따른 희소 변이 영상의 한 예를 나타내는 도면이다. 도 5는 본 발명의 실시예에 따른 스테레오 원본 영상을 영역 분할한 한 예를 나타내는 도면이다. 도 6는 본 발명의 실시예에 따른 차폐영역 정보를 재구성하는 한 예를 나타내는 도면이다. 도 7은 본 발명의 실시예에 따른 가상 중간시점 다시점 영상을 생성하는 한 예를 나타내는 도면이다. 도 8은 본 발명의 실시예에 따른 차폐영역 정보를 고려하여 영상 워핑을 수행하는 방법을 나타내는 흐름도이다. 1 is a view schematically showing an image warping apparatus according to an embodiment of the present invention. 2 is a diagram schematically illustrating an example of generating shielded area information according to an embodiment of the present invention. FIG. 3 is a diagram illustrating an example of dividing a stereo original image according to an embodiment of the present invention into a shielded area and a non-shielded area. 4 is a diagram showing an example of a rare variation image according to an embodiment of the present invention. 5 is a diagram illustrating an example of segmenting a stereo original image according to an embodiment of the present invention. 6 is a diagram illustrating an example of reconstructing shielded area information according to an embodiment of the present invention. 7 is a diagram illustrating an example of generating a virtual intermediate viewpoint multi-view image according to an embodiment of the present invention. 8 is a flowchart illustrating a method of performing image warping in consideration of shielded area information according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 본 발명의 실시예에 따른 영상 워핑 장치(100)는 차폐영역 정보를 미리 추출하여 차폐영역과 비차폐영역을 분리한 후 메쉬 워핑(Mesh Warping)을 수행하여 가상 중간시점 영상 생성 시 차폐영역 부근에서의 영상 왜곡을 줄이고, 입체감을 유지시킨다.As shown in FIG. 1, the image warping apparatus 100 according to an embodiment of the present invention extracts shielded area information in advance and separates the shielded area from the non-shielded area, and performs mesh warping, The image distortion in the vicinity of the shielding area is reduced when the viewpoint image is generated, and the stereoscopic feeling is maintained.

이러한 영상 워핑 장치(100)는 영상 수신부(110), 차폐영역 관리부(120) 및 영상 처리부(130)를 포함한다. The image warping apparatus 100 includes an image receiving unit 110, a shielded area management unit 120, and an image processing unit 130.

영상 수신부(110)는 스테레오 원본 영상을 입력받는다. 영상 수신부(110)는 입력된 스테레오 원본 영상을 차폐영역 관리부(120) 및 영상 처리부(130)로 전달한다. 본 발명의 실시예에 따른 스테레오 원본 영상은 스테레오 원본 좌영상(이하, "원본 좌영상"이라고 함) 및 스테레오 원본 우영상(이하, "원본 우영상"이라고 함)을 포함한다.The image receiving unit 110 receives the stereo original image. The image receiving unit 110 transmits the inputted stereo original image to the shielded area management unit 120 and the image processing unit 130. The stereo original image according to the embodiment of the present invention includes a stereo original left image (hereinafter referred to as "original left image") and a stereo original right image (hereinafter referred to as "original right image").

차폐영역 관리부(120)는 차폐영역 정보 생성부(121) 및 영역 구분부(122)를 포함한다. The shielded area management unit 120 includes a shielded area information generation unit 121 and an area classification unit 122.

차폐영역 정보 생성부(121)는 영상 수신부(110)로부터 스테레오 원본 영상을 전달받는다. 차폐영역 정보 생성부(121)는 원본 좌영상과 원본 우영상 간에 상호 교차 변이를 추출한다. 차폐영역 정보 생성부(121)는 추출한 교차 변이를 토대로 원본 좌영상을 이용하여 원본 우영상 위치의 가상시점 영상(이하, "가상시점 우영상"이라고 함)을 생성하며, 원본 우영상을 이용하여 원본 좌영상 위치의 가상시점 영상(이하, "가상시점 좌영상"이라고 함)을 생성한다. The shielded area information generating unit 121 receives the stereo original image from the image receiving unit 110. The shielded area information generation unit 121 extracts a mutual crossing between the original left image and the original right image. The shielded area information generation unit 121 generates a virtual viewpoint image (hereinafter, referred to as a "virtual viewpoint right view image") of the original right view image position using the original left view image based on the extracted cross transition, (Hereinafter referred to as "virtual viewpoint left image") of the original left image position.

그리고, 차폐영역 정보 생성부(121)는 원본 좌/우영상과 가상시점 좌/우영상의 차이를 이용하여 차폐영역 정보를 생성한다. 다시 말해, 차폐영역 정보 생성부(121)는 원본 좌영상과 가상시점 좌영상의 차이를 계산하여 좌측 차폐영역 정보를 생성한다. 동일한 방법으로, 차폐영역 정보 생성부(121)는 원본 우영상과 가상시점 우영상의 차이를 계산하여 우측 차폐영역 정보를 생성한다. 차폐영역 정보 생성부(121)는 생성된 좌측 차폐영역 정보 및 우측 차폐영역 정보를 영역 구분부(122)로 전달한다. 본 발명의 실시예에 따른 차폐영역 정보는 좌측 차폐영역 정보 및 우측 차폐영역 정보를 포함한다.The shielded area information generation unit 121 generates shielded area information using the difference between the original left / right image and the virtual viewpoint left / right image. In other words, the shielded area information generation unit 121 generates the left shielded area information by calculating the difference between the original left image and the virtual left view image. In the same manner, the shielded area information generation unit 121 generates right shielded area information by calculating the difference between the original right image and the virtual viewpoint right image. The shielded area information generation unit 121 transmits the generated left shielded area information and right shielded area information to the area division unit 122. [ The shielded area information according to an embodiment of the present invention includes left shielded area information and right shielded area information.

구체적으로, 도 2에 도시한 바와 같이 차폐영역 정보 생성부(121)는 원본 좌영상(200a)의 변이 정보(210a)를 이용하여 원본 우영상(200b) 위치의 가상영상으로 가상시점 우영상(300b)을 생성한다. 동일한 방법으로, 차폐영역 정보 생성부(121)는 원본 우영상(200b)의 변이 정보(210b)를 이용하여 원본 좌영상(200a) 위치의 가상영상으로 가상시점 좌영상(300a)을 생성한다. 2, the shielded area information generating unit 121 generates a virtual viewpoint right image (FIG. 2) by using the variation information 210a of the original left image 200a as a virtual image at the position of the original right image 200b 300b. In the same manner, the shielded area information generation unit 121 generates the virtual viewpoint left image 300a as the virtual image at the position of the original left image 200a using the variation information 210b of the original right image 200b.

그리고, 차폐영역 정보 생성부(121)는 원본 좌영상(200a)과 가상시점 좌영상(300a)의 합성오차를 계산하여 좌측 차폐영역 정보(310a)를 생성한다. 차폐영역 정보 생성부(121)는 원본 우영상(200b)과 가상시점 우영상(300b)의 합성오차를 계산하여 우측 차폐영역 정보(310b)를 생성한다.The shielded area information generation unit 121 generates the left shielded area information 310a by calculating the composite error between the original left image 200a and the virtual left view image 300a. The shielded area information generating unit 121 calculates the combined error between the original right image 200b and the virtual viewpoint right image 300b to generate the right shielded area information 310b.

이때, 차폐영역 정보 생성부(121)는 좌측 차폐영역 정보(310a)와 우측 차폐영역 정보(310b) 위치의 색상을 이진 영상 또는 차폐되지 않은 반대편 시점의 영상 색상으로 채워 저장한다. 예를 들어, 차폐영역 정보 생성부(121)는 가상시점 좌영상(300a) 내 차폐영역의 색상을 반대편 시점인 원본 우영상(200b)의 동일 영역에 대한 색상으로 채우며, 가상시점 우영상(300b) 내 차폐영역의 색상을 반대편 시점인 원본 좌영상(200a)의 동일 영역에 대한 영상색상으로 채워 저장한다.At this time, the shielded region information generation unit 121 stores the colors of the positions of the left shielded region information 310a and the right shielded region information 310b in a binary image or an unshielded viewpoint color. For example, the shielded area information generating unit 121 fills the color of the shielded area in the virtual viewpoint left image 300a with the color of the same area of the original right image 200b, which is the opposite viewpoint, Is filled with the image color for the same area of the original left image 200a, which is the opposite view, and stored.

본 발명의 실시예에 따른 차폐영역은 전술한 방법에 한정되어 생성되지 않으며, 그 외에 차폐영역을 생성할 수 있는 다른 방법들을 적용하여 차폐영역 정보를 생성할 수 있다.The shielded area according to the embodiment of the present invention is not limited to the above-described method, and other methods capable of generating a shielded area may be applied to generate shielded area information.

다시 도 1을 참고하면, 영역 구분부(122)는 영상 수신부(110)로부터 원본 좌영상 및 원본 우영상을 전달받는다. 그리고, 영역 구분부(122)는 차폐영역 정보 생성부(121)로부터 좌측 차폐영역 정보 및 우측 차폐영역 정보를 전달받는다. 영역 구분부(122)는 좌측 차폐영역 정보를 이용하여 원본 좌영상을 차폐영역과 비차폐영역으로 구분한 결과로 좌측 영역 구분영상을 생성한다. 동일한 방법으로 영역 구분부(122)는 우측 차폐영역 정보를 이용하여 원본 우영상을 차폐영역과 비차폐영역으로 구분한 결과로 우측 영역 구분영상을 생성한다. 영역 구분부(122)는 좌측 영역 구분영상 및 우측 영역 구분영상을 영상처리부(130)로 전달한다.Referring again to FIG. 1, the region dividing unit 122 receives the original left image and the original right image from the image receiving unit 110. The area division unit 122 receives the left shielded area information and the right shielded area information from the shielded area information generation unit 121. [ The region dividing unit 122 generates the left region dividing image as a result of dividing the original left image into the shielded region and the non-shielded region using the left shielded region information. In the same manner, the region dividing unit 122 generates the right region divided image as a result of dividing the original right image into the shielded region and the non-shielded region using the right shielded region information. The region dividing unit 122 transmits the left region classification image and the right region classification image to the image processing unit 130. [

예를 들어, 도 3을 참고하면, 영역 구분부(122)는 영상 수신부(110)로부터 원본 좌영상(200a) 및 원본 우영상(200b)을 전달받는다. 영역 구분부(122)는 차폐영역 정보 생성부(121)로부터 좌측 차폐영역 정보(320a) 및 우측 차폐영역 정보(320b)를 전달받는다. 영역 구분부(122)는 좌측 차폐영역 정보(320a)를 토대로 원본 좌영상(200a)을 차폐영역과 비차폐영역으로 구분하여 좌측 영역 구분영상(400a)을 생성한다. 영역 구분부(122)는 우측 차폐영역 정보(320b)를 토대로 원본 우영상(200b)을 차폐영역과 비차폐영역으로 구분하여 우측 영역 구분영상(400b)을 생성한다. 본 발명의 실시예에 따른 비차폐영역은 차폐영역을 제외한 나머지 영역으로 정의한다.For example, referring to FIG. 3, the region dividing unit 122 receives the original left image 200a and the original right image 200b from the image receiving unit 110. FIG. The region dividing section 122 receives the left shielded region information 320a and the right shielded region information 320b from the shielded region information generation section 121. [ The region dividing unit 122 divides the original left image 200a into a shielded region and a non-shielded region based on the left shielded region information 320a to generate a left regionized image 400a. The region dividing unit 122 divides the original right image 200b into a shielded region and a non-shielded region based on the right shielded region information 320b to generate a right regionized image 400b. The non-shielded area according to the embodiment of the present invention is defined as the remaining area except for the shielded area.

다시 도 1을 참고하면, 영상 처리부(130)는 특징 검출부(131), 분할부(132), 재구성부(134), 변이 보간부(133) 및 영상 생성부(135)를 포함한다.Referring again to FIG. 1, the image processing unit 130 includes a feature detection unit 131, a division unit 132, a reconstruction unit 134, a variation interpolation unit 133, and an image generation unit 135.

특징 검출부(131)는 영상 수신부(110)로부터 스테레오 원본 영상을 전달받는다. 특징 검출부(131)는 스테레오 원본 영상으로부터 영상 중요도, 희소(Sparse) 변이, 직선 성분 등과 같은 장면 특징 정보를 검출한다. 여기서, 희소 변이 영상의 한 예는 도 4와 같다. 도 4의 (a)는 좌측 비차폐 희소 변이영상의 한 예이며, 도 4의 (b)는 우측 비차폐 희소 변이영상의 한 예이다. 이때, 검출된 장면 특징은 영상 생성부(135)에서 메쉬 워핑 기법을 이용하여 가상시점 다시점 영상을 생성할 때 제한 조건 등으로 이용된다.The feature detection unit 131 receives the stereo original image from the image receiving unit 110. The feature detection unit 131 detects scene feature information such as image importance, sparse variation, linear component, etc. from the stereo original image. Here, an example of the rare variation image is shown in Fig. FIG. 4A is an example of a left unshielded rare displacement image, and FIG. 4B is an example of a right unshielded rare displacement image. At this time, the detected scene feature is used as a limiting condition when generating the virtual point multi-view image using the mesh warping technique in the image generating unit 135.

분할부(132)는 영상 수신부(110)로부터 스테레오 원본 영상을 전달받는다. 분할부(132)는 스테레오 원본 영상에 대한 영역 분할을 통해 스테레오 원본 영상을 의미 있는 영역들로 분할하여 영역 분할영상을 생성하며, 영역 분할영상의 한 예는 도 5와 같다. 도 5의 (a)는 스테레오 원본 영상이며, 도 5의 (b)는 도 5의 (a)를 의미 있는 영역들로 분할하여 생성한 영역 분할영상이다. 이때, 색상 정보에 기반하여 분할하거나 색상과 깊이 정보에 기반하여 스테레오 원본 영상을 의미 있는 영역으로 분할하여 영역 분할정보를 생성할 수 있다. The division unit 132 receives the stereo original image from the image receiving unit 110. The segmentation unit 132 divides the stereo original image into meaningful regions through region segmentation for the stereo original image to generate a segmented segmented image, and an example of the segmented segmented image is shown in FIG. 5 (a) is a stereo original image, and FIG. 5 (b) is a region divided image generated by dividing FIG. 5 (a) into meaningful regions. At this time, the segmentation information can be generated by dividing the stereo original image into meaningful regions based on the color information or based on the color and depth information.

다시 도 1 및 도 3을 참고하면, 변이 보간부(133)는 가상시점에서의 재구성 영상을 생성하기 위해 영상 수신부(110)로부터 원본 좌영상(200a) 및 원본 우영상(200b)을 전달받으며, 특징 검출부(131)로부터 희소 변이 영상을 전달받는다. 그리고, 변이 보간부(133)는 차폐영역 관리부(120)의 영역 구분부(122)로부터 좌측 영역 구분영상(400a)과 우측 영역 구분영상(400b)을 전달받는다. 변이 보간부(133)는 좌측 영역 구분영상(400a)의 좌측 차폐영역 정보(320a)에 대한 변이 보간을 수행하여 좌측 차폐영역 변이보간 영상을 생성한다. 그리고, 변이 보간부(133)는 우측 영역 구분영상(400b)의 우측 차폐영역 정보(320b)에 대한 변이 보간을 수행하여 우측 차폐영역 변이보간 영상을 생성한다. 이때, 변이 보간부(133)는 주위의 유효 변이를 갖는 화소들을 이용하여 변이 보간을 수행하되, 변이가 작은 배경에 가까운 변이에 가중치를 두어 보간을 수행한다. 변이 보간부(133)는 보간할 화소 선택시 변이 신뢰도가 높은 화소에 높은 가중치를 두어 선택한다. 변이 보간부(133)는 분할부(132)로부터 영역 분할 정보가 전달된 경우, 분할된 영역별로 변이 보간을 수행한다.1 and 3, the transition interpolator 133 receives the original left image 200a and the original right image 200b from the image receiving unit 110 to generate a reconstructed image at a virtual viewpoint, And receives the rare variation image from the feature detection unit 131. The transition interpolation unit 133 receives the left region classification image 400a and the right region classification image 400b from the region classification unit 122 of the shielded region management unit 120. [ The disparity interpolation unit 133 performs disparity interpolation on the left screen area information 320a of the left area classification image 400a to generate a left screen area disparity interpolation image. The transition interpolating unit 133 interpolates the sides of the right screen region information 320b of the right region screen image 400b to generate a right screen region variance interpolated image. At this time, the disparity interpolation unit 133 performs disparity interpolation using pixels having an effective disparity around the disparity, and performs interpolation by weighting a disparity near a disparate background. The transition interpolating unit 133 selects a pixel having a high mutual reliability with a high weight when selecting a pixel to be interpolated. When the area division information is transferred from the partitioning unit 132, the transition interpolating unit 133 performs the displacement interpolation for each divided area.

다시 도 1을 참고하면, 재구성부(134)는 차폐영역 관리부(120)의 영역 구분부(122)로부터 원본 좌영상 및 원본 우영상을 차폐 영역과 비차폐 영역으로 구분하여 생성된 좌측 영역 구분영상 및 우측 영역 구분영상을 전달받는다. 재구성부(134)는 특징 검출부(131)로부터 장면 특징 정보를 전달받는다. 재구성부(134)는 생성될 가상시점 위치에 적합하도록 장면 특징 정보의 희소 변이 정보를 이용하여 좌측 영역 구분영상 및 우측 영역 구분영상의 차폐영역 정보를 재구성하여 좌측 재구성 영상 및 우측 재구성 영상을 생성한다. Referring again to FIG. 1, the reconstruction unit 134 reconstructs the left and right original images generated by dividing the original left and right images into a shielded area and a non-shielded area from the region dividing unit 122 of the shielded area management unit 120, And the right region classification image. The reconstruction unit 134 receives the scene feature information from the feature detection unit 131. The reconstructing unit 134 generates the left reconstructed image and the right reconstructed image by reconstructing the shielded region information of the left region classification image and the right region classification image using the rare variation information of the scene feature information to fit the virtual viewpoint position to be generated .

예를 들어, 도 6에 도시한 바와 같이, 재구성부(134)는 영역 구분부(122)로부터 좌측 영역 구분영상(400a) 및 우측 영역 구분영상(400b)을 전달받는다. 재구성부(134)는 특징 검출부(131)로부터 좌측 희소 변이영상(410a) 및 우측 희소 변이영상(410b)을 전달받는다. 재구성부(134)는 좌측 희소 변이영상(410a)을 토대로 좌측 영역 구분영상(400a)에 생성될 가상시점 위치로 변이 보간된 좌측 차폐영역 정보(320a)를 투영하는 방식으로 재구성(330a)하여 좌측 재구성 영상(500a)을 생성한다. 동일한 방법으로, 재구성부(134) 우측 희소 변이영상(410b)을 토대로 우측 영역 구분영상(400b)에 생성될 가상시점 위치로 변이 보간된 우측 차폐영역 정보(320b)를 투영하는 방식으로 재구성(330b)하여 우측 재구성 영상(500b)을 생성한다.For example, as shown in FIG. 6, the reconstructing unit 134 receives the left region classification image 400a and the right region classification image 400b from the region classification unit 122. FIG. The reconstructing unit 134 receives the left sparse image 410a and the right sparse image 410b from the feature detecting unit 131. The reconstruction unit 134 reconstructs 330a in such a manner that the left shielded region information 320a interpolated at the virtual viewpoint position to be generated in the left region classification image 400a is projected based on the left sparse image 410a, Thereby generating a reconstructed image 500a. The right shield region information 320b is interpolated to the virtual point position to be generated in the right region discrimination image 400b based on the right sparse deviation image 410b of the reconstruction unit 134, ) To generate a right reconstructed image 500b.

보다 구체적으로, 기준시점이 좌측 영역 구분영상(400a)의 시점이고, 차폐영역 정보가 입력될 때 미리 계산된 좌측 차폐영역 정보(320a)의 길이가 'N1'인 경우, 재구성부(134)는 좌측 희소 변이영상(410a)을 토대로 좌측 방향에서 우측 방향으로가는 가상시점 위치(

Figure pat00001
)(0<
Figure pat00002
<1)와 좌측 차폐영역 정보(320a)의 길이(N1)를 곱하여 좌측 차폐영역 정보(320a)의 길이(N1
Figure pat00003
Figure pat00004
)를 재구성한다. 그리고, 재구성부(134)는 변이 보간된 좌측 차폐영역 정보(320a)를 가상시점 위치(
Figure pat00005
)(0<
Figure pat00006
<1)와 곱하여 좌측 차폐영역 정보(320a)의 이동위치를 결정하여 좌측 재구성 차폐정보(330a)를 생성한다. More specifically, when the reference time point is the time point of the left region classification image 400a and the length of the left shielded region information 320a calculated beforehand when the shielded region information is input is 'N1', the reconstruction unit 134 Based on the left sparse mutation image 410a, a virtual viewpoint position from the left direction to the right direction (
Figure pat00001
) (0 <
Figure pat00002
<1) and the length N1 of the left shielded area information 320a to calculate the length N1 of the left shielded area information 320a
Figure pat00003
Figure pat00004
). The reconstructing unit 134 reconstructs the interpolated left shielded area information 320a from the virtual viewpoint position (
Figure pat00005
) (0 <
Figure pat00006
<1) to determine the movement position of the left shielded area information 320a to generate the left reconstructed shielded information 330a.

동일한 방법으로, 기준시점이 우측 영역 구분영상(400b)의 시점이고, 차폐영역 정보가 입력될 때 미리 계산된 우측 차폐영역 정보(320b)의 길이가 'N2'인 경우, 재구성부(134)는 우측 희소 변이영상(410b)을 토대로 우측 방향에서 좌측 방향으로가는 가상시점 위치(1-

Figure pat00007
)(0<
Figure pat00008
<1)와 우측 차폐영역 정보(320b)의 길이(N2)를 곱하여 우측 차폐영역 정보(320b)의 길이(N2
Figure pat00009
(1-
Figure pat00010
))를 재구성한다. 그리고, 재구성부(134)는 변이 보간된 우측 차폐영역 정보(320b)를 가상시점 위치(1-
Figure pat00011
)(0<
Figure pat00012
<1)와 곱하여 우측 차폐영역 정보(320b)의 이동위치를 결정하여 우측 재구성 차폐정보(330b)를 생성한다.In the same way, when the reference time point is the time point of the right region classification image 400b and the length of the previously calculated right shielded region information 320b is 'N2' when the shielded region information is inputted, the reconstruction unit 134 Based on the right sparse mutation image 410b, the virtual viewpoint position (1-
Figure pat00007
) (0 <
Figure pat00008
<1) and the length N2 of the right shielded area information 320b to calculate the length N2 of the right shielded area information 320b
Figure pat00009
(One-
Figure pat00010
)). Then, the reconstructing unit 134 obtains the right-side shielded area information 320b interpolated from the virtual viewpoint position 1-
Figure pat00011
) (0 <
Figure pat00012
<1) to determine the movement position of the right shielded area information 320b to generate the right reconstructed shielded information 330b.

이때, 재구성하는 과정에서 차폐영역에서의 경계 잡음을 제거하기 위해 차폐영역의 경계를 배경이 있는 방향으로 확장시키는 것과 같은 후처리를 수행할 수도 있다.At this time, in order to remove the boundary noise in the shielding region in the process of reconstruction, post-processing such as extending the boundary of the shielding region in the direction of the background may be performed.

전술한 바와 같이 본 발명의 실시예에서는 이처럼 차폐되지 않은 객체가 차폐영역에 비해 변이가 커서 가상시점에서 많이 이동하므로 차폐영역이 새롭게 가려지게 되거나 새롭게 나타나는 영역이 발생하게 된다.As described above, in the embodiment of the present invention, since the unshielded object is shifted from the shielded region by a large amount, the shielded region is blocked or newly appeared.

다시 도 1을 참고하면, 영상 생성부(135)는 변이 보간부(133)로부터 좌측 차폐영역 변이보간 영상 및 우측 차폐영역 변이보간 영상을 전달받는다. 영상 생성부(135)는 특징 검출부(131)로부터 좌측 희소 변이영상 및 우측 희소 변이영상을 전달받는다. 영상 생성부(135)는 좌측 차폐영역 변이보간 영상, 우측 차폐영역 변이보간 영상, 좌측 희소 변이영상 및 우측 희소 변이영상을 토대로 메쉬 워핑에 의해 가상시점 영상을 생성할 때 사용하기 위해 차폐영역과 비차폐영역으로 구분하여 입력 영상별 블랜딩 가중치를 산출한다. 다시 말해, 영상 생성부(135)는 입력되는 영상과 생성될 가상 중간시점 다시점 영상간의 거리에 따라 "0"과 "1"사이의 값으로 블랜딩 가중치를 결정하되, 분할부(132)로부터 전달된 원본 좌영상 및 원본 우영상에 대한 영역 분할정보를 이용할 경우 각 영역별로 블랜딩 가중치를 산출한다. 한편, 영상 생성부(135)는 영역 분할정보를 이용하지 않을 경우 메쉬 그리드 단위로 블랜딩 가중치를 산출하되, 비차폐영역에서만 블랜딩 가중치를 산출하고, 차폐영역에 대해서는 좌우 시점 중 차폐되지 않은 시점 영상만을 이용하도록 블랜딩 가중치를 결정한다. Referring back to FIG. 1, the image generating unit 135 receives the left shielded region shifted interpolation image and the right shielded region shifted interpolated image from the transition interpolation unit 133. The image generating unit 135 receives the left side rare image and the right rare side image from the feature detecting unit 131. The image generating unit 135 generates a virtual viewpoint image by using a mesh warping based on the left shielded region side interpolation image, the right shielded region side-by-side interpolation image, the left rare side image, and the right side rare image, The blending weight for each input image is calculated. In other words, the image generation unit 135 determines a blending weight value between a value of "0" and a value of 1 according to the distance between the input image and the virtual intermediate point multi-view image to be generated, The blending weight is calculated for each region using the segmentation information for the original left image and the original right image. Meanwhile, the image generating unit 135 calculates the blending weight in units of the mesh grid when the region dividing information is not used, calculates the blending weight only in the unshielded region, and calculates the blending weight only for the unshielded view image Determine the blending weight to use.

영상 생성부(135)는 차폐영역과 비차폐영역으로 구분하여 계산된 블랜딩 가중치를 이용하여 원본 좌영상, 원본 우영상, 좌측 차폐영역 변이보간 영상 및 우측 차폐영역 변이보간 영상, 좌측 희소 변이영상 및 우측 희소 변이영상의 메쉬 워핑과 블랜딩을 통해 가상 중간시점 다시점 영상을 생성한다. 이때, 선택적으로 영역분할 정보를 이용가능 할 경우 메쉬 워핑은 분할된 영역 단위로 차폐영역과 비차폐영역으로 구분하여 가상 중간시점 다시점 영상을 생성한다. 또한, 영상 생성부(135)는 차폐영역에 대해서는 선택적으로 메쉬 워핑대신 변이기반 보간을 수행할 수도 있다. 이때, 차폐영역에 대한 경계 후처리는 선택적으로 수행한다.The image generating unit 135 generates the original left image, original right image, left shielded region shifted interpolated image and right shielded region shifted interpolated image, left sparse shifted image, and left shadowed region image using the blending weight calculated by dividing into the shielded region and the non- The virtual intermediate viewpoint multi-view image is generated by mesh warping and blending of the right sparse image. In this case, when the segmentation information is selectively available, the mesh warping is divided into a shielded area and a non-shielded area in units of divided areas to generate a virtual intermediate viewpoint multi-view image. Also, the image generating unit 135 may selectively perform mutation-based interpolation for the shielded area instead of mesh warping. At this time, the boundary post-processing for the shielded area is selectively performed.

예를 들어, 도 7을 참고하면, 영상 생성부(135)는 영상 수신부(110)로부터 원본 좌영상(200a) 및 원본 우영상(200b)을 전달받으며, 특징 검출부(131)로부터 좌측 희소 변이영상(410a) 및 우측 희소 변이영상(410b)을 전달받는다. 영상 생성부(135)는 재구성부(134)로부터 좌측 재구성 영상(500a) 및 우측 재구성 영상(500b)을 전달받으며, 변이 보간부(133)로부터 좌측 차폐영역 변이보간 영상(600a) 및 우측 차폐영역 변이보간 영상(600b)을 전달받는다. 영상 생성부(135)는 차폐영역과 비차폐영역으로 구분하여 계산된 블랜딩 가중치에 따라 원본 좌영상(200a) 및 원본 우영상(200b)의 메쉬 워핑과 블랜딩을 통해 가상 중간시점 다시점 영상(700)을 생성한다. 7, the image generating unit 135 receives the original left image 200a and the original right image 200b from the image receiving unit 110 and receives the left rare image 200b from the feature detecting unit 131. [ (410a) and the right sparse deviation image (410b). The image generating unit 135 receives the left reconstructed image 500a and the right reconstructed image 500b from the reconstructing unit 134 and receives the left side shielded area side-transition image 600a and the right side shielded image 500b from the side- And receives the disparity interpolation image 600b. The image generating unit 135 generates the virtual intermediate viewpoint multi-view image 700 (see FIG. 1) through mesh warping and blending of the original left image 200a and the original right image 200b according to the blending weights calculated by dividing into the shielded area and the non- ).

보다 구체적으로, 영상 생성부(135)는 원본 좌영상(200a)의 블랜딩 가중치가 "0"이고, 원본 우영상(200b)의 블랜딩 가중치가 1"인 경우, 생성될 가상 중간시점 다시점 영상(700)의 가중치는 원본 좌/우영상(200a, 200b)과 가상 중간시점 다시점 영상(700)간의 거리에 따라 "0"과 "1"사이의 값으로 결정한다. 도 7에서는 차폐영역과 비차폐영역으로 구분된 가상 중간시점 다시점 영상(700)을 생성할 때 원본 좌/우영상(200a, 200b)의 가중치가 "0.5"로 결정된 것으로 가정한다. 즉, 영상 생성부(135)는 가상 중간시점 다시점 영상(700)을 생성할 때, 원본 좌영상(200a)의 차폐영역, 즉 좌측 재구성 차폐정보(330a)는 우측 차폐영역 변이보간 영상(600b)을 기반으로 원본 우영상(200b)의 차폐영역에 해당하는 영역의 메쉬 워핑을 이용하여 결정하며, 그 외 나머지 영역인 비차폐 영역은 원본 좌영상(200a)의 영역별 메쉬 워핑을 이용하여 결정한다. 그리고, 영상 생성부(135)는 가상 중간시점 다시점 영상(700)을 생성할 때, 원본 우영상(200b)의 차폐영역, 즉 우측 재구성 차폐정보(330b)는 좌측 차폐영역 변이보간 영상(600a)을 기반으로 원본 좌영상(200a)의 차폐영역에 해당하는 영역의 메쉬 워핑을 이용하여 결정하며, 그 외 나머지 영역인 비차폐 영역은 원본 우영상(200b)의 영역별 메쉬 워핑을 이용하여 결정한다.
More specifically, when the blending weight of the original left image 200a is "0" and the blending weight of the original right image 200b is 1 ", the image generating unit 135 generates a virtual intermediate point multi- 700 is determined to be a value between "0" and "1" according to the distance between the original left / right images 200a and 200b and the virtual intermediate viewpoint multi view image 700. In FIG. 7, It is assumed that the weight of the original left / right images 200a and 200b is determined to be "0.5 " when generating the virtual intermediate viewpoint multi-view image 700 divided into the shielded regions. The shielded area of the original left image 200a, that is, the left reconstruction shielding information 330a, is generated from the original right image 200b based on the right shielded area variation interpolated image 600b, Is determined by using the mesh warping of the area corresponding to the shielding area of the original, and the non- When generating the virtual intermediate viewpoint multi-view image 700, the image generation unit 135 determines the shadowed area of the original right image 200b using the mesh warping for each region of the image 200a, The reconstruction blocking information 330b is determined using the mesh warping of the area corresponding to the shielded area of the original left image 200a based on the left shielded area variation interpolated image 600a, Using the mesh warping for each region of the original right image 200b.

도 8은 본 발명의 실시예에 따른 차폐영역 정보를 고려하여 영상 워핑을 수행하는 방법을 나타내는 흐름도이다. 8 is a flowchart illustrating a method of performing image warping in consideration of shielded area information according to an embodiment of the present invention.

도 8에 도시한 바와 같이, 본 발명의 실시예에 따른 영상 워핑 장치(100)의 영상 수신부(110)는 스테레오 원본 영상을 전달받는다(S100). 스테레오 원본 영상은 원본 좌영상 및 원본 우영상을 포함한다. 영상 수신부(110)는 입력된 스테레오 원본 영상을 차폐영역 관리부(120) 및 영상 처리부(130)로 전달한다.As shown in FIG. 8, the image receiving unit 110 of the image warping apparatus 100 according to the embodiment of the present invention receives the stereo original image (S100). Stereo source video includes source left video and source right video. The image receiving unit 110 transmits the inputted stereo original image to the shielded area management unit 120 and the image processing unit 130.

차폐영역 관리부(120)의 차폐영역 정보 생성부(121)는 스테레오 원본 영상을 이용하여 좌측 차폐영역 정보 및 우측 차폐영역 정보를 생성한다(S110). 차폐영역 정보 생성부(121)는 좌측 차폐영역 정보 및 우측 차폐영역 정보를 영역 구분부(122)로 전달한다. 영역 구분부(122)는 좌측 차폐영역 정보와 우측 차폐영역 정보를 이용하여 원본 좌영상 및 원본 우영상 각각을 차폐영역과 비차폐영역으로 구분한다(S120). 즉, 영역 구분부(122)는 좌측 차폐영역 정보를 토대로 원본 좌영상을 차폐영역과 비차폐영역으로 구분하여 좌측 영역 구분영상(400a)을 생성한다. 영역 구분부(122)는 우측 차폐영역 정보를 토대로 원본 우영상을 차폐영역과 비차폐영역으로 구분하여 우측 영역 구분영상(400b)을 생성한다[도 3 참고]. The shielded area information generation unit 121 of the shielded area management unit 120 generates the left shielded area information and the right shielded area information using the stereo original image (S110). The shielded area information generation unit 121 delivers the left shielded area information and the right shielded area information to the area classification unit 122. The region dividing unit 122 divides the original left image and the original right image into a shielded area and a non-shielded area using the left shielded area information and the right shielded area information (S120). That is, the region dividing unit 122 divides the original left image into the shielded region and the non-shielded region based on the left shielded region information to generate the left region divided image 400a. The region dividing unit 122 divides the original right image into a shielded region and a non-shielded region based on right shielded region information to generate a right regionized image 400b (see FIG. 3).

한편, 영상 처리부(130)의 변이 보간부(133)는 영역 구분부(122)로부터 좌측 영역 구분영상(400a)과 우측 영역 구분영상(400b)을 전달받는다. 변이 보간부(133)는 좌측 영역 구분영상(400a)의 좌측 차폐영역 정보(320a)에 대한 변이 보간을 수행하여 좌측 차폐영역 변이보간 영상을 생성한다. 그리고, 변이 보간부(133)는 우측 영역 구분영상(400b)의 우측 차폐영역 정보(320b)에 대한 변이 보간을 수행하여 우측 차폐영역 변이보간 영상을 생성한다(S130). The side interpolation unit 133 of the image processing unit 130 receives the left side region classification image 400a and the right side region classification image 400b from the region division unit 122. [ The disparity interpolation unit 133 performs disparity interpolation on the left screen area information 320a of the left area classification image 400a to generate a left screen area disparity interpolation image. The transition interpolating unit 133 interpolates the sides of the right-side shielded region information 320b of the right-side region-separated image 400b to generate a right-side shielded-region interpolated image (S130).

재구성부(134)는 영역 구분부(122)로부터 좌측 영역 구분영상(400a)과 우측 영역 구분영상(400b)을 전달받는다. 특징 검출부(131)로부터 특징 검출부(131)로부터 좌측 희소 변이영상(410a) 및 우측 희소 변이영상(410b)를 전달받는다. 재구성부(134)는 좌측 희소 변이영상(410a)을 토대로 좌측 영역 구분영상(400a)에 생성될 가상시점 위치로 변이 보간된 좌측 차폐영역 정보(320a)를 투영하는 방식으로 재구성(330a)하여 좌측 재구성 영상(500a)을 생성하며, 우측 희소 변이영상(410b)을 토대로 우측 영역 구분영상(400b)에 생성될 가상시점 위치로 변이 보간된 우측 차폐영역 정보(320b)를 투영하는 방식으로 재구성(330b)하여 우측 재구성 영상(500b)을 생성한다(S140)[도 6 참고]. The reconstruction unit 134 receives the left region classification image 400a and the right region classification image 400b from the region classification unit 122. [ The feature detection unit 131 receives the left sparse mutation image 410a and the right sparse mutation image 410b from the feature detection unit 131. [ The reconstruction unit 134 reconstructs 330a in such a manner that the left shielded region information 320a interpolated at the virtual viewpoint position to be generated in the left region classification image 400a is projected based on the left sparse image 410a, The reconstructed image 330a is generated in such a manner that the reconstructed image 500a is generated and the right shielded region information 320b is interpolated and interpolated to the virtual viewpoint position to be generated in the right region divided image 400b based on the right sparsely located image 410b. To generate a right reconstructed image 500b (S140) (see FIG. 6).

영상 생성부(135)는 차폐영역과 비차폐영역으로 구분하여 입력 영상별 블랜딩 가중치를 산출한다(S150). 그리고, 영상 생성부(135)는 차폐영역과 비차폐영역으로 구분하여 계산된 블랜딩 가중치에 따라 원본 좌영상(200a) 및 원본 우영상(200b)의 메쉬 워핑과 블랜딩을 통해 가상 중간시점 다시점 영상(700)을 생성한다(S160)[도 7 참고].
The image generation unit 135 divides the image into a shielded area and a non-shielded area, and calculates a blending weight for each input image (S150). The image generating unit 135 generates a virtual intermediate viewpoint multi-view image by mesh warping and blending of the original left image 200a and the original right image 200b according to the blending weight calculated by dividing into the shielded area and the non- (S160) (refer to FIG. 7).

이상, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명하였으나 이는 본 발명의 권리 범위를 한정하는 것으로 해석될 수 없으며, 이하에서 기술되는 특허 청구 범위에 의해 판단되는 본 발명의 사상 및 범위를 벗어나지 않는 한도 내에서 해당 기술 분야에서 통상의 지식을 가진 자에 의해 다양하게 변형되어 실시될 수 있을 것이다. While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, And various modifications may be made by those skilled in the art without departing from the scope of the present invention.

100 : 영상 워핑 장치 110 : 영상 수신부
120 : 차폐영역 관리부 121 : 차폐영역 정보 생성부
122 : 영역 구분부 130 : 영상 처리부
131 : 특징 검출부 132 : 분할부
133 : 변이 보간부 134 : 재구성
135 : 영상 생성부
100: image warping device 110: image receiving unit
120: shielded area management unit 121: shielded area information generation unit
122: area division unit 130: image processing unit
131: feature detecting unit 132:
133: Transition interpolation section 134: Reconstruction
135:

Claims (1)

스테레오 원본 영상에 기초하여 차폐영역 정보를 생성하는 차폐영역 관리부; 및
상기 스테레오 원본 영상의 희소 변이 정보를 토대로 상기 차폐영역 정보의 변이를 보간하고, 상기 변이 보간된 차폐영역 정보에 따라 상기 차폐영역 정보를 재구성한 결과를 이용하여 상기 스테레오 원본 영상의 메쉬 워핑 시 차폐영역과 비차폐영역을 구분하여 가상 중간시점 영상을 생성하는 영상 처리부
를 포함하는 것을 특징으로 하는 영상 워핑 장치.
A shielded area management unit for generating shielded area information based on a stereo original image; And
The method of claim 1, further comprising: interpolating the variation of the shielded area information based on the sparse disparity information of the stereo original image, and reconstructing the shielded area information according to the interpolated shielded area information, And a non-shielded area to generate a virtual intermediate view image
Wherein the image warping device comprises:
KR1020130016614A 2013-02-15 2013-02-15 Method and apparatus for image warping KR102039741B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130016614A KR102039741B1 (en) 2013-02-15 2013-02-15 Method and apparatus for image warping

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130016614A KR102039741B1 (en) 2013-02-15 2013-02-15 Method and apparatus for image warping

Publications (2)

Publication Number Publication Date
KR20140102999A true KR20140102999A (en) 2014-08-25
KR102039741B1 KR102039741B1 (en) 2019-11-01

Family

ID=51747547

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130016614A KR102039741B1 (en) 2013-02-15 2013-02-15 Method and apparatus for image warping

Country Status (1)

Country Link
KR (1) KR102039741B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170109465A (en) * 2016-03-21 2017-09-29 한국전자통신연구원 Apparatus for reconstructing image and method using the same
KR20200057612A (en) * 2018-11-16 2020-05-26 한국전자통신연구원 Method and apparatus for generating virtual viewpoint image
CN112507051A (en) * 2020-12-03 2021-03-16 北京梧桐车联科技有限责任公司 Administrative division identification method, device, equipment and computer readable storage medium
US11528461B2 (en) 2018-11-16 2022-12-13 Electronics And Telecommunications Research Institute Method and apparatus for generating virtual viewpoint image

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102173419B1 (en) 2020-07-14 2020-11-03 주식회사 아프로시스템즈 Adaptive object detection system using detection area extension method of interest

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090068980A (en) * 2007-12-24 2009-06-29 연세대학교 산학협력단 Method for rendering virtual view for 2d/3d free view video generation
KR20110063778A (en) * 2008-08-29 2011-06-14 톰슨 라이센싱 View synthesis with heuristic view blending
KR20120016439A (en) 2010-08-16 2012-02-24 삼성전자주식회사 Image processing apparatus and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090068980A (en) * 2007-12-24 2009-06-29 연세대학교 산학협력단 Method for rendering virtual view for 2d/3d free view video generation
KR20110063778A (en) * 2008-08-29 2011-06-14 톰슨 라이센싱 View synthesis with heuristic view blending
KR20120016439A (en) 2010-08-16 2012-02-24 삼성전자주식회사 Image processing apparatus and method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170109465A (en) * 2016-03-21 2017-09-29 한국전자통신연구원 Apparatus for reconstructing image and method using the same
KR20200057612A (en) * 2018-11-16 2020-05-26 한국전자통신연구원 Method and apparatus for generating virtual viewpoint image
US11528461B2 (en) 2018-11-16 2022-12-13 Electronics And Telecommunications Research Institute Method and apparatus for generating virtual viewpoint image
CN112507051A (en) * 2020-12-03 2021-03-16 北京梧桐车联科技有限责任公司 Administrative division identification method, device, equipment and computer readable storage medium

Also Published As

Publication number Publication date
KR102039741B1 (en) 2019-11-01

Similar Documents

Publication Publication Date Title
US9111389B2 (en) Image generation apparatus and image generation method
US10728513B2 (en) Image processing apparatus, image processing method, and storage medium
KR101798408B1 (en) Method and apparatus for rendering high quality multi-view images for 3d display
US20150302592A1 (en) Generation of a depth map for an image
US9171373B2 (en) System of image stereo matching
KR20140102999A (en) Method and apparatus for image warping
US9058682B2 (en) Apparatus and method for virtual view generation on multi-view image reconstruction system by virtual emission of X-rays
JP2014150521A (en) Method and system for increasing resolution of depth image
JP2013172190A (en) Image processing device and image processing method and program
KR101855980B1 (en) Hole filling method and apparatus
Ham et al. Probability-based rendering for view synthesis
JPWO2009051065A1 (en) Image generating method, apparatus, program thereof, and recording medium recording program
US20120113093A1 (en) Modification of perceived depth by stereo image synthesis
KR20120137205A (en) Method and apparatus for image processing
Kodera et al. Filter based alpha matting for depth image based rendering
Sjöström et al. Improved depth-image-based rendering algorithm
Leung et al. Fast stereo matching by iterated dynamic programming and quadtree subregioning
KR20100087963A (en) Method for generating interframe using optical flow algorithm
Islam et al. Warping-based stereoscopic 3d video retargeting with depth remapping
JP2007052644A (en) Free viewpoint video generation system
KR101760463B1 (en) Method and Apparatus for correcting a depth map
Leung et al. Iterated dynamic programming and quadtree subregioning for fast stereo matching
KR20130068520A (en) Method and apparatus for warping image
JP5840114B2 (en) How to generate a virtual image
Muddala et al. Edge-preserving depth-image-based rendering method

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant