KR102455843B1 - Apparatus for reconstructing image and method using the same - Google Patents

Apparatus for reconstructing image and method using the same Download PDF

Info

Publication number
KR102455843B1
KR102455843B1 KR1020160033664A KR20160033664A KR102455843B1 KR 102455843 B1 KR102455843 B1 KR 102455843B1 KR 1020160033664 A KR1020160033664 A KR 1020160033664A KR 20160033664 A KR20160033664 A KR 20160033664A KR 102455843 B1 KR102455843 B1 KR 102455843B1
Authority
KR
South Korea
Prior art keywords
mesh
image
vertices
target image
warping
Prior art date
Application number
KR1020160033664A
Other languages
Korean (ko)
Other versions
KR20170109465A (en
Inventor
신홍창
박영수
이진환
이광순
허남호
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020160033664A priority Critical patent/KR102455843B1/en
Publication of KR20170109465A publication Critical patent/KR20170109465A/en
Application granted granted Critical
Publication of KR102455843B1 publication Critical patent/KR102455843B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • G06T3/0006
    • G06T3/0012
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

영상 재구성 장치 및 방법이 개시된다. 본 발명의 일실시예에 따른 영상 재구성 장치는 입력 영상들을 영상 분할(IMAGE SEGMENTATION) 기법을 이용하여 세그먼트단위로 분할하는 영상 분할부; 상기 세그먼트의 크기에 상응하는 메시를 구성하는 메시 구성부; 상기 메시의 특징점을 추출하여 상기 입력 영상들 간의 특징점들을 대응시키는 특징점 정합부; 대응된 특징점들에 기반하여 목표 영상의 특징점의 위치를 산출하고, 산출된 위치에 상기 메시를 워핑하는 메시 워핑부; 상기 입력 영상의 픽셀을 상기 목표 영상에 텍스처 매핑(TEXTURE MAPPING)하는 텍스처 매핑부 및 상기 목표 영상의 빈 영역을 주변 픽셀을 참조하여 보간 하는 것으로 최종 영상을 생성하는 영상 생성부를 포함한다. An image reconstruction apparatus and method are disclosed. An image reconstruction apparatus according to an embodiment of the present invention includes: an image segmentation unit for segmenting input images into segments using an image segmentation (IMAGE SEGMENTATION) technique; a mesh component that configures a mesh corresponding to the size of the segment; a feature point matching unit for extracting feature points of the mesh and matching the feature points between the input images; a mesh warping unit calculating a position of a feature point of a target image based on the corresponding feature points, and warping the mesh at the calculated position; and a texture mapping unit for texture mapping the pixels of the input image to the target image, and an image generating unit for generating a final image by interpolating an empty area of the target image with reference to neighboring pixels.

Description

영상 재구성 장치 및 방법 {APPARATUS FOR RECONSTRUCTING IMAGE AND METHOD USING THE SAME}Image reconstruction apparatus and method {APPARATUS FOR RECONSTRUCTING IMAGE AND METHOD USING THE SAME}

본 발명은 영상의 왜곡을 최소화하면서, 영상을 재구성하는 기술에 관한 것이다.The present invention relates to a technique for reconstructing an image while minimizing image distortion.

영상 워핑(IMAGE WARPING)은 영상에서 원래 영상의 화소의 위치를 바꾸어 영상의 형태를 변형시키는 것이다. 영상 워핑은 특정한 규칙에 따라 입력 영상의 크기, 길이, 두께 등 영상의 형태를 변형시킬 수 있다. 이러한 영상 워핑은 초기에는 인공위성과 우주선으로부터 수신된 영상들의 왜곡(DISTORTION)을 복원하는데 사용되었으나, 현재는 카메라로부터 촬영된 영상의 변형 및 복원 또는 영화의 특수효과에 많이 사용되고 있다. 이러한 영상 워핑 기술에는 메시 영상 워핑이 있다. 메시 영상 워핑은 영상의 특징점을 기준으로 워핑하는데 유용하게 사용되며, 입력 영상의 특정 부위에 삼각형 또는 사각형 모양으로 메시 그룹을 형성하여 그룹 단위로 영상 워핑을 수행하는 방법이다.IMAGE WARPING is to change the shape of an image by changing the positions of pixels of the original image in the image. Image warping may change the shape of the image, such as the size, length, and thickness of the input image, according to a specific rule. Such image warping was initially used to restore distortion of images received from satellites and spacecraft, but is now widely used for transformation and restoration of images captured by cameras or special effects of movies. This image warping technique includes mesh image warping. Mesh image warping is useful for warping based on feature points of an image, and is a method of performing image warping in groups by forming a mesh group in a triangular or square shape in a specific part of an input image.

그러나, 이러한 메시 영상 워핑은 메시 그룹의 면적이 너무 작게 세분화 된 경우, 영상 워핑의 처리 속도가 감소하고, 영상에 왜곡이 발생하며 객체의 엣지에 노이즈가 발생하는 문제점이 존재한다.However, such mesh image warping has problems in that, when the area of the mesh group is subdivided too small, the image warping processing speed decreases, distortion occurs in the image, and noise occurs at the edge of the object.

한편, 한국공개특허 제 2014-0102999 호 "영상 워핑을 위한 장치 및 방법" 는 스테레오 원본 영상의 희소 변이 정보를 기반으로 차폐영역 정보의 변이를 보간하고, 변이 보간된 차폐영역 정보에 따라 스테레오 원본 영상의 메시 워핑 시 차폐영역과 비차폐 영역을 구분하여 가상 중간시점 영상을 생성하는 기술에 관하여 개시하고 있다.On the other hand, Korean Patent Application Laid-Open No. 2014-0102999 "Apparatus and method for image warping" interpolates the disparity of the shielding area information based on the sparse disparity information of the stereo original image, and the stereo original image according to the disparity interpolated shielding area information. Disclosed is a technology for generating a virtual mid-view image by dividing a shielded area and a non-occluded area during mesh warping.

그러나, 한국공개특허 제 2014-0102999 호는 메시 영상 워핑시 발생하는 영상 왜곡에 대하여 메시를 변형하고, 최적화하는 과정에 대해서는 침묵하고 있다.However, Korean Patent Application Laid-Open No. 2014-0102999 is silent on the process of transforming and optimizing a mesh with respect to image distortion that occurs during mesh image warping.

본 발명은 영상을 재구성하기 위하여 영상 워핑을 이용할 때, 발생하는 영상 왜곡을 최소화하는 것을 목적으로 한다.An object of the present invention is to minimize image distortion that occurs when image warping is used to reconstruct an image.

또한, 본 발명은 영상의 왜곡을 최소화하기 위하여, 목표 영상에 워핑된 메시를 최적화하는 것을 목적으로 한다.Another object of the present invention is to optimize a warped mesh on a target image in order to minimize image distortion.

상기한 목적을 달성하기 위한 본 발명의 일실시예에 따른 영상 재구성 장치는 입력 영상들을 영상 분할(IMAGE SEGMENTATION) 기법을 이용하여 세그먼트 단위로 분할하는 영상 분할부; 상기 세그먼트의 크기에 상응하는 메시를 구성하는 메시 구성부; 상기 메시의 특징점을 추출하여 제1 입력 영상의 특징점들과 제2 입력 영상의 특징점들을 대응시키는 특징점 정합부; 대응된 특징점들에 기반하여 목표 영상의 특징점의 위치를 산출하고, 산출된 위치에 상기 제1 입력 영상의 메시를 워핑하는 메시 워핑부; 상기 제1 입력 영상의 픽셀들을 상기 목표 영상에 텍스처 매핑(TEXTURE MAPPING)하는 텍스처 매핑부 및 상기 목표 영상의 빈 영역에 주변 픽셀을 참조하여 보간 하는 것으로 최종 영상을 생성하는 영상 생성부를 포함한다.An image reconstruction apparatus according to an embodiment of the present invention for achieving the above object includes: an image segmentation unit for segmenting input images into segments using an image segmentation (IMAGE SEGMENTATION) technique; a mesh component that configures a mesh corresponding to the size of the segment; a feature point matching unit for extracting feature points of the mesh and matching feature points of a first input image with feature points of a second input image; a mesh warping unit calculating a position of a feature point of a target image based on the corresponding feature points, and warping the mesh of the first input image to the calculated position; and a texture mapping unit for texture mapping the pixels of the first input image to the target image, and an image generating unit for generating a final image by interpolating the pixels in the blank area of the target image with reference to neighboring pixels.

이 때, 상기 영상 분할부는 상기 입력 영상들의 픽셀과 유사도가 높은 주변 픽셀들을 그룹화할 수 있다.In this case, the image divider may group neighboring pixels having a high similarity to the pixels of the input images.

이 때, 상기 메시 워핑부는 상기 대응된 특징점들과, 상기 입력 영상들 사이에 위치된 상기 목표 영상의 위치에 기반하여 상기 목표 영상의 제1 특징점을 산출할 수 있다.In this case, the mesh warping unit may calculate the first feature point of the target image based on the corresponding feature points and the position of the target image located between the input images.

이 때, 상기 메시 워핑부는 상기 제1 특징점의 메시의 꼭지점들에 상응하는 상기 메시의 정점들의 중심 좌표(barycentric coordinates)로부터 관계 계수들을 산출할 수 있다.In this case, the mesh warping unit may calculate relation coefficients from barycentric coordinates of the vertices of the mesh corresponding to the vertices of the mesh of the first feature point.

이 때, 상기 메시 워핑부는 상기 목표 영상의 제1 특징점과 상기 관계 계수들을 이용하여 상기 목표 영상의 정점들을 산출할 수 있다.In this case, the mesh warping unit may calculate vertices of the target image by using the first feature point of the target image and the relation coefficients.

이 때, 상기 메시 워핑부는 상기 목표 영상의 정점들 및 상기 관계 계수들를 이용하여 상기 목표 영상의 제2 특징점을 산출할 수 있다.In this case, the mesh warping unit may calculate the second feature point of the target image by using the vertices of the target image and the relation coefficients.

이 때, 상기 메시 워핑부는 상기 목표 영상의 제1 특징점과 제2 특징점 간의 오차가 최소가 되는 메시의 정점들을 산출하고, 상기 제1 입력 영상의 메시를 상기 오차가 최소가 되는 메시의 정점들에 워핑할 수 있다.In this case, the mesh warping unit calculates vertices of the mesh having the minimum error between the first feature point and the second feature point of the target image, and applies the mesh of the first input image to the vertices of the mesh having the minimum error. can warp

이 때, 상기 메시 워핑부는 상기 목표 영상에 워핑된 메시의 정점들을 이용하여 산출된 하나의 최적 정점과, 상기 산출된 하나의 최적 정점에 상응하는 상기 워핑된 메시의 정점 간의 오차값이 최소화되도록 나머지 최적 정점들을 산출하고, 산출된 모든 최적 정점들에 기반하여 상기 워핑된 메시를 변형시킬 수 있다.At this time, the mesh warping unit is used to minimize the error value between one optimal vertex calculated using the vertices of the mesh warped in the target image and the vertex of the warped mesh corresponding to the calculated one optimal vertex. Optimal vertices may be calculated, and the warped mesh may be deformed based on all the calculated optimal vertices.

이 때, 상기 텍스처 매핑부는 상기 메시의 정점들의 개수에 기반한 변환 기법을 이용하여 워핑 전후 정점들의 변화를 반영하는 변환 행렬을 산출할 수 있다.In this case, the texture mapping unit may calculate a transformation matrix that reflects changes in vertices before and after warping by using a transformation technique based on the number of vertices of the mesh.

이 때, 상기 텍스처 매핑부는 상가 변환 행렬을 이용하여 상기 제1 입력 영상의 픽셀들을 상기 목표 영상으로 상기 텍스처 매핑을 수행할 수 있다.In this case, the texture mapping unit may perform the texture mapping of the pixels of the first input image to the target image using an additive transformation matrix.

또한, 상기한 목적을 달성하기 위한 본 발명의 일실시예에 따른 영상 재구성 방법은 영상 재구성 장치를 이용하는 방법에 있어서, 입력 영상들을 영상 분할(IMAGE SEGMENTATION) 기법을 이용하여 세그먼트 단위로 분할하는 단계; 상기 세그먼트의 크기에 상응하는 메시를 구성하는 단계; 상기 메시의 특징점을 추출하여 제1 입력 영상의 특징점들과 제2 입력 영상의 특징점들을 대응시키는 단계; 대응된 특징점들에 기반하여 목표 영상의 특징점의 위치를 산출하고, 산출된 위치에 상기 제1 입력 영상의 메시를 워핑하는 단계; 상기 제1 입력 영상의 픽셀들을 상기 목표 영상에 텍스처 매핑(TEXTURE MAPPING)하는 단계 및 상기 목표 영상의 빈 영역에 주변 픽셀을 참조하여 보간 하는 것으로 최종 영상을 생성하는 단계를 포함한다.In addition, an image reconstruction method according to an embodiment of the present invention for achieving the above object is a method using an image reconstruction apparatus, comprising: segmenting input images into segments using an image segmentation (IMAGE SEGMENTATION) technique; constructing a mesh corresponding to the size of the segment; extracting the feature points of the mesh and matching the feature points of the first input image with the feature points of the second input image; calculating a location of a feature point of a target image based on the corresponding feature points, and warping the mesh of the first input image at the calculated location; and texture mapping the pixels of the first input image to the target image, and generating a final image by interpolating pixels in the blank area of the target image with reference to neighboring pixels.

이 때, 상기 분할하는 단계는 상기 입력 영상의 픽셀과 유사도가 높은 주변 픽셀들을 그룹화할 수 있다.In this case, the dividing may include grouping neighboring pixels having a high similarity to the pixels of the input image.

이 때, 상기 워핑하는 단계는 상기 대응된 특징점들과, 상기 입력 영상들 사이에 위치된 상기 목표 영상의 위치에 기반하여 상기 목표 영상의 제1 특징점을 산출할 수 있다.In this case, the warping may include calculating a first feature point of the target image based on the corresponding feature points and a position of the target image located between the input images.

이 때, 상기 워핑하는 단계는 상기 제1 특징점의 메시의 꼭지점들에 상응하는 상기 메시의 정점들의 중심 좌표(barycentric coordinates)로부터 관계 계수들을 산출할 수 있다.In this case, the warping may include calculating relation coefficients from barycentric coordinates of the vertices of the mesh corresponding to the vertices of the mesh of the first feature point.

이 때, 상기 워핑하는 단계는 상기 목표 영상의 제1 특징점과 상기 관계 계수들을 이용하여 상기 목표 영상의 정점들을 산출할 수 있다.In this case, the warping may include calculating vertices of the target image by using the first feature point of the target image and the relation coefficients.

이 때, 상기 워핑하는 단계는 상기 목표 영상의 정점들 및 상기 관계 계수들를 이용하여 상기 목표 영상의 제2 특징점을 산출할 수 있다.In this case, the warping may include calculating the second feature point of the target image by using the vertices of the target image and the relation coefficients.

이 때, 상기 워핑하는 단계는 상기 목표 영상의 제1 특징점과 제2 특징점 간의 오차가 최소가 되는 메시의 정점들을 산출하고, 상기 제1 입력 영상의 메시를 상기 오차가 최소가 되는 메시의 정점들에 워핑할 수 있다.In this case, the warping includes calculating vertices of the mesh having the minimum error between the first feature point and the second feature point of the target image, and changing the mesh of the first input image to the vertices of the mesh having the minimum error. can warp on

이 때, 상기 워핑하는 단계는 상기 목표 영상에 워핑된 메시의 정점들을 이용하여 산출된 하나의 최적 정점과, 상기 산출된 하나의 최적 정점에 상응하는 상기 워핑된 메시의 정점 간의 오차값이 최소화되도록 나머지 최적 정점들을 산출하고, 산출된 모든 최적 정점들에 기반하여 상기 워핑된 메시를 변형시킬 수 있다.In this case, the warping may include minimizing an error value between one optimal vertex calculated using the vertices of the mesh warped on the target image and the vertex of the warped mesh corresponding to the calculated one optimal vertex. The remaining optimal vertices may be calculated, and the warped mesh may be deformed based on all the calculated optimal vertices.

이 때, 상기 텍스처 매핑하는 단계는 상기 메시의 정점들의 개수에 기반한 변환 기법을 이용하여 워핑 전후 정점들의 변화를 반영하는 변환 행렬을 산출할 수 있다.In this case, the texture mapping may use a transformation technique based on the number of vertices of the mesh to calculate a transformation matrix reflecting changes in vertices before and after warping.

이 때, 상기 텍스처 매핑하는 단계는 상가 변환 행렬을 이용하여 상기 제1 입력 영상의 픽셀들을 상기 목표 영상으로 상기 텍스처 매핑을 수행할 수 있다.In this case, the texture mapping may include performing the texture mapping of the pixels of the first input image to the target image using an additive transformation matrix.

본 발명은 영상을 재구성하기 위하여 영상 워핑을 이용할 때, 발생하는 영상 왜곡을 최소화할 수 있다.The present invention can minimize image distortion that occurs when image warping is used to reconstruct an image.

또한, 본 발명은 영상의 왜곡을 최소화하기 위하여, 목표 영상에 워핑된 메시를 최적화할 수 있다.In addition, the present invention may optimize a warped mesh on a target image in order to minimize image distortion.

도 1은 본 발명의 일실시예에 따른 영상 재구성 장치를 나타낸 블록도이다.
도 2는 본 발명의 일실시예에 따른 영상 재구성 방법을 나타낸 동작 흐름도이다.
도 3은 본 발명의 일실시예에 따른 블록단위로 분할된 영상을 나타낸 도면이다.
도 4는 본 발명의 일실시예에 따른 분할된 세그먼트에 생성된 메시를 나타낸 도면이다.
도 5는 본 발명의 일실시예에 따른 메시 내부에 특징점을 나타낸 도면이다.
도 6은 도 5에 도시된 특징점을 산출하기 위한 삼각형의 중심 좌표계를 나타낸 도면이다.
도 7은 본 발명의 일실시예에 따른 메시가 워핑되어 형태가 최적화되는 과정을 나타낸 도면이다.
도 8은 본 발명의 일실시예에 따른 메시가 워핑되어 메시의 형태가 변형된 것을 나타낸 도면이다.
도 9는 본 발명의 일실시예에 따른 메시가 변환 행렬을 이용하여 워핑되는 것을 나타낸 도면이다.
도 10은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 블록도이다.
1 is a block diagram illustrating an image reconstruction apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating an image reconstruction method according to an embodiment of the present invention.
3 is a diagram illustrating an image divided into blocks according to an embodiment of the present invention.
4 is a diagram illustrating a mesh generated in a segmented segment according to an embodiment of the present invention.
5 is a view showing a feature point inside a mesh according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating a central coordinate system of a triangle for calculating the feature point shown in FIG. 5 .
7 is a diagram illustrating a process of optimizing a shape by warping a mesh according to an embodiment of the present invention.
8 is a view showing that the mesh is warped and the shape of the mesh is deformed according to an embodiment of the present invention.
9 is a diagram illustrating warping of a mesh using a transformation matrix according to an embodiment of the present invention.
10 is a block diagram illustrating a computer system according to an embodiment of the present invention.

본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.The present invention will be described in detail with reference to the accompanying drawings as follows. Here, repeated descriptions, well-known functions that may unnecessarily obscure the gist of the present invention, and detailed descriptions of configurations will be omitted. The embodiments of the present invention are provided in order to more completely explain the present invention to those of ordinary skill in the art. Accordingly, the shapes and sizes of elements in the drawings may be exaggerated for clearer description.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 영상 재구성 장치를 나타낸 블록도이다.1 is a block diagram illustrating an image reconstruction apparatus according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시예에 따른 영상 재구성 장치는 영상 분할부(110), 메시 구성부(120), 특징점 정합부(130), 메시 워핑부(140), 텍스처 매핑부(150) 및 영상 생성부(160)을 포함한다.Referring to FIG. 1 , an image reconstruction apparatus according to an embodiment of the present invention includes an image segmentation unit 110 , a mesh construction unit 120 , a feature point matching unit 130 , a mesh warping unit 140 , and a texture mapping unit ( 150 ) and an image generator 160 .

영상 분할부(110)는 영상들을 입력 받아 영상 분할(IMAGE SEMEENTATION) 기법을 이용하여 세그먼트 단위로 분할할 수 있다. 이 때, 영상들은 시점이 다른 2개의 제1 입력 영상과 제2 입력 영상에 상응할 수 있다. 이 때, 영상 분할 기법은 입력 영상들의 픽셀과 유사도가 높은 주변 픽셀들을 그룹화하여 세그먼트 단위로 분할할 수 있다. 도 3을 참조하면, 입력 영상(301)은 세그먼트 단위로 분할된 것을 알 수 있다.The image segmentation unit 110 may receive images and divide the images into segments by using an image segmentation (IMAGE SEMEENTATION) technique. In this case, the images may correspond to the two first input images and the second input images having different viewpoints. In this case, the image segmentation technique may group neighboring pixels having a high similarity to the pixels of the input images to segment the image segments. Referring to FIG. 3 , it can be seen that the input image 301 is divided into segments.

메시 구성부(120)는 세그먼트의 크기에 상응하는 메시를 구성할 수 있다. 이 때, 메시 구성부(120)는 영상을 분할한 세그먼트들의 크기를 고려하여, 영상을 구성하는 세그먼트 각각에 대하여 메시를 구성할 수 있다. 메시는 세그먼트 하나당 구성될 수 있고, 다른 세그먼트에 구성된 메시와 독립되어 구성될 수 있다. 도 4 를 참조하면, 메시(302)는 하나의 세그먼트 크기에 상응하여 구성된 것을 알 수 있다.The mesh configuration unit 120 may configure a mesh corresponding to the size of the segment. In this case, the mesh composing unit 120 may configure a mesh for each segment constituting the image in consideration of the sizes of segments into which the image is divided. A mesh may be configured per segment, or may be configured independently of meshes configured in other segments. Referring to FIG. 4 , it can be seen that the mesh 302 is configured to correspond to one segment size.

특징점 정합부(130)는 특징점을 추출하여 입력 영상들 간의 특징점들을 대응시킬 수 있다.The keypoint matching unit 130 may extract the keypoint and match the keypoints between the input images.

먼저, 특징점 정합부(130)는 입력 영상의 특징점을 추출할 수 있다. 특징점 추출은 사용자 입력을 통해 입력될 수 있고, 자동 추출 기법이 이용될 수 있다. 자동 추출 기법은 일반적으로 널리 알려진 스테레오 정합(STEREO MATCHING), 특징점 추출(FEATURE POINT EXTRACTION) 또는 특징점 정합(FEATURE POINT MATCHING) 기법이 이용될 수 있다. 도 5를 참조하면, 세그먼트 크기에 상응하는 메시 내부에 특징점(303)이 추출된 것을 알 수 있다.First, the keypoint matching unit 130 may extract a keypoint of an input image. Feature point extraction may be input through a user input, and an automatic extraction technique may be used. As the automatic extraction technique, a generally well-known stereo matching (STEREO MATCHING), a feature point extraction (FEATURE POINT EXTRACTION), or a feature point matching (FEATURE POINT MATCHING) technique may be used. Referring to FIG. 5 , it can be seen that the feature point 303 is extracted inside the mesh corresponding to the segment size.

이 때, 특징점 정합부(130)는 자동 추출 기법을 이용하여 제1 입력 영상의 추출된 특징점들과 제2 입력 영상의 추출된 특징점들을 1:1로 대응시킬 수 있다.In this case, the keypoint matching unit 130 may match the extracted keypoints of the first input image with the extracted keypoints of the second input image in a 1:1 ratio using an automatic extraction technique.

메시 워핑부(140)는 대응된 특징점들에 기반하여 목표 영상의 특징점을 산출하고, 상기 목표 영상의 특징점에 메시를 워핑할 수 있다.The mesh warping unit 140 may calculate a feature point of the target image based on the corresponding feature points, and warp the mesh on the feature point of the target image.

먼저, 메시 워핑부(140)는 대응된 특징점의 메시를 선택하고, 선택된 메시의 정점들을 이용하여 중심 좌표와 관계 계수들을 산출할 수 있다. 이 때, 메시의 정점들은 특징점을 포함하고 있는 삼각형 형태의 메시의 꼭지점들의 좌표에 상응할 수 있다.First, the mesh warping unit 140 may select a mesh of a corresponding feature point, and calculate center coordinates and relationship coefficients using vertices of the selected mesh. In this case, the vertices of the mesh may correspond to coordinates of the vertices of the triangular mesh including the feature point.

이 때, 메시 워핑부(140)는 정점들의 중심 좌표(BARYCENTRIC COORDINATES)로부터 관계 계수들을 산출할 수 있다. 도 6을 참조하면, 정점들은 v1, v2, v3, 중심 좌표는 p, 중심 좌표로부터 정점들까지 거리는 A1, A2, A3 로 나타낸 것을 알 수 있다. 이 때, 중심 좌표 p 와 관계 계수들 α, β, γ 는 하기 수학식 1로 산출될 수 있다.In this case, the mesh warping unit 140 may calculate relation coefficients from the center coordinates (BARYCENTRIC COORDINATES) of the vertices. Referring to FIG. 6 , it can be seen that the vertices are represented by v 1 , v 2 , and v 3 , the central coordinates are p, and the distances from the central coordinates to the vertices are represented by A 1 , A 2 , and A 3 . In this case, the center coordinate p and the relation coefficients α, β, and γ may be calculated by Equation 1 below.

[수학식 1][Equation 1]

Figure 112016027206615-pat00001
Figure 112016027206615-pat00001

메시 내부의 특징점 Xi(xi,yi) 는 영상 좌표계에서(xi,yi)의 좌표를 가질 수 있으며, 정점들 vi1, vi2, vi3 의 좌표들에 기반하여 수학식 1을 이용하여 하기 수학식 2로 산출될 수 있다.The feature point X i (x i ,y i ) in the mesh may have coordinates of (x i ,y i ) in the image coordinate system, and based on the coordinates of the vertices v i1 , v i2 , v i3 Equation 1 It can be calculated using Equation 2 below.

[수학식 2][Equation 2]

Figure 112016027206615-pat00002
Figure 112016027206615-pat00002

메시 워핑부(140)는 수학식 1과 수학식 2를 이용하여 목표 영상의 메시의 특징점의 위치를 산출할 수 있다. 목표 영상의 특징점의 위치는 제1 입력 영상의 특징점과 제2 입력 영상의 특징점 사이의 비례 관계를 이용하여 산출될 수 있다.The mesh warping unit 140 may calculate the position of the feature point of the mesh of the target image by using Equations 1 and 2. The position of the feature point of the target image may be calculated using a proportional relationship between the feature point of the first input image and the feature point of the second input image.

예를 들어, 제1 입력 영상의 특징점은 p1(x1,y1)이고, 제2 입력 영상의 특징점이 p2(x2,y2)인 경우, 목표 영상 j 에서의 특징점이 pj(xj,yj) 이고, 목표 영상의 특징점은 하기 수학식 3을 이용하여 산출될 수 있다. 여기서 j는 0<j<1 의 실수 값을 가질 수 있다.For example, when the feature point of the first input image is p 1 (x 1 ,y 1 ) and the feature point of the second input image is p 2 (x 2 ,y 2 ), the feature point of the target image j is p j (x j ,y j ), and the feature point of the target image may be calculated using Equation 3 below. Here, j may have a real value of 0<j<1.

[수학식 3][Equation 3]

Figure 112016027206615-pat00003
Figure 112016027206615-pat00003

Figure 112016027206615-pat00004
Figure 112016027206615-pat00004

상기 수학식 3을 이용하여 산출된 특징점은 제1 특징점에 상응할 수 있다.The feature point calculated using Equation 3 may correspond to the first feature point.

이 때, 메시 워핑부(140)는 산출된 제1 특징점과 관계 계수들을 이용하여 목표 영상의 정점들을 산출할 수 있다. 모든 특징점들은 수학식 2에 기반하여 하기 행렬식으로 표현될 수 있다.In this case, the mesh warping unit 140 may calculate vertices of the target image by using the calculated first feature points and relation coefficients. All the feature points may be expressed by the following determinant based on Equation (2).

Figure 112016027206615-pat00005
Figure 112016027206615-pat00005

행렬식은 관계 계수들을 나타낸 행렬을 A, 정점들의 좌표를 나타낸 행렬을 c, 특징점의 좌표를 나타낸 행렬을 b 라고 놓으면, Ac=b 로 표현될 수 있다. 여기서, 메시 워핑부(140)는 목표 영상의 제1 특징점의 좌표(b`)를 행렬식에 대입할 수 있다. 행렬식은 목표 영상의 정점(c`)들을 구하기 위하여 c`=A- 1b` 로 변형될 수 있다. 즉, 메시 워핑부(140)는 변형된 행렬식을 이용하여 목표 영상에 메시를 워핑할 수 있다. 이 때, 메시 워핑부(140)는 하나의 메시 만을 워핑하는 것이 아니라 하나의 세그먼트를 구성하는 모든 메시들을 워핑 할 수 있으며, 하나의 세그먼트를 구성하는 메시들은 독립적이 아니라 서로의 정점을 공유하고 있기 때문에, 수학식 4를 이용하여 전체 메시의 변형을 최적화 할 수 있다.The determinant can be expressed as Ac=b if A is the matrix representing the relation coefficients, c is the matrix representing the coordinates of the vertices, and b is the matrix representing the coordinates of the feature points. Here, the mesh warping unit 140 may substitute the coordinates b′ of the first feature point of the target image into the determinant. The determinant can be transformed into c'=A - 1 b' to obtain the vertices (c') of the target image. That is, the mesh warping unit 140 may warp the mesh on the target image by using the transformed determinant. At this time, the mesh warping unit 140 may warp all meshes constituting one segment rather than warping only one mesh, and the meshes constituting one segment are not independent but share each other's vertices Therefore, it is possible to optimize the deformation of the entire mesh using Equation (4).

[수학식 4][Equation 4]

Figure 112016027206615-pat00006
Figure 112016027206615-pat00006

수학식 4에서,

Figure 112016027206615-pat00007
부분은 목표 영상으로 워핑된 정점들의 좌표와 관계 계수들을 이용하여 생성된 목표 영상의 제2 특징점을 나타낸 것이다. 이 때,
Figure 112016027206615-pat00008
부분은 제1 입력 영상의 특징점(xi,yi)이 목표 영상으로 전방 사상(FORWARD WARPING)된 제1 특징점에 상응할 수 있다. 이 때, 메시 워핑부(140)는 수학식 4에서 E1이 최소값을 갖는 메시의 정점들(v`i1, v`i2, v`i3)을 산출할 수 있다.In Equation 4,
Figure 112016027206615-pat00007
The portion indicates the second feature point of the target image generated using the coordinates and relation coefficients of the vertices warped into the target image. At this time,
Figure 112016027206615-pat00008
The portion may correspond to the first feature point where the feature point (x i , y i ) of the first input image is forward-warped to the target image. At this time, the mesh warping unit 140 may calculate the vertices v` i1 , v` i2 , v` i3 of the mesh having the minimum value of E 1 in Equation 4 .

또한, 메시 워핑부(140)는 메시의 형태를 최적화하는 과정을 수행할 수 있다. 도 7을 참조하면, 워핑 전 메시(304)가 워핑 후 메시(305)로 메시의 형태가 변형된 것을 알 수 있다. 이 때, 메시 워핑부(140)는 수학식 5와 수학식 6을 이용하여 최적 정점들을 산출하고, 최적화된 메시(306)을 구성할 수 있다.Also, the mesh warping unit 140 may perform a process of optimizing the shape of the mesh. Referring to FIG. 7 , it can be seen that the shape of the mesh is transformed from the mesh 304 before warping to the mesh 305 after warping. In this case, the mesh warping unit 140 may calculate optimal vertices using Equations 5 and 6, and configure the optimized mesh 306 .

[수학식 5][Equation 5]

Figure 112016027206615-pat00009
Figure 112016027206615-pat00009

Figure 112016027206615-pat00010
Figure 112016027206615-pat00010

Figure 112016027206615-pat00011
Figure 112016027206615-pat00011

Figure 112016027206615-pat00012
Figure 112016027206615-pat00012

Figure 112016027206615-pat00013
Figure 112016027206615-pat00013

메시 워핑부(140)는 워핑 후 메시(305)에서 두 정점들(vm1, vm2)에 기반하여 수학식 5를 이용하여 최적화된 정점

Figure 112016027206615-pat00014
를 산출할 수 있다.The mesh warping unit 140 is a vertex optimized using Equation 5 based on the two vertices v m1 and v m2 in the mesh 305 after warping.
Figure 112016027206615-pat00014
can be calculated.

[수학식 6][Equation 6]

Figure 112016027206615-pat00015
Figure 112016027206615-pat00015

이 때, 메시 워핑부(140)는 수학식 6을 이용하여 E2를 최소화하는 목표 영상의 최적 정점들(

Figure 112016027206615-pat00016
,
Figure 112016027206615-pat00017
,
Figure 112016027206615-pat00018
)을 산출할 수 있다.At this time, the mesh warping unit 140 uses Equation 6 to determine the optimal vertices (
Figure 112016027206615-pat00016
,
Figure 112016027206615-pat00017
,
Figure 112016027206615-pat00018
) can be calculated.

즉, 메시 워핑부(140)는 상기 E1과 E2를 모두 최소화하는 목표 영상에서의 최적 정점들을 이용하여 워핑된 메시의 변형을 최적화할 수 있다.That is, the mesh warping unit 140 may optimize the deformation of the warped mesh by using optimal vertices in the target image that minimizes both E 1 and E 2 .

텍스처 매핑부(150)는 입력 영상의 픽셀을 목표 영상에 텍스처 매핑(TEXTURE MAPPING) 할 수 있다. 이 때, 텍스처 매핑부(150)는 변환 행렬을 이용하여 제1 입력 영상의 픽셀들을 전방 사상할 수 있고, 변환 역행렬을 이용하여 후방 사상(BACKWARD MAPPING)할 수 있다. 이 때, 텍스처 매핑부(150)는 픽셀들을 사상하여 텍스처 매핑 할 수 있다. 이 때, 변환 행렬은 정점의 개수에 기반하여 아핀 변환(AFFINE TRANSFORMATION) 또는 시점 변환(PERSPECTIVE TRANSFORMATION)을 이용하여 생성될 수 있다. 이 때, 아핀 변환은 3개의 정점을 이용하여 특징점을 산출할 수 있으며, 하기 동차(HOMOGENEOUS) 형태의 행렬식으로 나타낼 수 있다.The texture mapping unit 150 may TEXTURE MAPPING the pixels of the input image to the target image. In this case, the texture mapping unit 150 may forward-map the pixels of the first input image using the transformation matrix, and may perform the backward mapping using the inverse transformation matrix. In this case, the texture mapping unit 150 may perform texture mapping by mapping pixels. In this case, the transformation matrix may be generated using an affine transformation (AFFINE TRANSFORMATION) or a viewpoint transformation (PERSPECTIVE TRANSFORMATION) based on the number of vertices. In this case, the affine transformation may calculate a feature point using three vertices, and may be expressed as a determinant of the following HOMOGENEOUS form.

Figure 112016027206615-pat00019
Figure 112016027206615-pat00019

이 때, 시점 변환은 4개의 정점을 이용하여 특징점을 산출할 수 있으며, 하기 동차 형태의 행렬식으로 나타낼 수 있다.In this case, the viewpoint transformation may calculate a feature point using four vertices, and may be expressed by the following homogeneous determinant.

Figure 112016027206615-pat00020
Figure 112016027206615-pat00020

도 9를 참조하면, 원본 메시(311)의 정점(v1, v2, v3, v4)는 변환 행렬(T)을 이용하여 정점(v`1, v`2, v`3, v`4)로 전방 사상되어 변형된 메시(312)로 구성되는 것을 볼 수 있다.Referring to FIG. 9 , the vertices v 1 , v 2 , v 3 , v 4 of the original mesh 311 are vertices v` 1 , v` 2 , v` 3 , v using the transformation matrix T. It can be seen that it is composed of a deformed mesh 312 that has been mapped forward to ` 4 .

또한, 변형된 메시(312)의 정점(v`1, v`2, v`3, v`4)는 변환 역행렬(T-1)을 이용하여 정점(v1, v2, v3, v4)로 후방 사상되어 원본 메시(311)로 구성되는 것을 볼 수 있다.In addition, the vertices v` 1 , v` 2 , v` 3 , v` 4 of the deformed mesh 312 are obtained by using the transformation inverse matrix (T -1 ) to obtain the vertices v 1 , v 2 , v 3 , v It can be seen that it is back mapped to 4 ) and consists of the original mesh 311 .

영상 생성부(160)는 최종 영상을 생성할 수 있다. 즉, 영상 생성부(160)는 목표 영상의 빈 영역을 보간하는 영상 완성(IMAGE COMPLETION0) 기법을 이용하여 최종 영상을 생성할 수 있다. 이 때, 영상 생성부는 텍스처 매핑 이후에, 목표 영상에 워핑 되지 않은 빈 영역(HOLE)이 존재하는 경우, 공간축/시간축에 기반하여 인접 영역의 유사한 픽셀들을 참조하여 빈 영역을 보간 할 수 있다. The image generator 160 may generate a final image. That is, the image generator 160 may generate the final image by using an image completion (IMAGE COMPLETION0) technique that interpolates a blank area of the target image. In this case, when an unwarped empty area (HOLE) exists in the target image after texture mapping, the image generator may interpolate the empty area by referring to similar pixels in the adjacent area based on the spatial axis/time axis.

도 2는 본 발명의 일실시예에 따른 영상 재구성 방법을 나타낸 동작 흐름도이다.2 is a flowchart illustrating an image reconstruction method according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일실시예에 따른 영상 재구성 방법은 먼저 영상을 분할한다(S210).Referring to FIG. 2 , in the image reconstruction method according to an embodiment of the present invention, an image is first divided (S210).

즉, 단계(S210)는 영상들을 입력 받아 영상 분할(IMAGE SEMEENTATION) 기법을 이용하여 세그먼트 단위로 분할할 수 있다. 이 때, 영상들은 시점이 다른 2개의 제1 입력 영상과 제2 입력 영상에 상응할 수 있다. 이 때, 영상 분할 기법은 입력 영상들의 픽셀과 유사도가 높은 주변 픽셀들을 그룹화하여 세그먼트 단위로 분할할 수 있다. 도 3을 참조하면, 입력 영상(301)은 세그먼트 단위로 분할된 것을 알 수 있다.That is, in step S210 , the images may be received and divided into segments by using an image segmentation technique. In this case, the images may correspond to the two first input images and the second input images having different viewpoints. In this case, the image segmentation technique may group neighboring pixels having a high similarity to the pixels of the input images to segment the image segments. Referring to FIG. 3 , it can be seen that the input image 301 is divided into segments.

또한, 영상 재구성 방법은 메시를 구성할 수 있다(S220).In addition, the image reconstruction method may configure a mesh (S220).

즉, 단계(S220)는 영상을 분할한 세그먼트들의 크기를 고려하여, 영상을 구성하는 세그먼트 각각에 대하여 메시를 구성할 수 있다. 메시는 세그먼트 하나당 구성될 수 있고, 다른 세그먼트에 구성된 메시와 독립되어 구성될 수 있다. 도 4 를 참조하면, 메시(302)는 하나의 세그먼트 크기에 상응하여 구성된 것을 알 수 있다.That is, in step S220 , a mesh may be constructed for each segment constituting the image in consideration of the sizes of segments into which the image is divided. A mesh may be configured per segment, or may be configured independently of meshes configured in other segments. Referring to FIG. 4 , it can be seen that the mesh 302 is configured to correspond to one segment size.

또한, 영상 재구성 방법은 특징점을 대응시킬 수 있다(S230).In addition, the image reconstruction method may correspond to the feature points (S230).

즉, 단계(S230)는 특징점을 추출하여 입력 영상들 간의 특징점들을 대응시킬 수 있다.That is, in step S230, the feature points may be extracted and the feature points between the input images may be matched.

먼저, 단계(S230)는 입력 영상의 특징점을 추출할 수 있다. 특징점 추출은 사용자 입력을 통해 입력될 수 있고, 자동 추출 기법이 이용될 수 있다. 자동 추출 기법은 일반적으로 널리 알려진 스테레오 정합(STEREO MATCHING), 특징점 추출(FEATURE POINT EXTRACTION) 또는 특징점 정합(FEATURE POINT MATCHING) 기법이 이용될 수 있다. 도 5를 참조하면, 세그먼트 크기에 상응하는 메시 내부에 특징점(303)이 추출된 것을 알 수 있다. First, in step S230, a feature point of an input image may be extracted. Feature point extraction may be input through a user input, and an automatic extraction technique may be used. As the automatic extraction technique, a generally well-known stereo matching (STEREO MATCHING), a feature point extraction (FEATURE POINT EXTRACTION), or a feature point matching (FEATURE POINT MATCHING) technique may be used. Referring to FIG. 5 , it can be seen that the feature point 303 is extracted inside the mesh corresponding to the segment size.

이 때, 단계(S230)는 자동 추출 기법을 이용하여 제1 입력 영상의 추출된 특징점들과 제2 입력 영상의 추출된 특징점들을 1:1로 대응시킬 수 있다.In this case, in step S230, the extracted feature points of the first input image and the extracted feature points of the second input image may be matched 1:1 by using an automatic extraction technique.

또한, 영상 재구성 방법은 메시를 워핑할 수 있다(S240).Also, the image reconstruction method may warp the mesh (S240).

즉, 단계(S240)는 대응된 특징점들에 기반하여 목표 영상의 특징점을 산출하고, 상기 목표 영상의 특징점에 메시를 워핑할 수 있다.That is, in step S240 , the feature points of the target image may be calculated based on the corresponding feature points, and the mesh may be warped on the feature points of the target image.

먼저, 단계(S240)는 대응된 특징점의 메시를 선택하고, 선택된 메시의 정점들을 이용하여 중심 좌표와 관계 계수들을 산출할 수 있다. 이 때, 메시의 정점들은 특징점을 포함하고 있는 삼각형 형태의 메시의 꼭지점들의 좌표에 상응할 수 있다.First, in step S240 , a mesh of corresponding feature points may be selected, and center coordinates and relationship coefficients may be calculated using vertices of the selected mesh. In this case, the vertices of the mesh may correspond to coordinates of the vertices of the triangular mesh including the feature point.

이 때, 특징 단계(S240)는 정점들의 중심 좌표(BARYCENTRIC COORDINATES)로부터 관계 계수를 산출할 수 있다. 도 6을 참조하면, 정점들은 v1, v2, v3, 중심 좌표는 p, 중심 좌표로부터 정점들까지 거리는 A1, A2, A3 로 나타낸 것을 알 수 있다. 이 때, 중심 좌표 p 와 관계 계수들 α, β, γ 는 상기 수학식 1로 산출될 수 있다. 메시 내부의 특징점 Xi(xi,yi) 는 영상 좌표계에서(xi,yi)의 좌표를 가질 수 있으며, 정점들 vi1, vi2, vi3 의 좌표들에 기반하여 수학식 1을 이용하여 상기 수학식 2로 산출될 수 있다.In this case, the feature step S240 may calculate a relationship coefficient from the center coordinates (BARYCENTRIC COORDINATES) of the vertices. Referring to FIG. 6 , it can be seen that the vertices are represented by v 1 , v 2 , and v 3 , the central coordinates are p, and the distances from the central coordinates to the vertices are represented by A 1 , A 2 , and A 3 . In this case, the center coordinate p and the relation coefficients α, β, and γ may be calculated by Equation 1 above. The feature point X i (x i ,y i ) in the mesh may have coordinates of (x i ,y i ) in the image coordinate system, and based on the coordinates of the vertices v i1 , v i2 , v i3 Equation 1 It can be calculated using Equation 2 above.

이 때, 단계(S240)는 수학식 1과 수학식 2를 이용하여 목표 영상의 메시의 특징점의 위치를 산출할 수 있다. 목표 영상의 특징점의 위치는 제1 입력 영상의 특징점과 제2 입력 영상의 특징점 사이의 비례 관계를 이용하여 산출될 수 있다.In this case, in step S240, the position of the feature point of the mesh of the target image may be calculated using Equations 1 and 2. The position of the feature point of the target image may be calculated using a proportional relationship between the feature point of the first input image and the feature point of the second input image.

예를 들어, 제1 입력 영상의 특징점은 p1(x1,y1)이고, 제2 입력 영상의 특징점이 p2(x2,y2)인 경우, 목표 영상 j 에서의 특징점이 pj(xj,yj) 이고, 목표 영상의 특징점은 상기 수학식 3을 이용하여 산출될 수 있다. 여기서 j는 0<j<1 의 실수 값을 가질 수 있다. 상기 수학식 3을 이용하여 산출된 특징점은 제1 특징점에 상응할 수 있다.For example, when the feature point of the first input image is p 1 (x 1 ,y 1 ) and the feature point of the second input image is p 2 (x 2 ,y 2 ), the feature point of the target image j is p j (x j , y j ), and the feature point of the target image may be calculated using Equation 3 above. Here, j may have a real value of 0<j<1. The feature point calculated using Equation 3 may correspond to the first feature point.

이 때, 단계(S240)는 산출된 제1 특징점과 관계 계수들을 이용하여 목표 영상의 정점들을 산출할 수 있다. 모든 특징점들은 수학식 2에 기반하여 하기 행렬식으로 표현될 수 있다.In this case, in step S240, vertices of the target image may be calculated using the calculated first feature points and relation coefficients. All the feature points may be expressed by the following determinant based on Equation (2).

Figure 112016027206615-pat00021
Figure 112016027206615-pat00021

행렬식은 관계 계수들을 나타낸 행렬을 A, 정점들의 좌표를 나타낸 행렬을 c, 특징점의 좌표를 나타낸 행렬을 b 라고 놓으면, Ac=b 로 표현될 수 있다. 여기서, 단계(S240)는 목표 영상의 제1 특징점의 좌표(b`)를 행렬식에 대입할 수 있다. 행렬식은 목표 영상의 정점(c`)들을 구하기 위하여 c`=A- 1b` 로 변형될 수 있다. 즉, 단계(S240)는 변형된 행렬식을 이용하여 목표 영상에 메시를 워핑할 수 있다. 이 때, 단계(S240)는 하나의 메시 만을 워핑하는 것이 아니라 하나의 세그먼트를 구성하는 모든 메시들을 워핑 할 수 있으며, 메시들은 독립적이 아니라 서로의 정점을 공유하고 있기 때문에, 수학식 4를 이용하여 전체 메시의 변형을 최적화 할 수 있다. 수학식 4에서,

Figure 112016027206615-pat00022
부분은 목표 영상으로 워핑된 정점들의 좌표와 관계 계수들을 이용하여 생성된 목표 영상의 제2 특징점을 나타낸 것이다. 이 때,
Figure 112016027206615-pat00023
부분은 제1 입력 영상의 특징점(xi,yi)이 목표 영상으로 전방 사상(FORWARD WARPING)된 제1 특징점에 상응할 수 있다. 이 때, 단계(S240)는 수학식 4에서 E1이 최소값을 갖는 메시의 정점들(v`i1, v`i2, v`i3)을 산출할 수 있다.The determinant can be expressed as Ac=b if A is the matrix representing the relation coefficients, c is the matrix representing the coordinates of the vertices, and b is the matrix representing the coordinates of the feature points. Here, in step S240, the coordinates b′ of the first feature point of the target image may be substituted into the determinant. The determinant can be transformed into c'=A - 1 b' to obtain the vertices (c') of the target image. That is, in step S240, the mesh may be warped on the target image using the transformed determinant. At this time, in step S240, not only one mesh is warped, but all meshes constituting one segment can be warped. Since the meshes are not independent but share each other's vertices, Equation 4 is used to The deformation of the entire mesh can be optimized. In Equation 4,
Figure 112016027206615-pat00022
The portion indicates the second feature point of the target image generated using the coordinates and relation coefficients of the vertices warped into the target image. At this time,
Figure 112016027206615-pat00023
The portion may correspond to the first feature point in which the feature point (x i , y i ) of the first input image is forward-warped to the target image. In this case, step S240 may calculate the vertices v` i1 , v` i2 , v` i3 of the mesh having the minimum value of E 1 in Equation 4 .

또한, 단계(S240)는 메시의 형태를 최적화하는 과정을 수행할 수 있다. 도 7을 참조하면, 워핑 전 메시(304)가 워핑 후 메시(305)로 메시의 형태가 변형된 것을 알 수 있다. 이 때, 단계(S240)는 수학식 5와 수학식 6을 이용하여 최적 정점들을 산출하고, 최적화된 메시(306)을 구성할 수 있다. 이 때, 단계(S240)는 워핑 후 메시(305)에서 두 정점들(vm1, vm2)에 기반하여 수학식 5를 이용하여 최적화된 정점

Figure 112016027206615-pat00024
를 산출할 수 있다. 이 때, 단계(S240)는 수학식 6을 이용하여 E2를 최소화하는 목표 영상의 최적 정점들(
Figure 112016027206615-pat00025
,
Figure 112016027206615-pat00026
,
Figure 112016027206615-pat00027
)을 산출할 수 있다. In addition, step S240 may perform a process of optimizing the shape of the mesh. Referring to FIG. 7 , it can be seen that the shape of the mesh is transformed from the mesh 304 before warping to the mesh 305 after warping. In this case, in step S240 , optimal vertices may be calculated using Equations 5 and 6 and an optimized mesh 306 may be constructed. At this time, step S240 is a vertex optimized using Equation 5 based on the two vertices v m1 and v m2 in the mesh 305 after warping.
Figure 112016027206615-pat00024
can be calculated. At this time, step S240 is performed using the optimal vertices (
Figure 112016027206615-pat00025
,
Figure 112016027206615-pat00026
,
Figure 112016027206615-pat00027
) can be calculated.

즉, 단계(S240)는 상기 E1과 E2를 모두 최소화하는 목표 영상에서의 최적 정점들을 이용하여 워핑된 메시의 변형을 최적화할 수 있다.That is, in step S240 , deformation of the warped mesh may be optimized using optimal vertices in the target image that minimizes both E 1 and E 2 .

또한, 영상 재구성 방법은 텍스처 매핑을 할 수 있다(S250).Also, the image reconstruction method may perform texture mapping ( S250 ).

즉, 단계(S250)는 입력 영상의 픽셀을 목표 영상에 텍스처 매핑(TEXTURE MAPPING) 할 수 있다. 이 때, 단계(S250)는 변환 행렬을 이용하여 제1 입력 영상의 픽셀들을 전방 사상할 수 있고, 변환 역행렬을 이용하여 후방 사상(BACKWARD MAPPING)할 수 있다. 이 때, 단계(S250)는 픽셀들을 사상하여 텍스처 매핑 할 수 있다. 이 때, 변환 행렬은 정점의 개수에 기반하여 아핀 변환(AFFINE TRANSFORMATION) 또는 시점 변환(PERSPECTIVE TRANSFORMATION)을 이용하여 생성될 수 있다. 이 때, 아핀 변환은 3개의 정점을 이용하여 특징점을 산출할 수 있으며, 하기 동차(HOMOGENEOUS) 형태의 행렬식으로 나타낼 수 있다.That is, in step S250 , the pixels of the input image may be texture mapped to the target image. In this case, in step S250 , pixels of the first input image may be forward mapped using a transformation matrix, and may be backward mapped using an inverse transformation matrix. In this case, in step S250 , the pixels may be mapped to texture mapping. In this case, the transformation matrix may be generated using an affine transformation (AFFINE TRANSFORMATION) or a viewpoint transformation (PERSPECTIVE TRANSFORMATION) based on the number of vertices. In this case, the affine transformation may calculate a feature point using three vertices, and may be expressed as a determinant of the following HOMOGENEOUS form.

Figure 112016027206615-pat00028
Figure 112016027206615-pat00028

이 때, 시점 변환은 4개의 정점을 이용하여 특징점을 산출할 수 있으며, 하기 동차 형태의 행렬식으로 나타낼 수 있다.In this case, the viewpoint transformation may calculate a feature point using four vertices, and may be expressed by the following homogeneous determinant.

Figure 112016027206615-pat00029
Figure 112016027206615-pat00029

도 9를 참조하면, 원본 메시(311)의 정점(v1, v2, v3, v4)는 변환 행렬(T)을 이용하여 정점(v`1, v`2, v`3, v`4)로 전방 사상되어 변형된 메시(312)로 구성되는 것을 볼 수 있다.Referring to FIG. 9 , the vertices v 1 , v 2 , v 3 , v 4 of the original mesh 311 are vertices v` 1 , v` 2 , v` 3 , v using the transformation matrix T. It can be seen that it is composed of a deformed mesh 312 that has been mapped forward to ` 4 .

또한, 변형된 메시(312)의 정점(v`1, v`2, v`3, v`4)는 변환 역행렬(T-1)을 이용하여 정점(v1, v2, v3, v4)로 후방 사상되어 원본 메시(311)로 구성되는 것을 볼 수 있다.In addition, the vertices v` 1 , v` 2 , v` 3 , v` 4 of the deformed mesh 312 are obtained by using the transformation inverse matrix (T -1 ) to obtain the vertices v 1 , v 2 , v 3 , v It can be seen that it is back mapped to 4 ) and consists of the original mesh 311 .

또한, 영상 재구성 방법은 최종 영상을 생성할 수 있다(S260).In addition, the image reconstruction method may generate a final image (S260).

즉, 단계(S260)는 목표 영상의 빈 영역을 보간하는 영상 완성(IMAGE COMPLETION0) 기법을 이용하여 최종 영상을 생성할 수 있다. 이 때, 단계(S260)는 텍스처 매핑 이후에, 목표 영상에 워핑 되지 않은 빈 영역(HOLE)이 존재하는 경우, 공간축/시간축에 기반하여 인접 영역의 유사한 픽셀들을 참조하여 빈 영역을 보간 할 수 있다. That is, in step S260 , a final image may be generated using an image completion (IMAGE COMPLETION0) technique that interpolates a blank area of the target image. In this case, in step S260, after texture mapping, if an unwarped empty area (HOLE) exists in the target image, the empty area can be interpolated by referring to similar pixels in the adjacent area based on the spatial axis/time axis. have.

도 3은 본 발명의 일실시예에 따른 블록단위로 분할된 영상을 나타낸 도면이다.3 is a diagram illustrating an image divided into blocks according to an embodiment of the present invention.

도 3을 참조하면, 입력 영상(301)는 세그먼트 단위로 분할된 것을 볼 수 있다. 이 때, 세그먼트 단위는 영상 분할 기법을 이용하여 영상이 블록 단위로 분할된 것에 상응할 수 있다. 이 때, 영상 분할 기법은 입력 영상(301)의 픽셀과 유사도가 높은 주변 픽셀들을 그룹화할 수 있다.Referring to FIG. 3 , it can be seen that the input image 301 is divided into segments. In this case, the segment unit may correspond to an image segmented into blocks using an image segmentation technique. In this case, the image segmentation technique may group neighboring pixels having a high similarity to the pixels of the input image 301 .

도 4는 본 발명의 일실시예에 따른 분할된 세그먼트에 생성된 메시를 나타낸 도면이다.4 is a diagram illustrating a mesh generated in a segmented segment according to an embodiment of the present invention.

도 4를 참조하면, 메시(302)는 세그먼트 크기에 상응하여 구성되는 것을 볼 수 있다. 메시(302)는 입력 영상 전체에 구성되며, 메시(302)의 크기는 영상 전체에 분할된 세그먼트들의 크기에 기반하여 결정될 수 있다.Referring to FIG. 4 , it can be seen that the mesh 302 is configured to correspond to the segment size. The mesh 302 is formed in the entire input image, and the size of the mesh 302 may be determined based on the size of segments divided in the entire image.

도 5는 본 발명의 일실시예에 따른 메시 내부에 특징점을 나타낸 도면이다.5 is a view showing a feature point inside a mesh according to an embodiment of the present invention.

도 5를 참조하면, 메시 내부에 특징점(303)이 추출된 것을 볼 수 있다. 이 때, 특징점 추출은 사용자 입력을 통해 입력될 수 있고, 자동 추출 기법이 이용될 수 있다. 자동 추출 기법은 일반적으로 널리 알려진 스테레오 정합(STEREO MATCHING), 특징점 추출(FEATURE POINT EXTRACTION) 또는 특징점 정합(FEATURE POINT MATCHING) 기법이 이용될 수 있다. 이 때, 특징점(303)은 메시를 목표 영상으로 워핑하는 기준점이 될 수 있다. 2개의 영상으로부터 목표 영상을 생성하는 경우, 2개의 영상의 모든 특징점들을 추출하고, 특징점들을 모두 1:1 대응시키고, 대응된 특징점들에 기반하여 목표 영상의 특징점들을 산출할 수 있다.Referring to FIG. 5 , it can be seen that the feature point 303 is extracted from the inside of the mesh. In this case, extraction of key points may be input through a user input, and an automatic extraction technique may be used. As the automatic extraction technique, a generally well-known stereo matching (STEREO MATCHING), a feature point extraction (FEATURE POINT EXTRACTION), or a feature point matching (FEATURE POINT MATCHING) technique may be used. In this case, the feature point 303 may be a reference point for warping the mesh to the target image. When a target image is generated from two images, all feature points of the two images may be extracted, all the feature points corresponded 1:1, and the feature points of the target image may be calculated based on the corresponding feature points.

도 6은 도 5에 도시된 특징점을 산출하기 위한 삼각형의 중심 좌표계를 나타낸 도면이다.FIG. 6 is a diagram illustrating a central coordinate system of a triangle for calculating the feature point shown in FIG. 5 .

도 6을 참조하면, 삼각형의 정점들은 v1, v2, v3, 중심 좌표는 p, 중심 좌표로부터 정점들까지 거리는 A1, A2, A3 로 나타낸 것을 볼 수 있다. 이 때, 중심 좌표 p 와 관계 계수들 α, β, γ 는 상기 수학식 1로 산출될 수 있다.Referring to FIG. 6 , it can be seen that the vertices of the triangle are represented by v 1 , v 2 , v 3 , the central coordinates are p, and the distances from the central coordinates to the vertices are A 1 , A 2 , and A 3 . In this case, the center coordinate p and the relation coefficients α, β, and γ may be calculated by Equation 1 above.

도 7은 본 발명의 일실시예에 따른 메시가 워핑되어 형태가 최적화되는 과정을 나타낸 도면이다.7 is a diagram illustrating a process of optimizing a shape by warping a mesh according to an embodiment of the present invention.

도 7을 참조하면, 워핑 전 메시(304)가 워핑 후 메시(305)로 메시의 형태가 변형된 것을 볼 수 있다. 이 때, 메시 워핑부(140)는 수학식 5와 수학식 6을 이용하여 최적 정점들을 산출하고, 최적화된 메시(306)을 구성할 수 있다.Referring to FIG. 7 , it can be seen that the shape of the mesh is transformed from the mesh 304 before warping to the mesh 305 after warping. In this case, the mesh warping unit 140 may calculate optimal vertices using Equations 5 and 6, and configure the optimized mesh 306 .

도 8은 본 발명의 일실시예에 따른 메시가 워핑되어 메시의 형태가 변형된 것을 나타낸 도면이다.8 is a view showing that the mesh is warped and the shape of the mesh is deformed according to an embodiment of the present invention.

도 8을 참조하면, 입력 영상의 메시(309)는 목표 영상으로 워핑되어 형태가 변형된 메시(310)가 생성되는 것을 알 수 있다. Referring to FIG. 8 , it can be seen that the mesh 309 of the input image is warped to the target image to generate a mesh 310 with a deformed shape.

도 9는 본 발명의 일실시예에 따른 메시가 변환 행렬을 이용하여 워핑되는 것을 나타낸 도면이다.9 is a diagram illustrating warping of a mesh using a transformation matrix according to an embodiment of the present invention.

도 9를 참조하면, 원본 메시(311)의 정점(v1, v2, v3, v4)는 변환 행렬(T)을 이용하여 정점(v`1, v`2, v`3, v`4)로 전방 사상되어 변형된 메시(312)로 구성되는 것을 볼 수 있다.Referring to FIG. 9 , the vertices v 1 , v 2 , v 3 , v 4 of the original mesh 311 are vertices v` 1 , v` 2 , v` 3 , v using the transformation matrix T. It can be seen that it is composed of a deformed mesh 312 that has been mapped forward to ` 4 .

또한, 변형된 메시(312)의 정점(v`1, v`2, v`3, v`4)는 변환 역행렬(T-1)을 이용하여 정점(v1, v2, v3, v4)로 후방 사상되어 원본 메시(311)로 구성되는 것을 볼 수 있다.In addition, the vertices v` 1 , v` 2 , v` 3 , v` 4 of the deformed mesh 312 are obtained by using the transformation inverse matrix (T -1 ) to obtain the vertices v 1 , v 2 , v 3 , v It can be seen that it is back mapped to 4 ) and consists of the original mesh 311 .

도 10은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 블록도이다.10 is a block diagram illustrating a computer system according to an embodiment of the present invention.

도 10을 참조하면, 본 발명의 실시예는 컴퓨터로 읽을 수 있는 기록매체와 같은 컴퓨터 시스템(1100)에서 구현될 수 있다. 도 10에 도시된 바와 같이, 컴퓨터 시스템(1100)은 버스(1120)를 통하여 서로 통신하는 하나 이상의 프로세서(1110), 메모리(1130), 사용자 입력 장치(1140), 사용자 출력 장치(1150) 및 스토리지(1160)를 포함할 수 있다. 또한, 컴퓨터 시스템(1100)은 네트워크(1180)에 연결되는 네트워크 인터페이스(1170)를 더 포함할 수 있다. 프로세서(1110)는 중앙 처리 장치 또는 메모리(1130)나 스토리지(1160)에 저장된 프로세싱 인스트럭션들을 실행하는 반도체 장치일 수 있다. 메모리(1130) 및 스토리지(1160)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체일 수 있다. 예를 들어, 메모리는 ROM(1131)이나 RAM(1132)을 포함할 수 있다.Referring to FIG. 10 , an embodiment of the present invention may be implemented in a computer system 1100 such as a computer-readable recording medium. As shown in FIG. 10 , computer system 1100 includes one or more processors 1110 , memory 1130 , user input device 1140 , user output device 1150 and storage that communicate with each other via bus 1120 . (1160) may be included. In addition, the computer system 1100 may further include a network interface 1170 coupled to the network 1180 . The processor 1110 may be a central processing unit or a semiconductor device that executes processing instructions stored in the memory 1130 or the storage 1160 . The memory 1130 and the storage 1160 may be various types of volatile or non-volatile storage media. For example, the memory may include a ROM 1131 or a RAM 1132 .

이상에서와 같이 본 발명에 따른 영상 재구성 장치 및 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.As described above, in the image reconstruction apparatus and method according to the present invention, the configuration and method of the embodiments described above are not limitedly applicable, but the embodiments are all of the embodiments so that various modifications can be made. Alternatively, some may be selectively combined and configured.

110: 영상 분할부 120: 메시 구성부
130: 특징점 정합부 140: 메시 워핑부
150: 텍스처 매핑부 160: 영상 생성부
301: 입력 영상 302: 메시
303: 특징점 304: 워핑 전 메시
305: 워핑 후 메시 306: 최적화된 메시
309: 메시 310: 메시
311: 원본 메시 312: 변형된 메시
1100: 컴퓨터 시스템 1110: 프로세서
1120: 버스 1130: 메모리
1131: 롬 1132: 램
1140: 사용자 입력 장치 1150: 사용자 출력 장치
1160: 스토리지 1170: 네트워크 인터페이스
1180: 네트워크
110: image segmentation unit 120: mesh construction unit
130: feature point matching unit 140: mesh warping unit
150: texture mapping unit 160: image generating unit
301: input image 302: mesh
303: feature point 304: mesh before warping
305: mesh after warping 306: optimized mesh
309: mesh 310: mesh
311: original mesh 312: warped mesh
1100: computer system 1110: processor
1120: bus 1130: memory
1131: rom 1132: ram
1140: user input device 1150: user output device
1160: storage 1170: network interface
1180: network

Claims (20)

입력 영상들을 영상 분할(IMAGE SEGMENTATION) 기법을 이용하여 세그먼트단위로 분할하는 영상 분할부;
상기 세그먼트의 크기에 상응하는 메시를 구성하는 메시 구성부;
상기 메시의 특징점을 추출하여 제1 입력 영상의 특징점들과 제2 입력 영상의 특징점들을 대응시키는 특징점 정합부;
대응된 특징점들에 기반하여 목표 영상의 특징점의 위치를 산출하고, 산출된 위치에 상기 제1 입력 영상의 메시를 워핑하는 메시 워핑부;
상기 제1 입력 영상의 픽셀들을 상기 목표 영상에 텍스처 매핑(TEXTURE MAPPING)하는 텍스처 매핑부; 및
상기 목표 영상의 빈 영역에 주변 픽셀을 참조하여 보간 하는 것으로 최종 영상을 생성하는 영상 생성부;
를 포함하고,
상기 메시 워핑부는
상기 목표 영상의 제1 특징점과 제2 특징점 간의 오차가 최소가 되는 메시의 정점들을 산출하고, 상기 제1 입력 영상의 메시를 상기 오차가 최소가 되는 메시의 정점들에 워핑하고,
상기 목표 영상에 워핑된 메시의 정점들을 이용하여 산출된 하나의 최적 정점과, 상기 산출된 하나의 최적 정점에 상응하는 상기 워핑된 메시의 정점 간의 오차값이 최소화되도록 나머지 최적 정점들을 산출하고, 산출된 모든 최적 정점들에 기반하여 상기 워핑된 메시를 변형시키는 것을 특징으로 하는 영상 재구성 장치.
an image segmentation unit for segmenting input images into segments using an image segmentation technique;
a mesh component that configures a mesh corresponding to the size of the segment;
a feature point matching unit for extracting feature points of the mesh and matching feature points of a first input image with feature points of a second input image;
a mesh warping unit calculating a position of a feature point of a target image based on the corresponding feature points, and warping the mesh of the first input image to the calculated position;
a texture mapping unit for texture mapping the pixels of the first input image to the target image; and
an image generator for generating a final image by interpolating the blank area of the target image with reference to neighboring pixels;
including,
The mesh warping unit
calculating vertices of the mesh having the minimum error between the first feature point and the second feature point of the target image, and warping the mesh of the first input image to the vertices of the mesh having the minimum error;
Calculating and calculating the remaining optimal vertices so that an error value between one optimal vertex calculated by using the vertices of the warped mesh in the target image and the vertex of the warped mesh corresponding to the one calculated optimal vertex is minimized; Image reconstruction apparatus, characterized in that the warped mesh is deformed based on all the optimal vertices.
청구항 1에 있어서,
상기 영상 분할부는
상기 입력 영상들의 픽셀과 유사도가 높은 주변 픽셀들을 그룹화하는 것을 특징으로 하는 영상 재구성 장치.
The method according to claim 1,
The image division unit
Image reconstruction apparatus, characterized in that grouping the neighboring pixels having a high similarity to the pixels of the input images.
청구항 2에 있어서,
상기 메시 워핑부는
상기 대응된 특징점들과, 상기 입력 영상들 사이에 위치된 상기 목표 영상의 위치에 기반하여 상기 목표 영상의 제1 특징점을 산출하는 것을 특징으로 하는 영상 재구성 장치.
3. The method according to claim 2,
The mesh warping unit
Image reconstruction apparatus, characterized in that for calculating the first feature point of the target image based on the corresponding feature points and the position of the target image located between the input images.
청구항 3에 있어서,
상기 메시 워핑부는
상기 제1 특징점의 메시의 꼭지점들에 상응하는 상기 메시의 정점들의 중심 좌표(barycentric coordinates)로부터 관계 계수들을 산출하는 것을 특징으로 하는 영상 재구성 장치.
4. The method of claim 3,
The mesh warping unit
The image reconstruction apparatus of claim 1, wherein the relation coefficients are calculated from barycentric coordinates of the vertices of the mesh corresponding to the vertices of the mesh of the first feature point.
청구항 4에 있어서,
상기 메시 워핑부는
상기 목표 영상의 제1 특징점과 상기 관계 계수들을 이용하여 상기 목표 영상의 정점들을 산출하는 것을 특징으로 하는 영상 재구성 장치.
5. The method according to claim 4,
The mesh warping unit
The image reconstruction apparatus of claim 1, wherein the vertices of the target image are calculated by using the first feature point of the target image and the relation coefficients.
청구항 5에 있어서,
상기 메시 워핑부는
상기 목표 영상의 정점들 및 상기 관계 계수들를 이용하여 상기 목표 영상의 제2 특징점을 산출하는 것을 특징으로 하는 영상 재구성 장치.
6. The method of claim 5,
The mesh warping unit
and calculating a second feature point of the target image by using the vertices of the target image and the relation coefficients.
삭제delete 삭제delete 청구항 6에 있어서,
상기 텍스처 매핑부는
상기 메시의 정점들의 개수에 기반한 변환 기법을 이용하여 워핑 전후 정점들의 변화를 반영하는 변환 행렬을 산출하는 것을 특징으로 하는 영상 재구성 장치.
7. The method of claim 6,
The texture mapping unit
Image reconstruction apparatus, characterized in that by using a transformation method based on the number of vertices of the mesh to calculate a transformation matrix reflecting the change of the vertices before and after warping.
청구항 9에 있어서,
상기 텍스처 매핑부는
상가 변환 행렬을 이용하여 상기 제1 입력 영상의 픽셀들을 상기 목표 영상으로 상기 텍스처 매핑을 수행하는 것을 특징으로 하는 영상 재구성 장치.
10. The method of claim 9,
The texture mapping unit
The image reconstruction apparatus according to claim 1, wherein the texture mapping is performed on the pixels of the first input image to the target image by using an additive transformation matrix.
영상 재구성 장치를 이용하는 방법에 있어서,
입력 영상들을 영상 분할(IMAGE SEGMENTATION) 기법을 이용하여 세그먼트 단위로 분할하는 단계;
상기 세그먼트의 크기에 상응하는 메시를 구성하는 단계;
상기 메시의 특징점을 추출하여 제1 입력 영상의 특징점들과 제2 입력 영상의 특징점들을 대응시키는 단계;
대응된 특징점들에 기반하여 목표 영상의 특징점의 위치를 산출하고, 산출된 위치에 상기 제1 입력 영상의 메시를 워핑하는 단계;
상기 제1 입력 영상의 픽셀들을 상기 목표 영상에 텍스처 매핑(TEXTURE MAPPING)하는 단계; 및
상기 목표 영상의 빈 영역에 주변 픽셀을 참조하여 보간 하는 것으로 최종 영상을 생성하는 단계;
를 포함하고,
상기 워핑하는 단계는
상기 목표 영상의 제1 특징점과 제2 특징점 간의 오차가 최소가 되는 메시의 정점들을 산출하고, 상기 제1 입력 영상의 메시를 상기 오차가 최소가 되는 메시의 정점들에 워핑하고,
상기 목표 영상에 워핑된 메시의 정점들을 이용하여 산출된 하나의 최적 정점과, 상기 산출된 하나의 최적 정점에 상응하는 상기 워핑된 메시의 정점 간의 오차값이 최소화되도록 나머지 최적 정점들을 산출하고, 산출된 모든 최적 정점들에 기반하여 상기 워핑된 메시를 변형시키는 것을 특징으로 하는 영상 재구성 방법.
In the method of using the image reconstruction apparatus,
segmenting the input images into segments using an IMAGE SEGMENTATION technique;
constructing a mesh corresponding to the size of the segment;
extracting the feature points of the mesh and matching the feature points of the first input image with the feature points of the second input image;
calculating a location of a feature point of a target image based on the corresponding feature points, and warping the mesh of the first input image at the calculated location;
texture mapping the pixels of the first input image to the target image; and
generating a final image by interpolating the blank area of the target image with reference to neighboring pixels;
including,
The warping step
calculating vertices of the mesh having the minimum error between the first feature point and the second feature point of the target image, and warping the mesh of the first input image to the vertices of the mesh having the minimum error;
Calculating and calculating the remaining optimal vertices so that an error value between one optimal vertex calculated by using the vertices of the warped mesh in the target image and the vertex of the warped mesh corresponding to the one calculated optimal vertex is minimized; An image reconstruction method, characterized in that the warped mesh is deformed based on all optimal vertices.
청구항 11에 있어서,
상기 분할하는 단계는
상기 입력 영상들의 픽셀과 유사도가 높은 주변 픽셀들을 그룹화하는 것을 특징으로 하는 영상 재구성 방법.
12. The method of claim 11,
The dividing step
An image reconstruction method, characterized in that grouping neighboring pixels having a high similarity to the pixels of the input images.
청구항 12에 있어서,
상기 워핑하는 단계는
상기 대응된 특징점들과, 상기 입력 영상들 사이에 위치된 상기 목표 영상의 위치에 기반하여 상기 목표 영상의 제1 특징점을 산출하는 것을 특징으로 하는 영상 재구성 방법.
13. The method of claim 12,
The warping step
The image reconstruction method, characterized in that calculating the first feature point of the target image based on the corresponding feature points and the position of the target image located between the input images.
청구항 13에 있어서,
상기 워핑하는 단계는
상기 제1 특징점의 메시의 꼭지점들에 상응하는 상기 메시의 정점들의 중심 좌표(barycentric coordinates)로부터 관계 계수들을 산출하는 것을 특징으로 하는 영상 재구성 방법.
14. The method of claim 13,
The warping step
The image reconstruction method, characterized in that calculating the relation coefficients from the barycentric coordinates of the vertices of the mesh corresponding to the vertices of the mesh of the first feature point.
청구항 14에 있어서,
상기 워핑하는 단계는
상기 목표 영상의 제1 특징점과 상기 관계 계수들을 이용하여 상기 목표 영상의 정점들을 산출하는 것을 특징으로 하는 영상 재구성 방법.
15. The method of claim 14,
The warping step
The image reconstruction method of claim 1, wherein the vertices of the target image are calculated by using the first feature point of the target image and the relation coefficients.
청구항 15에 있어서,
상기 워핑하는 단계는
상기 목표 영상의 정점들 및 상기 관계 계수들를 이용하여 상기 목표 영상의 제2 특징점을 산출하는 것을 특징으로 하는 영상 재구성 방법.
16. The method of claim 15,
The warping step
and calculating a second feature point of the target image by using the vertices of the target image and the relation coefficients.
삭제delete 삭제delete 청구항 16에 있어서,
상기 텍스처 매핑하는 단계는
상기 메시의 정점들의 개수에 기반한 변환 기법을 이용하여 워핑 전후 정점들의 변화를 반영하는 변환 행렬을 산출하는 것을 특징으로 하는 영상 재구성 방법.
17. The method of claim 16,
The texture mapping step
An image reconstruction method comprising calculating a transformation matrix reflecting changes in vertices before and after warping by using a transformation technique based on the number of vertices of the mesh.
청구항 19에 있어서,
상기 텍스처 매핑하는 단계는
상가 변환 행렬을 이용하여 상기 제1 입력 영상의 픽셀들을 상기 목표 영상으로 상기 텍스처 매핑을 수행하는 것을 특징으로 하는 영상 재구성 방법.
20. The method of claim 19,
The texture mapping step
The image reconstruction method, characterized in that the texture mapping of the pixels of the first input image to the target image using an additive transformation matrix.
KR1020160033664A 2016-03-21 2016-03-21 Apparatus for reconstructing image and method using the same KR102455843B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160033664A KR102455843B1 (en) 2016-03-21 2016-03-21 Apparatus for reconstructing image and method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160033664A KR102455843B1 (en) 2016-03-21 2016-03-21 Apparatus for reconstructing image and method using the same

Publications (2)

Publication Number Publication Date
KR20170109465A KR20170109465A (en) 2017-09-29
KR102455843B1 true KR102455843B1 (en) 2022-10-19

Family

ID=60035649

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160033664A KR102455843B1 (en) 2016-03-21 2016-03-21 Apparatus for reconstructing image and method using the same

Country Status (1)

Country Link
KR (1) KR102455843B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102195279B1 (en) * 2018-11-28 2020-12-29 주식회사 큐램 Method and system for image registering using regional warping
CN109816615B (en) * 2019-03-06 2022-12-16 腾讯科技(深圳)有限公司 Image restoration method, device, equipment and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100541011B1 (en) * 2003-06-20 2006-01-10 학교법인연세대학교 Apparatus for Virtual Image Synthesis
KR20130068520A (en) * 2011-12-15 2013-06-26 한국전자통신연구원 Method and apparatus for warping image
KR102039741B1 (en) * 2013-02-15 2019-11-01 한국전자통신연구원 Method and apparatus for image warping
KR102188543B1 (en) * 2014-02-07 2020-12-08 삼성전자주식회사 Graphic processing unit

Also Published As

Publication number Publication date
KR20170109465A (en) 2017-09-29

Similar Documents

Publication Publication Date Title
US9013482B2 (en) Mesh generating apparatus, method and computer-readable medium, and image processing apparatus, method and computer-readable medium
JP7403528B2 (en) Method and system for reconstructing color and depth information of a scene
JP6659336B2 (en) Texturing 3D modeled objects
US9082224B2 (en) Systems and methods 2-D to 3-D conversion using depth access segiments to define an object
US9641822B2 (en) Method and apparatus for processing three-dimensional (3D) images
US20080228449A1 (en) Systems and methods for 2-d to 3-d conversion using depth access segments to define an object
US20080226181A1 (en) Systems and methods for depth peeling using stereoscopic variables during the rendering of 2-d to 3-d images
US20080225045A1 (en) Systems and methods for 2-d to 3-d image conversion using mask to model, or model to mask, conversion
US20120177284A1 (en) Forming 3d models using multiple images
US20080226128A1 (en) System and method for using feature tracking techniques for the generation of masks in the conversion of two-dimensional images to three-dimensional images
US20080225042A1 (en) Systems and methods for allowing a user to dynamically manipulate stereoscopic parameters
US20080226194A1 (en) Systems and methods for treating occlusions in 2-d to 3-d image conversion
US20080226160A1 (en) Systems and methods for filling light in frames during 2-d to 3-d image conversion
KR102407137B1 (en) Method and apparatus for image processing
KR102199458B1 (en) Method for reconstrucing 3d color mesh and apparatus for the same
KR102158390B1 (en) Method and apparatus for image processing
KR102455843B1 (en) Apparatus for reconstructing image and method using the same
JP2019016230A (en) Learning device, image combining device, learning method, image combining method, and program
Takai et al. Harmonised texture mapping
CN115082640A (en) Single image-based 3D face model texture reconstruction method and equipment
JP3514373B2 (en) Three-dimensional information extraction method and apparatus, and recording medium storing three-dimensional information extraction program
KR101993961B1 (en) Hole Filling Method for Arbitrary View Image
US11783493B2 (en) Obtaining high resolution and dense reconstruction of face from sparse facial markers
Plath et al. Line-preserving hole-filling for 2d-to-3d conversion
KR20130142887A (en) Image processing apparatus and method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right