KR102455843B1 - Apparatus for reconstructing image and method using the same - Google Patents
Apparatus for reconstructing image and method using the same Download PDFInfo
- Publication number
- KR102455843B1 KR102455843B1 KR1020160033664A KR20160033664A KR102455843B1 KR 102455843 B1 KR102455843 B1 KR 102455843B1 KR 1020160033664 A KR1020160033664 A KR 1020160033664A KR 20160033664 A KR20160033664 A KR 20160033664A KR 102455843 B1 KR102455843 B1 KR 102455843B1
- Authority
- KR
- South Korea
- Prior art keywords
- mesh
- image
- vertices
- target image
- warping
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000013507 mapping Methods 0.000 claims abstract description 33
- 238000003709 image segmentation Methods 0.000 claims abstract description 20
- 230000009466 transformation Effects 0.000 claims description 38
- 239000011159 matrix material Substances 0.000 claims description 28
- 239000000654 additive Substances 0.000 claims description 4
- 230000000996 additive effect Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 238000011426 transformation method Methods 0.000 claims 1
- 238000000605 extraction Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 14
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000010276 construction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/02—Affine transformations
-
- G06T3/0006—
-
- G06T3/0012—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
영상 재구성 장치 및 방법이 개시된다. 본 발명의 일실시예에 따른 영상 재구성 장치는 입력 영상들을 영상 분할(IMAGE SEGMENTATION) 기법을 이용하여 세그먼트단위로 분할하는 영상 분할부; 상기 세그먼트의 크기에 상응하는 메시를 구성하는 메시 구성부; 상기 메시의 특징점을 추출하여 상기 입력 영상들 간의 특징점들을 대응시키는 특징점 정합부; 대응된 특징점들에 기반하여 목표 영상의 특징점의 위치를 산출하고, 산출된 위치에 상기 메시를 워핑하는 메시 워핑부; 상기 입력 영상의 픽셀을 상기 목표 영상에 텍스처 매핑(TEXTURE MAPPING)하는 텍스처 매핑부 및 상기 목표 영상의 빈 영역을 주변 픽셀을 참조하여 보간 하는 것으로 최종 영상을 생성하는 영상 생성부를 포함한다. An image reconstruction apparatus and method are disclosed. An image reconstruction apparatus according to an embodiment of the present invention includes: an image segmentation unit for segmenting input images into segments using an image segmentation (IMAGE SEGMENTATION) technique; a mesh component that configures a mesh corresponding to the size of the segment; a feature point matching unit for extracting feature points of the mesh and matching the feature points between the input images; a mesh warping unit calculating a position of a feature point of a target image based on the corresponding feature points, and warping the mesh at the calculated position; and a texture mapping unit for texture mapping the pixels of the input image to the target image, and an image generating unit for generating a final image by interpolating an empty area of the target image with reference to neighboring pixels.
Description
본 발명은 영상의 왜곡을 최소화하면서, 영상을 재구성하는 기술에 관한 것이다.The present invention relates to a technique for reconstructing an image while minimizing image distortion.
영상 워핑(IMAGE WARPING)은 영상에서 원래 영상의 화소의 위치를 바꾸어 영상의 형태를 변형시키는 것이다. 영상 워핑은 특정한 규칙에 따라 입력 영상의 크기, 길이, 두께 등 영상의 형태를 변형시킬 수 있다. 이러한 영상 워핑은 초기에는 인공위성과 우주선으로부터 수신된 영상들의 왜곡(DISTORTION)을 복원하는데 사용되었으나, 현재는 카메라로부터 촬영된 영상의 변형 및 복원 또는 영화의 특수효과에 많이 사용되고 있다. 이러한 영상 워핑 기술에는 메시 영상 워핑이 있다. 메시 영상 워핑은 영상의 특징점을 기준으로 워핑하는데 유용하게 사용되며, 입력 영상의 특정 부위에 삼각형 또는 사각형 모양으로 메시 그룹을 형성하여 그룹 단위로 영상 워핑을 수행하는 방법이다.IMAGE WARPING is to change the shape of an image by changing the positions of pixels of the original image in the image. Image warping may change the shape of the image, such as the size, length, and thickness of the input image, according to a specific rule. Such image warping was initially used to restore distortion of images received from satellites and spacecraft, but is now widely used for transformation and restoration of images captured by cameras or special effects of movies. This image warping technique includes mesh image warping. Mesh image warping is useful for warping based on feature points of an image, and is a method of performing image warping in groups by forming a mesh group in a triangular or square shape in a specific part of an input image.
그러나, 이러한 메시 영상 워핑은 메시 그룹의 면적이 너무 작게 세분화 된 경우, 영상 워핑의 처리 속도가 감소하고, 영상에 왜곡이 발생하며 객체의 엣지에 노이즈가 발생하는 문제점이 존재한다.However, such mesh image warping has problems in that, when the area of the mesh group is subdivided too small, the image warping processing speed decreases, distortion occurs in the image, and noise occurs at the edge of the object.
한편, 한국공개특허 제 2014-0102999 호 "영상 워핑을 위한 장치 및 방법" 는 스테레오 원본 영상의 희소 변이 정보를 기반으로 차폐영역 정보의 변이를 보간하고, 변이 보간된 차폐영역 정보에 따라 스테레오 원본 영상의 메시 워핑 시 차폐영역과 비차폐 영역을 구분하여 가상 중간시점 영상을 생성하는 기술에 관하여 개시하고 있다.On the other hand, Korean Patent Application Laid-Open No. 2014-0102999 "Apparatus and method for image warping" interpolates the disparity of the shielding area information based on the sparse disparity information of the stereo original image, and the stereo original image according to the disparity interpolated shielding area information. Disclosed is a technology for generating a virtual mid-view image by dividing a shielded area and a non-occluded area during mesh warping.
그러나, 한국공개특허 제 2014-0102999 호는 메시 영상 워핑시 발생하는 영상 왜곡에 대하여 메시를 변형하고, 최적화하는 과정에 대해서는 침묵하고 있다.However, Korean Patent Application Laid-Open No. 2014-0102999 is silent on the process of transforming and optimizing a mesh with respect to image distortion that occurs during mesh image warping.
본 발명은 영상을 재구성하기 위하여 영상 워핑을 이용할 때, 발생하는 영상 왜곡을 최소화하는 것을 목적으로 한다.An object of the present invention is to minimize image distortion that occurs when image warping is used to reconstruct an image.
또한, 본 발명은 영상의 왜곡을 최소화하기 위하여, 목표 영상에 워핑된 메시를 최적화하는 것을 목적으로 한다.Another object of the present invention is to optimize a warped mesh on a target image in order to minimize image distortion.
상기한 목적을 달성하기 위한 본 발명의 일실시예에 따른 영상 재구성 장치는 입력 영상들을 영상 분할(IMAGE SEGMENTATION) 기법을 이용하여 세그먼트 단위로 분할하는 영상 분할부; 상기 세그먼트의 크기에 상응하는 메시를 구성하는 메시 구성부; 상기 메시의 특징점을 추출하여 제1 입력 영상의 특징점들과 제2 입력 영상의 특징점들을 대응시키는 특징점 정합부; 대응된 특징점들에 기반하여 목표 영상의 특징점의 위치를 산출하고, 산출된 위치에 상기 제1 입력 영상의 메시를 워핑하는 메시 워핑부; 상기 제1 입력 영상의 픽셀들을 상기 목표 영상에 텍스처 매핑(TEXTURE MAPPING)하는 텍스처 매핑부 및 상기 목표 영상의 빈 영역에 주변 픽셀을 참조하여 보간 하는 것으로 최종 영상을 생성하는 영상 생성부를 포함한다.An image reconstruction apparatus according to an embodiment of the present invention for achieving the above object includes: an image segmentation unit for segmenting input images into segments using an image segmentation (IMAGE SEGMENTATION) technique; a mesh component that configures a mesh corresponding to the size of the segment; a feature point matching unit for extracting feature points of the mesh and matching feature points of a first input image with feature points of a second input image; a mesh warping unit calculating a position of a feature point of a target image based on the corresponding feature points, and warping the mesh of the first input image to the calculated position; and a texture mapping unit for texture mapping the pixels of the first input image to the target image, and an image generating unit for generating a final image by interpolating the pixels in the blank area of the target image with reference to neighboring pixels.
이 때, 상기 영상 분할부는 상기 입력 영상들의 픽셀과 유사도가 높은 주변 픽셀들을 그룹화할 수 있다.In this case, the image divider may group neighboring pixels having a high similarity to the pixels of the input images.
이 때, 상기 메시 워핑부는 상기 대응된 특징점들과, 상기 입력 영상들 사이에 위치된 상기 목표 영상의 위치에 기반하여 상기 목표 영상의 제1 특징점을 산출할 수 있다.In this case, the mesh warping unit may calculate the first feature point of the target image based on the corresponding feature points and the position of the target image located between the input images.
이 때, 상기 메시 워핑부는 상기 제1 특징점의 메시의 꼭지점들에 상응하는 상기 메시의 정점들의 중심 좌표(barycentric coordinates)로부터 관계 계수들을 산출할 수 있다.In this case, the mesh warping unit may calculate relation coefficients from barycentric coordinates of the vertices of the mesh corresponding to the vertices of the mesh of the first feature point.
이 때, 상기 메시 워핑부는 상기 목표 영상의 제1 특징점과 상기 관계 계수들을 이용하여 상기 목표 영상의 정점들을 산출할 수 있다.In this case, the mesh warping unit may calculate vertices of the target image by using the first feature point of the target image and the relation coefficients.
이 때, 상기 메시 워핑부는 상기 목표 영상의 정점들 및 상기 관계 계수들를 이용하여 상기 목표 영상의 제2 특징점을 산출할 수 있다.In this case, the mesh warping unit may calculate the second feature point of the target image by using the vertices of the target image and the relation coefficients.
이 때, 상기 메시 워핑부는 상기 목표 영상의 제1 특징점과 제2 특징점 간의 오차가 최소가 되는 메시의 정점들을 산출하고, 상기 제1 입력 영상의 메시를 상기 오차가 최소가 되는 메시의 정점들에 워핑할 수 있다.In this case, the mesh warping unit calculates vertices of the mesh having the minimum error between the first feature point and the second feature point of the target image, and applies the mesh of the first input image to the vertices of the mesh having the minimum error. can warp
이 때, 상기 메시 워핑부는 상기 목표 영상에 워핑된 메시의 정점들을 이용하여 산출된 하나의 최적 정점과, 상기 산출된 하나의 최적 정점에 상응하는 상기 워핑된 메시의 정점 간의 오차값이 최소화되도록 나머지 최적 정점들을 산출하고, 산출된 모든 최적 정점들에 기반하여 상기 워핑된 메시를 변형시킬 수 있다.At this time, the mesh warping unit is used to minimize the error value between one optimal vertex calculated using the vertices of the mesh warped in the target image and the vertex of the warped mesh corresponding to the calculated one optimal vertex. Optimal vertices may be calculated, and the warped mesh may be deformed based on all the calculated optimal vertices.
이 때, 상기 텍스처 매핑부는 상기 메시의 정점들의 개수에 기반한 변환 기법을 이용하여 워핑 전후 정점들의 변화를 반영하는 변환 행렬을 산출할 수 있다.In this case, the texture mapping unit may calculate a transformation matrix that reflects changes in vertices before and after warping by using a transformation technique based on the number of vertices of the mesh.
이 때, 상기 텍스처 매핑부는 상가 변환 행렬을 이용하여 상기 제1 입력 영상의 픽셀들을 상기 목표 영상으로 상기 텍스처 매핑을 수행할 수 있다.In this case, the texture mapping unit may perform the texture mapping of the pixels of the first input image to the target image using an additive transformation matrix.
또한, 상기한 목적을 달성하기 위한 본 발명의 일실시예에 따른 영상 재구성 방법은 영상 재구성 장치를 이용하는 방법에 있어서, 입력 영상들을 영상 분할(IMAGE SEGMENTATION) 기법을 이용하여 세그먼트 단위로 분할하는 단계; 상기 세그먼트의 크기에 상응하는 메시를 구성하는 단계; 상기 메시의 특징점을 추출하여 제1 입력 영상의 특징점들과 제2 입력 영상의 특징점들을 대응시키는 단계; 대응된 특징점들에 기반하여 목표 영상의 특징점의 위치를 산출하고, 산출된 위치에 상기 제1 입력 영상의 메시를 워핑하는 단계; 상기 제1 입력 영상의 픽셀들을 상기 목표 영상에 텍스처 매핑(TEXTURE MAPPING)하는 단계 및 상기 목표 영상의 빈 영역에 주변 픽셀을 참조하여 보간 하는 것으로 최종 영상을 생성하는 단계를 포함한다.In addition, an image reconstruction method according to an embodiment of the present invention for achieving the above object is a method using an image reconstruction apparatus, comprising: segmenting input images into segments using an image segmentation (IMAGE SEGMENTATION) technique; constructing a mesh corresponding to the size of the segment; extracting the feature points of the mesh and matching the feature points of the first input image with the feature points of the second input image; calculating a location of a feature point of a target image based on the corresponding feature points, and warping the mesh of the first input image at the calculated location; and texture mapping the pixels of the first input image to the target image, and generating a final image by interpolating pixels in the blank area of the target image with reference to neighboring pixels.
이 때, 상기 분할하는 단계는 상기 입력 영상의 픽셀과 유사도가 높은 주변 픽셀들을 그룹화할 수 있다.In this case, the dividing may include grouping neighboring pixels having a high similarity to the pixels of the input image.
이 때, 상기 워핑하는 단계는 상기 대응된 특징점들과, 상기 입력 영상들 사이에 위치된 상기 목표 영상의 위치에 기반하여 상기 목표 영상의 제1 특징점을 산출할 수 있다.In this case, the warping may include calculating a first feature point of the target image based on the corresponding feature points and a position of the target image located between the input images.
이 때, 상기 워핑하는 단계는 상기 제1 특징점의 메시의 꼭지점들에 상응하는 상기 메시의 정점들의 중심 좌표(barycentric coordinates)로부터 관계 계수들을 산출할 수 있다.In this case, the warping may include calculating relation coefficients from barycentric coordinates of the vertices of the mesh corresponding to the vertices of the mesh of the first feature point.
이 때, 상기 워핑하는 단계는 상기 목표 영상의 제1 특징점과 상기 관계 계수들을 이용하여 상기 목표 영상의 정점들을 산출할 수 있다.In this case, the warping may include calculating vertices of the target image by using the first feature point of the target image and the relation coefficients.
이 때, 상기 워핑하는 단계는 상기 목표 영상의 정점들 및 상기 관계 계수들를 이용하여 상기 목표 영상의 제2 특징점을 산출할 수 있다.In this case, the warping may include calculating the second feature point of the target image by using the vertices of the target image and the relation coefficients.
이 때, 상기 워핑하는 단계는 상기 목표 영상의 제1 특징점과 제2 특징점 간의 오차가 최소가 되는 메시의 정점들을 산출하고, 상기 제1 입력 영상의 메시를 상기 오차가 최소가 되는 메시의 정점들에 워핑할 수 있다.In this case, the warping includes calculating vertices of the mesh having the minimum error between the first feature point and the second feature point of the target image, and changing the mesh of the first input image to the vertices of the mesh having the minimum error. can warp on
이 때, 상기 워핑하는 단계는 상기 목표 영상에 워핑된 메시의 정점들을 이용하여 산출된 하나의 최적 정점과, 상기 산출된 하나의 최적 정점에 상응하는 상기 워핑된 메시의 정점 간의 오차값이 최소화되도록 나머지 최적 정점들을 산출하고, 산출된 모든 최적 정점들에 기반하여 상기 워핑된 메시를 변형시킬 수 있다.In this case, the warping may include minimizing an error value between one optimal vertex calculated using the vertices of the mesh warped on the target image and the vertex of the warped mesh corresponding to the calculated one optimal vertex. The remaining optimal vertices may be calculated, and the warped mesh may be deformed based on all the calculated optimal vertices.
이 때, 상기 텍스처 매핑하는 단계는 상기 메시의 정점들의 개수에 기반한 변환 기법을 이용하여 워핑 전후 정점들의 변화를 반영하는 변환 행렬을 산출할 수 있다.In this case, the texture mapping may use a transformation technique based on the number of vertices of the mesh to calculate a transformation matrix reflecting changes in vertices before and after warping.
이 때, 상기 텍스처 매핑하는 단계는 상가 변환 행렬을 이용하여 상기 제1 입력 영상의 픽셀들을 상기 목표 영상으로 상기 텍스처 매핑을 수행할 수 있다.In this case, the texture mapping may include performing the texture mapping of the pixels of the first input image to the target image using an additive transformation matrix.
본 발명은 영상을 재구성하기 위하여 영상 워핑을 이용할 때, 발생하는 영상 왜곡을 최소화할 수 있다.The present invention can minimize image distortion that occurs when image warping is used to reconstruct an image.
또한, 본 발명은 영상의 왜곡을 최소화하기 위하여, 목표 영상에 워핑된 메시를 최적화할 수 있다.In addition, the present invention may optimize a warped mesh on a target image in order to minimize image distortion.
도 1은 본 발명의 일실시예에 따른 영상 재구성 장치를 나타낸 블록도이다.
도 2는 본 발명의 일실시예에 따른 영상 재구성 방법을 나타낸 동작 흐름도이다.
도 3은 본 발명의 일실시예에 따른 블록단위로 분할된 영상을 나타낸 도면이다.
도 4는 본 발명의 일실시예에 따른 분할된 세그먼트에 생성된 메시를 나타낸 도면이다.
도 5는 본 발명의 일실시예에 따른 메시 내부에 특징점을 나타낸 도면이다.
도 6은 도 5에 도시된 특징점을 산출하기 위한 삼각형의 중심 좌표계를 나타낸 도면이다.
도 7은 본 발명의 일실시예에 따른 메시가 워핑되어 형태가 최적화되는 과정을 나타낸 도면이다.
도 8은 본 발명의 일실시예에 따른 메시가 워핑되어 메시의 형태가 변형된 것을 나타낸 도면이다.
도 9는 본 발명의 일실시예에 따른 메시가 변환 행렬을 이용하여 워핑되는 것을 나타낸 도면이다.
도 10은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 블록도이다.1 is a block diagram illustrating an image reconstruction apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating an image reconstruction method according to an embodiment of the present invention.
3 is a diagram illustrating an image divided into blocks according to an embodiment of the present invention.
4 is a diagram illustrating a mesh generated in a segmented segment according to an embodiment of the present invention.
5 is a view showing a feature point inside a mesh according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating a central coordinate system of a triangle for calculating the feature point shown in FIG. 5 .
7 is a diagram illustrating a process of optimizing a shape by warping a mesh according to an embodiment of the present invention.
8 is a view showing that the mesh is warped and the shape of the mesh is deformed according to an embodiment of the present invention.
9 is a diagram illustrating warping of a mesh using a transformation matrix according to an embodiment of the present invention.
10 is a block diagram illustrating a computer system according to an embodiment of the present invention.
본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.The present invention will be described in detail with reference to the accompanying drawings as follows. Here, repeated descriptions, well-known functions that may unnecessarily obscure the gist of the present invention, and detailed descriptions of configurations will be omitted. The embodiments of the present invention are provided in order to more completely explain the present invention to those of ordinary skill in the art. Accordingly, the shapes and sizes of elements in the drawings may be exaggerated for clearer description.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일실시예에 따른 영상 재구성 장치를 나타낸 블록도이다.1 is a block diagram illustrating an image reconstruction apparatus according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일실시예에 따른 영상 재구성 장치는 영상 분할부(110), 메시 구성부(120), 특징점 정합부(130), 메시 워핑부(140), 텍스처 매핑부(150) 및 영상 생성부(160)을 포함한다.Referring to FIG. 1 , an image reconstruction apparatus according to an embodiment of the present invention includes an
영상 분할부(110)는 영상들을 입력 받아 영상 분할(IMAGE SEMEENTATION) 기법을 이용하여 세그먼트 단위로 분할할 수 있다. 이 때, 영상들은 시점이 다른 2개의 제1 입력 영상과 제2 입력 영상에 상응할 수 있다. 이 때, 영상 분할 기법은 입력 영상들의 픽셀과 유사도가 높은 주변 픽셀들을 그룹화하여 세그먼트 단위로 분할할 수 있다. 도 3을 참조하면, 입력 영상(301)은 세그먼트 단위로 분할된 것을 알 수 있다.The
메시 구성부(120)는 세그먼트의 크기에 상응하는 메시를 구성할 수 있다. 이 때, 메시 구성부(120)는 영상을 분할한 세그먼트들의 크기를 고려하여, 영상을 구성하는 세그먼트 각각에 대하여 메시를 구성할 수 있다. 메시는 세그먼트 하나당 구성될 수 있고, 다른 세그먼트에 구성된 메시와 독립되어 구성될 수 있다. 도 4 를 참조하면, 메시(302)는 하나의 세그먼트 크기에 상응하여 구성된 것을 알 수 있다.The
특징점 정합부(130)는 특징점을 추출하여 입력 영상들 간의 특징점들을 대응시킬 수 있다.The keypoint matching
먼저, 특징점 정합부(130)는 입력 영상의 특징점을 추출할 수 있다. 특징점 추출은 사용자 입력을 통해 입력될 수 있고, 자동 추출 기법이 이용될 수 있다. 자동 추출 기법은 일반적으로 널리 알려진 스테레오 정합(STEREO MATCHING), 특징점 추출(FEATURE POINT EXTRACTION) 또는 특징점 정합(FEATURE POINT MATCHING) 기법이 이용될 수 있다. 도 5를 참조하면, 세그먼트 크기에 상응하는 메시 내부에 특징점(303)이 추출된 것을 알 수 있다.First, the
이 때, 특징점 정합부(130)는 자동 추출 기법을 이용하여 제1 입력 영상의 추출된 특징점들과 제2 입력 영상의 추출된 특징점들을 1:1로 대응시킬 수 있다.In this case, the
메시 워핑부(140)는 대응된 특징점들에 기반하여 목표 영상의 특징점을 산출하고, 상기 목표 영상의 특징점에 메시를 워핑할 수 있다.The
먼저, 메시 워핑부(140)는 대응된 특징점의 메시를 선택하고, 선택된 메시의 정점들을 이용하여 중심 좌표와 관계 계수들을 산출할 수 있다. 이 때, 메시의 정점들은 특징점을 포함하고 있는 삼각형 형태의 메시의 꼭지점들의 좌표에 상응할 수 있다.First, the
이 때, 메시 워핑부(140)는 정점들의 중심 좌표(BARYCENTRIC COORDINATES)로부터 관계 계수들을 산출할 수 있다. 도 6을 참조하면, 정점들은 v1, v2, v3, 중심 좌표는 p, 중심 좌표로부터 정점들까지 거리는 A1, A2, A3 로 나타낸 것을 알 수 있다. 이 때, 중심 좌표 p 와 관계 계수들 α, β, γ 는 하기 수학식 1로 산출될 수 있다.In this case, the
[수학식 1][Equation 1]
메시 내부의 특징점 Xi(xi,yi) 는 영상 좌표계에서(xi,yi)의 좌표를 가질 수 있으며, 정점들 vi1, vi2, vi3 의 좌표들에 기반하여 수학식 1을 이용하여 하기 수학식 2로 산출될 수 있다.The feature point X i (x i ,y i ) in the mesh may have coordinates of (x i ,y i ) in the image coordinate system, and based on the coordinates of the vertices v i1 , v i2 , v i3 Equation 1 It can be calculated using Equation 2 below.
[수학식 2][Equation 2]
메시 워핑부(140)는 수학식 1과 수학식 2를 이용하여 목표 영상의 메시의 특징점의 위치를 산출할 수 있다. 목표 영상의 특징점의 위치는 제1 입력 영상의 특징점과 제2 입력 영상의 특징점 사이의 비례 관계를 이용하여 산출될 수 있다.The
예를 들어, 제1 입력 영상의 특징점은 p1(x1,y1)이고, 제2 입력 영상의 특징점이 p2(x2,y2)인 경우, 목표 영상 j 에서의 특징점이 pj(xj,yj) 이고, 목표 영상의 특징점은 하기 수학식 3을 이용하여 산출될 수 있다. 여기서 j는 0<j<1 의 실수 값을 가질 수 있다.For example, when the feature point of the first input image is p 1 (x 1 ,y 1 ) and the feature point of the second input image is p 2 (x 2 ,y 2 ), the feature point of the target image j is p j (x j ,y j ), and the feature point of the target image may be calculated using Equation 3 below. Here, j may have a real value of 0<j<1.
[수학식 3][Equation 3]
상기 수학식 3을 이용하여 산출된 특징점은 제1 특징점에 상응할 수 있다.The feature point calculated using Equation 3 may correspond to the first feature point.
이 때, 메시 워핑부(140)는 산출된 제1 특징점과 관계 계수들을 이용하여 목표 영상의 정점들을 산출할 수 있다. 모든 특징점들은 수학식 2에 기반하여 하기 행렬식으로 표현될 수 있다.In this case, the
행렬식은 관계 계수들을 나타낸 행렬을 A, 정점들의 좌표를 나타낸 행렬을 c, 특징점의 좌표를 나타낸 행렬을 b 라고 놓으면, Ac=b 로 표현될 수 있다. 여기서, 메시 워핑부(140)는 목표 영상의 제1 특징점의 좌표(b`)를 행렬식에 대입할 수 있다. 행렬식은 목표 영상의 정점(c`)들을 구하기 위하여 c`=A- 1b` 로 변형될 수 있다. 즉, 메시 워핑부(140)는 변형된 행렬식을 이용하여 목표 영상에 메시를 워핑할 수 있다. 이 때, 메시 워핑부(140)는 하나의 메시 만을 워핑하는 것이 아니라 하나의 세그먼트를 구성하는 모든 메시들을 워핑 할 수 있으며, 하나의 세그먼트를 구성하는 메시들은 독립적이 아니라 서로의 정점을 공유하고 있기 때문에, 수학식 4를 이용하여 전체 메시의 변형을 최적화 할 수 있다.The determinant can be expressed as Ac=b if A is the matrix representing the relation coefficients, c is the matrix representing the coordinates of the vertices, and b is the matrix representing the coordinates of the feature points. Here, the
[수학식 4][Equation 4]
수학식 4에서, 부분은 목표 영상으로 워핑된 정점들의 좌표와 관계 계수들을 이용하여 생성된 목표 영상의 제2 특징점을 나타낸 것이다. 이 때, 부분은 제1 입력 영상의 특징점(xi,yi)이 목표 영상으로 전방 사상(FORWARD WARPING)된 제1 특징점에 상응할 수 있다. 이 때, 메시 워핑부(140)는 수학식 4에서 E1이 최소값을 갖는 메시의 정점들(v`i1, v`i2, v`i3)을 산출할 수 있다.In Equation 4, The portion indicates the second feature point of the target image generated using the coordinates and relation coefficients of the vertices warped into the target image. At this time, The portion may correspond to the first feature point where the feature point (x i , y i ) of the first input image is forward-warped to the target image. At this time, the
또한, 메시 워핑부(140)는 메시의 형태를 최적화하는 과정을 수행할 수 있다. 도 7을 참조하면, 워핑 전 메시(304)가 워핑 후 메시(305)로 메시의 형태가 변형된 것을 알 수 있다. 이 때, 메시 워핑부(140)는 수학식 5와 수학식 6을 이용하여 최적 정점들을 산출하고, 최적화된 메시(306)을 구성할 수 있다.Also, the
[수학식 5][Equation 5]
메시 워핑부(140)는 워핑 후 메시(305)에서 두 정점들(vm1, vm2)에 기반하여 수학식 5를 이용하여 최적화된 정점 를 산출할 수 있다.The
[수학식 6][Equation 6]
이 때, 메시 워핑부(140)는 수학식 6을 이용하여 E2를 최소화하는 목표 영상의 최적 정점들(, , )을 산출할 수 있다.At this time, the
즉, 메시 워핑부(140)는 상기 E1과 E2를 모두 최소화하는 목표 영상에서의 최적 정점들을 이용하여 워핑된 메시의 변형을 최적화할 수 있다.That is, the
텍스처 매핑부(150)는 입력 영상의 픽셀을 목표 영상에 텍스처 매핑(TEXTURE MAPPING) 할 수 있다. 이 때, 텍스처 매핑부(150)는 변환 행렬을 이용하여 제1 입력 영상의 픽셀들을 전방 사상할 수 있고, 변환 역행렬을 이용하여 후방 사상(BACKWARD MAPPING)할 수 있다. 이 때, 텍스처 매핑부(150)는 픽셀들을 사상하여 텍스처 매핑 할 수 있다. 이 때, 변환 행렬은 정점의 개수에 기반하여 아핀 변환(AFFINE TRANSFORMATION) 또는 시점 변환(PERSPECTIVE TRANSFORMATION)을 이용하여 생성될 수 있다. 이 때, 아핀 변환은 3개의 정점을 이용하여 특징점을 산출할 수 있으며, 하기 동차(HOMOGENEOUS) 형태의 행렬식으로 나타낼 수 있다.The
이 때, 시점 변환은 4개의 정점을 이용하여 특징점을 산출할 수 있으며, 하기 동차 형태의 행렬식으로 나타낼 수 있다.In this case, the viewpoint transformation may calculate a feature point using four vertices, and may be expressed by the following homogeneous determinant.
도 9를 참조하면, 원본 메시(311)의 정점(v1, v2, v3, v4)는 변환 행렬(T)을 이용하여 정점(v`1, v`2, v`3, v`4)로 전방 사상되어 변형된 메시(312)로 구성되는 것을 볼 수 있다.Referring to FIG. 9 , the vertices v 1 , v 2 , v 3 , v 4 of the
또한, 변형된 메시(312)의 정점(v`1, v`2, v`3, v`4)는 변환 역행렬(T-1)을 이용하여 정점(v1, v2, v3, v4)로 후방 사상되어 원본 메시(311)로 구성되는 것을 볼 수 있다.In addition, the vertices v` 1 , v` 2 , v` 3 , v` 4 of the
영상 생성부(160)는 최종 영상을 생성할 수 있다. 즉, 영상 생성부(160)는 목표 영상의 빈 영역을 보간하는 영상 완성(IMAGE COMPLETION0) 기법을 이용하여 최종 영상을 생성할 수 있다. 이 때, 영상 생성부는 텍스처 매핑 이후에, 목표 영상에 워핑 되지 않은 빈 영역(HOLE)이 존재하는 경우, 공간축/시간축에 기반하여 인접 영역의 유사한 픽셀들을 참조하여 빈 영역을 보간 할 수 있다. The
도 2는 본 발명의 일실시예에 따른 영상 재구성 방법을 나타낸 동작 흐름도이다.2 is a flowchart illustrating an image reconstruction method according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 일실시예에 따른 영상 재구성 방법은 먼저 영상을 분할한다(S210).Referring to FIG. 2 , in the image reconstruction method according to an embodiment of the present invention, an image is first divided (S210).
즉, 단계(S210)는 영상들을 입력 받아 영상 분할(IMAGE SEMEENTATION) 기법을 이용하여 세그먼트 단위로 분할할 수 있다. 이 때, 영상들은 시점이 다른 2개의 제1 입력 영상과 제2 입력 영상에 상응할 수 있다. 이 때, 영상 분할 기법은 입력 영상들의 픽셀과 유사도가 높은 주변 픽셀들을 그룹화하여 세그먼트 단위로 분할할 수 있다. 도 3을 참조하면, 입력 영상(301)은 세그먼트 단위로 분할된 것을 알 수 있다.That is, in step S210 , the images may be received and divided into segments by using an image segmentation technique. In this case, the images may correspond to the two first input images and the second input images having different viewpoints. In this case, the image segmentation technique may group neighboring pixels having a high similarity to the pixels of the input images to segment the image segments. Referring to FIG. 3 , it can be seen that the
또한, 영상 재구성 방법은 메시를 구성할 수 있다(S220).In addition, the image reconstruction method may configure a mesh (S220).
즉, 단계(S220)는 영상을 분할한 세그먼트들의 크기를 고려하여, 영상을 구성하는 세그먼트 각각에 대하여 메시를 구성할 수 있다. 메시는 세그먼트 하나당 구성될 수 있고, 다른 세그먼트에 구성된 메시와 독립되어 구성될 수 있다. 도 4 를 참조하면, 메시(302)는 하나의 세그먼트 크기에 상응하여 구성된 것을 알 수 있다.That is, in step S220 , a mesh may be constructed for each segment constituting the image in consideration of the sizes of segments into which the image is divided. A mesh may be configured per segment, or may be configured independently of meshes configured in other segments. Referring to FIG. 4 , it can be seen that the
또한, 영상 재구성 방법은 특징점을 대응시킬 수 있다(S230).In addition, the image reconstruction method may correspond to the feature points (S230).
즉, 단계(S230)는 특징점을 추출하여 입력 영상들 간의 특징점들을 대응시킬 수 있다.That is, in step S230, the feature points may be extracted and the feature points between the input images may be matched.
먼저, 단계(S230)는 입력 영상의 특징점을 추출할 수 있다. 특징점 추출은 사용자 입력을 통해 입력될 수 있고, 자동 추출 기법이 이용될 수 있다. 자동 추출 기법은 일반적으로 널리 알려진 스테레오 정합(STEREO MATCHING), 특징점 추출(FEATURE POINT EXTRACTION) 또는 특징점 정합(FEATURE POINT MATCHING) 기법이 이용될 수 있다. 도 5를 참조하면, 세그먼트 크기에 상응하는 메시 내부에 특징점(303)이 추출된 것을 알 수 있다. First, in step S230, a feature point of an input image may be extracted. Feature point extraction may be input through a user input, and an automatic extraction technique may be used. As the automatic extraction technique, a generally well-known stereo matching (STEREO MATCHING), a feature point extraction (FEATURE POINT EXTRACTION), or a feature point matching (FEATURE POINT MATCHING) technique may be used. Referring to FIG. 5 , it can be seen that the
이 때, 단계(S230)는 자동 추출 기법을 이용하여 제1 입력 영상의 추출된 특징점들과 제2 입력 영상의 추출된 특징점들을 1:1로 대응시킬 수 있다.In this case, in step S230, the extracted feature points of the first input image and the extracted feature points of the second input image may be matched 1:1 by using an automatic extraction technique.
또한, 영상 재구성 방법은 메시를 워핑할 수 있다(S240).Also, the image reconstruction method may warp the mesh (S240).
즉, 단계(S240)는 대응된 특징점들에 기반하여 목표 영상의 특징점을 산출하고, 상기 목표 영상의 특징점에 메시를 워핑할 수 있다.That is, in step S240 , the feature points of the target image may be calculated based on the corresponding feature points, and the mesh may be warped on the feature points of the target image.
먼저, 단계(S240)는 대응된 특징점의 메시를 선택하고, 선택된 메시의 정점들을 이용하여 중심 좌표와 관계 계수들을 산출할 수 있다. 이 때, 메시의 정점들은 특징점을 포함하고 있는 삼각형 형태의 메시의 꼭지점들의 좌표에 상응할 수 있다.First, in step S240 , a mesh of corresponding feature points may be selected, and center coordinates and relationship coefficients may be calculated using vertices of the selected mesh. In this case, the vertices of the mesh may correspond to coordinates of the vertices of the triangular mesh including the feature point.
이 때, 특징 단계(S240)는 정점들의 중심 좌표(BARYCENTRIC COORDINATES)로부터 관계 계수를 산출할 수 있다. 도 6을 참조하면, 정점들은 v1, v2, v3, 중심 좌표는 p, 중심 좌표로부터 정점들까지 거리는 A1, A2, A3 로 나타낸 것을 알 수 있다. 이 때, 중심 좌표 p 와 관계 계수들 α, β, γ 는 상기 수학식 1로 산출될 수 있다. 메시 내부의 특징점 Xi(xi,yi) 는 영상 좌표계에서(xi,yi)의 좌표를 가질 수 있으며, 정점들 vi1, vi2, vi3 의 좌표들에 기반하여 수학식 1을 이용하여 상기 수학식 2로 산출될 수 있다.In this case, the feature step S240 may calculate a relationship coefficient from the center coordinates (BARYCENTRIC COORDINATES) of the vertices. Referring to FIG. 6 , it can be seen that the vertices are represented by v 1 , v 2 , and v 3 , the central coordinates are p, and the distances from the central coordinates to the vertices are represented by A 1 , A 2 , and A 3 . In this case, the center coordinate p and the relation coefficients α, β, and γ may be calculated by
이 때, 단계(S240)는 수학식 1과 수학식 2를 이용하여 목표 영상의 메시의 특징점의 위치를 산출할 수 있다. 목표 영상의 특징점의 위치는 제1 입력 영상의 특징점과 제2 입력 영상의 특징점 사이의 비례 관계를 이용하여 산출될 수 있다.In this case, in step S240, the position of the feature point of the mesh of the target image may be calculated using
예를 들어, 제1 입력 영상의 특징점은 p1(x1,y1)이고, 제2 입력 영상의 특징점이 p2(x2,y2)인 경우, 목표 영상 j 에서의 특징점이 pj(xj,yj) 이고, 목표 영상의 특징점은 상기 수학식 3을 이용하여 산출될 수 있다. 여기서 j는 0<j<1 의 실수 값을 가질 수 있다. 상기 수학식 3을 이용하여 산출된 특징점은 제1 특징점에 상응할 수 있다.For example, when the feature point of the first input image is p 1 (x 1 ,y 1 ) and the feature point of the second input image is p 2 (x 2 ,y 2 ), the feature point of the target image j is p j (x j , y j ), and the feature point of the target image may be calculated using Equation 3 above. Here, j may have a real value of 0<j<1. The feature point calculated using Equation 3 may correspond to the first feature point.
이 때, 단계(S240)는 산출된 제1 특징점과 관계 계수들을 이용하여 목표 영상의 정점들을 산출할 수 있다. 모든 특징점들은 수학식 2에 기반하여 하기 행렬식으로 표현될 수 있다.In this case, in step S240, vertices of the target image may be calculated using the calculated first feature points and relation coefficients. All the feature points may be expressed by the following determinant based on Equation (2).
행렬식은 관계 계수들을 나타낸 행렬을 A, 정점들의 좌표를 나타낸 행렬을 c, 특징점의 좌표를 나타낸 행렬을 b 라고 놓으면, Ac=b 로 표현될 수 있다. 여기서, 단계(S240)는 목표 영상의 제1 특징점의 좌표(b`)를 행렬식에 대입할 수 있다. 행렬식은 목표 영상의 정점(c`)들을 구하기 위하여 c`=A- 1b` 로 변형될 수 있다. 즉, 단계(S240)는 변형된 행렬식을 이용하여 목표 영상에 메시를 워핑할 수 있다. 이 때, 단계(S240)는 하나의 메시 만을 워핑하는 것이 아니라 하나의 세그먼트를 구성하는 모든 메시들을 워핑 할 수 있으며, 메시들은 독립적이 아니라 서로의 정점을 공유하고 있기 때문에, 수학식 4를 이용하여 전체 메시의 변형을 최적화 할 수 있다. 수학식 4에서, 부분은 목표 영상으로 워핑된 정점들의 좌표와 관계 계수들을 이용하여 생성된 목표 영상의 제2 특징점을 나타낸 것이다. 이 때, 부분은 제1 입력 영상의 특징점(xi,yi)이 목표 영상으로 전방 사상(FORWARD WARPING)된 제1 특징점에 상응할 수 있다. 이 때, 단계(S240)는 수학식 4에서 E1이 최소값을 갖는 메시의 정점들(v`i1, v`i2, v`i3)을 산출할 수 있다.The determinant can be expressed as Ac=b if A is the matrix representing the relation coefficients, c is the matrix representing the coordinates of the vertices, and b is the matrix representing the coordinates of the feature points. Here, in step S240, the coordinates b′ of the first feature point of the target image may be substituted into the determinant. The determinant can be transformed into c'=A - 1 b' to obtain the vertices (c') of the target image. That is, in step S240, the mesh may be warped on the target image using the transformed determinant. At this time, in step S240, not only one mesh is warped, but all meshes constituting one segment can be warped. Since the meshes are not independent but share each other's vertices, Equation 4 is used to The deformation of the entire mesh can be optimized. In Equation 4, The portion indicates the second feature point of the target image generated using the coordinates and relation coefficients of the vertices warped into the target image. At this time, The portion may correspond to the first feature point in which the feature point (x i , y i ) of the first input image is forward-warped to the target image. In this case, step S240 may calculate the vertices v` i1 , v` i2 , v` i3 of the mesh having the minimum value of E 1 in Equation 4 .
또한, 단계(S240)는 메시의 형태를 최적화하는 과정을 수행할 수 있다. 도 7을 참조하면, 워핑 전 메시(304)가 워핑 후 메시(305)로 메시의 형태가 변형된 것을 알 수 있다. 이 때, 단계(S240)는 수학식 5와 수학식 6을 이용하여 최적 정점들을 산출하고, 최적화된 메시(306)을 구성할 수 있다. 이 때, 단계(S240)는 워핑 후 메시(305)에서 두 정점들(vm1, vm2)에 기반하여 수학식 5를 이용하여 최적화된 정점 를 산출할 수 있다. 이 때, 단계(S240)는 수학식 6을 이용하여 E2를 최소화하는 목표 영상의 최적 정점들(, , )을 산출할 수 있다. In addition, step S240 may perform a process of optimizing the shape of the mesh. Referring to FIG. 7 , it can be seen that the shape of the mesh is transformed from the
즉, 단계(S240)는 상기 E1과 E2를 모두 최소화하는 목표 영상에서의 최적 정점들을 이용하여 워핑된 메시의 변형을 최적화할 수 있다.That is, in step S240 , deformation of the warped mesh may be optimized using optimal vertices in the target image that minimizes both E 1 and E 2 .
또한, 영상 재구성 방법은 텍스처 매핑을 할 수 있다(S250).Also, the image reconstruction method may perform texture mapping ( S250 ).
즉, 단계(S250)는 입력 영상의 픽셀을 목표 영상에 텍스처 매핑(TEXTURE MAPPING) 할 수 있다. 이 때, 단계(S250)는 변환 행렬을 이용하여 제1 입력 영상의 픽셀들을 전방 사상할 수 있고, 변환 역행렬을 이용하여 후방 사상(BACKWARD MAPPING)할 수 있다. 이 때, 단계(S250)는 픽셀들을 사상하여 텍스처 매핑 할 수 있다. 이 때, 변환 행렬은 정점의 개수에 기반하여 아핀 변환(AFFINE TRANSFORMATION) 또는 시점 변환(PERSPECTIVE TRANSFORMATION)을 이용하여 생성될 수 있다. 이 때, 아핀 변환은 3개의 정점을 이용하여 특징점을 산출할 수 있으며, 하기 동차(HOMOGENEOUS) 형태의 행렬식으로 나타낼 수 있다.That is, in step S250 , the pixels of the input image may be texture mapped to the target image. In this case, in step S250 , pixels of the first input image may be forward mapped using a transformation matrix, and may be backward mapped using an inverse transformation matrix. In this case, in step S250 , the pixels may be mapped to texture mapping. In this case, the transformation matrix may be generated using an affine transformation (AFFINE TRANSFORMATION) or a viewpoint transformation (PERSPECTIVE TRANSFORMATION) based on the number of vertices. In this case, the affine transformation may calculate a feature point using three vertices, and may be expressed as a determinant of the following HOMOGENEOUS form.
이 때, 시점 변환은 4개의 정점을 이용하여 특징점을 산출할 수 있으며, 하기 동차 형태의 행렬식으로 나타낼 수 있다.In this case, the viewpoint transformation may calculate a feature point using four vertices, and may be expressed by the following homogeneous determinant.
도 9를 참조하면, 원본 메시(311)의 정점(v1, v2, v3, v4)는 변환 행렬(T)을 이용하여 정점(v`1, v`2, v`3, v`4)로 전방 사상되어 변형된 메시(312)로 구성되는 것을 볼 수 있다.Referring to FIG. 9 , the vertices v 1 , v 2 , v 3 , v 4 of the
또한, 변형된 메시(312)의 정점(v`1, v`2, v`3, v`4)는 변환 역행렬(T-1)을 이용하여 정점(v1, v2, v3, v4)로 후방 사상되어 원본 메시(311)로 구성되는 것을 볼 수 있다.In addition, the vertices v` 1 , v` 2 , v` 3 , v` 4 of the
또한, 영상 재구성 방법은 최종 영상을 생성할 수 있다(S260).In addition, the image reconstruction method may generate a final image (S260).
즉, 단계(S260)는 목표 영상의 빈 영역을 보간하는 영상 완성(IMAGE COMPLETION0) 기법을 이용하여 최종 영상을 생성할 수 있다. 이 때, 단계(S260)는 텍스처 매핑 이후에, 목표 영상에 워핑 되지 않은 빈 영역(HOLE)이 존재하는 경우, 공간축/시간축에 기반하여 인접 영역의 유사한 픽셀들을 참조하여 빈 영역을 보간 할 수 있다. That is, in step S260 , a final image may be generated using an image completion (IMAGE COMPLETION0) technique that interpolates a blank area of the target image. In this case, in step S260, after texture mapping, if an unwarped empty area (HOLE) exists in the target image, the empty area can be interpolated by referring to similar pixels in the adjacent area based on the spatial axis/time axis. have.
도 3은 본 발명의 일실시예에 따른 블록단위로 분할된 영상을 나타낸 도면이다.3 is a diagram illustrating an image divided into blocks according to an embodiment of the present invention.
도 3을 참조하면, 입력 영상(301)는 세그먼트 단위로 분할된 것을 볼 수 있다. 이 때, 세그먼트 단위는 영상 분할 기법을 이용하여 영상이 블록 단위로 분할된 것에 상응할 수 있다. 이 때, 영상 분할 기법은 입력 영상(301)의 픽셀과 유사도가 높은 주변 픽셀들을 그룹화할 수 있다.Referring to FIG. 3 , it can be seen that the
도 4는 본 발명의 일실시예에 따른 분할된 세그먼트에 생성된 메시를 나타낸 도면이다.4 is a diagram illustrating a mesh generated in a segmented segment according to an embodiment of the present invention.
도 4를 참조하면, 메시(302)는 세그먼트 크기에 상응하여 구성되는 것을 볼 수 있다. 메시(302)는 입력 영상 전체에 구성되며, 메시(302)의 크기는 영상 전체에 분할된 세그먼트들의 크기에 기반하여 결정될 수 있다.Referring to FIG. 4 , it can be seen that the
도 5는 본 발명의 일실시예에 따른 메시 내부에 특징점을 나타낸 도면이다.5 is a view showing a feature point inside a mesh according to an embodiment of the present invention.
도 5를 참조하면, 메시 내부에 특징점(303)이 추출된 것을 볼 수 있다. 이 때, 특징점 추출은 사용자 입력을 통해 입력될 수 있고, 자동 추출 기법이 이용될 수 있다. 자동 추출 기법은 일반적으로 널리 알려진 스테레오 정합(STEREO MATCHING), 특징점 추출(FEATURE POINT EXTRACTION) 또는 특징점 정합(FEATURE POINT MATCHING) 기법이 이용될 수 있다. 이 때, 특징점(303)은 메시를 목표 영상으로 워핑하는 기준점이 될 수 있다. 2개의 영상으로부터 목표 영상을 생성하는 경우, 2개의 영상의 모든 특징점들을 추출하고, 특징점들을 모두 1:1 대응시키고, 대응된 특징점들에 기반하여 목표 영상의 특징점들을 산출할 수 있다.Referring to FIG. 5 , it can be seen that the
도 6은 도 5에 도시된 특징점을 산출하기 위한 삼각형의 중심 좌표계를 나타낸 도면이다.FIG. 6 is a diagram illustrating a central coordinate system of a triangle for calculating the feature point shown in FIG. 5 .
도 6을 참조하면, 삼각형의 정점들은 v1, v2, v3, 중심 좌표는 p, 중심 좌표로부터 정점들까지 거리는 A1, A2, A3 로 나타낸 것을 볼 수 있다. 이 때, 중심 좌표 p 와 관계 계수들 α, β, γ 는 상기 수학식 1로 산출될 수 있다.Referring to FIG. 6 , it can be seen that the vertices of the triangle are represented by v 1 , v 2 , v 3 , the central coordinates are p, and the distances from the central coordinates to the vertices are A 1 , A 2 , and A 3 . In this case, the center coordinate p and the relation coefficients α, β, and γ may be calculated by
도 7은 본 발명의 일실시예에 따른 메시가 워핑되어 형태가 최적화되는 과정을 나타낸 도면이다.7 is a diagram illustrating a process of optimizing a shape by warping a mesh according to an embodiment of the present invention.
도 7을 참조하면, 워핑 전 메시(304)가 워핑 후 메시(305)로 메시의 형태가 변형된 것을 볼 수 있다. 이 때, 메시 워핑부(140)는 수학식 5와 수학식 6을 이용하여 최적 정점들을 산출하고, 최적화된 메시(306)을 구성할 수 있다.Referring to FIG. 7 , it can be seen that the shape of the mesh is transformed from the
도 8은 본 발명의 일실시예에 따른 메시가 워핑되어 메시의 형태가 변형된 것을 나타낸 도면이다.8 is a view showing that the mesh is warped and the shape of the mesh is deformed according to an embodiment of the present invention.
도 8을 참조하면, 입력 영상의 메시(309)는 목표 영상으로 워핑되어 형태가 변형된 메시(310)가 생성되는 것을 알 수 있다. Referring to FIG. 8 , it can be seen that the
도 9는 본 발명의 일실시예에 따른 메시가 변환 행렬을 이용하여 워핑되는 것을 나타낸 도면이다.9 is a diagram illustrating warping of a mesh using a transformation matrix according to an embodiment of the present invention.
도 9를 참조하면, 원본 메시(311)의 정점(v1, v2, v3, v4)는 변환 행렬(T)을 이용하여 정점(v`1, v`2, v`3, v`4)로 전방 사상되어 변형된 메시(312)로 구성되는 것을 볼 수 있다.Referring to FIG. 9 , the vertices v 1 , v 2 , v 3 , v 4 of the
또한, 변형된 메시(312)의 정점(v`1, v`2, v`3, v`4)는 변환 역행렬(T-1)을 이용하여 정점(v1, v2, v3, v4)로 후방 사상되어 원본 메시(311)로 구성되는 것을 볼 수 있다.In addition, the vertices v` 1 , v` 2 , v` 3 , v` 4 of the
도 10은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 블록도이다.10 is a block diagram illustrating a computer system according to an embodiment of the present invention.
도 10을 참조하면, 본 발명의 실시예는 컴퓨터로 읽을 수 있는 기록매체와 같은 컴퓨터 시스템(1100)에서 구현될 수 있다. 도 10에 도시된 바와 같이, 컴퓨터 시스템(1100)은 버스(1120)를 통하여 서로 통신하는 하나 이상의 프로세서(1110), 메모리(1130), 사용자 입력 장치(1140), 사용자 출력 장치(1150) 및 스토리지(1160)를 포함할 수 있다. 또한, 컴퓨터 시스템(1100)은 네트워크(1180)에 연결되는 네트워크 인터페이스(1170)를 더 포함할 수 있다. 프로세서(1110)는 중앙 처리 장치 또는 메모리(1130)나 스토리지(1160)에 저장된 프로세싱 인스트럭션들을 실행하는 반도체 장치일 수 있다. 메모리(1130) 및 스토리지(1160)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체일 수 있다. 예를 들어, 메모리는 ROM(1131)이나 RAM(1132)을 포함할 수 있다.Referring to FIG. 10 , an embodiment of the present invention may be implemented in a
이상에서와 같이 본 발명에 따른 영상 재구성 장치 및 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.As described above, in the image reconstruction apparatus and method according to the present invention, the configuration and method of the embodiments described above are not limitedly applicable, but the embodiments are all of the embodiments so that various modifications can be made. Alternatively, some may be selectively combined and configured.
110: 영상 분할부 120: 메시 구성부
130: 특징점 정합부 140: 메시 워핑부
150: 텍스처 매핑부 160: 영상 생성부
301: 입력 영상 302: 메시
303: 특징점 304: 워핑 전 메시
305: 워핑 후 메시 306: 최적화된 메시
309: 메시 310: 메시
311: 원본 메시 312: 변형된 메시
1100: 컴퓨터 시스템 1110: 프로세서
1120: 버스 1130: 메모리
1131: 롬 1132: 램
1140: 사용자 입력 장치 1150: 사용자 출력 장치
1160: 스토리지 1170: 네트워크 인터페이스
1180: 네트워크110: image segmentation unit 120: mesh construction unit
130: feature point matching unit 140: mesh warping unit
150: texture mapping unit 160: image generating unit
301: input image 302: mesh
303: feature point 304: mesh before warping
305: mesh after warping 306: optimized mesh
309: mesh 310: mesh
311: original mesh 312: warped mesh
1100: computer system 1110: processor
1120: bus 1130: memory
1131: rom 1132: ram
1140: user input device 1150: user output device
1160: storage 1170: network interface
1180: network
Claims (20)
상기 세그먼트의 크기에 상응하는 메시를 구성하는 메시 구성부;
상기 메시의 특징점을 추출하여 제1 입력 영상의 특징점들과 제2 입력 영상의 특징점들을 대응시키는 특징점 정합부;
대응된 특징점들에 기반하여 목표 영상의 특징점의 위치를 산출하고, 산출된 위치에 상기 제1 입력 영상의 메시를 워핑하는 메시 워핑부;
상기 제1 입력 영상의 픽셀들을 상기 목표 영상에 텍스처 매핑(TEXTURE MAPPING)하는 텍스처 매핑부; 및
상기 목표 영상의 빈 영역에 주변 픽셀을 참조하여 보간 하는 것으로 최종 영상을 생성하는 영상 생성부;
를 포함하고,
상기 메시 워핑부는
상기 목표 영상의 제1 특징점과 제2 특징점 간의 오차가 최소가 되는 메시의 정점들을 산출하고, 상기 제1 입력 영상의 메시를 상기 오차가 최소가 되는 메시의 정점들에 워핑하고,
상기 목표 영상에 워핑된 메시의 정점들을 이용하여 산출된 하나의 최적 정점과, 상기 산출된 하나의 최적 정점에 상응하는 상기 워핑된 메시의 정점 간의 오차값이 최소화되도록 나머지 최적 정점들을 산출하고, 산출된 모든 최적 정점들에 기반하여 상기 워핑된 메시를 변형시키는 것을 특징으로 하는 영상 재구성 장치.an image segmentation unit for segmenting input images into segments using an image segmentation technique;
a mesh component that configures a mesh corresponding to the size of the segment;
a feature point matching unit for extracting feature points of the mesh and matching feature points of a first input image with feature points of a second input image;
a mesh warping unit calculating a position of a feature point of a target image based on the corresponding feature points, and warping the mesh of the first input image to the calculated position;
a texture mapping unit for texture mapping the pixels of the first input image to the target image; and
an image generator for generating a final image by interpolating the blank area of the target image with reference to neighboring pixels;
including,
The mesh warping unit
calculating vertices of the mesh having the minimum error between the first feature point and the second feature point of the target image, and warping the mesh of the first input image to the vertices of the mesh having the minimum error;
Calculating and calculating the remaining optimal vertices so that an error value between one optimal vertex calculated by using the vertices of the warped mesh in the target image and the vertex of the warped mesh corresponding to the one calculated optimal vertex is minimized; Image reconstruction apparatus, characterized in that the warped mesh is deformed based on all the optimal vertices.
상기 영상 분할부는
상기 입력 영상들의 픽셀과 유사도가 높은 주변 픽셀들을 그룹화하는 것을 특징으로 하는 영상 재구성 장치.The method according to claim 1,
The image division unit
Image reconstruction apparatus, characterized in that grouping the neighboring pixels having a high similarity to the pixels of the input images.
상기 메시 워핑부는
상기 대응된 특징점들과, 상기 입력 영상들 사이에 위치된 상기 목표 영상의 위치에 기반하여 상기 목표 영상의 제1 특징점을 산출하는 것을 특징으로 하는 영상 재구성 장치.3. The method according to claim 2,
The mesh warping unit
Image reconstruction apparatus, characterized in that for calculating the first feature point of the target image based on the corresponding feature points and the position of the target image located between the input images.
상기 메시 워핑부는
상기 제1 특징점의 메시의 꼭지점들에 상응하는 상기 메시의 정점들의 중심 좌표(barycentric coordinates)로부터 관계 계수들을 산출하는 것을 특징으로 하는 영상 재구성 장치.4. The method of claim 3,
The mesh warping unit
The image reconstruction apparatus of claim 1, wherein the relation coefficients are calculated from barycentric coordinates of the vertices of the mesh corresponding to the vertices of the mesh of the first feature point.
상기 메시 워핑부는
상기 목표 영상의 제1 특징점과 상기 관계 계수들을 이용하여 상기 목표 영상의 정점들을 산출하는 것을 특징으로 하는 영상 재구성 장치.5. The method according to claim 4,
The mesh warping unit
The image reconstruction apparatus of claim 1, wherein the vertices of the target image are calculated by using the first feature point of the target image and the relation coefficients.
상기 메시 워핑부는
상기 목표 영상의 정점들 및 상기 관계 계수들를 이용하여 상기 목표 영상의 제2 특징점을 산출하는 것을 특징으로 하는 영상 재구성 장치.6. The method of claim 5,
The mesh warping unit
and calculating a second feature point of the target image by using the vertices of the target image and the relation coefficients.
상기 텍스처 매핑부는
상기 메시의 정점들의 개수에 기반한 변환 기법을 이용하여 워핑 전후 정점들의 변화를 반영하는 변환 행렬을 산출하는 것을 특징으로 하는 영상 재구성 장치.7. The method of claim 6,
The texture mapping unit
Image reconstruction apparatus, characterized in that by using a transformation method based on the number of vertices of the mesh to calculate a transformation matrix reflecting the change of the vertices before and after warping.
상기 텍스처 매핑부는
상가 변환 행렬을 이용하여 상기 제1 입력 영상의 픽셀들을 상기 목표 영상으로 상기 텍스처 매핑을 수행하는 것을 특징으로 하는 영상 재구성 장치.10. The method of claim 9,
The texture mapping unit
The image reconstruction apparatus according to claim 1, wherein the texture mapping is performed on the pixels of the first input image to the target image by using an additive transformation matrix.
입력 영상들을 영상 분할(IMAGE SEGMENTATION) 기법을 이용하여 세그먼트 단위로 분할하는 단계;
상기 세그먼트의 크기에 상응하는 메시를 구성하는 단계;
상기 메시의 특징점을 추출하여 제1 입력 영상의 특징점들과 제2 입력 영상의 특징점들을 대응시키는 단계;
대응된 특징점들에 기반하여 목표 영상의 특징점의 위치를 산출하고, 산출된 위치에 상기 제1 입력 영상의 메시를 워핑하는 단계;
상기 제1 입력 영상의 픽셀들을 상기 목표 영상에 텍스처 매핑(TEXTURE MAPPING)하는 단계; 및
상기 목표 영상의 빈 영역에 주변 픽셀을 참조하여 보간 하는 것으로 최종 영상을 생성하는 단계;
를 포함하고,
상기 워핑하는 단계는
상기 목표 영상의 제1 특징점과 제2 특징점 간의 오차가 최소가 되는 메시의 정점들을 산출하고, 상기 제1 입력 영상의 메시를 상기 오차가 최소가 되는 메시의 정점들에 워핑하고,
상기 목표 영상에 워핑된 메시의 정점들을 이용하여 산출된 하나의 최적 정점과, 상기 산출된 하나의 최적 정점에 상응하는 상기 워핑된 메시의 정점 간의 오차값이 최소화되도록 나머지 최적 정점들을 산출하고, 산출된 모든 최적 정점들에 기반하여 상기 워핑된 메시를 변형시키는 것을 특징으로 하는 영상 재구성 방법.In the method of using the image reconstruction apparatus,
segmenting the input images into segments using an IMAGE SEGMENTATION technique;
constructing a mesh corresponding to the size of the segment;
extracting the feature points of the mesh and matching the feature points of the first input image with the feature points of the second input image;
calculating a location of a feature point of a target image based on the corresponding feature points, and warping the mesh of the first input image at the calculated location;
texture mapping the pixels of the first input image to the target image; and
generating a final image by interpolating the blank area of the target image with reference to neighboring pixels;
including,
The warping step
calculating vertices of the mesh having the minimum error between the first feature point and the second feature point of the target image, and warping the mesh of the first input image to the vertices of the mesh having the minimum error;
Calculating and calculating the remaining optimal vertices so that an error value between one optimal vertex calculated by using the vertices of the warped mesh in the target image and the vertex of the warped mesh corresponding to the one calculated optimal vertex is minimized; An image reconstruction method, characterized in that the warped mesh is deformed based on all optimal vertices.
상기 분할하는 단계는
상기 입력 영상들의 픽셀과 유사도가 높은 주변 픽셀들을 그룹화하는 것을 특징으로 하는 영상 재구성 방법.12. The method of claim 11,
The dividing step
An image reconstruction method, characterized in that grouping neighboring pixels having a high similarity to the pixels of the input images.
상기 워핑하는 단계는
상기 대응된 특징점들과, 상기 입력 영상들 사이에 위치된 상기 목표 영상의 위치에 기반하여 상기 목표 영상의 제1 특징점을 산출하는 것을 특징으로 하는 영상 재구성 방법.13. The method of claim 12,
The warping step
The image reconstruction method, characterized in that calculating the first feature point of the target image based on the corresponding feature points and the position of the target image located between the input images.
상기 워핑하는 단계는
상기 제1 특징점의 메시의 꼭지점들에 상응하는 상기 메시의 정점들의 중심 좌표(barycentric coordinates)로부터 관계 계수들을 산출하는 것을 특징으로 하는 영상 재구성 방법.14. The method of claim 13,
The warping step
The image reconstruction method, characterized in that calculating the relation coefficients from the barycentric coordinates of the vertices of the mesh corresponding to the vertices of the mesh of the first feature point.
상기 워핑하는 단계는
상기 목표 영상의 제1 특징점과 상기 관계 계수들을 이용하여 상기 목표 영상의 정점들을 산출하는 것을 특징으로 하는 영상 재구성 방법.15. The method of claim 14,
The warping step
The image reconstruction method of claim 1, wherein the vertices of the target image are calculated by using the first feature point of the target image and the relation coefficients.
상기 워핑하는 단계는
상기 목표 영상의 정점들 및 상기 관계 계수들를 이용하여 상기 목표 영상의 제2 특징점을 산출하는 것을 특징으로 하는 영상 재구성 방법.16. The method of claim 15,
The warping step
and calculating a second feature point of the target image by using the vertices of the target image and the relation coefficients.
상기 텍스처 매핑하는 단계는
상기 메시의 정점들의 개수에 기반한 변환 기법을 이용하여 워핑 전후 정점들의 변화를 반영하는 변환 행렬을 산출하는 것을 특징으로 하는 영상 재구성 방법.17. The method of claim 16,
The texture mapping step
An image reconstruction method comprising calculating a transformation matrix reflecting changes in vertices before and after warping by using a transformation technique based on the number of vertices of the mesh.
상기 텍스처 매핑하는 단계는
상가 변환 행렬을 이용하여 상기 제1 입력 영상의 픽셀들을 상기 목표 영상으로 상기 텍스처 매핑을 수행하는 것을 특징으로 하는 영상 재구성 방법.20. The method of claim 19,
The texture mapping step
The image reconstruction method, characterized in that the texture mapping of the pixels of the first input image to the target image using an additive transformation matrix.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160033664A KR102455843B1 (en) | 2016-03-21 | 2016-03-21 | Apparatus for reconstructing image and method using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160033664A KR102455843B1 (en) | 2016-03-21 | 2016-03-21 | Apparatus for reconstructing image and method using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170109465A KR20170109465A (en) | 2017-09-29 |
KR102455843B1 true KR102455843B1 (en) | 2022-10-19 |
Family
ID=60035649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160033664A KR102455843B1 (en) | 2016-03-21 | 2016-03-21 | Apparatus for reconstructing image and method using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102455843B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102195279B1 (en) * | 2018-11-28 | 2020-12-29 | 주식회사 큐램 | Method and system for image registering using regional warping |
CN109816615B (en) * | 2019-03-06 | 2022-12-16 | 腾讯科技(深圳)有限公司 | Image restoration method, device, equipment and storage medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100541011B1 (en) * | 2003-06-20 | 2006-01-10 | 학교법인연세대학교 | Apparatus for Virtual Image Synthesis |
KR20130068520A (en) * | 2011-12-15 | 2013-06-26 | 한국전자통신연구원 | Method and apparatus for warping image |
KR102039741B1 (en) * | 2013-02-15 | 2019-11-01 | 한국전자통신연구원 | Method and apparatus for image warping |
KR102188543B1 (en) * | 2014-02-07 | 2020-12-08 | 삼성전자주식회사 | Graphic processing unit |
-
2016
- 2016-03-21 KR KR1020160033664A patent/KR102455843B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20170109465A (en) | 2017-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9013482B2 (en) | Mesh generating apparatus, method and computer-readable medium, and image processing apparatus, method and computer-readable medium | |
JP7403528B2 (en) | Method and system for reconstructing color and depth information of a scene | |
JP6659336B2 (en) | Texturing 3D modeled objects | |
US9082224B2 (en) | Systems and methods 2-D to 3-D conversion using depth access segiments to define an object | |
US9641822B2 (en) | Method and apparatus for processing three-dimensional (3D) images | |
US20080228449A1 (en) | Systems and methods for 2-d to 3-d conversion using depth access segments to define an object | |
US20080226181A1 (en) | Systems and methods for depth peeling using stereoscopic variables during the rendering of 2-d to 3-d images | |
US20080225045A1 (en) | Systems and methods for 2-d to 3-d image conversion using mask to model, or model to mask, conversion | |
US20120177284A1 (en) | Forming 3d models using multiple images | |
US20080226128A1 (en) | System and method for using feature tracking techniques for the generation of masks in the conversion of two-dimensional images to three-dimensional images | |
US20080225042A1 (en) | Systems and methods for allowing a user to dynamically manipulate stereoscopic parameters | |
US20080226194A1 (en) | Systems and methods for treating occlusions in 2-d to 3-d image conversion | |
US20080226160A1 (en) | Systems and methods for filling light in frames during 2-d to 3-d image conversion | |
KR102407137B1 (en) | Method and apparatus for image processing | |
KR102199458B1 (en) | Method for reconstrucing 3d color mesh and apparatus for the same | |
KR102158390B1 (en) | Method and apparatus for image processing | |
KR102455843B1 (en) | Apparatus for reconstructing image and method using the same | |
JP2019016230A (en) | Learning device, image combining device, learning method, image combining method, and program | |
Takai et al. | Harmonised texture mapping | |
CN115082640A (en) | Single image-based 3D face model texture reconstruction method and equipment | |
JP3514373B2 (en) | Three-dimensional information extraction method and apparatus, and recording medium storing three-dimensional information extraction program | |
KR101993961B1 (en) | Hole Filling Method for Arbitrary View Image | |
US11783493B2 (en) | Obtaining high resolution and dense reconstruction of face from sparse facial markers | |
Plath et al. | Line-preserving hole-filling for 2d-to-3d conversion | |
KR20130142887A (en) | Image processing apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |