KR20210029689A - Method and Apparatus for Seamline estimation based on moving object preserving - Google Patents

Method and Apparatus for Seamline estimation based on moving object preserving Download PDF

Info

Publication number
KR20210029689A
KR20210029689A KR1020200113147A KR20200113147A KR20210029689A KR 20210029689 A KR20210029689 A KR 20210029689A KR 1020200113147 A KR1020200113147 A KR 1020200113147A KR 20200113147 A KR20200113147 A KR 20200113147A KR 20210029689 A KR20210029689 A KR 20210029689A
Authority
KR
South Korea
Prior art keywords
image
energy
seam
estimating
seamline
Prior art date
Application number
KR1020200113147A
Other languages
Korean (ko)
Inventor
이희경
엄기문
서정일
윤정일
임성용
정원식
양승준
곽문성
이찬혁
Original Assignee
한국전자통신연구원
울산과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원, 울산과학기술원 filed Critical 한국전자통신연구원
Publication of KR20210029689A publication Critical patent/KR20210029689A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T5/006
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a method and a device for estimating a seamline to which object movement information is applied, and a method and a device for matching an image using the same. According to the present invention, the method for matching an image using the method for estimating a seamline to which object movement information is applied comprises: a seamline estimation step of applying object movement; a seamline update step of applying an energy difference of an estimated seamline; and an image matching step of using the estimated seamline or updated seamline, wherein the seamline estimation step includes the steps of: obtaining energy representing an object and a structure of a background included in two images to be matched; and estimating the seamline passing through a low-energy portion. Therefore, the seamline which does not cause distortion can be estimated.

Description

객체 움직임 정보를 적용한 시접선 추정 방법 및 장치, 이를 이용한 영상 정합 방법 및 장치 {Method and Apparatus for Seamline estimation based on moving object preserving}A method and apparatus for estimating a seam line using object motion information, and a method and apparatus for image matching using the same {Method and Apparatus for Seamline estimation based on moving object preserving}

본 발명은 영상 내 객체의 움직임 정보를 적용한 시접선 추정 방법 및 장치와 이를 이용한 영상 정합 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for estimating a seam tangent to which motion information of an object in an image is applied, and an image matching method and apparatus using the same.

최근 VR 시장의 급속한 성장과 더불어, 360도 영상 등 넓은 시야각 (viewing angle)을 갖는 영상에 대한 수요가 증가하였다. 이러한 넓은 시야각의 영상은 일정한 시야각을 갖는 다수의 카메라를 이용하여, 중첩된 공간 영역을 촬영한 다수의 영상을 취득하고, 서로 중첩된 부분의 영상들을 정합하는 과정을 통하여 얻어지게 된다. 이 과정에서, 취득된 영상들의 시차 등에 의해 정합된 영상에 오류가 발생할 수 있다. 이러한 정합 오류를 수정하기 위하여, 특징점 기반의 공간 변환을 사용한 영상 정합과, 와핑(warping) 기반의 영상 정합 및 시접선(seamline) 기반의 영상 정합이 사용되고 있다. With the recent rapid growth of the VR market, the demand for images having a wide viewing angle such as 360-degree images has increased. Such an image with a wide viewing angle is obtained through a process of acquiring a plurality of images photographing an overlapped spatial region using a plurality of cameras having a constant viewing angle, and matching the images of the overlapped portions with each other. In this process, an error may occur in the matched image due to parallax or the like of the acquired images. In order to correct such a matching error, image matching using spatial transformation based on feature points, image matching based on warping, and image matching based on seamline are used.

특징점 기반의 공간 변환 영상 정합 기술은, 영상 간 특징점을 이용하여 특징점 쌍을 형성하고, 이를 기반으로 공간 변환 행렬을 형성하여 영상을 정합 하는 기술이다. 또한, 와핑 기술은 주로 광역적, 지역적 특징점에 의해 형성된 위치 변환 함수를 이용하여, 기하학적 투영 변환을 사용해 영상을 변환하고 이를 정합에 사용하는 방식으로 이루어진다. 그러나 객체와 배경이 카메라로부터 서로 다른 거리에 존재할 경우 하나의 변환 행렬 또는 변환 함수를 이용하여 완벽하게 정합된 영상을 만들 수 없고, 이로 인해 정합 결과 영상이 실제로 의도된 촬영 결과와 다소 달라질 수 있다.In the feature point-based spatial transform image matching technology, feature point pairs are formed using feature points between images, and images are matched by forming a spatial transform matrix based on the feature points. In addition, the warping technique mainly uses a position transformation function formed by regional and regional feature points, transforms an image using geometric projection transformation, and uses it for registration. However, if the object and the background exist at different distances from the camera, a perfectly matched image cannot be created using a single transformation matrix or transformation function, and thus the matching result image may be slightly different from the actual intended shooting result.

시접선(seamline) 기반의 영상 정합 기술은, 영상의 중첩 영역을 이루는 두 영상의 차이 등을 이용하여 에너지 함수를 구성하고 이를 최소화하는 위치를 최적 시접선으로 추정하며, 추정된 시접선을 따라 두 영상의 중첩 영역을 이어 붙여 왜곡을 방지하는 방식을 사용하는 기술이다. 이때, 두 영상에 존재하는 강한 윤곽선의 위치에서 높은 값을 갖도록 에너지 함수를 구성하여 정합된 영상에서 윤곽선이 끊어지는 것을 방지한다. 그러나 기존의 방식들은 중첩 영역내의 에너지를 계산할 때, 이동 객체와 배경을 선택적으로 사용할 수 있는 에너지를 고려하지 않았기 때문에 이동 객체를 관통하는 시접선이 추정되는 경우가 발생하였다. 높은 시각적 중요도를 가지는 움직이는 객체의 왜곡은 정합 영상 컨텐츠 사용자로 하여금 심각한 불편을 초래할 수 있기 때문에, 이동 객체의 왜곡 없이 영상을 정합 할 수 있는 기술이 필요하다.The seamline-based image matching technology constructs an energy function by using the difference between two images constituting the overlapping area of the image, and estimates the position to minimize it as the optimal seamline. It is a technology that prevents distortion by connecting the overlapping regions of the image. At this time, the energy function is configured to have a high value at the location of the strong contour line present in the two images to prevent the contour line from being broken in the matched image. However, the existing methods did not consider the energy that can selectively use the moving object and the background when calculating the energy in the overlapping area, so there was a case that the seam tangent line penetrating the moving object was estimated. Since the distortion of a moving object having a high visual importance can cause serious inconvenience to a user of the matched video content, a technology capable of matching the image without distortion of the moving object is required.

최근의 시접선 추정 및 정합 방법에서는 이동 객체를 보존하며 영상을 정합하는 기술들이 시도되고 있다. 시접선 추정 시 사용되는 외곽선(gradient)과 시차 정보 외에 객체의 왜곡을 세가지 분류 (예, 나타남, 잘림, 복제)로 정의하고 이를 중첩 영역 내의 에너지 계산 시 활용하거나, 인간의 시각적 중요도를 나타내는 항목인 세일리언시(Saliency)를 이용하여 에너지 계산시에 객체 별 가중치를 부여하는 등의 방법이 연구되었다. 하지만, 이러한 방법들은 실시간 환경에서 사용되기에는 계산량이 많다는 문제가 있다. In the recent method of estimating and matching the seam tangent line, techniques for matching images while preserving moving objects have been attempted. In addition to the gradient and parallax information used when estimating the line of sight, the distortion of the object is defined in three categories (e.g., appearing, truncated, duplicated) and used when calculating the energy within the overlapping area, or an item representing the visual importance of humans. Methods such as assigning weights for each object when calculating energy using Saliency have been studied. However, these methods have a problem that they have a large amount of computation to be used in a real-time environment.

따라서 본 발명의 목적은, 전술한 종래 기술의 문제점을 해결하기 위해, 객체 움직임 정보를 반영한 시접선 추정 방법 및 장치를 제공하는 것을 목적으로 한다. 이를 위해 객체의 이동을 인지하고 시접선을 추정하는 기술을 제공하고자 한다. 또한, 본 발명은 상기 시접선 추정 방법을 이용한 영상 정합 방법 및 장치를 제공하는 것을 목적으로 한다.Accordingly, an object of the present invention is to provide a method and apparatus for estimating a seam tangent reflecting object motion information in order to solve the problems of the prior art. To this end, we intend to provide a technology that recognizes the movement of an object and estimates the line of sight. In addition, an object of the present invention is to provide an image matching method and apparatus using the method for estimating the seam tangent line.

또한, 본 발명의 목적은, 다수의 카메라를 사용하여 취득하고 공간 변환을 적용한 영상에서 기존 시접선 추정 시 이용되는 영상의 외곽선 정보, 시차 정보와 더불어, 이동 객체를 고려한 에너지 정보를 추가하여 시접선을 추정하고 추정된 시접선을 이용하여 정합한 결과를 제공하는 것을 목적으로 한다. In addition, it is an object of the present invention to add energy information in consideration of moving objects in addition to the outline information and parallax information of the image used when estimating the existing seam tangent line in an image acquired using a plurality of cameras and applied spatial transformation. It aims to provide the result of estimating and matching by using the estimated seam tangent line.

또한, 본 발명은, 영상에서 중첩 영역 내 객체의 왜곡 정도를 정량화 할 수 있는 지표를 제안하고, 이를 이용하여 기존의 시접선 추정 및 정합 방법 대비 효율적인 시접선 추정 방법 및 장치를 제공하고자 한다. In addition, the present invention proposes an index capable of quantifying the degree of distortion of an object within an overlapped area in an image, and uses this to provide an efficient method and apparatus for estimating a seam tangent line compared to the existing method for estimating and matching the seam tangent line.

본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허청구범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention can be understood by the following description, and will be more clearly understood by examples of the present invention. In addition, it will be easily understood that the objects and advantages of the present invention can be realized by the means shown in the claims and combinations thereof.

본 발명에 따른, 객체 움직임 정보를 적용한 시접선 추정 방법은, 정합 하고자 하는 두 영상에 포함된 객체 및 배경의 구조를 나타내는 에너지를 구하는 단계 및 에너지가 작은 부분을 통과하는 시접선을 추정하는 단계를 포함한다.According to the present invention, the method of estimating a seam tangent to which object motion information is applied includes obtaining energy representing structures of objects and backgrounds included in two images to be matched, and estimating a seam tangent line passing through a portion with small energy. Includes.

또한, 본 발명에 따른, 객체 움직임 정보를 적용한 시접선 추정 방법을 이용한 영상 정합 방법은, 객체 움직임을 적용한 시접선 추정 단계, 추정된 시접선의 에너지 차를 적용한 시접선 업데이트 단계, 및 추정된 시접선 또는 업데이트된 시접선을 이용한 영상 정합 단계를 포함하되, 상기 시접선 추정 단계는 정합 하고자 하는 두 영상에 포함된 객체 및 배경의 구조를 나타내는 에너지를 구하는 단계 및 에너지가 작은 부분을 통과하는 시접선을 추정하는 단계를 포함한다. In addition, the image matching method using the method of estimating a seam tangent to which object motion information is applied according to the present invention includes a step of estimating a seam tangent line by applying object motion, a step of updating a seam tangent line by applying an energy difference of the estimated seam tangent line, and the estimated seam tangent line. Or an image matching step using the updated seam tangent line, wherein the step of estimating the seam tangent line is a step of obtaining energy representing structures of objects and backgrounds included in the two images to be matched, and a seam tangent line passing through a portion having a small energy. And estimating.

본 발명의 실시예에 따르면, 중첩 영역 내에서 움직이는 객체에 대해 먼저 반응하고 정합 시 왜곡을 유발하지 않는 시접선을 추정할 수 있다. According to an exemplary embodiment of the present invention, it is possible to estimate a seam tangent line that first reacts to an object moving within the overlapping area and does not cause distortion when matching.

또한, 본 발명의 실시예에 따르면, 객체의 움직임을 반영하는 에너지를 시접선을 추정하기 위한 에너지 항목에 추가하여, 높은 시각적 중요도를 가지는 이동 객체에서의 정합 왜곡 현상을 방지하는 것이 가능하다. Further, according to an embodiment of the present invention, it is possible to prevent a matching distortion phenomenon in a moving object having a high visual importance by adding energy reflecting the motion of the object to the energy item for estimating the seam tangent line.

또한, 본 발명의 실시예에 따르면, 배경 에너지와 분리될 수 있는 객체에너지를 이용하여 객체의 실제 위치보다 몇 픽셀 상하 좌우의 에너지를 활용하여 시접선 업데이트가 더욱 빨리 일어날 수 있게 하거나, 느린 움직임을 보이는 객체 등에서 선별적으로 에너지를 강화하는 등의 다양한 응용이 가능할 것으로 기대된다.In addition, according to an embodiment of the present invention, by using the object energy that can be separated from the background energy, a few pixels up, down, left and right energy can be used rather than the actual position of the object, so that the gaze line can be updated more quickly or slow motion is prevented. It is expected that various applications, such as selectively reinforcing energy in visible objects, etc., are possible.

도 1은 일반적인 영상 정합 방법을 설명하기 위해 도시한 것이다.
도 2 및 도 3은 본 발명에 따른, 시접선 추정 방법 및 이를 활용한 영상 정합 방법을 설명하기 위해 도시한 것이다.
도 4 및 도 5는 본 발명에 따른, 시접선 추정 방법 및 이를 활용한 영상 정합 방법의 성능을 비교하기 위해 도시한 것이다.
도 6 및 도 7은 본 발명에 따른, 시접선 추정 방법 및 이를 활용한 영상 정합 방법의 흐름도를 도시한 것이다.
도 8은 본 발명에 따른 시접선 추정 방법 및 장치를 설명하기 위해 도시한 것이다.
도 9는 본 발명에 적용가능한 영상 정합 장치를 도시한 것이다.
1 is a diagram illustrating a general image matching method.
2 and 3 are diagrams illustrating a method of estimating a seam tangent and an image matching method using the same according to the present invention.
4 and 5 are diagrams for comparing the performance of a method for estimating a seam tangent and an image matching method using the same according to the present invention.
6 and 7 are flowcharts illustrating a method of estimating a seam tangent and an image matching method using the same according to the present invention.
8 is a diagram illustrating a method and apparatus for estimating a seam tangent line according to the present invention.
9 shows an image matching apparatus applicable to the present invention.

이하에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein.

본 발명의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 발명에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In describing an embodiment of the present invention, if it is determined that a detailed description of a known configuration or function may obscure the subject matter of the present invention, a detailed description thereof will be omitted. Further, in the drawings, parts not related to the description of the present invention are omitted, and similar reference numerals are attached to similar parts.

본 발명에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위한 것으로, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시예도 본 발명의 범위에 포함된다. In the present invention, components that are distinguished from each other are intended to clearly describe each feature, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated into one hardware or software unit, or one component may be distributed to form a plurality of hardware or software units. Therefore, even if not stated otherwise, such integrated or distributed embodiments are also included in the scope of the present invention.

본 발명에 있어서, 다양한 실시예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들을 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 발명의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 발명의 범위에 포함된다. 이하, 첨부한 도면을 참조하여 본 발명의 실시 예들에 대해서 설명한다.In the present invention, components described in various embodiments do not necessarily mean essential components, and some may be optional components. Accordingly, an embodiment consisting of a subset of components described in the embodiment is also included in the scope of the present invention. In addition, embodiments including other components in addition to the components described in the various embodiments are included in the scope of the present invention. Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

본 발명의 설명에 사용되는 영상들은 영상 취득을 위해 다수의 렌즈 부착이 가능한 고정된 카메라에서 어안 렌즈를 이용해 취득한 영상들을 등장방형도법(equirectangular projection, ERP) 기법으로 공간 변환한 영상들이라 가정한다. 영상들을 이용하여 넓은 시야각을 가지는 영상을 합성하기 위해, 이웃한 두 카메라에서 촬영한 영상을 정합 하는 방법을 설명한다. 이 방법을 연속적으로 이웃한 카메라에 수행하면, 최대 360도의 시야각을 가지는 영상을 합성할 수 있다. 단, 본 발명은 설명의 편의를 위해 ERP 영상을 예로 하여 설명할 뿐, 본 발명의 기술적 사상은 다른 영상 들에도 동일하게 적용하는 것이 가능하다. It is assumed that the images used in the description of the present invention are images obtained by spatially transforming images acquired using a fisheye lens from a fixed camera capable of attaching a plurality of lenses for image acquisition using an equirectangular projection (ERP) technique. In order to synthesize an image having a wide viewing angle using images, a method of matching images captured by two adjacent cameras will be described. If this method is successively performed on neighboring cameras, an image having a viewing angle of up to 360 degrees can be synthesized. However, for convenience of explanation, the present invention is only described by using an ERP image as an example, and the technical idea of the present invention can be applied equally to other images.

우선, 도 6 및 도 7을 참고하여, 본 발명에 따른 영상 정합 방법 및 시접선 추정 방법의 기술적 사상을 설명한다. 도 6을 참고하면, 본 발명에 따른 영상 정합 방법은, 객체 움직임을 적용한 시접선 추정 단계 (610), 추정된 시접선의 에너지 차를 적용한 시접선 업데이트 단계 (620), 및 추정된 시접선 또는 업데이트된 시접선을 이용한 영상 정합 단계 (630)을 포함하여 구성될 수 있다. 또한, 구체적으로, 상기 객체 움직임을 적용한 시접선 추정 단계 (610)는 정합 하고자 하는 두 영상에 포함된 객체 및 배경의 구조를 나타내는 에너지를 구하는 단계 (611) 및 에너지가 작은 부분을 통과하는 시접선을 추정하는 단계 (612)를 포함하여 구성될 수 있다. 이하, 본 발명의 실시예에 따른 영상 정합 방법 및 시접선 추정 방법을 상세히 설명한다. First, a technical idea of the image matching method and the seam tangent estimation method according to the present invention will be described with reference to FIGS. 6 and 7. Referring to FIG. 6, the image matching method according to the present invention includes a seam tangent estimating step 610 applying an object motion, a seam tangent update step 620 applying an energy difference of the estimated seam tangent, and an estimated seam tangent or update. It may be configured to include an image matching step 630 using the seam tangent line. In addition, specifically, in the step 610 of estimating the seam tangent line applying the motion of the object, the step 611 is to obtain energy representing the structure of the object and the background included in the two images to be matched, and the seam tangent line passing through a portion having a small energy. It may be configured to include a step 612 of estimating. Hereinafter, a method for matching an image and a method for estimating a seam tangent according to an embodiment of the present invention will be described in detail.

1. 시접선 추정1. Estimation of the seam tangent

시접선 추정은, 정합 하고자 하는 두 영상에 포함된 객체 및 배경의 구조를 나타내는 에너지를 구한 후 에너지가 작은 부분을 통과하는 시접선을 추정한다. 추정된 시접선 위치에서 두 영상을 정합 하면 큰 에너지를 갖는 객체 및 배경의 구조가 어긋나지 않은 정합 영상을 만들 수 있다. 시접선 추정에 사용하는 에너지 (E)는 아래 [수학식 1]과 같이 세가지 에너지의 가중치 합으로 구성될 수 있다.In estimating the seam tangent, the energy representing the structure of the object and the background included in the two images to be matched is obtained, and then the seam tangent line passing through the small energy part is estimated. If the two images are matched at the estimated seam tangent position, it is possible to create a matched image in which the structure of an object having a large energy and the background does not deviate. The energy (E) used for estimating the seam tangent may be composed of the sum of the weights of the three energies as shown in [Equation 1] below.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

여기서 Ed,Eg,Eo는 세가지 에너지 함수이고, Cd, Cg, Co는 각각의 에너지 항에 곱해지는 가중치이다. 각각의 에너지 함수를 설명하면 다음과 같다. 이웃하는 두 영상의 중첩 영역 영상을 각각

Figure pat00002
?恙?
Figure pat00003
?蒻箚? 한다. 영상의 사이즈를 n X mx 라 하였을 때, (x, y)?若? 픽셀의 위치를 나타내는 벡터이고 t는 동영상의 프레임 시간을 나타낸다. Here, E d ,Eg,E o are three energy functions, and C d , C g , and C o are weights multiplied by each energy term. Each energy function is described as follows. Each of the overlapped region images of two neighboring images
Figure pat00002
?恙?
Figure pat00003
?蒻箚? do. When the size of the image is n X mx, (x, y)?若? It is a vector representing the position of the pixel, and t represents the frame time of the video.

또한, 3차원 공간상의 한 점이 두 카메라의 시차에 의해 두 영상의 서로 다른 픽셀 위치에서 취득되는 것을 반영한 에너지 Ed는 다음 [수학식 2]와 같이 주어진다. In addition, energy E d reflecting that a point in the 3D space is acquired at different pixel positions of two images due to the parallax of the two cameras is given by [Equation 2] below.

[수학식 2][Equation 2]

Figure pat00004
Figure pat00004

여기서, 상기 에너지 Ed는 큰 시차를 가지는 동일한 객체 및 배경이, 서로 어긋나지 않도록 시접선을 형성하게 해 준다. Here, the energy E d causes the same object and background having a large parallax to form a seam tangent so that they do not deviate from each other.

관련하여, 두 영상의 외곽선이 서로 일치하지 않는 것을 반영하는 에너지 Eg는 다음 [수학식 3]과 같이 주어진다. Regarding, the energy E g reflecting that the outlines of the two images do not coincide with each other is given by the following [Equation 3].

[수학식 3][Equation 3]

Figure pat00005
Figure pat00005

여기서, 상기 에너지 Eg는 영상 정합 시 외곽선이 존재하는 부분에 시접선이 위치하지 않도록 해 준다. 또한, 객체의 움직임을 반영하는 에너지 Ed는 다음 [수학식 4]와 같이 주어진다.Here, the energy E g prevents the seam tangent line from being positioned at a portion where the outline exists during image matching. In addition, the energy E d reflecting the motion of the object is given by the following [Equation 4].

[수학식 4][Equation 4]

Figure pat00006
Figure pat00006

상기 [수학식 4] 로 도출되는 에너지 Ed는 객체의 움직임에 따라 픽셀 값의 시간적 변화가 큰 부분에 시접선이 위치하지 않도록 해 준다. The energy E d derived from the above [Equation 4] prevents the seam tangent from being located in a portion where the temporal change of the pixel value is large according to the motion of the object.

여기서, 두 영상이 서로 유사하여 눈에 띄는 왜곡 없이 서로 붙일 수 있는 위치를 나타내는 시접선을

Figure pat00007
라 할 때, 이를 다음 [수학식 5]와 같이 나타낼 수 있다. Here, the seam tangent line indicating the location where the two images are similar to each other and can be pasted together without noticeable distortion
Figure pat00007
When d, it can be expressed as the following [Equation 5].

[수학식 5][Equation 5]

Figure pat00008
Figure pat00008

여기서 xi는 1 부터 m 사이의 상수 값을 가지는 상수이고, i는 위에서 아래로 연속되는 픽셀 y좌표값이다. 시접선의 에너지

Figure pat00009
는 시접선을 이루는 각 픽셀 에너지의 총합인
Figure pat00010
로 표현될 수 있다. 최적의 시접선을
Figure pat00011
이라 할 경우, 이는 아래 [수학식 6]에 의해 정의될 수 있다.Here, x i is a constant having a constant value between 1 and m, and i is the y-coordinate value of a continuous pixel from top to bottom. The energy of the line of sight
Figure pat00009
Is the sum of the energy of each pixel forming the line of sight
Figure pat00010
It can be expressed as Optimal seam tangent
Figure pat00011
In this case, it can be defined by [Equation 6] below.

[수학식 6][Equation 6]

Figure pat00012
Figure pat00012

여기서, 최적의 시접선은 동적 계획법에 의해 구해질 수 있다. 전체에너지 E 와 같은 사이즈의 누적 최소 에너지 M이 있다고 가정하고, 첫 번째 행에는 전체 에너지 E의 첫 번째 행 값과 동일한 값을 부여한다. 그리고 다음 과정을 통해 누적 최소 에너지의 두 번째 행부터 마지막 행 까지를 연산해가며 모든 가능한 시접선의 에너지를 계산한다. 즉, 구체적으로 설명하면, 두번째 행부터 마지막 행까지, 행을 먼저 고정하고 열을 이동시키며 아래 [수학식 7]을 수행하고, 마지막 열에 도달한 경우 행을 바꾸어 다시 첫 열부터 마지막 열까지 [수학식 7]을 수행한다. 결국, 연산이 완료되었을 때, 마지막 행에서 최소값을 가지는 픽셀 위치가 최적 시접선의 마지막 픽셀 위치가 될 수 있다. 따라서, 그 위치로부터 위 행의 근접한 3픽셀을 살피며 최소값을 가지는 위치를 기록하며 전진하여 최적 시접선

Figure pat00013
을 연산한다. 이후, [수학식 7]에 의해 구해진 누적 최소 에너지 M을 활용하면 영상에서 중요도가 높은 영역을 시각적으로 확인할 수 있게 된다.Here, the optimal seam tangent line can be obtained by dynamic programming. Assuming that there is a cumulative minimum energy M of the same size as the total energy E, the first row is given the same value as the first row value of the total energy E. Then, by calculating the accumulated minimum energy from the second row to the last row through the following process, the energy of all possible sea tangent lines is calculated. Specifically, from the second row to the last row, the row is fixed first and the column is moved, and the following [Equation 7] is performed. When the last column is reached, the row is changed and again from the first column to the last column [Math Equation 7] is carried out. Consequently, when the operation is completed, the pixel position having the minimum value in the last row may be the last pixel position of the optimal seam tangent line. Therefore, looking at the 3 pixels adjacent to the upper row from that position, recording the position with the minimum value and moving forward
Figure pat00013
Computes Thereafter, by using the cumulative minimum energy M obtained by [Equation 7], it is possible to visually check the area of high importance in the image.

[수학식 7][Equation 7]

Figure pat00014
Figure pat00014

2. 시접선 업데이트2. Sea tangent update

시접선은 상기 [수학식 7]을 이용한 일련의 과정으로 매 프레임 추정된다. 모든 프레임에서 추정된 시접선을 이용하여 영상을 정합하면, 정합 영역에서 잦은 시접선 위치 변화에 따른 영상 왜곡이 영상 관측자에게 인지될 수 있다. 이를 방지하기 위해, 주어진 프레임에서 추정된 시접선과 이전에 추정된 시접선의 에너지 차가 큰 경우에만 시접선을 업데이트할 수 있다. The seam tangent is estimated every frame through a series of processes using [Equation 7]. When images are matched using the seam tangent line estimated in all frames, image distortion due to frequent changes in the seam tangent position in the matching area can be perceived by the image observer. To prevent this, the seam tangent may be updated only when the energy difference between the estimated seam tangent line and the previously estimated seam tangent line in a given frame is large.

도 2는 시접선 업데이트가 불필요한 경우와 필요한 경우를 보여준다. t0와 t1 시간에서 추정된 시접선이 각각 실선과 점선으로 표시 되어있다. 예를 들어, 도 2의 (a)의 경우에는 움직이는 객체가 존재하지 않아, t0 시간의 영상과 t1 시간의 영상이 비슷하고 따라서 두 시간에서 각각 추정된 시접선의 에너지 차가 적음을 알 수 있다. 따라서 이 경우에는 시접선 업데이트가 일어나지 않는다. 2 shows a case where a seam line update is unnecessary and a case where it is necessary. The seam tangent lines estimated at times t0 and t1 are indicated by solid and dotted lines, respectively. For example, in the case of (a) of FIG. 2, since there is no moving object, the image at time t0 and the image at time t1 are similar, and therefore, the energy difference between the seam tangent estimated at each of the two times is small. Therefore, in this case, the seam line update does not occur.

반면, 도 2의 (b)의 경우에는 객체의 이동에 의해 t0와 t1 시간에서 추정한 시접선 위치의 영상이 달라져 두 시접선 위치에서 에너지 차가 발생한다. 따라서, 이 경우에는 시접선 업데이트를 수행하는 것이 바람직하다. 현재 프레임에서 추정된 시접선과 이전 프레임에서 추정된 시접선이 통과하는 위치의 에너지차는 다음 [수학식 8]과 같이 구해진다.On the other hand, in the case of (b) of FIG. 2, the image of the position of the seam tangent estimated at times t0 and t1 is different due to the movement of the object, so that an energy difference occurs at the two positions of the seam tangent. Therefore, in this case, it is desirable to perform the seam tangent update. The energy difference between the seam tangent line estimated in the current frame and the position where the seam tangent line estimated in the previous frame passes is obtained as shown in [Equation 8] below.

[수학식 8][Equation 8]

Figure pat00015
Figure pat00015

상기 [수학식 8]을 이용하여 주어진 프레임에서 사용할 시접선은 다음 [수학식 9]와 같이 결정될 수 있다. The seam tangent to be used in a given frame using [Equation 8] may be determined as follows [Equation 9].

[수학식 9][Equation 9]

Figure pat00016
Figure pat00016

3. 영상 정합3. Image registration

추정된 시접선을 이용하여 이웃한 두 영상을 정합 하여 하나의 영상으로 합성한다. 시접선 기준으로 좌우 영상을 그대로 이용하면 시접선의 위치가 그대로 들어나 영상 품질을 저하시킬 수 있기 때문에, 시접선을 기준으로 마스크를 연산하고, 연산된 마스크의 경계를 기준으로 좌우 선형 블렌딩(blending)을 수행한 후 두 영상을 합하여 정합 영상을 합성한다. Two neighboring images are matched using the estimated seam tangent and synthesized into one image. If the left and right images are used as they are based on the line of sight, the position of the line of sight is displayed as it is, but the image quality can be degraded.Therefore, the mask is calculated based on the line of sight, and left and right linear blending is performed based on the calculated boundary of the mask. After performing, the two images are combined to synthesize a matched image.

도 3은 선형 블렌딩을 이용한 영상 정합의 예시를 나타낸다. 도 3(a) (b)는 정합에 이용되는 좌우 영상

Figure pat00017
?恙?
Figure pat00018
의 일부이고 도 3 (c)는 선형 블렌딩에 이용되는 마스크 w(x,y,t)이다. 여기서, 마스크 w(x,y,t)는, 추정된 시접선의 왼쪽 픽셀이 1을 가지도록 하고, 오른쪽에 있는 픽셀들이 0을 가지도록 한 후, 자연스러운 정합 결과를 얻기 위하여 가우시안 필터 등을 이용하여 필터링을 수행할 수 있다. 상기 구해진 마스크 w(x,y,t)를 이용하여 정합 영상을 아래 [수학식 10] 과 같이 구할 수 있다. 3 shows an example of image matching using linear blending. 3(a) (b) are left and right images used for registration
Figure pat00017
?恙?
Figure pat00018
3(c) is a mask w(x,y,t) used for linear blending. Here, the mask w(x,y,t) is made so that the left pixel of the estimated seam tangent has 1 and the pixels on the right have 0, and then a Gaussian filter or the like is used to obtain a natural matching result. Filtering can be performed. Using the obtained mask w(x,y,t), a matched image can be obtained as shown in [Equation 10] below.

[수학식 10][Equation 10]

Figure pat00019
Figure pat00019

또한, k개의 카메라로부터 취득된 k개의 ERP 공간 변환 영상

Figure pat00020
을 중첩 영역에서 추정된 복수의 시접선을 이용하여 연속적으로 정합 하여 최대 360도 시야각의 정합 영상을 합성할 수 있다. 이를 적용하여 상기 [수학식 10]을 변형하면 다음 [수학식 11]과 같이 정의할 수도 있다. Also, k ERP spatial transformed images acquired from k cameras
Figure pat00020
A matched image with a viewing angle of up to 360 degrees can be synthesized by successively matching by using a plurality of seam tangent lines estimated in the overlapping area. By applying this to modify the above [Equation 10], it may be defined as the following [Equation 11].

[수학식 11] [Equation 11]

Figure pat00021
Figure pat00021

여기서 k는 1 보다 큰 양수이며, wk는 k-1 과 k번째 영상의 시접선 추정 결과로부터 얻어진 선형 블렌딩 마스크이다. 이때, wk는 합성 영상

Figure pat00022
와 같은 해상도를 가진다.Here, k is a positive number greater than 1, and w k is a linear blending mask obtained from the results of estimating the seam tangent of the k-1 and k-th images. In this case, w k is the composite image
Figure pat00022
It has the same resolution as

4. 정합 영상의 왜곡 측정을 위한 정량적 지표4. Quantitative index for measuring distortion of matched image

이웃한 카메라로부터 취득된 두 영상에는 같은 공간을 촬영한 중첩 영역이 있다. 중첩 영역의 객체 및 배경은 시접선을 기준으로 좌측 또는 우측 영상에 왜곡 또는 깨짐 없이 존재한다. 따라서 좌우 영상과 정합 된 영상을 비교하여 객체 및 배경의 왜곡 및 깨짐에 따른 영상 품질을 측정할 수 있다. Two images acquired from neighboring cameras have an overlapping area photographing the same space. Objects and backgrounds in the overlapping area exist in the left or right image without distortion or breakage based on the seam tangent line. Therefore, it is possible to measure image quality due to distortion and breakage of objects and backgrounds by comparing the image matched with the left and right images.

이웃하는 두 카메라로부터 취득한 영상

Figure pat00023
,
Figure pat00024
와 정합된 영상 을 이용하여 다음 [수학식 12]와 같이 연산할 수 있다. Video from two neighboring cameras
Figure pat00023
,
Figure pat00024
Using the image matched with can be calculated as shown in [Equation 12] below.

[수학식 12][Equation 12]

Figure pat00025
Figure pat00025

또한, 연산의 결과로 정합 된 영상과 좌측 또는 우측 영상의 차이가 발생하는 곳의 에러 맵(error map)을 구성할 수 있다. 이를 확장하면, k개의 ERP 영상을 이용하여 정합된 영상

Figure pat00026
의 에러 맵은 아래 [수학식 13]으로 나타낼 수 있고, 이로부터 왜곡 정량 지표는 [수학식 14]를 이용하여 연산한다. In addition, as a result of the operation, an error map may be constructed where a difference between the matched image and the left or right image occurs. If this is expanded, the image matched using k ERP images
Figure pat00026
The error map of can be expressed by the following [Equation 13], and the distortion quantitative index is calculated using [Equation 14].

[수학식 13][Equation 13]

Figure pat00027
Figure pat00027

[수학식 14][Equation 14]

Figure pat00028
Figure pat00028

도 4 및 도 5는 본 발명의 실시예와 기존 방식과의 비교 실험 수행 결과를 설명하기 위해 도시한 것이다. 실험에 사용한 영상들은 어안렌즈가 장착된 카메라가 60도 간격으로 이웃하여 6개 존재하고, 각 렌즈의 화각이 185도인 360도 카메라에서 취득한 동영상을 프레임별로 ERP공간 변환하여 생성하였다. 영상들은 다양한 배경 환경에서 객체의 이동이 있는 상태에서 촬영되었으며, 이를 이용하여 제안 방법이 움직이는 객체를 성공적으로 보존하는 시접선을 형성하는지 확인할 수 있다. 본 발명에서 제안하는 알고리즘 구현과 테스트는 특정 운영체제 (예, WINDOWS 10)에서 MATLAB R2019a을 사용하였다. 알고리즘 테스트에 사용된 동영상은 총 4종이며, 영상 별로 약 300 ~ 900 프레임을 포함하고 있다. 4종의 영상을 이용하여 제안하는 시접선 추정 및 업데이트 기술과 종래 시접선 추정 및 업데이트 방법을 비교하며, 정합 결과 영상에 정합 영상 왜곡 측정지표를 적용하여 비교 실험을 수행한다. 4 and 5 are diagrams for explaining the results of a comparative experiment between an embodiment of the present invention and a conventional method. The images used in the experiment were created by converting the ERP space for each frame of a video acquired from a 360-degree camera with a fisheye lens-equipped camera at 60-degree intervals, and each lens has an angle of view of 185 degrees. The images were captured in various background environments with the movement of the object, and using this, it is possible to check whether the proposed method forms a seam line that successfully preserves the moving object. The implementation and testing of the algorithm proposed in the present invention used MATLAB R2019a in a specific operating system (eg, WINDOWS 10). There are a total of 4 videos used in the algorithm test, and each video contains about 300 to 900 frames. The proposed seam tangent estimation and update technique using four types of images is compared with the conventional seam tangent estimation and update method, and a comparison experiment is performed by applying the matching image distortion measurement index to the matching result image.

ERP 변환 영상에서 시접선 추정을 위해 사용되는 영역은 이웃한 두 영상에서 같은 공간을 포함하는 중첩 영역이다. 6대의 어안렌즈 카메라를 60도 간격으로 배치한 카메라에서 취득한 영상을 정합하기 위하여 총 6개의 중첩 영역이 사용되며, 중첩 영역들의 좌우 영상은 실험적으로 확인된 고정 좌표에서 취득한다.The area used for estimating the seam tangent in the ERP transformed image is an overlapping area including the same space in two adjacent images. A total of six overlapping regions are used to match images acquired from a camera in which six fisheye lens cameras are arranged at intervals of 60 degrees, and the left and right images of the overlapping regions are acquired from fixed coordinates experimentally confirmed.

종래 방식에서는 시접선을 추정하기 위하여, 전술한 본 발명의 상세한 설명 섹션에서 설명한 세 에너지 항목 중 외곽선과 시차 에너지 항목 만을 이용한다. 즉, 시접선 업데이트를 수행하기 위해서는, 새로운 프레임에서 시접선을 추정하고, 기존 시접선과의 픽셀 별 외곽선 에너지 차이를 연산한다. 연산된 외곽선 에너지 차이가 일정 값 이상을 넘어가는 픽셀의 개수를 기록하여, 시접선 전체 픽셀 개수의 0.3배가 넘어가면 업데이트를 수행하게 된다.In the conventional method, in order to estimate the seam tangent line, only the outline and the parallax energy item among the three energy items described in the detailed description section of the present invention are used. That is, in order to perform the seam tangent line update, the seam tangent line is estimated in a new frame, and an outline energy difference for each pixel from the existing seam tangent line is calculated. The number of pixels whose calculated outline energy difference exceeds a predetermined value or more is recorded, and when the number of pixels exceeds 0.3 times the total number of pixels on the seam line, the update is performed.

도 4는 비교 실험 수행 결과 중 일부로서, 움직이는 객체에 의한 업데이트가 일어나는 연속 프레임을 제시한 것이다. 여기서, 도 4 (a), (b)는 종래 방식의 알고리즘을, 도 4 (c), (d)는 본 발명세서 제안하는 방법을 적용한 경우이다. 도 4에서 확인할 수 있듯이. 종래 알고리즘에 의한 결과물로서 도 4 (a), (b)는, 객체에 의한 왜곡이 다소 많이 발생한 이후 업데이트 동작을 수행하는 것으로 보이며, 이는 업데이트 시, 일정 개수의 픽셀 이상에서 외곽선 에너지 값 차이가 존재하여야 하기 때문으로 판단된다. 반면 도 4 (c), (d)에 도시된 본 발명의 제안 알고리즘에 의한 결과는, 시접선 에너지 총합의 변화량이 일정량이 넘는 경우 업데이트 되도록 제안되었고, 움직이는 객체에 의한 에너지가 기존 알고리즘에 비해 높기 때문에, 이동 객체에 의한 업데이트가 빠르게 나타나는 것을 알 수 있다. 4 is a part of the results of a comparison experiment, and shows a continuous frame in which an update occurs by a moving object. Here, Figs. 4 (a) and (b) show the conventional algorithm, and Figs. 4 (c) and (d) show the case of applying the method proposed in the present invention. As can be seen in Figure 4. As a result of the conventional algorithm, Figs.4 (a) and (b) show that the update operation is performed after a little distortion by the object occurs, and this is when updating, there is a difference in the outline energy value in more than a certain number of pixels. It is judged because it should be done. On the other hand, the result of the proposed algorithm of the present invention shown in Figs. 4 (c) and (d) is proposed to be updated when the total amount of change in the summation line energy exceeds a certain amount, and the energy by the moving object is higher than that of the existing algorithm. Therefore, it can be seen that the update by the moving object appears quickly.

또한, 도 5의 (a)는 에너지 맵을, 도 5 (b)는 누적 최소 에너지 맵을 도시한 것이며, 도 5 각 열은 도 4에 대응한다. 즉, 영상 별로 최대값 정규화가 적용되어, 높은 값을 가지는 영역을 강하게 보여주고 있다. 이를 통해 본 발명에서 제안한 알고리즘에서 움직이는 객체가 배경에 비해 높은 에너지와 중요도를 가지는 것을 확인할 수 있다.In addition, FIG. 5A shows an energy map, FIG. 5B shows a cumulative minimum energy map, and each column of FIG. 5 corresponds to FIG. 4. That is, the maximum value normalization is applied for each image, and the region with a high value is strongly displayed. Through this, it can be confirmed that the moving object has higher energy and importance compared to the background in the algorithm proposed in the present invention.

영상 정합에 시접선을 이용한 추정 방법을 주로 사용하고 있으나, 객체와 배경의 에너지를 동일하게 취급하는 에너지 항목들 만으로는 추정된 시접선이 객체를 통과하여 영상에 왜곡이 발생하는 경우를 방지하기 어렵다. 이를 극복하기 위해 본 발명은 객체의 움직임을 반영하는 에너지를 시접선을 추정하기 위한 에너지 항목에 추가하여, 높은 시각적 중요도를 가지는 이동 객체에서의 정합 왜곡 현상을 방지하였다. 이를 증명하기 위하여 정합 영상의 왜곡을 정량적으로 나타내는 지표를 제시하고, 비교 실험을 수행하였으며, 왜곡 정량 지표 값을 통해 동영상의 전반적인 정합 품질이 향상되는 것을 확인하였다. 시접선 추정 기반의 영상 정합 기술들은, 배경 에너지와 분리될 수 있는 객체에너지를 이용하여 객체의 실제 위치보다 몇 픽셀 상하좌우의 에너지를 활용하여 시접선 업데이트가 더욱 빨리 일어날 수 있게 하거나, 느린 움직임을 보이는 객체 등에서 선별적으로 에너지를 강화하는 등의 다양한 응용이 가능할 것으로 기대된다.Although the estimation method using the seam tangent line is mainly used for image matching, it is difficult to prevent distortion in the image due to the estimated seam tangent line passing through the object only with energy items that treat the energy of the object and the background equally. In order to overcome this, the present invention prevents a matching distortion phenomenon in a moving object having a high visual importance by adding energy reflecting the motion of the object to the energy item for estimating the seam tangent line. To prove this, an index that quantitatively represents the distortion of the matched image was presented, a comparison experiment was performed, and it was confirmed that the overall match quality of the video was improved through the distortion quantitative index value. Image matching techniques based on the line-of-sight line estimation use object energy that can be separated from the background energy, and use the energy of several pixels up, down, left, and right rather than the actual position of the object, so that the line-of-sight line update can occur faster, or slow motion is prevented. It is expected that various applications, such as selectively reinforcing energy in visible objects, etc., are possible.

도 8은 본 발명에 의한 다른 실시예를 도시한 것이다. 특히, 도 8은 본 발명의 다른 실시예에 따른 객체 움직임 정보를 이용한 시접선 추정 기술의 블록도 및 제어 흐름도를 도시한 것이다.8 shows another embodiment according to the present invention. In particular, FIG. 8 is a block diagram and a control flow diagram of a technique for estimating a seam tangent line using object motion information according to another embodiment of the present invention.

전술한 바와 같이, 영상을 정합하기 위해서 두대 이상의 카메라에서 얻어진 영상을 이용하여 ERP 등의 공간 변환을 수행한 후, 시접선을 기준으로 영상들을 교차하여 정합 시키는 방법이 주로 사용되고 있다. 그러나 흔히 사용되는 시접선 추정 기술은, 움직임이 있는 객체가 시접선으로 다가올 경우 움직임 정보를 반영한 시접선을 추정하지 못하며, 결과적으로 시접선이 객체를 통과하여 정합 영상의 왜곡을 종종 유발한다. 움직이는 객체에 대한 왜곡은 정합 영상 컨텐츠 사용자에게 불편함을 유발하기 때문에, 움직이는 객체를 피해 형성되는 시접선 추정 기술을 개발할 필요가 있다.As described above, after performing spatial transformation such as ERP using images obtained from two or more cameras to match images, a method of intersecting and matching images based on the line of sight is mainly used. However, in the commonly used seam tangent estimation technique, when a moving object approaches the seam tangent line, it cannot estimate the seam tangent line reflecting the motion information, and as a result, the seam tangent line passes through the object and often causes distortion of the matched image. Since the distortion of the moving object causes inconvenience to the users of the matched video content, it is necessary to develop a technology for estimating the seam tangent line formed avoiding the moving object.

도 8의 실시예를 참고하면, 본 발명의 시접선 추정 장치는, Gradient 계산부 (801, 802), 차영상 계산부 (811, 812), Dilation 계산부 (821), Shake 계산부 (831), 에너지 합 계산부(841) 및 시접선 추정부 (851)로 구성될 수 있다. 각 구성의 기능 및 작용을 구체적으로 설명하면 다음과 같다. Referring to the embodiment of FIG. 8, the apparatus for estimating a seam tangent line of the present invention includes a gradient calculation unit 801, 802, a difference image calculation unit 811, 812, a dilation calculation unit 821, and a shake calculation unit 831. , An energy sum calculation unit 841 and a time tangent estimating unit 851. The functions and actions of each component will be described in detail as follows.

우선, 상기 Gradient 계산부(801, 802)는 편미분을 이용하여 입력 영상들 간의 기울기로 에너지를 계산한다. 여기서, 상기 Gradient 계산부 801은, t-1 시간에서 에너지 Eg(t-1)를 계산하고, 상기 Gradient 계산부 802는, t 시간에서 에너지 Eg(t)를 계산한다. 구체적으로, 상기 Gradient 계산부 (801, 802) 에서는 중첩 영역에 해당하는 좌 우 영상 IA, IB을 입력으로 받을 경우, x축 방향과 y 축 방향의 편미분을 계산하여

Figure pat00029
연산을 수행한다.First, the gradient calculation units 801 and 802 calculate energy based on a gradient between input images using partial derivatives. Here, the gradient calculator 801 calculates energy Eg(t-1) at time t-1, and the gradient calculator 802 calculates energy Eg(t) at time t. Specifically, when receiving the left and right images I A and I B corresponding to the overlapping region as inputs, the gradient calculation units 801 and 802 calculate partial derivatives in the x-axis and y-axis directions.
Figure pat00029
Perform the operation.

상기 차영상 계산부 (811, 812)는 입력 영상들 간의 차이를 계산한다. 여기서, 상기 차영상 계산부 811은, 전술한 Gradient 계산부 801 및 802의 결과로부터 차영상 에너지 Eo(t)을 구하는 것이고, 상기 차영상 계산부 812는, t 시간에서 입력 영상 xL(t) 와 xR(t) 간의 차영상 에너지 Ed(t)을 구하는 것이다. 구체적으로, 상기 차영상 계산부 (811, 812)에서는 좌 우 영상에 대해

Figure pat00030
연산 수행한다.The difference image calculation units 811 and 812 calculate a difference between input images. Here, the difference image calculation unit 811 is to obtain the difference image energy E o (t) from the results of the above-described gradient calculation units 801 and 802, and the difference image calculation unit 812, the input image x L (t ) And the difference image energy E d (t) between x R (t). Specifically, the difference image calculation units (811, 812) for the left and right images
Figure pat00030
Perform the operation.

상기 Dilation 계산부 (821)는, 상기 차영상 계산부 (811)의 결과로부터 영상을 좌우로 약간 이동시킨 에너지 Eod(t)를 계산한다. 구체적으로, 상기 Dilation 계산부 (821)는 주어진 에너지 영상 Eo에 대해

Figure pat00031
연산 수행한다. 여기서 p 는 적은 값의 상수이고, i,j 는 영상의 픽셀 위치를 의미한다. The Dilation calculation unit 821 calculates energy E od (t) obtained by slightly moving the image left and right from the result of the difference image calculation unit 811. Specifically, the Dilation calculation unit 821 is for a given energy image E o
Figure pat00031
Perform the operation. Here, p is a small-valued constant, and i,j is the pixel position of the image.

또한, 상기 Shake 계산부 (831)는 상기 차영상 계산부 (811)의 결과로부터 영상을 상하좌우로 크게 이동시킨 에너지 Eos(t)를 계산한다. 구체적으로, 상기 Shake 계산부 (831)는 주어진 에너지 영상 Eo에 대해 좌우로

Figure pat00032
를 수행하여 Eohs를 계산하고, 위 아래로
Figure pat00033
연산 수행한다. 이때 ph, pv는 상기 기술된 p 보다 큰 상수이며, i,j 는 영상의 픽셀 위치이다. In addition, the Shake calculation unit 831 calculates energy E os (t) obtained by moving the image largely up, down, left and right from the result of the difference image calculation unit 811. Specifically, the Shake calculation unit 831 left and right for a given energy image E o
Figure pat00032
To calculate E ohs , up and down
Figure pat00033
Perform the operation. In this case, p h and p v are constants greater than p described above, and i, j are pixel positions of the image.

상기 에너지 합 계산부 (841)는 전술한 과정에서 구해진 에너지 값들(Ed(t), Eod(t), Eos(t))을 더하여 합 에너지 E(t)를 연산한다. 구체적으로, 상기 에너지 합 계산부 (841)는 전술한 에너지들의 가중치 합을 이용하여 더하고, 결과 영상을 e 라 하였을 때,

Figure pat00034
을 가장 첫 행부터 아래로 내려가며 수행하여 이를 이용하여 합 에너지 연산 수행한다. 여기서 i,j 는 영상의 픽셀 위치이다.The energy sum calculation unit 841 calculates the sum energy E(t) by adding the energy values E d (t), E od (t), and E os (t) obtained in the above-described process. Specifically, when the energy sum calculation unit 841 adds by using the weighted sum of the aforementioned energies, and the resulting image is e,
Figure pat00034
The sum energy calculation is performed by going down from the first row and using it. Where i,j is the pixel position of the image.

또한, 상기 시접선 추정부 (851)는 상기 구해진 합 에너지 E(t)로부터, 에너지가 낮은 영역을 활용하여 시접선을 추정하게 된다. 구체적으로, 상기 시접선 추정부 (851)는 완성된 에너지 E의 가장 아래 행에서 가장 적은 값을 가지는 위치에서부터, 왼쪽 위, 오른쪽 위, 위의 픽셀 값 중 가장 작은 값이 있는 곳을 기록해가며 연속적으로 전진하여 시접선을 추정한다.In addition, the seam tangent line estimating unit 851 estimates the seam tangent line by using a low energy region from the obtained sum energy E(t). Specifically, the seam tangent estimating unit 851 continuously records the location with the smallest value among the pixel values of the top left, the top right, and the top from the location having the smallest value in the bottom row of the completed energy E. Advance to and estimate the seam tangent line.

도 9는 본 발명에 따른 또 다른 실시예로서, 객체 움직임 정보를 적용한 시접선 추정 방법을 활용한 영상 정합 장치를 도시한 것이다. 예를 들어, 본 발명의 실시예에 따른, 영상 정합 장치(1100)는, 메모리(1110), 프로세서(1120), 송수신부(1130) 및 기타 주변장치(1140)를 포함할 수 있다. 이때, 일 예로, 메모리(1110)는 비이동식 메모리 또는 이동식 메모리일 수 있다. 또한, 일 예로, 주변 장치(1240)는 디스플레이, GPS 또는 다른 주변기기일 수 있으며, 상술한 실시예로 한정되지 않는다. 또한, 일 예로, 상기 영상 정합 장치(1100)는 송수신부(1130)와 같이 유무선 통신 회로를 포함하거나, 통신 인터페이스를 포함할 수 있으며, 이에 기초하여 외부 디바이스와 통신을 수행할 수 있다. 상기 프로세서(1120)는 전술한 객체 움직임 정보를 이용한 영상 정합용 시접선 추정 프로세스 및/또는 영상 정합 프로세스를 수행하는 것이 가능하다.9 is a diagram illustrating an image matching apparatus using a method for estimating a seam tangent to which object motion information is applied, as another embodiment according to the present invention. For example, the image matching device 1100 according to an embodiment of the present invention may include a memory 1110, a processor 1120, a transmission/reception unit 1130, and other peripheral devices 1140. In this case, as an example, the memory 1110 may be a non-removable memory or a removable memory. In addition, as an example, the peripheral device 1240 may be a display, a GPS, or other peripheral device, and is not limited to the above-described embodiment. In addition, as an example, the image matching apparatus 1100 may include a wired/wireless communication circuit or a communication interface like the transmission/reception unit 1130, and may perform communication with an external device based on this. The processor 1120 may perform an image matching time tangent estimation process and/or an image matching process using the above-described object motion information.

본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다. Various embodiments of the present disclosure are not listed in all possible combinations, but are intended to describe representative aspects of the present disclosure, and matters described in the various embodiments may be applied independently or may be applied in combination of two or more.

또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. 예를 들어, 상기 프로세서는 컴퓨터로 판독 가능한 프로그래밍 언어로 작성된 소프트웨어로 구현될 수도 있으며, 상기 범용 프로세서를 포함한 다양한 형태를 띨 수도 있다. 하나 혹은 그 이상의 결합으로 이루어진 하드웨어로 개시될 수도 있음은 자명하다.In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. For implementation by hardware, one or more ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), PLDs (Programmable Logic Devices), FPGAs (Field Programmable Gate Arrays), general purpose It may be implemented by a processor (general processor), a controller, a microcontroller, a microprocessor, or the like. For example, the processor may be implemented as software written in a computer-readable programming language, and may take various forms including the general-purpose processor. It is obvious that it may be disclosed as hardware consisting of one or more combinations.

본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행 가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.The scope of the present disclosure is software or machine-executable instructions (for example, operating systems, applications, firmware, programs, etc.) that allow an operation according to a method of various embodiments to be executed on a device or a computer, and such software or It includes a non-transitory computer-readable medium (non-transitory computer-readable medium) which stores instructions and the like and is executable on a device or a computer.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로, 본 발명의 범위는 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.The present invention described above, for those of ordinary skill in the art to which the present invention pertains, various substitutions, modifications and changes are possible within the scope of the technical spirit of the present invention, so that the scope of the present invention is described above. It is not limited by one embodiment and the accompanying drawings.

1110 : 메모리
1120 : 프로세서
1130 : 송수신부
1140 : 주변장치
1110: memory
1120: processor
1130: transmitting and receiving unit
1140: peripheral device

Claims (1)

객체 움직임을 적용한 시접선 추정 단계,
상기 추정된 시접선의 에너지 차를 적용한 시접선 업데이트 단계, 및
상기 추정된 시접선 또는 상기 업데이트된 시접선을 이용한 영상 정합 단계를 포함하되,
상기 시접선 추정 단계는 정합 하고자 하는 두 영상에 포함된 객체 및 배경의 구조를 나타내는 에너지를 구하는 단계 및 에너지가 작은 부분을 통과하는 시접선을 추정하는 단계를 포함하는, 객체 움직임 정보를 적용한 시접선 추정 방법을 이용한 영상 정합 방법.
The step of estimating the seam tangent line applying object motion,
A seam tangent update step by applying the energy difference of the estimated seam tangent line, and
Including an image matching step using the estimated seam tangent line or the updated seam tangent line,
The seam tangent estimating step includes obtaining energy representing structures of objects and backgrounds included in the two images to be matched, and estimating a seam tangent line passing through a portion having a small energy. Image matching method using estimation method.
KR1020200113147A 2019-09-06 2020-09-04 Method and Apparatus for Seamline estimation based on moving object preserving KR20210029689A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190110422 2019-09-06
KR20190110422 2019-09-06

Publications (1)

Publication Number Publication Date
KR20210029689A true KR20210029689A (en) 2021-03-16

Family

ID=75224087

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200113147A KR20210029689A (en) 2019-09-06 2020-09-04 Method and Apparatus for Seamline estimation based on moving object preserving

Country Status (1)

Country Link
KR (1) KR20210029689A (en)

Similar Documents

Publication Publication Date Title
US11509824B2 (en) Method for tracking target in panoramic video, and panoramic camera
CN111899282B (en) Pedestrian track tracking method and device based on binocular camera calibration
US11210804B2 (en) Methods, devices and computer program products for global bundle adjustment of 3D images
US8290212B2 (en) Super-resolving moving vehicles in an unregistered set of video frames
US20190320154A1 (en) Electronic system including image processing unit for reconstructing 3d surfaces and iterative triangulation method
CN113330486A (en) Depth estimation
CN105374019A (en) A multi-depth image fusion method and device
EP3236424B1 (en) Information processing apparatus and method of controlling the same
CN110070564A (en) A kind of characteristic point matching method, device, equipment and storage medium
CN112215880B (en) Image depth estimation method and device, electronic equipment and storage medium
EP3065107B1 (en) Coherent motion estimation for stereoscopic video
CN110706262B (en) Image processing method, device, equipment and storage medium
JP2011060282A (en) Method and system for motion detection using nonlinear smoothing of motion field
US20220148207A1 (en) Processing of depth maps for images
CN110874853A (en) Method, device and equipment for determining target motion and storage medium
JP5911292B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
CN113724391A (en) Three-dimensional model construction method and device, electronic equipment and computer readable medium
CN106846250B (en) Super-resolution reconstruction method based on multi-scale filtering
WO2015198592A1 (en) Information processing device, information processing method, and information processing program
JP2001148012A (en) Method and device for searching corresponding point
KR20170037804A (en) Robust visual odometry system and method to irregular illumination changes
CN114916239A (en) Estimating depth of images and relative camera pose between images
JP2005141655A (en) Three-dimensional modeling apparatus and three-dimensional modeling method
KR20210029689A (en) Method and Apparatus for Seamline estimation based on moving object preserving
Xu et al. Spatio-temporal video completion in spherical image sequences