KR20210120185A - Feature point matching method and apparatus for 360 degree erp format stitching image generation - Google Patents

Feature point matching method and apparatus for 360 degree erp format stitching image generation Download PDF

Info

Publication number
KR20210120185A
KR20210120185A KR1020200036556A KR20200036556A KR20210120185A KR 20210120185 A KR20210120185 A KR 20210120185A KR 1020200036556 A KR1020200036556 A KR 1020200036556A KR 20200036556 A KR20200036556 A KR 20200036556A KR 20210120185 A KR20210120185 A KR 20210120185A
Authority
KR
South Korea
Prior art keywords
feature point
stitching
image
format
point matching
Prior art date
Application number
KR1020200036556A
Other languages
Korean (ko)
Inventor
윤정일
엄기문
이희경
정원식
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020200036556A priority Critical patent/KR20210120185A/en
Publication of KR20210120185A publication Critical patent/KR20210120185A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/002Denoising; Smoothing
    • G06T5/70
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

Provided are a feature point matching method and device for generating a 360-degree omnidirectional ERP format stitching image. The feature point matching method includes the steps of: detecting stitching points between a plurality of input images; applying the predetermined transformation to the detected stitching points; and detecting at least one feature point from the stitching point to which the transformation is applied, and performing feature point matching on the detected feature point. The predetermined transformation may project the stitching point center to an image position of a predetermined projection format.

Description

360도 전방위 ERP 포맷 스티칭 영상 생성을 위한 특징점 매칭 방법 및 장치{FEATURE POINT MATCHING METHOD AND APPARATUS FOR 360 DEGREE ERP FORMAT STITCHING IMAGE GENERATION}FEATURE POINT MATCHING METHOD AND APPARATUS FOR 360 DEGREE ERP FORMAT STITCHING IMAGE GENERATION

본 발명은 360도 전방위 ERP 포맷 스티칭 영상 생성을 위한 특징점 매칭 방법 및 장치에 관한 것이다. 구체적으로, 360도 전방위 영상을 ERP 포맷으로 스티칭하는 과정에서 ERP 포맷의 투영 방식에 따른 왜곡을 보정하면서 특징점을 매칭하는 방법 및 장치에 관한 것이다.The present invention relates to a feature point matching method and apparatus for generating a 360-degree omnidirectional ERP format stitching image. Specifically, it relates to a method and apparatus for matching feature points while correcting distortion according to the projection method of the ERP format in the process of stitching a 360-degree omnidirectional image to the ERP format.

ERP(Equi-Rectangular Projection) 포맷은 360도 전방위 스티칭 영상을 생성하기 위한 대표적인 방법 중 하나이다. 도 1은 일 실시예에 따른 구 투영 방식으로 스티칭된 ERP 포맷 영상을 나타내는 도면이다. ERP 포맷은 가상의 구(sphere) 형태를 고려하여 360도 영상을 투영하는 등장방형도법으로서, 360도 전 공간을 볼 수 있도록 다수의 어안렌즈나 일반렌즈가 이용될 수 있다. 특히, 어안렌즈를 이용하면, 좌우상하 180도 이상의 공간을 영상 1장으로 촬영할 수 있으며, 또한 최소 2장의 영상을 이용하여 수평수직 360도 스티칭 영상을 생성할 수 있다. 그러나, 어안렌즈를 이용하는 방법은 영상의 왜곡이 발생하기 때문에 복잡한 복원 알고리즘이 필요하다. The ERP (Equi-Rectangular Projection) format is one of the representative methods for generating a 360-degree omnidirectional stitching image. 1 is a diagram illustrating an ERP format image stitched in a sphere projection method according to an embodiment. The ERP format is an equirectangular projection method that projects a 360-degree image in consideration of a virtual sphere shape, and multiple fisheye lenses or general lenses can be used to view the entire 360-degree space. In particular, if a fisheye lens is used, a space of 180 degrees or more can be captured with one image, and a horizontal and vertical 360-degree stitched image can be generated using at least two images. However, the method using the fisheye lens requires a complex reconstruction algorithm because image distortion occurs.

도 2는 일 실시예에 따른 스티칭 영상을 생성하는 과정을 나타내는 도면이다. 스티칭 영상을 생성하는 일반적인 과정은, 우선 영상들 간에 연결되는 부분(또는 중첩 영역)을 찾기 위해, SIFT(Scale-Invariant Feature Transform), SURF(Speeded-Up Robust Features)와 같은 알고리즘을 이용하여, 영상의 에지(edge)와 코너(corner)와 같은 특징점을 검출(201)할 수 있다. 또한, 특징점의 지역적 특징에 기초하여 기술자를 생성하고, FLANN(Fast Library for Approximate Nearest Neighbors)과 같은 매칭 기법을 이용하여 비슷한 기술자를 가진 특징점을 매칭(202)시킬 수 있다. 또한, 구해진 매칭점들을 이용해 호모그래피(homography)를 생성할 수 있다. 여기서, 호모그래피는 같은 평면에 있는 영상들의 관계를 나타내는 행렬을 의미할 수 있다. 스티칭 기법은 호모그래피를 이용하여 서로 다른 카메라에서 찍은 영상을 하나의 좌표 공간에 표현할 수 있다. 또한, 영상 간의 연결 관계를 파악한 후 추정된 호모그래피를 이용하여 기준 영상면으로 모든 영상을 워핑(warping)하고 정렬(203)할 수 있다. 또한, 블렌딩(blending) 기법(204)을 이용하여 서로 다른 텍스처를 가진 두 영상을 자연스럽게 이음으로써 고스트 현상이나 영상 부정합이 줄어든 스티칭 영상이 획득할 수 있다.2 is a diagram illustrating a process of generating a stitched image according to an exemplary embodiment. A general process of generating a stitched image is to first find a part (or overlapping region) connected between images, using an algorithm such as SIFT (Scale-Invariant Feature Transform) and SURF (Speed-Up Robust Features). Feature points such as edges and corners of 201 may be detected. Also, a descriptor may be generated based on the local feature of the feature point, and feature points having similar descriptors may be matched ( 202 ) using a matching technique such as FLANN (Fast Library for Approximate Nearest Neighbors). Also, a homography may be generated using the obtained matching points. Here, the homography may mean a matrix indicating a relationship between images on the same plane. The stitching technique can express images taken by different cameras in one coordinate space using homography. In addition, after determining the connection relationship between the images, all images may be warped and aligned (203) to the reference image plane using the estimated homography. In addition, a stitching image with reduced ghosting or image mismatch can be obtained by naturally joining two images having different textures using the blending technique 204 .

본 발명은 360도 전방위 ERP 포맷 스티칭 영상 생성을 위한 특징점 매칭 방법 및 장치를 제공하는 것을 목적으로 한다.An object of the present invention is to provide a feature point matching method and apparatus for generating a 360-degree omnidirectional ERP format stitching image.

또한, 본 발명은 360도 전방위 영상을 ERP 포맷으로 스티칭하는 과정에서 ERP 포맷의 투영 방식에 따른 왜곡을 보정하면서 특징점을 매칭하는 방법 및 장치를 제공하는 것을 목적으로 한다.In addition, an object of the present invention is to provide a method and apparatus for matching feature points while correcting distortion according to the projection method of the ERP format in the process of stitching a 360-degree omnidirectional image to the ERP format.

본 발명에 따르면, 복수의 입력 영상간 스티칭 포인트를 검출하는 단계; 상기 검출된 스티칭 포인트에 대해 소정의 변환을 적용하는 단계; 및 상기 변환이 적용된 스티칭 포인트에서 적어도 하나의 특징점(feature point)을 검출하고, 상기 검출된 특징점에 대해 특징점 매칭을 수행하는 단계를 포함하고, 상기 소정의 변환은, 상기 스티칭 포인트 중심을 소정의 프로젝션 포맷의 영상 위치로 투영시키는, 360도 전방위 ERP 포맷 스티칭 영상 생성을 위한 특징점 매칭 방법이 제공될 수 있다.According to the present invention, detecting a stitching point between a plurality of input images; applying a predetermined transform to the detected stitching points; and detecting at least one feature point from the stitching point to which the transformation is applied, and performing feature point matching on the detected feature point, wherein the predetermined transformation includes a predetermined projection of the stitching point center A feature point matching method for generating a 360-degree omnidirectional ERP format stitching image that is projected to the image position of the format may be provided.

상기 프로젝션 포맷은, ERP(Equi-Rectangular Projection) 포맷인 것을 특징으로 할 수 있다.The projection format may be characterized as an ERP (Equi-Rectangular Projection) format.

상기 소정의 프로젝션 포맷의 영상 위치는, 구(sphere) 좌표계상의 위도 0도 및 경도 0도에 해당하는 위치인 것을 특징으로 할 수 있다.The image location of the predetermined projection format may be a location corresponding to 0 degrees latitude and 0 degrees longitude on a sphere coordinate system.

상기 특징점 매칭을 수행하는 단계는, 상기 특징점의 좌표를 일치시키기 위해 상기 입력 영상을 보정하는 단계를 포함할 수 있다.The performing of the key point matching may include correcting the input image to match the coordinates of the key point.

상기 방법은, 상기 보정된 입력 영상에 대해 블렌딩(blending)을 수행하는 단계를 더 포함할 수 있다.The method may further include performing blending on the corrected input image.

또한, 본 발명에 따르면, 360도 전방위 ERP 포맷 스티칭 영상 생성을 위한 특징점 매칭 장치에 있어서, 상기 장치는, 복수의 입력 영상간 스티칭 포인트를 검출하고, 상기 검출된 스티칭 포인트에 대해 소정의 변환을 적용하고, 상기 변환이 적용된 스티칭 포인트에서 적어도 하나의 특징점(feature point)을 검출하고, 상기 검출된 특징점에 대해 특징점 매칭을 수행하고, 상기 소정의 변환은, 상기 스티칭 포인트 중심을 소정의 프로젝션 포맷의 영상 위치로 투영시키는, 특징점 매칭 장치가 제공될 수 있다.In addition, according to the present invention, in the feature point matching apparatus for generating a 360-degree omnidirectional ERP format stitching image, the apparatus detects a stitching point between a plurality of input images, and applies a predetermined transformation to the detected stitching point and detecting at least one feature point from the stitching point to which the transformation is applied, and performing feature point matching on the detected feature point, and the predetermined transformation is an image of a predetermined projection format based on the stitching point center A feature point matching device for projecting to a location may be provided.

상기 프로젝션 포맷은, ERP(Equi-Rectangular Projection) 포맷인 것을 특징으로 할 수 있다.The projection format may be characterized as an ERP (Equi-Rectangular Projection) format.

상기 소정의 프로젝션 포맷의 영상 위치는, 구(sphere) 좌표계상의 위도 0도 및 경도 0도에 해당하는 위치인 것을 특징으로 할 수 있다.The image location of the predetermined projection format may be a location corresponding to 0 degrees latitude and 0 degrees longitude on a sphere coordinate system.

상기 장치는, 상기 특징점의 좌표를 일치시키기 위해 상기 입력 영상을 보정할 수 있다.The device may correct the input image to match the coordinates of the feature point.

상기 장치는, 상기 보정된 입력 영상에 대해 블렌딩(blending)을 수행할 수 있다.The device may perform blending on the corrected input image.

본 발명에 따르면, 360도 전방위 ERP 포맷 스티칭 영상 생성을 위한 특징점 매칭 방법 및 장치가 제공될 수 있다.According to the present invention, a feature point matching method and apparatus for generating a 360-degree omnidirectional ERP format stitching image may be provided.

또한, 본 발명에 따르면, 360도 전방위 영상을 ERP 포맷으로 스티칭하는 과정에서 ERP 포맷의 투영 방식에 따른 왜곡을 보정하면서 특징점을 매칭하는 방법 및 장치가 제공될 수 있다.In addition, according to the present invention, a method and apparatus for matching feature points while correcting distortion according to the projection method of the ERP format in the process of stitching a 360-degree omnidirectional image to the ERP format may be provided.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which the present disclosure belongs from the description below. will be.

도 1은 일 실시예에 따른 구 투영 방식으로 스티칭된 ERP 포맷 영상을 나타내는 도면이다.
도 2는 일 실시예에 따른 스티칭 영상을 생성하는 과정을 나타내는 도면이다.
도 3은 일 실시예에 따른 어안렌즈 영상을 구 좌표계의 기준에 따라 ERP 포맷 영상으로 워핑하는 과정을 나타내는 도면이다.
도 4는 일 실시예에 따른 360도 전방위 ERP 포맷 스티칭 영상 생성을 위한 특징점 매칭 방법의 흐름도이다.
1 is a diagram illustrating an ERP format image stitched in a sphere projection method according to an embodiment.
2 is a diagram illustrating a process of generating a stitched image according to an exemplary embodiment.
3 is a diagram illustrating a process of warping a fisheye lens image to an ERP format image according to a reference of a spherical coordinate system according to an embodiment.
4 is a flowchart of a feature point matching method for generating a 360-degree omnidirectional ERP format stitching image according to an embodiment.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다. 후술하는 예시적 실시예들에 대한 상세한 설명은, 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 실시예를 실시할 수 있기에 충분하도록 상세히 설명된다. 다양한 실시예들은 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 실시예의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 예시적 실시예들의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. Like reference numerals in the drawings refer to the same or similar functions throughout the various aspects. Shapes and sizes of elements in the drawings may be exaggerated for clearer description. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0010] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0010] Reference is made to the accompanying drawings, which illustrate specific embodiments by way of example. These embodiments are described in sufficient detail to enable those skilled in the art to practice the embodiments. It should be understood that various embodiments are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein with respect to one embodiment may be embodied in other embodiments without departing from the spirit and scope of the invention. In addition, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the embodiment. Accordingly, the detailed description set forth below is not intended to be taken in a limiting sense, and the scope of exemplary embodiments, if properly described, is limited only by the appended claims, along with all scope equivalents to those claimed.

본 발명에서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.In the present invention, terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

본 발명의 어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component of the present invention is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but other components may exist in between. It should be understood that there may be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that no other element is present in the middle.

본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.Components shown in the embodiment of the present invention are shown independently to represent different characteristic functions, and it does not mean that each component is composed of separate hardware or a single software component. That is, each component is listed as each component for convenience of description, and at least two components of each component are combined to form one component, or one component can be divided into a plurality of components to perform a function, and each Integrated embodiments and separate embodiments of components are also included in the scope of the present invention without departing from the essence of the present invention.

본 발명에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 발명에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 즉, 본 발명에서 특정 구성을 "포함"한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함될 수 있음을 의미한다. The terms used in the present invention are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present invention, terms such as "comprises" or "have" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof. That is, the description of "including" a specific configuration in the present invention does not exclude configurations other than the corresponding configuration, and it means that additional configurations may be included in the practice of the present invention or the scope of the technical spirit of the present invention.

본 발명의 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.Some components of the present invention are not essential components for performing essential functions in the present invention, but may be optional components for merely improving performance. The present invention can be implemented by including only essential components to implement the essence of the present invention, except for components used for performance improvement, and a structure including only essential components excluding optional components used for performance improvement Also included in the scope of the present invention.

이하, 도면을 참조하여 본 발명의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략하고, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.EMBODIMENT OF THE INVENTION Hereinafter, embodiment of this invention is described concretely with reference to drawings. In describing the embodiments of the present specification, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present specification, the detailed description is omitted, and the same reference numerals are used for the same components in the drawings. and repeated descriptions of the same components are omitted.

180도 이상의 어안렌즈를 이용하여 촬영된 두 영상에는 서로 겹치는 부분이 존재할 수 있으며, 상기 겹치는 부분을 스티칭 포인트라 한다. 영상간 결합을 위해 스티칭 포인트에서 특징점을 찾고, 해당 특징점들을 매칭하여야 한다. 360도 전방위 영상 스티칭 과정에서 주로 발생하는 왜곡 문제는 크게 2가지로 구분할 수 있다. 첫 번째는, 고스트 현상으로서 카메라 중심점이 일치하지 않아 시차가 큰 다수의 영상을 하나의 가상의 구로 투영할 때 발생될 수 있다. 상기 고스트 현상은 시차가 큰 객체의 구분된 영역별 국부 호모그래피(local homography)를 구하거나, 또는 깊이 정보를 이용하여 워핑하는 방법을 적용함으로써 해결될 수 있다. 두 번째는, 특징점을 정확하게 매칭하지 못함으로써 발생하는 왜곡으로서, 어안렌즈를 이용하여 획득된 영상을 보정하여 ERP 영상 포맷으로 변환한 후 특징점을 매칭하는 과정에서 발생될 수 있다.An overlapping portion may exist in two images captured using a fisheye lens of 180 degrees or more, and the overlapping portion is referred to as a stitching point. In order to combine the images, it is necessary to find a feature point at the stitching point and match the feature point. Distortion problems that occur mainly in the 360-degree omnidirectional image stitching process can be divided into two categories. The first is a ghost phenomenon, which may occur when a plurality of images with large parallaxes are projected onto a single virtual sphere because the camera center points do not coincide. The ghost phenomenon may be solved by obtaining a local homography for each divided area of an object having a large parallax or applying a warping method using depth information. The second is distortion caused by not accurately matching the key points, and may be generated in the process of matching the key points after correcting the image obtained using the fisheye lens and converting it to the ERP image format.

본 개시에 따르면, 카메라 중심점이 일치하지 않아 다수의 카메라에서 획득된 근거리의 객체에서 발생하는 시차로 인한 왜곡이 발생하지 않는 경우에, RP 포맷으로 변환된 영상들의 특징점을 매칭하는 과정에서 발생하는 왜곡을 줄일 수 있는 매칭점 워핑 방법이 제공될 수 있다. According to the present disclosure, when the camera center point does not match and distortion due to parallax occurring in a near object obtained from a plurality of cameras does not occur, distortion occurring in the process of matching the feature points of the images converted to the RP format A matching point warping method that can reduce .

도 3은 일 실시예에 따른 어안렌즈 영상을 구 좌표계의 기준에 따라 ERP 포맷 영상으로 워핑하는 과정을 나타내는 도면이다.3 is a diagram illustrating a process of warping a fisheye lens image to an ERP format image according to a reference of a spherical coordinate system according to an embodiment.

360도 전방위 스티칭 영상을 생성하는 과정에서, 화각이 넓은 어안렌즈를 이용할 경우, 렌즈 왜곡을 보정한 후 하나의 가상의 구 좌표를 기준으로 각 영상을 투영함으로써 ERP 포맷으로 워핑될 수 있다. 이때, 도 3의 예와 같이 화면 중심에서 바깥으로 갈수록(즉, 적도에서 멀어질수록) 영상 왜곡이 발생될 수 있다. 즉, 중심점에서 멀어질수록 추출된 특징점이 늘어지면서 검색 범위가 넓어지고 매칭점을 정확히 찾지 못할 가능성이 높아질 수 있다.In the process of generating a 360-degree omnidirectional stitching image, if a fisheye lens with a wide angle of view is used, after correcting lens distortion, each image is projected based on one virtual spherical coordinate, so that it can be warped in ERP format. In this case, as in the example of FIG. 3 , image distortion may occur from the center of the screen toward the outside (ie, as it moves away from the equator). That is, as the extracted feature points increase as the distance from the central point increases, the search range may be widened, and the probability that the matching point may not be accurately found may increase.

본 개시에 따르면, 특징점을 보다 잘 매칭하기 위해 각 특징점을 기준으로 구 좌표계를 변환하는 방법이 제공될 수 있다. According to the present disclosure, a method of transforming a spherical coordinate system based on each feature point in order to better match the feature point may be provided.

예컨대, ERP 중앙 부분에서는 비교적 왜곡이 적지만 상대적으로 시야각의 끝 쪽 가장자리 부분에서는 부자연스러운 왜곡이 많이 발생할 수 있으며, 스티칭 과정에서 상기 왜곡이 더 심해질 수 있다. 본 개시에 따르면, 상기 현상을 고려한 특징점 매칭 방법이 제공될 수 있다.For example, although the distortion is relatively small in the central part of the ERP, a lot of unnatural distortion may occur at the edge of the end of the viewing angle, and the distortion may be more severe in the stitching process. According to the present disclosure, a feature point matching method in consideration of the above phenomenon may be provided.

도 4는 일 실시예에 따른 360도 전방위 ERP 포맷 스티칭 영상 생성을 위한 특징점 매칭 방법의 흐름도이다.4 is a flowchart of a feature point matching method for generating a 360-degree omnidirectional ERP format stitching image according to an embodiment.

도 4를 참조하면, 입력 영상에 대해 k번째 중첩 영역에서의 '스티칭 포인트' 중심이 소정의 ERP 포맷 영상 위치로 투영되도록 하는 워핑 변환 Tk를 수행할 수 있다. 예컨대, 소정의 ERP 포맷 영상 위치는 구 좌표 위도 0도, 경도 0도에 해당하는 위치일 수 있다. 상기 워핑 변환을 이용하여 스티칭 포인트 중심이 상대적으로 ERP 중심 위치가 되도록 변환하고 특징점을 찾아 매칭을 수행할 수 있다. 이때, 특징점을 매칭하는 과정에서 특징점의 좌표를 일치시키기 위해 입력 영상을 보정할 수 있다. 본 개시에서 보정 방법을 구체적으로 기술하지 않았으나 매칭점들의 거리가 매우 가까운 경우 좁은 범위에서 영상의 일부를 늘리거나 줄이는 수준의 보정 방법이 이용될 수 있다. Referring to FIG. 4 , warping transformation T k such that the center of the 'stitching point' in the k-th overlapping region is projected to a predetermined ERP format image position may be performed on the input image. For example, the predetermined ERP format image location may be a location corresponding to 0 degrees latitude and 0 degrees longitude in spherical coordinates. By using the warping transformation, the stitching point center may be converted to be the ERP center position relatively, and matching may be performed by finding a feature point. In this case, in the process of matching the key points, the input image may be corrected to match the coordinates of the key points. Although the correction method is not specifically described in the present disclosure, when the matching points are very close, a correction method of increasing or decreasing a part of an image in a narrow range may be used.

예컨대, 보정 전 각 변환 영상 i에서의 특징점 좌표 pi와 매칭 및 보정 후 맞춰진 동일 특징점들의 좌표 p'를 저장할 수 있다. 또한, 변환 과정에서 발생하는 원본 영상의 정보 손실을 최소화 하기 위해 Tk의 역변환 Tk -1를 이용하여 pi와 p'에 대한 원본 입력 영상에서의 좌표 Tk -1(pi)와 Tk -1(p')를 계산하여 저장할 수 있다. 상기 과정을 이용하여 획득된 각 입력 영상에서의 특징점 좌표와 매칭 및 보정된 특징점 좌표를 워핑 변환 To를 이용하여, 스티칭 영상 생성을 위해 설정한 가상의 구 좌표계로 변환된 To(Tk -1(pi))와 To(Tk -1(p'))를 구할 수 있다. 워핑 변환 To는 소정의 구 좌표계 기준의 ERP 변환을 의미할 수 있다. ERP로 변환된 영상들의 특징점들이 보정된 특징점 To(Tk -1(p'))에 맞도록 영상을 보정할 수 있다. 상기 보정된 영상에 대해 블렌딩을 수행함으로써 최종 스티칭된 영상을 생성할 수 있다.For example, pre-compensation may store the coordinates p 'of the same feature point aligned after feature point coordinates p i and matching and calibration of each image transformation i. Further, in order to minimize the loss of information in the original image generated in the conversion coordinates in the original input image to p i and p 'using the inverse transformation T -1 of the k T k T k -1 (p i ) and T k -1 (p') can be calculated and stored. A by the feature point coordinates and the matching and a correction feature point coordinates of each input image obtained using the process of using a warped transform T o, it converted to a virtual spherical coordinate system of the set for the stitch image creation T o (T k - 1 (p i )) and T o (T k -1 (p')) can be found. Warping transformation T o may mean ERP transformation based on a predetermined spherical coordinate system. The image may be corrected so that the feature points of the ERP-converted images fit the corrected feature point T o (T k -1 (p')). A final stitched image may be generated by performing blending on the corrected image.

한편, 도 4의 예에서, 어안렌즈의 왜곡이 보정된 입력 영상 및 카메라 파라미터는 큰 오차 없이 획득되었다고 가정한다. 상기 어안렌즈의 왜곡이 보정된 영상과 카메라 외부(extrinsic) 및 내부(intrinsic) 파라미터를 이용하여 가상의 구 좌표계 기준의 ERP 및 스티칭 포인트 중심의 ERP 변환이 수행될 수 있다.Meanwhile, in the example of FIG. 4 , it is assumed that the input image and the camera parameter for which the distortion of the fisheye lens is corrected are obtained without a large error. Using the image in which the distortion of the fisheye lens is corrected and the camera extrinsic and intrinsic parameters, ERP conversion based on the virtual spherical coordinate system and ERP conversion centered on the stitching point may be performed.

본 개시에 따르면, 스티칭 포인트를 상대적으로 왜곡이 작은 ERP 영상의 중심 부분으로 워핑함으로써 특징점을 보다 더 잘 매칭시킬 수 있다. 또한, 원본 입력 영상 좌표계에서의 특징점 좌표와 보정된 좌표에 대해 워핑 변환의 역변환을 적용하고, 상기 좌표들을 최종적인 가상의 구 좌표계로 ERP 포맷 변환된 좌표계 상의 좌표로 변환하고, 특징점간 관계를 유지하면서 스티칭을 수행할 수 있다. According to the present disclosure, it is possible to better match the feature points by warping the stitching points to the central portion of the ERP image having relatively little distortion. In addition, the inverse transformation of the warping transformation is applied to the feature point coordinates and the corrected coordinates in the original input image coordinate system, the coordinates are converted into the coordinates on the ERP format converted coordinate system into the final virtual spherical coordinate system, and the relationship between the feature points is maintained Stitching can be performed while

상술한 실시예들에서, 방법들은 일련의 단계 또는 유닛으로서 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다. In the above-described embodiments, the methods are described on the basis of a flowchart as a series of steps or units, but the present invention is not limited to the order of steps, and some steps may occur in a different order or concurrently with other steps as described above. can In addition, those of ordinary skill in the art will recognize that the steps shown in the flowchart are not exclusive, other steps may be included, or that one or more steps in the flowchart may be deleted without affecting the scope of the present invention. You will understand.

상술한 실시예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.The above-described embodiments include examples of various aspects. It is not possible to describe every possible combination for representing the various aspects, but one of ordinary skill in the art will recognize that other combinations are possible. Accordingly, it is intended that the present invention cover all other substitutions, modifications and variations falling within the scope of the following claims.

이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as a CD-ROM, a DVD, and a magneto-optical medium such as a floppy disk. media), and hardware devices specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform processing according to the present invention, and vice versa.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.In the above, the present invention has been described with specific matters such as specific components and limited embodiments and drawings, but these are provided to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments. , those of ordinary skill in the art to which the present invention pertains can make various modifications and variations from these descriptions.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments, and not only the claims described below, but also all modifications equivalently or equivalently to the claims described below belong to the scope of the spirit of the present invention. will do it

Claims (10)

복수의 입력 영상간 스티칭 포인트를 검출하는 단계;
상기 검출된 스티칭 포인트에 대해 소정의 변환을 적용하는 단계; 및
상기 변환이 적용된 스티칭 포인트에서 적어도 하나의 특징점(feature point)을 검출하고, 상기 검출된 특징점에 대해 특징점 매칭을 수행하는 단계를 포함하고,
상기 소정의 변환은, 상기 스티칭 포인트 중심을 소정의 프로젝션 포맷의 영상 위치로 투영시키는, 360도 전방위 ERP 포맷 스티칭 영상 생성을 위한 특징점 매칭 방법.
detecting stitching points between a plurality of input images;
applying a predetermined transform to the detected stitching points; and
detecting at least one feature point from the stitching point to which the transformation is applied, and performing feature point matching on the detected feature point;
The predetermined transformation is a feature point matching method for generating a 360-degree omnidirectional ERP format stitching image by projecting the stitching point center to an image position of a predetermined projection format.
제1항에 있어서,
상기 프로젝션 포맷은, ERP(Equi-Rectangular Projection) 포맷인 것을 특징으로 하는 특징점 매칭 방법.
According to claim 1,
The projection format is a feature point matching method, characterized in that the ERP (Equi-Rectangular Projection) format.
제2항에 있어서,
상기 소정의 프로젝션 포맷의 영상 위치는, 구(sphere) 좌표계상의 위도 0도 및 경도 0도에 해당하는 위치인 것을 특징으로 하는 특징점 매칭 방법.
3. The method of claim 2,
The image position of the predetermined projection format is a feature point matching method, characterized in that the position corresponding to 0 degrees latitude and 0 degrees longitude on a sphere coordinate system.
제1항에 있어서,
상기 특징점 매칭을 수행하는 단계는,
상기 특징점의 좌표를 일치시키기 위해 상기 입력 영상을 보정하는 단계를 포함하는 특징점 매칭 방법.
According to claim 1,
The step of performing the feature point matching comprises:
and correcting the input image to match the coordinates of the keypoint.
제4항에 있어서,
상기 보정된 입력 영상에 대해 블렌딩(blending)을 수행하는 단계를 더 포함하는 특징점 매칭 방법.
5. The method of claim 4,
and performing blending on the corrected input image.
360도 전방위 ERP 포맷 스티칭 영상 생성을 위한 특징점 매칭 장치에 있어서,
상기 장치는, 복수의 입력 영상간 스티칭 포인트를 검출하고, 상기 검출된 스티칭 포인트에 대해 소정의 변환을 적용하고, 상기 변환이 적용된 스티칭 포인트에서 적어도 하나의 특징점(feature point)을 검출하고, 상기 검출된 특징점에 대해 특징점 매칭을 수행하고,
상기 소정의 변환은, 상기 스티칭 포인트 중심을 소정의 프로젝션 포맷의 영상 위치로 투영시키는, 특징점 매칭 장치.
In the feature point matching device for generating a 360-degree omnidirectional ERP format stitching image,
The apparatus detects a stitching point between a plurality of input images, applies a predetermined transform to the detected stitching point, detects at least one feature point at the stitched point to which the transform is applied, and the detection performing feature point matching on the obtained feature points,
wherein the predetermined transformation projects the center of the stitching point to an image position of a predetermined projection format.
제6항에 있어서,
상기 프로젝션 포맷은, ERP(Equi-Rectangular Projection) 포맷인 것을 특징으로 하는 특징점 매칭 장치.
7. The method of claim 6,
The projection format is a feature point matching device, characterized in that the ERP (Equi-Rectangular Projection) format.
제7항에 있어서,
상기 소정의 프로젝션 포맷의 영상 위치는, 구(sphere) 좌표계상의 위도 0도 및 경도 0도에 해당하는 위치인 것을 특징으로 하는 특징점 매칭 장치.
8. The method of claim 7,
The image position of the predetermined projection format is a feature point matching apparatus, characterized in that the position corresponding to 0 degrees latitude and 0 degrees longitude on a sphere coordinate system.
제6항에 있어서,
상기 장치는,
상기 특징점의 좌표를 일치시키기 위해 상기 입력 영상을 보정하는 특징점 매칭 장치.
7. The method of claim 6,
The device is
A feature point matching device that corrects the input image to match the coordinates of the feature point.
제9항에 있어서,
상기 보정된 입력 영상에 대해 블렌딩(blending)을 수행하는 특징점 매칭 장치.
10. The method of claim 9,
A feature point matching apparatus for performing blending on the corrected input image.
KR1020200036556A 2020-03-26 2020-03-26 Feature point matching method and apparatus for 360 degree erp format stitching image generation KR20210120185A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200036556A KR20210120185A (en) 2020-03-26 2020-03-26 Feature point matching method and apparatus for 360 degree erp format stitching image generation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200036556A KR20210120185A (en) 2020-03-26 2020-03-26 Feature point matching method and apparatus for 360 degree erp format stitching image generation

Publications (1)

Publication Number Publication Date
KR20210120185A true KR20210120185A (en) 2021-10-07

Family

ID=78114776

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200036556A KR20210120185A (en) 2020-03-26 2020-03-26 Feature point matching method and apparatus for 360 degree erp format stitching image generation

Country Status (1)

Country Link
KR (1) KR20210120185A (en)

Similar Documents

Publication Publication Date Title
WO2021227360A1 (en) Interactive video projection method and apparatus, device, and storage medium
JP7163345B2 (en) Image correction method and apparatus
US11210516B2 (en) AR scenario processing method and device, and computer storage medium
US8761492B2 (en) Depth correction apparatus and method
WO2018214365A1 (en) Image correction method, apparatus, device, and system, camera device, and display device
US9019426B2 (en) Method of generating image data by an image device including a plurality of lenses and apparatus for generating image data
US20140176730A1 (en) Projection-type image display device, image projection method, and computer program
US10963989B2 (en) Apparatus and method of generating stitched image based on look-up table
US11527014B2 (en) Methods and systems for calibrating surface data capture devices
CN107240082B (en) Splicing line optimization method and equipment
CN110930310B (en) Panoramic image splicing method
US20170365061A1 (en) Image recognition method and apparatus
US10991073B2 (en) Apparatus and method of parallax-minimized stitching by using HLBP descriptor information
WO2022267939A1 (en) Image processing method and apparatus, and computer-readable storage medium
KR101868740B1 (en) Apparatus and method for generating panorama image
US10999513B2 (en) Information processing apparatus having camera function, display control method thereof, and storage medium
US11715178B2 (en) Method and apparatus for generating image
Xu et al. Wide-angle image stitching using multi-homography warping
JP6086491B2 (en) Image processing apparatus and database construction apparatus thereof
KR20210120185A (en) Feature point matching method and apparatus for 360 degree erp format stitching image generation
US11908108B2 (en) Image correction method and processor
CN115086625B (en) Correction method, device and system for projection picture, correction equipment and projection equipment
US11232323B2 (en) Method of merging images and data processing device
Zhang et al. Effective video frame acquisition for image stitching
KR102074072B1 (en) A focus-context display techinique and apparatus using a mobile device with a dual camera