KR20230034887A - Keypoint extraction method based on deep learning and learning method for keypoint extraction - Google Patents
Keypoint extraction method based on deep learning and learning method for keypoint extraction Download PDFInfo
- Publication number
- KR20230034887A KR20230034887A KR1020220104508A KR20220104508A KR20230034887A KR 20230034887 A KR20230034887 A KR 20230034887A KR 1020220104508 A KR1020220104508 A KR 1020220104508A KR 20220104508 A KR20220104508 A KR 20220104508A KR 20230034887 A KR20230034887 A KR 20230034887A
- Authority
- KR
- South Korea
- Prior art keywords
- feature
- image
- feature point
- extracting
- descriptor
- Prior art date
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000013135 deep learning Methods 0.000 title claims abstract description 13
- 238000013528 artificial neural network Methods 0.000 claims abstract description 18
- 238000013136 deep learning model Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 10
- 230000010339 dilation Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 13
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
Description
본 발명은 딥러닝 기반의 특징점 추출 방법 및 특징점 추출을 위한 학습 방법에 관한 것이다. The present invention relates to a method for extracting feature points based on deep learning and a learning method for extracting feature points.
특징점 추출(Keypoint Extraction)은 이미지 정합, 물체 인식, 동시적 위치 추정 및 지도 작성(SLAM) 등 다양한 컴퓨터 비전 분야에서 첫번째 단계에 이용되는 핵심 기술이다. 해당 기술의 경우 카메라의 시점이나 조명의 변화에 영향을 받지 않고 물체의 형태나 크기, 위치가 변해도 같은 지점을 찾는 것이 매우 중요하다.Keypoint Extraction is a key technology used in the first step in various computer vision fields such as image registration, object recognition, simultaneous localization and mapping (SLAM). In the case of this technology, it is very important to find the same point even if the shape, size, or position of an object changes without being affected by changes in camera viewpoint or lighting.
특징점 추출은 전통적인 핸드크래프트 방식과 최근 활발히 연구가 진행중인 딥러닝 기반 방식이 존재한다. 핸드크래프트 방식은 영상 내 코너니스가 높은 위치를 수학적으로 정의하고 이를 기반으로 특징점을 추출한다. 따라서, 주로 이미지 내에서 픽셀값의 변화가 큰 모서리나 덩어리(Blob)의 중심점에서 추출된다. 반면, 딥러닝 기반 방식은 SfM(Structure from Motion)을 통해 구해진 점들을 정답(Ground Truth)으로 학습하거나, 또는 영상 간 반복성(Repeatability)이 높은 지점들의 특성을 학습하여 전통적인 방식에 비해 높은 성능을 보여준다.For feature point extraction, there is a traditional handcraft method and a deep learning-based method that is being actively researched recently. The handcraft method mathematically defines a location with high corneriness in an image and extracts a feature point based on it. Therefore, it is mainly extracted from the corner or the center point of a blob with a large change in pixel value within the image. On the other hand, the deep learning-based method learns the points obtained through SfM (Structure from Motion) as the correct answer (Ground Truth) or learns the characteristics of points with high repeatability between images, showing higher performance than the traditional method. .
하지만, 종래의 딥러닝 기반 특징점 추출 방법들은 주로 시점 또는 조명 변화 등의 상황에서의 강건한 동작을 목표로 학습되어, 상대적으로 기하학적 스케일 변화가 큰 상황에서의 성능이 핸드크래프트 방식과 유사하다는 한계가 존재한다. 이러한 한계를 극복하기 위해, 하나의 이미지를 여러 스케일의 이미지로 구성하여 각 스케일 이미지마다 특징점을 추출하는 방법이 제안된 바 있다.However, conventional deep learning-based feature point extraction methods are mainly trained for robust operation in situations such as viewpoint or lighting change, and there is a limitation that performance in a situation with a relatively large geometric scale change is similar to that of the handcraft method. do. In order to overcome this limitation, a method of extracting feature points for each scale image by composing one image with images of various scales has been proposed.
관련 선행 문헌으로서, 특허 문헌인 대한민국 공개특허 제2021-0074163호, 비특허 문헌인, "Dusmanu, M., Rocco, I., Pajdla, T., Pollefeys, M., Sivic, J., Torii, A., & Sattler, T. (2019). D2-net: A trainable cnn for joint description and detection of local features. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp.8092-8101)."가 있다.As related prior literature, Korean Patent Publication No. 2021-0074163, a patent document, non-patent document, "Dusmanu, M., Rocco, I., Pajdla, T., Pollefeys, M., Sivic, J., Torii, A., & Sattler, T. (2019). "D2-net: A trainable cnn for joint description and detection of local features. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp.8092-8101)." there is.
본 발명은, 이미지의 기하학적인 변화에 강인한 특징점 추출 방법 및 특징점 추출을 위한 학습 방법을 제공하기 위한 것이다.An object of the present invention is to provide a method for extracting feature points that is robust to geometric changes in an image and a learning method for extracting feature points.
상기한 목적을 달성하기 위한 본 발명의 일 실시예에 따르면, 타겟 이미지를 입력받는 단계; 미리 학습된 제1인공 신경망을 이용하여, 타겟 이미지에 대한 제1특징맵을 생성하는 단계; 및 미리 학습된 제2인공 신경망을 이용하여, 상기 제1특징맵으로부터 수용장(receptive field)의 스케일이 서로 다른 복수의 제2특징맵을 생성하고, 제2특징맵 각각에서 상기 타겟 이미지에 대한 특징점 및 설명자를 추출하는 단계를 포함하는 딥러닝 기반의 특징점 추출 방법이 제공된다.According to one embodiment of the present invention for achieving the above object, receiving a target image; generating a first feature map of a target image by using a pre-learned first artificial neural network; and generating a plurality of second feature maps having different receptive field scales from the first feature map by using a second artificial neural network trained in advance, and generating information about the target image from each of the second feature maps. A method for extracting feature points based on deep learning including extracting feature points and descriptors is provided.
또한 상기한 목적을 달성하기 위한 본 발명의 다른 실시예에 따르면, 훈련용 이미지에 대한 변환 이미지를 생성하는 단계; 상기 훈련용 이미지, 상기 변환 이미지 및 정답값을 이용하여, 딥러닝 모델이 상기 훈련용 이미지 및 상기 변환 이미지에 대한 특징점과, 상기 특징점에 대한 설명자를 추출하도록 학습을 수행하는 단계를 포함하며, 상기 정답값은 상기 훈련용 이미지 및 상기 변환 이미지에 대한 특징점의 위치값을 포함하며, 상기 설명자는 상기 특징점 별로 서로 다르게 할당되는 식별자를 포함하는 특징점 추출을 위한 학습 방법이 제공된다.In addition, according to another embodiment of the present invention for achieving the above object, generating a conversion image for the training image; Performing learning so that a deep learning model extracts feature points for the training image and the transformed image and descriptors for the feature points using the training image, the converted image, and correct answer values; The correct answer value includes position values of feature points for the training image and the converted image, and the descriptor includes an identifier assigned differently to each feature point. A learning method for extracting feature points is provided.
본 발명의 일실시예에 따르면 서로 스케일이 다른 복수의 수용장에 의해 생성된 특징맵으로부터 특징점 및 설명자가 추출됨으로써, 타겟 이미지의 스케일이 달라지는 상황에서도, 효과적으로 특징점과 설명자가 추출될 수 있다.According to an embodiment of the present invention, feature points and descriptors are extracted from feature maps generated by a plurality of receptive fields having different scales, so that feature points and descriptors can be effectively extracted even in a situation where the scale of the target image is changed.
도 1은 본 발명의 일실시예에 따른 딥러닝 기반의 특징점 추출 방법을 설명하기 위한 도면이다.
도 2는 팽창 컨벌루션을 설명하기 위한 도면이다.
도 3은 본 발명의 일실시예에 따른 딥러닝 모델을 설명하기 위한 도면이다.
도 4는 본 발명의 일실시예에 따른 스코어맵을 도시하는 도면이다.
도 5는 본 발명의 일실시예에 따라서 추출된 특징점을 나타내는 도면이다.
도 6은 본 발명의 일실시예에 따른 특징점 추출을 위한 학습 방법을 설명하기 위한 도면이다. 1 is a diagram for explaining a feature point extraction method based on deep learning according to an embodiment of the present invention.
2 is a diagram for explaining dilated convolution.
3 is a diagram for explaining a deep learning model according to an embodiment of the present invention.
4 is a diagram showing a score map according to an embodiment of the present invention.
5 is a diagram showing feature points extracted according to an embodiment of the present invention.
6 is a diagram for explaining a learning method for feature point extraction according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Like reference numerals have been used for like elements throughout the description of each figure.
이하에서, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일실시예에 따른 딥러닝 기반의 특징점 추출 방법을 설명하기 위한 도면이며, 도 2는 팽창 컨벌루션을 설명하기 위한 도면이다.1 is a diagram for explaining a feature point extraction method based on deep learning according to an embodiment of the present invention, and FIG. 2 is a diagram for explaining dilation convolution.
본 발명의 일실시예에 따른 특징점 추출 방법은, 프로세서 및 메모리를 포함하는 컴퓨팅 장치에서 수행될 수 있다.A feature point extraction method according to an embodiment of the present invention may be performed in a computing device including a processor and a memory.
도 1을 참조하면 본 발명의 일실시예에 따른 컴퓨팅 장치는 타겟 이미지를 수신(S110) 즉, 입력받고, 타겟 이미지에서 특징점 및 설명자를 추출한다. 이 때, 컴퓨팅 장치는 제1 및 제2인공 신경망을 포함하는 딥러닝 모델을 이용해, 특징점(keypoint) 및 설명자(descriptor)를 추출할 수 있다. 여기서 설명자는, 특징점 별로 서로 다르게 할당되어, 특징점이 식별될 수 있도록 지원하는 식별자에 대응된다. Referring to FIG. 1 , a computing device according to an embodiment of the present invention receives a target image (S110), receives an input, and extracts feature points and descriptors from the target image. In this case, the computing device may extract a keypoint and a descriptor using a deep learning model including the first and second artificial neural networks. Here, the descriptor corresponds to an identifier that is differently assigned to each feature point and supports identification of the feature point.
컴퓨팅 장치는 미리 학습된 제1인공 신경망을 이용하여, 타겟 이미지에 대한 제1특징맵을 생성(S120)한다. 그리고 미리 학습된 제2인공 신경망을 이용하여, 제1특징맵으로부터 복수의 제2특징맵을 생성하며, 제2특징맵 각각에서 타겟 이미지에 대한 특징점 및 설명자를 추출(S130)한다. 여기서, 제2특징맵 각각은 서로 수용장(receptive field)의 스케일이 다른 특징맵이다. 다시 말해, 제2특징맵 각각은 서로 다른 스케일(scale)의 수용장에 의해 생성된 특징맵이다.The computing device generates a first feature map of the target image by using the pre-learned first artificial neural network (S120). Then, a plurality of second feature maps are generated from the first feature map using the pre-learned second artificial neural network, and feature points and descriptors of the target image are extracted from each of the second feature maps (S130). Here, each of the second feature maps is a feature map having a different receptive field scale. In other words, each of the second feature maps is a feature map generated by receptive fields of different scales.
제1 및 제2인공 신경망은 CNN(Convolution Neural Network) 기반의 신경망일 수 있으며, 제2인공 신경망은 특징점을 추출하는 특징점 추출 네트워크 및 설명자를 추출하는 설명자 추출 네트워크를 포함할 수 있다. 그리고 제2특징맵은 팽창 컨벌루션(dilated convolution)이나, ReS2Net과 같은 인공 신경망을 통해 생성될 수 있다.The first and second artificial neural networks may be neural networks based on a convolutional neural network (CNN), and the second artificial neural network may include a feature point extraction network for extracting feature points and a descriptor extraction network for extracting descriptors. Also, the second feature map may be generated through dilated convolution or an artificial neural network such as ReS2Net.
팽창 컨벌루션은 컨벌루션 필터 내부에 제로 패딩을 추가해 수용장의 스케일을 조절하는 컨벌루션 방법으로서, 도 2에 도시된 바와 같이, 팽창 비율(dilaltion ratio)의 값에 따라 수용장의 스케일이 달라진다. 도 2에는 팽창 비율의 값이 각각 1, 2, 3인 경우의 수용장의 스케일이 도시된다. 팽창 비율의 값이 커질수록, 제로 패딩이 증가하여 수용장의 스케일은 증가한다.Dilatation convolution is a convolution method that adjusts the scale of the receptive field by adding zero padding inside the convolution filter. As shown in FIG. 2, the scale of the receptive field varies according to the value of the dilation ratio. 2 shows the scale of the receiving field when the value of the expansion ratio is 1, 2, and 3, respectively. As the value of the expansion ratio increases, the zero padding increases and the scale of the receptive field increases.
그리고 ReS2Net과 같이, 연속적으로 배치된 컨벌루션 레이어를 이용해, 입력 이미지에 대해 연속적으로 컨벌루션 연산을 적용하는 경우에도, 컨벌루션 연산의 횟수에 비례하여, 수용장의 스케일은 증가한다.And even when convolution operations are continuously applied to the input image using convolutional layers arranged consecutively, such as ReS2Net, the scale of the receptive field increases in proportion to the number of convolution operations.
따라서 본 발명의 일실시예에 따른 컴퓨팅 장치는 서로 다른 팽창 비율을 이용해 팽창 컨벌루션을 수행하여, 스케일이 서로 다른 제2특징맵을 생성할 수 있으며, 또는 이미 생성된 이전 제2특징맵에 대해 재차 컨벌루션 연산을 수행함으로써, 이전 제2특징맵과 수용장 스케일이 상이한 복수의 제2특징맵들을 생성할 수 있다.Accordingly, the computing device according to an embodiment of the present invention may generate second feature maps having different scales by performing dilation convolution using different expansion ratios, or may re-create the previously generated second feature maps. By performing the convolution operation, a plurality of second feature maps having different receptive field scales from the previous second feature maps may be generated.
이와 같이, 본 발명의 일실시예에 따르면, 수용장의 다양한 스케일 별로 특징맵이 생성되고, 이러한 특징맵으로부터 특징점 및 설명자가 추출됨으로써, 타겟 이미지의 스케일이 달라지는 상황에서도, 효과적으로 특징점과 설명자가 추출될 수 있다.In this way, according to one embodiment of the present invention, feature maps are generated for each scale of the receptacle, and feature points and descriptors are extracted from these feature maps, so that feature points and descriptors can be effectively extracted even in a situation where the scale of the target image varies. can
단계 S130에서, 특징점 추출 네트워크에 의해, 제2특징맵 별로 타겟 이미지에 대한 후보 특징점이 추출된다. 후보 특징점 별로 신뢰도값이 함께 출력되며, 컴퓨팅 장치는 후보 특징점 중에서 신뢰도값이 임계값 이상인 특징점을, 타겟 이미지에 대한 특징점으로 결정할 수 있다.In step S130, candidate feature points for the target image are extracted for each second feature map by the feature point extraction network. A reliability value is also output for each candidate feature point, and the computing device may determine a feature point having a reliability value equal to or greater than a threshold value among the candidate feature points as a feature point for the target image.
그리고 설명자 추출 네트워크에서도 제2특징맵 별로 특징점에 대한 후보 설명자가 추출된다. 컴퓨팅 장치는 후보 설명자 중에서 특징점의 위치에 대응되는 설명자를 특징점에 대한 설명자로 결정할 수 있다.Also in the descriptor extraction network, candidate descriptors for feature points are extracted for each second feature map. The computing device may determine a descriptor corresponding to a location of a feature point among candidate descriptors as a descriptor for the feature point.
도 3은 본 발명의 일실시예에 따른 딥러닝 모델을 설명하기 위한 도면으로서, 도 3에는 본 발명의 일실시예에 따른 딥러닝 모델에 의해 생성되는 특징맵이 도시된다.3 is a diagram for explaining a deep learning model according to an embodiment of the present invention, and FIG. 3 shows a feature map generated by the deep learning model according to an embodiment of the present invention.
본 발명의 일실시예에 따른 딥러닝 모델은 전술된 바와 같이, 제1 및 제2인공 신경망을 포함하며, 제2인공 신경망은 특징점 추출 네트워크 및 설명자 추출 네트워크를 포함한다.As described above, the deep learning model according to an embodiment of the present invention includes first and second artificial neural networks, and the second artificial neural network includes a feature point extraction network and a descriptor extraction network.
그리고 제1인공 신경망은 복수의 컨벌루션 레이어를 포함한다. 일예로서, 제1인공 신경망은 9개의 컨벌루션 레이어를 포함할 수 있다. 제1 및 제2컨벌루션 레이어는 타겟 이미지(300)와 동일한 사이즈의 특징맵(310)을 생성할 수 있으며, 제3 및 제4컨벌루션 레이어는 제1 및 제2컨벌루션 레이어에 의해 생성된 특징맵(310)을 입력받아, 타겟 이미지보다 작은 사이즈의 특징맵(320)을 생성할 수 있다. 그리고 제5 내지 제9컨벌루션 레이어는 제3 및 제4컨벌루션 레이어에 의해 생성된 특징맵(320)을 입력받아, 제3 및 제4컨벌루션 레이어에 의해 생성된 특징맵(320)보다 작은 사이즈의 특징맵(330)을 생성할 수 있다. And, the first artificial neural network includes a plurality of convolutional layers. As an example, the first artificial neural network may include 9 convolutional layers. The first and second convolutional layers may generate
제3 및 제4컨벌루션 레이어에서 생성된 특징맵(320)과, 제5 내지 제9컨벌루션 레이어에서 생성된 특징맵(330)은 타겟 이미지(300)와 동일한 사이즈로 변환되며, 제1 내지 제9컨벌루션 레이어에서 생성된 특징맵(310, 320, 330)들이 서로 연결(concatenation)되어 제1특징맵(340)이 생성된다. 제1특징맵(340)은 3차원의 특징맵일 수 있다.The feature maps 320 generated from the third and fourth convolutional layers and the
즉, 컴퓨팅 장치는 타겟 이미지에 대해 컨벌루션 연산을 반복적으로 수행하여 서로 다른 크기의 제3특징맵을 생성하고, 제3특징맵을 연결함으로써 제1특징맵(340)을 생성할 수 있다.That is, the computing device may generate the
특징점 추출 네트워크는 일실시예로서 Res2Net을 이용하여, 특징점을 추출할 수 있다. 특징점 추출 네트워크는 컨벌루션 레이어를 이용하여, 제1특징맵(340)에 대해 컨벌루션 연산을 연속적으로 수행함으로써, 수용장의 스케일이 서로 다른 제2특징맵(351 내지 354)을 생성한다. 도 3에는 4개의 서로 다른 수용장 스케일에 의해 생성된 제2특징맵(351 내지 354)이, 특징점 추출에 이용되는 실시예가 도시된다. 특징점 추출 네트워크는, 제1특징맵(340)과 사이즈가 동일하도록 제2특징맵(351 내지 354)을 생성할 수 있다. The feature point extraction network may extract feature points using Res2Net as an embodiment. The feature point extraction network continuously performs a convolution operation on the
컨벌루션 연산이 반복적으로 수행됨에 따라 위쪽 특징맵에서 아래쪽 특징맵의 순서로 제2특징맵(351 내지 354)이 생성된다. 다시 말해 제2특징맵(351 내지 354) 중 위쪽에 위치한 특징맵이 상대적으로 먼저 생성된 이전 제2특징맵이며, 아래쪽에 위치한 특징맵은, 이전 제2특징맵으로부터 생성된 특징맵이다. 이와 같이, 특징점 추출 네트워크는 이전 제2특징맵에 대해 컨벌루션 연산을 수행하여 수용장 스케일이 증가된 제2특징맵을 생성하며, 제2특징맵(351 내지 354)에서 아래쪽으로 갈수록 수용장의 스케일은 증가한다.As the convolution operation is repeatedly performed, the second feature maps 351 to 354 are generated in the order from the upper feature map to the lower feature map. In other words, among the second feature maps 351 to 354, the upper feature map is the previous second feature map generated relatively first, and the lower feature map is the feature map generated from the previous second feature map. In this way, the feature point extraction network performs a convolution operation on the previous second feature map to generate a second feature map in which the scale of the receptacle increases, and the scale of the receptacle increases downward in the second feature maps 351 to 354. It increases.
특징점 추출 네트워크는 제2특징맵(351 내지 354) 각각에서 후보 특징점을 추출하고, 후보 특징점에 대한 신뢰도값을 포함하는 스코어맵을 생성할 수 있다. 그리고 스코어맵에서 신뢰도값이 임계값 이상인 특징점을, 타겟 이미지에 대한 특징점으로 결정할 수 있다. 도 3에서 제2특징맵(351 내지 354)에 표시된 검은색 포인트는 타겟 이미지에 대한 특징점을 나타낸다. 제2특징맵(351 내지 354) 각각에서 결정된 특징점의 합집합이, 타겟 이미지에 대한 특징점에 대응된다.The feature point extraction network may extract candidate feature points from each of the second feature maps 351 to 354 and generate a score map including a reliability value for the candidate feature points. In addition, a feature point having a reliability value equal to or greater than a threshold value in the score map may be determined as a feature point for the target image. In FIG. 3 , black points displayed on the second feature maps 351 to 354 represent feature points of the target image. The union of the feature points determined in each of the second feature maps 351 to 354 corresponds to the feature points of the target image.
설명자 추출 네트워크는, 팽창 컨벌루션을 이용하여, 설명자를 추출할 수 있다. 설명자 추출 네트워크는 일실시예로서 1, 2, 3 및 8의 팽창 비율을 이용해, 제1특징맵(340)으로부터 수용장의 스케일이 서로 다른 4개의 제2특징맵(355 내지 358)을 생성할 수 있다. 팽창 비율의 값이 클수록, 수용장의 스케일은 증가한다. 설명자 추출 네트워크는 제1특징맵(340)과 사이즈가 동일하도록 제2특징맵(355 내지 358)을 생성할 수 있다. 또한 특징점 추출 네트워크가 4개의 서로 다른 수용장 스케일의 제2특징맵(351 내지 354)을 생성하는 것과 대응되도록, 설명자 추출 네트워크 역시 4개의 서로 다른 수용장 스케일의 제2특징맵(355 내지 358)을 생성할 수 있다. 즉, 특징점 추출 네트워크와 설명자 추출 네트워크가 생성하는 서로 다른 수용장 스케일의 제2특징맵의 개수는 동일하도록, 네트워크가 구성될 수 있다.The descriptor extraction network may extract descriptors using dilated convolution. As an example, the descriptor extraction network can generate four second feature maps 355 to 358 having different scales of the receptive field from the
설명자 추출 네트워크는 제2특징맵(355 내지 358) 별로 후보 설명자를 추출하고, 특징점 추출 네트워크에서 결정된 특징점에 대응되는 위치의 설명자를, 특징점에 대한 설명자로 결정할 수 있다. 도 3에서 제2특징맵(355 내지 358)에 표시된 검은색 포인트는 특징점에 대한 설명자를 나타내며, 설명자의 위치는 특징점의 위치에 대응됨을 알 수 있다.The descriptor extraction network extracts candidate descriptors for each of the second feature maps 355 to 358, and may determine a descriptor at a location corresponding to a feature point determined in the feature point extraction network as a descriptor for the feature point. In FIG. 3, it can be seen that black points displayed on the second feature maps 355 to 358 represent descriptors for feature points, and the positions of the descriptors correspond to the positions of feature points.
도 4는 본 발명의 일실시예에 따른 스코어맵을 도시하는 도면이며, 도 5는 본 발명의 일실시예에 따라서 추출된 특징점을 나타내는 도면이다.4 is a diagram showing a score map according to an embodiment of the present invention, and FIG. 5 is a diagram showing feature points extracted according to an embodiment of the present invention.
도 4는 도 5의 타겟 이미지에 대한 스코어 맵으로서, 도 4에서 도시된 9개의 스코어맵은, 9개의 서로 다른 수용장 스케일에 의해 생성된 제2특징맵으로부터 획득된 스코어맵이다. 스코어맵에서 밝을 픽셀은 어두운 픽셀보다 높은 스코어 즉 신뢰도값을 나타낸다. 그리고 도 5에서 적색 원의 중심에 특징점이 위치하며, 적색 원의 크기는 수용장 스케일의 크기에 대응된다.4 is a score map for the target image of FIG. 5, and the 9 score maps shown in FIG. 4 are score maps obtained from the second feature map generated by 9 different receptive field scales. A bright pixel in the score map represents a higher score, that is, a reliability value, than a dark pixel. And, in FIG. 5, the feature point is located at the center of the red circle, and the size of the red circle corresponds to the size of the receptive field scale.
도 4에 도시된 바와 같이, 수용장 스케일 별로 전경과 배경 영역에서 높은 스코어의 위치가 서로 다르게 나타난다. 하나의 수용장 스케일에 의해 생성된 특징맵을 이용할 경우, 전경 또는 배경 영역에서 특징점이 추출되지 않을 수 있지만, 본 발명의 일실시예에 따르면 서로 스케일이 다른 복수의 수용장에 의해 생성된 특징맵이 이용됨으로써, 타겟 이미지에 대한 특징점이 도 5에 도시된 바와 같이 누락없이 효과적으로 추출됨을 알 수 있다.As shown in FIG. 4, the location of the high score appears differently in the foreground and background areas for each receptacle scale. When using a feature map generated by one receptive field scale, feature points may not be extracted from the foreground or background area, but according to an embodiment of the present invention, feature maps generated by a plurality of receptive fields having different scales. By using this, it can be seen that feature points for the target image are effectively extracted without omission as shown in FIG. 5 .
도 6은 본 발명의 일실시예에 따른 특징점 추출을 위한 학습 방법을 설명하기 위한 도면으로서, 전술된 딥러닝 모델에 대한 학습 방법을 설명하기 위한 도면이다.6 is a diagram for explaining a learning method for extracting feature points according to an embodiment of the present invention, and is a diagram for explaining the learning method for the aforementioned deep learning model.
도 6을 참조하면, 본 발명의 일실시예에 따른 컴퓨팅 장치는 훈련용 이미지에 대한 변환 이미지를 생성(S610)한다. 컴퓨팅 장치는 타겟 이미지의 기하학적인 변화에도 강인한 특징점이 추출될 수 있도록 딥러닝 모델을 훈련시키기 위해, 일실시예로서, 훈련용 이미지의 시점(view point)이 변환된 이미지를 생성할 수 있다. 컴퓨팅 장치는 호모그래피(homography) 변환 행렬을 이용하여, 훈련 이미지의 시점이 변환된 이미지를 생성할 수 있다.Referring to FIG. 6 , the computing device according to an embodiment of the present invention generates a converted image for a training image (S610). In order to train a deep learning model so that robust feature points can be extracted even with geometric changes in the target image, the computing device may generate an image in which a view point of the training image is converted, as an example. The computing device may generate an image in which a viewpoint of a training image is transformed by using a homography transformation matrix.
또한 컴퓨팅 장치는 타겟 이미지가 촬영된 환경의 조명 변화에도 강인한 특징점이 추출될 수 있도록 딥러닝 모델을 훈련시키기 위해, 일실시예로서 훈련용 이미지의 색상이 변환된 이미지를 생성할 수 있다. In addition, the computing device may generate an image in which the color of the training image is converted, as an example, in order to train a deep learning model so that a feature point robust to a change in lighting of an environment in which the target image is photographed can be extracted.
컴퓨팅 장치는 훈련용 이미지, 변환 이미지 및 정답값을 이용하여, 특징점 추출 모델이 훈련용 이미지 및 변환 이미지에 대한 특징점과, 특징점에 대한 설명자를 추출하도록 학습을 수행(S620)한다. 여기서, 정답값(ground truth)은 훈련용 이미지 및 변환 이미지에 대한 특징점의 위치값을 포함한다. The computing device performs learning so that the feature point extraction model extracts feature points for the training image and converted image and descriptors for the feature points using the training image, the converted image, and the correct answer value (S620). Here, the correct answer value (ground truth) includes the location value of the feature point for the training image and the converted image.
설명자는 특징점 별로 서로 다르게 할당되는 식별자를 포함하므로, 특징점에 대한 설명자의 위치값이 정답값에 포함되지 않아도 무방하며, 특징점 별로 서로 다른 설명자가 할당되도록 학습이 수행될 수 있다.Since the descriptors include identifiers that are allocated differently for each feature point, the location value of the descriptor for each feature point does not have to be included in the correct answer value, and learning can be performed such that different descriptors are assigned to each feature point.
앞서 설명한 기술적 내용들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예들을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 하드웨어 장치는 실시예들의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The technical contents described above may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiments or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. A hardware device may be configured to act as one or more software modules to perform the operations of the embodiments and vice versa.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.As described above, the present invention has been described by specific details such as specific components and limited embodiments and drawings, but these are provided to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments. , Those skilled in the art in the field to which the present invention belongs can make various modifications and variations from these descriptions. Therefore, the spirit of the present invention should not be limited to the described embodiments, and it will be said that not only the claims to be described later, but also all modifications equivalent or equivalent to these claims belong to the scope of the present invention. .
Claims (6)
미리 학습된 제1인공 신경망을 이용하여, 타겟 이미지에 대한 제1특징맵을 생성하는 단계; 및
미리 학습된 제2인공 신경망을 이용하여, 상기 제1특징맵으로부터 수용장(receptive field)의 스케일이 서로 다른 복수의 제2특징맵을 생성하고, 제2특징맵 각각에서 상기 타겟 이미지에 대한 특징점 및 설명자를 추출하는 단계
를 포함하는 딥러닝 기반의 특징점 추출 방법.
receiving a target image;
generating a first feature map of a target image by using a pre-learned first artificial neural network; and
A plurality of second feature maps having different receptive field scales are generated from the first feature map using a second artificial neural network trained in advance, and feature points of the target image are generated in each of the second feature maps. and extracting descriptors
Deep learning-based feature point extraction method including.
상기 제2인공 신경망은
상기 특징점을 추출하는 특징점 추출 네트워크 및 상기 설명자를 추출하는 설명자 추출 네트워크를 포함하며,
상기 제1 및 제2특징맵의 크기는
상기 타겟 이미지의 크기와 동일한
딥러닝 기반의 특징점 추출 방법.
According to claim 1,
The second artificial neural network is
A feature point extraction network for extracting the feature point and a descriptor extraction network for extracting the descriptor;
The sizes of the first and second feature maps are
same size as the target image
Deep learning-based feature point extraction method.
상기 특징점 추출 네트워크 또는 상기 설명자 추출 네트워크는
팽창 컨벌루션을 이용하여, 상기 제2특징맵을 생성하거나 또는 이전 제2특징맵에 대해 컨벌루션 연산을 수행하여, 상기 이전 제2특징맵과 수용장 스케일이 상이한 제2특징맵을 생성하는
딥러닝 기반의 특징점 추출 방법.
According to claim 2,
The feature point extraction network or the descriptor extraction network
Generating the second feature map using dilation convolution or performing a convolution operation on the previous second feature map to generate a second feature map having a different receptive field scale from the previous second feature map
Deep learning-based feature point extraction method.
상기 특징점 및 설명자를 추출하는 단계는
상기 특징점에 대한 후보 설명자를 추출하고, 상기 후보 설명자 중에서, 상기 특징점의 위치에 대응되는 설명자를 상기 특징점에 대한 설명자로 결정하는
딥러닝 기반의 특징점 추출 방법.
According to claim 1,
The step of extracting the feature points and descriptors is
Extracting candidate descriptors for the feature point, and determining a descriptor corresponding to the position of the feature point among the candidate descriptors as a descriptor for the feature point
Deep learning-based feature point extraction method.
상기 훈련용 이미지, 상기 변환 이미지 및 정답값을 이용하여, 딥러닝 모델이 상기 훈련용 이미지 및 상기 변환 이미지에 대한 특징점과, 상기 특징점에 대한 설명자를 추출하도록 학습을 수행하는 단계를 포함하며,
상기 정답값은 상기 훈련용 이미지 및 상기 변환 이미지에 대한 특징점의 위치값을 포함하며,
상기 설명자는 상기 특징점 별로 서로 다르게 할당되는 식별자를 포함하는
특징점 추출을 위한 학습 방법.
generating a conversion image for the training image;
Performing learning so that a deep learning model extracts feature points for the training image and the transformed image and descriptors for the feature points using the training image, the converted image, and correct answer values;
The correct answer value includes position values of feature points for the training image and the converted image,
The descriptor includes an identifier that is differently assigned to each feature point.
Learning method for extracting feature points.
상기 변환 이미지를 생성하는 단계는
상기 훈련용 이미지의 시점 또는 색상이 변환된 이미지를 생성하는
특징점 추출을 위한 학습 방법.
According to claim 5,
The step of generating the converted image is
Creating an image in which the viewpoint or color of the training image is converted
Learning method for extracting feature points.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20210117455 | 2021-09-03 | ||
KR1020210117455 | 2021-09-03 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230034887A true KR20230034887A (en) | 2023-03-10 |
Family
ID=85511745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220104508A KR20230034887A (en) | 2021-09-03 | 2022-08-22 | Keypoint extraction method based on deep learning and learning method for keypoint extraction |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230034887A (en) |
-
2022
- 2022-08-22 KR KR1020220104508A patent/KR20230034887A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111401384B (en) | Transformer equipment defect image matching method | |
CN108288088B (en) | Scene text detection method based on end-to-end full convolution neural network | |
CN109344701B (en) | Kinect-based dynamic gesture recognition method | |
US11763485B1 (en) | Deep learning based robot target recognition and motion detection method, storage medium and apparatus | |
Matzen et al. | Nyc3dcars: A dataset of 3d vehicles in geographic context | |
Fathy et al. | Hierarchical metric learning and matching for 2d and 3d geometric correspondences | |
Zhang et al. | Keypoint-graph-driven learning framework for object pose estimation | |
CN112163498B (en) | Method for establishing pedestrian re-identification model with foreground guiding and texture focusing functions and application of method | |
CN109101981B (en) | Loop detection method based on global image stripe code in streetscape scene | |
Marcu et al. | A multi-stage multi-task neural network for aerial scene interpretation and geolocalization | |
CN108921850B (en) | Image local feature extraction method based on image segmentation technology | |
KR102344373B1 (en) | Apparatus and method for generating feature maps | |
CN109657538B (en) | Scene segmentation method and system based on context information guidance | |
CN112036260A (en) | Expression recognition method and system for multi-scale sub-block aggregation in natural environment | |
CN110009670A (en) | The heterologous method for registering images described based on FAST feature extraction and PIIFD feature | |
Saval-Calvo et al. | Three-dimensional planar model estimation using multi-constraint knowledge based on k-means and RANSAC | |
Liu et al. | Progressive context-dependent inference for object detection in remote sensing imagery | |
CN114299101A (en) | Method, apparatus, device, medium, and program product for acquiring target region of image | |
Zhao et al. | Learning probabilistic coordinate fields for robust correspondences | |
CN113538472A (en) | Vector field guided refinement segmentation method based on coding-decoding network | |
KR20230034887A (en) | Keypoint extraction method based on deep learning and learning method for keypoint extraction | |
Cao et al. | CMAN: Leaning global structure correlation for monocular 3D object detection | |
KR101391667B1 (en) | A model learning and recognition method for object category recognition robust to scale changes | |
CN113160291B (en) | Change detection method based on image registration | |
Wang et al. | A new interaction method for augmented reality based on ARToolKit |