KR20220051162A - Visual positioning methods, training methods for related models, and related devices and devices - Google Patents

Visual positioning methods, training methods for related models, and related devices and devices Download PDF

Info

Publication number
KR20220051162A
KR20220051162A KR1020227003201A KR20227003201A KR20220051162A KR 20220051162 A KR20220051162 A KR 20220051162A KR 1020227003201 A KR1020227003201 A KR 1020227003201A KR 20227003201 A KR20227003201 A KR 20227003201A KR 20220051162 A KR20220051162 A KR 20220051162A
Authority
KR
South Korea
Prior art keywords
matching
point
image
value
map
Prior art date
Application number
KR1020227003201A
Other languages
Korean (ko)
Inventor
후준 바오
구오펭 장
하이린 유
요우지 펭
Original Assignee
저지앙 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 저지앙 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 filed Critical 저지앙 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Publication of KR20220051162A publication Critical patent/KR20220051162A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 시각적 포지셔닝 방법, 관련 모델의 훈련 방법 및 관련 장치, 기기를 개시한다. 여기서, 매칭 예측 모델의 훈련 방법은, 샘플 이미지 및 맵 데이터를 이용하여 샘플 매칭 데이터를 구축하는 단계 - 샘플 매칭 데이터는 복수 그룹의 포인트 쌍 및 각 그룹의 포인트 쌍의 실제 매칭 값을 포함하고, 각 그룹의 포인트 쌍의 두 포인트는 각각 샘플 이미지 및 맵 데이터로부터 유래됨 - ; 매칭 예측 모델을 이용하여 복수 그룹의 포인트 쌍에 대해 예측 처리를 수행하여 포인트 쌍의 예측 매칭 값을 획득하는 단계; 실제 매칭 값 및 예측 매칭 값을 이용하여 매칭 예측 모델의 손실 값을 결정하는 단계; 및 손실 값을 이용하여 매칭 예측 모델의 파라미터를 조정하는 단계를 포함한다. 상기 수단에 따르면, 시각적 포지셔닝의 정확성과 즉시성이 향상된다.The present invention discloses a visual positioning method, a training method of a related model, and related apparatus and apparatus. Here, the training method of the matching prediction model comprises the steps of constructing sample matching data using a sample image and map data - the sample matching data includes a plurality of groups of point pairs and actual matching values of each group of point pairs, each The two points of the point pair in the group are derived from sample image and map data, respectively; performing prediction processing on a plurality of groups of point pairs using a matching prediction model to obtain predictive matching values of the point pairs; determining a loss value of the matching prediction model using the actual matching value and the predicted matching value; and adjusting a parameter of the matching prediction model using the loss value. According to the above means, the accuracy and immediacy of the visual positioning is improved.

Description

시각적 포지셔닝 방법, 관련 모델의 훈련 방법 및 관련 장치, 기기Visual positioning methods, training methods for related models, and related devices and devices

관련 출원의 상호 참조Cross-referencing of related applications

본 발명은 출원번호가 202011110569.5이고 출원일이 2020년 10월 16일인 중국 특허 출원을 기반으로 제출하였고 상기 중국 특허 출원의 우선권을 주장하는 바, 이의 모든 내용은 참조로서 본 발명에 인용된다.The present invention is filed based on a Chinese patent application with an application number of 202011110569.5 and an filing date of October 16, 2020, and claims the priority of the Chinese patent application, the entire contents of which are incorporated herein by reference.

본 발명은 컴퓨터 시각적 기술분야에 관한 것으로, 특히 시각적 포지셔닝 방법, 관련 모델의 훈련 방법 및 관련 장치, 기기에 관한 것이다.The present invention relates to the field of computer visual technology, and more particularly, to a method for visual positioning, a method for training a related model, and related apparatus and apparatus.

시각적 포지셔닝은 맵 데이터의 표현 방식에 따라 다양한 방식으로 구분될 수 있는데, 그 중 특히 특징 기반(feature-based) 방식으로도 불리는 구조 기반 방식은 높은 정확도와 우수한 일반화 성능으로 인해 널리 주목받고 있다. Visual positioning can be classified in various ways depending on the representation method of map data. Among them, the structure-based method, also called a feature-based method, is receiving widespread attention due to its high accuracy and excellent generalization performance.

현재 특징 기반 방식을 이용하여 시각적 포지셔닝을 수행하는 경우, 매칭을 통해 이미지 데이터와 맵 데이터 간의 복수의 포인트 쌍을 획득해야 한다. 그러나 로컬 유사성을 사용하여 매칭 관계를 구축하는 경우에는 신뢰성이 낮고, 특히 대규모 장면이나 반복적인 구조/반복 텍스처가 있는 장면에서는 매칭 오류가 쉽게 발생하여 시각적 포지셔닝의 정확성에 영향을 미치게 된다. 랜덤 샘플 일치법(Random Sample Consensus, RANSAC)을 사용하면 매칭 오류를 제거할 수 있으나 RANSAC는 각 샘플 포인트에 대해 동일한 확률로 샘플링하므로, 초기 매칭 중의 외부 포인트가 너무 많으면 RANSAC는 시간이 많이 소요되고 정확도가 낮은 문제가 존재하여 시각적 포지셔닝의 즉시성 및 정확성에 영향을 미친다. 이러한 관점에서 시각적 포지셔닝의 정확성과 즉시성을 향상시키는 방법은 시급히 해결해야 할 과제이다.When visual positioning is performed using the current feature-based method, it is necessary to obtain a plurality of point pairs between image data and map data through matching. However, when using local similarity to build a matching relationship, the reliability is low, especially in large scenes or scenes with repetitive structures/repeating textures, matching errors easily occur, affecting the accuracy of visual positioning. Random Sample Consensus (RANSAC) can eliminate matching errors, but RANSAC samples with equal probability for each sample point, so if there are too many external points during initial matching, RANSAC is time consuming and reduces accuracy. A low problem exists that affects the immediacy and accuracy of visual positioning. From this point of view, how to improve the accuracy and immediacy of visual positioning is an urgent task.

본 발명은 시각적 포지셔닝 방법, 관련 모델의 훈련 방법 및 관련 장치, 기기를 제공한다. The present invention provides a visual positioning method, a training method of a related model, and related apparatus and apparatus.

본 발명의 제1 양태는 매칭 예측 모델의 훈련 방법을 제공한다. 상기 매칭 예측 모델의 훈련 방법은, 샘플 이미지 및 맵 데이터를 이용하여 샘플 매칭 데이터를 구축하는 단계 - 샘플 매칭 데이터는 복수 그룹의 포인트 쌍 및 각 그룹의 포인트 쌍의 실제 매칭 값을 포함하고, 각 그룹의 포인트 쌍의 두 포인트는 각각 샘플 이미지 및 맵 데이터로부터 유래됨 - ; 매칭 예측 모델을 이용하여 복수 그룹의 포인트 쌍에 대해 예측 처리를 수행하여 포인트 쌍의 예측 매칭 값을 획득하는 단계; 실제 매칭 값 및 예측 매칭 값을 이용하여 매칭 예측 모델의 손실 값을 결정하는 단계; 및 손실 값을 이용하여 매칭 예측 모델의 파라미터를 조정하는 단계를 포함한다. A first aspect of the present invention provides a method for training a matching prediction model. The training method of the matching prediction model includes: constructing sample matching data using a sample image and map data; the sample matching data includes a plurality of groups of point pairs and actual matching values of each group of point pairs, each group The two points of the point pair of − are derived from sample image and map data, respectively; performing prediction processing on a plurality of groups of point pairs using a matching prediction model to obtain predictive matching values of the point pairs; determining a loss value of the matching prediction model using the actual matching value and the predicted matching value; and adjusting a parameter of the matching prediction model using the loss value.

따라서, 샘플 이미지 및 맵 데이터를 이용하여 샘플 매칭 데이터를 구축하여 획득하며, 샘플 매칭 데이터는 복수 그룹의 포인트 쌍 및 각 그룹의 포인트 쌍의 실제 매칭 값을 포함하고, 각 그룹의 포인트 쌍의 두 포인트는 각각 샘플 이미지 및 맵 데이터로부터 유래된다. 따라서 매칭 예측 모델을 이용하여 복수 그룹의 포인트 쌍에 대해 예측 처리를 수행하여 포인트 쌍의 예측 매칭 값을 획득하고, 나아가 실제 매칭 값 및 예측 매칭 값을 이용하여 매칭 예측 모델의 손실 값을 결정하며, 손실 값을 이용하여 매칭 예측 모델의 파라미터를 조정하므로, 매칭 예측 모델을 이용하여 매칭 관계를 구축할 수 있고, 이에 따라 시각적 포지셔닝 과정에서 매칭 예측 모델을 이용하여 포인트 쌍 간의 매칭 값을 예측할 수 있으므로, 예측에 의해 획득된 매칭 값을 기반으로 높은 매칭 값을 갖는 포인트 쌍을 우선적으로 샘플링하여 포지셔닝할 이미지의 촬상 포즈 파라미터를 결정할 수 있으며, 나아가 시각적 포지셔닝의 정확성과 즉시성 향상에 유리할 수 있다. Therefore, sample matching data is constructed and obtained using the sample image and map data, and the sample matching data includes a plurality of groups of point pairs and actual matching values of each group of point pairs, and two points of each group of point pairs. are derived from sample image and map data, respectively. Therefore, predictive processing is performed on a plurality of groups of point pairs using the matching prediction model to obtain the predicted matching value of the point pair, and further, the loss value of the matching prediction model is determined using the actual matching value and the predicted matching value, Since the parameters of the matching prediction model are adjusted using the loss value, a matching relationship can be built using the matching prediction model, and accordingly, the matching value between the point pairs can be predicted using the matching prediction model in the visual positioning process. Based on the matching value obtained by prediction, it is possible to determine the imaging pose parameter of the image to be positioned by preferentially sampling the point pair having a high matching value, and furthermore, it may be advantageous to improve the accuracy and immediateness of visual positioning.

여기서, 샘플 이미지 및 맵 데이터를 이용하여 샘플 매칭 데이터를 구축하는 단계는, 샘플 이미지에서 복수의 이미지 포인트를 획득하고 맵 데이터에서 복수의 맵 포인트를 획득하여 복수 그룹의 포인트 쌍을 구성하는 단계 - 복수 그룹의 포인트 쌍은 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되는 매칭 포인트 쌍을 포함함 - ; 및 각 그룹의 매칭 포인트 쌍에 대해, 샘플 이미지의 포즈 파라미터를 이용하여 맵 포인트를 샘플 이미지가 속한 차원에 투영하여 맵 포인트의 투영 포인트를 획득하고, 이미지 포인트와 투영 포인트 간의 차이를 기반으로 매칭 포인트 쌍의 실제 매칭 값을 결정하는 단계를 포함한다. Here, the step of constructing the sample matching data by using the sample image and the map data includes: obtaining a plurality of image points from the sample image and obtaining a plurality of map points from the map data to configure a plurality of groups of point pairs the pair of points in the group includes a pair of matching points that match between the image points and the map points included in at least one group; and for each group of matching point pairs, project the map point to the dimension to which the sample image belongs by using the pose parameter of the sample image to obtain the projection point of the map point, and based on the difference between the image point and the projection point, the matching point determining an actual match value of the pair.

따라서, 샘플 이미지에서 복수의 이미지 포인트를 획득하고 맵 데이터에서 복수의 맵 포인트를 획득하여 복수 그룹의 포인트 쌍을 구성하며, 복수 그룹의 포인트 쌍에는 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되는 매칭 포인트 쌍이 포함되므로, 매칭 예측 모델을 훈련하기 위한 샘플을 생성할 수 있고, 또한 각 그룹의 매칭 포인트 쌍에 대해, 샘플 이미지의 포즈 파라미터를 이용하여 맵 포인트를 샘플 이미지가 속한 차원에 투영하여 맵 포인트의 투영 포인트를 획득함으로써, 이미지 포인트와 투영 포인트 간의 차이를 기반으로 매칭 포인트 쌍의 실제 매칭 값을 결정하여 매칭 예측 모델이 훈련 과정에서 매칭 포인트 쌍의 기하학적 특징을 학습할 수 있으므로 매칭 예측 모델의 정확성 향상에 유리하다. Accordingly, a plurality of image points are obtained from the sample image and a plurality of map points are obtained from the map data to configure a plurality of groups of point pairs, and the plurality of groups of point pairs includes matching between image points and map points included in at least one group. Since matching point pairs are included, samples for training a matching prediction model can be generated, and for each group of matching point pairs, the map point is projected onto the dimension to which the sample image belongs by using the pose parameter of the sample image. By obtaining the projection point of the map point, the matching prediction model can learn the geometric characteristics of the matching point pair in the training process by determining the actual matching value of the matching point pair based on the difference between the image point and the projection point. It is beneficial to improve the accuracy of

여기서, 복수 그룹의 포인트 쌍은 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되지 않는 비매칭 포인트를 포함하고, 샘플 이미지 및 맵 데이터를 이용하여 샘플 매칭 데이터를 구축하는 단계는, 비매칭 포인트 쌍의 실제 매칭 값을 기설정된 값으로 설정하는 단계를 더 포함한다.Here, the pairs of points in the plurality of groups include non-matching points that do not match between the image points and map points included in at least one group, and the step of constructing sample matching data using the sample image and map data includes: The method further includes setting the actual matching value of the pair to a preset value.

따라서, 복수 그룹의 포인트 쌍은 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되지 않는 비매칭 포인트 쌍을 포함하고, 매칭 포인트 쌍과 달리, 비매칭 포인트 쌍의 실제 매칭 값을 기설정된 값으로 설정하므로, 매칭 예측 모델의 강건성 향상에 유리할 수 있다. Accordingly, a plurality of groups of point pairs includes a mismatching point pair that does not match between an image point and a map point included in at least one group. Therefore, it may be advantageous to improve the robustness of the matching prediction model.

여기서, 샘플 이미지에서 복수의 이미지 포인트를 획득하고 맵 데이터에서 복수의 맵 포인트를 획득하여 복수 그룹의 포인트 쌍을 구성하는 단계는, 샘플 이미지 중의 이미지 포인트를 제1 이미지 포인트와 제2 이미지 포인트로 분할하는 단계 - 맵 데이터에는 제1 이미지 포인트와 매칭되는 맵 포인트가 존재하고, 맵 데이터에는 제2 이미지 포인트와 매칭되는 맵 포인트가 존재하지 않음 - ; 각각의 제1 이미지 포인트에 대해, 맵 데이터에서 복수의 제1 맵 포인트를 할당하고, 제1 이미지 포인트와 각각의 제1 맵 포인트를 각각 하나의 제1 포인트 쌍으로 사용하는 단계 - 제1 맵 포인트에는 제1 이미지 포인트와 매칭되는 맵 포인트가 포함됨 - ; 각각의 제2 이미지 포인트에 대해, 맵 데이터에서 복수의 제2 맵 포인트를 할당하고, 제2 이미지 포인트와 각각의 제2 맵 포인트를 하나의 제2 포인트 쌍으로 사용하는 단계; 및 제1 포인트 쌍과 제2 포인트 쌍에서 복수 그룹의 포인트 쌍을 추출하여 획득하는 단계를 포함한다. Here, the step of obtaining a plurality of image points from the sample image and obtaining a plurality of map points from the map data to form a plurality of groups of point pairs includes dividing the image points in the sample image into a first image point and a second image point. doing, a map point matching the first image point exists in the map data, and a map point matching the second image point does not exist in the map data; allocating, for each first image point, a plurality of first map points in the map data, and using the first image point and each first map point as one first pair of points each - a first map point contains a map point that matches the first image point; allocating, for each second image point, a plurality of second map points in the map data, and using the second image point and each second map point as one second point pair; and extracting and obtaining a plurality of groups of point pairs from the first point pair and the second point pair.

따라서, 샘플 이미지 중의 이미지 포인트를 제1 이미지 포인트와 제2 이미지 포인트로 분할하고, 맵에는 제1 이미지 포인트와 매칭되는 맵 포인트가 존재하며, 이미지 데이터에는 제2 이미지 포인트와 매칭되는 이미지 포인트가 존재하지 않고, 제1 이미지 포인트에 대해, 맵 데이터에서 복수의 제1 맵 포인트를 할당하고, 제1 이미지 포인트와 각각의 제1 맵 포인트를 각각 하나의 제1 포인트 쌍으로 사용하며, 제1 맵 포인트에는 제1 이미지 포인트와 매칭되는 맵 포인트가 포함되고, 각각의 제2 이미지 포인트에 대해, 맵 데이터에서 복수의 제2 맵 포인트를 할당하고, 제2 이미지 포인트와 각각의 제2 맵 포인트를 각각 하나의 제2 포인트 쌍으로 사용하며, 제1 포인트 쌍과 제2 포인트 쌍에서 복수 그룹의 포인트 쌍을 추출하여 획득함으로써, 개수가 많고 또한 비매칭 포인트 쌍과 매칭 포인트 쌍을 포함하는 복수 그룹의 포인트 쌍을 구축하여 매칭 예측 모델을 훈련에 사용할 수 있으므로, 매칭 예측 모델의 정확성 향상에 유리할 수 있다. Accordingly, an image point in the sample image is divided into a first image point and a second image point, a map point matching the first image point exists in the map, and an image point matching the second image point exists in the image data. without, for the first image point, allocating a plurality of first map points in the map data, using the first image point and each first map point as one first point pair, respectively, and the first map point includes map points matching the first image point, and for each second image point, assigns a plurality of second map points from the map data, and sets the second image point and each second map point to one each. is used as the second point pair of , and by extracting and obtaining a plurality of groups of point pairs from the first and second point pairs Since the matching prediction model can be used for training by building

여기서, 샘플 이미지의 포즈 파라미터를 이용하여 맵 포인트를 샘플 이미지가 속한 차원에 투영하여 맵 포인트의 투영 포인트를 획득하는 단계는, 매칭 포인트 쌍을 기반으로 샘플 이미지의 포즈 파라미터를 계산하는 단계; 및 포즈 파라미터를 이용하여 맵 포인트를 샘플 이미지가 속한 차원에 투영하여 맵 포인트의 투영 포인트를 획득하는 단계를 포함한다. Here, the step of obtaining the projection point of the map point by projecting the map point to a dimension to which the sample image belongs by using the pose parameter of the sample image includes: calculating the pose parameter of the sample image based on a pair of matching points; and projecting the map point to a dimension to which the sample image belongs by using the pose parameter to obtain a projection point of the map point.

따라서, 매칭 포인트 쌍을 이용하여 샘플 이미지의 포즈 파라미터를 계산하고, 포즈 파라미터를 이용하여 맵 포인트를 샘플 이미지가 속한 차원에 투영하여 맵 포인트의 투영 포인트를 획득함으로써, 투영 포인트와 이미지 포인트 간의 차이 정확성 향상에 유리할 수 있고, 나아가 매칭 예측 모델의 정확성 향상에 유리할 수 있다. Therefore, by using the matching point pair to calculate the pose parameter of the sample image, and by using the pose parameter to project the map point to the dimension to which the sample image belongs to obtain the projection point of the map point, the difference accuracy between the projection point and the image point It may be advantageous for improvement, and furthermore, it may be advantageous for improving the accuracy of the matching prediction model.

여기서, 이미지 포인트와 투영 포인트 간의 차이를 기반으로 매칭 포인트 쌍의 실제 매칭 값을 결정하는 단계는, 기설정된 확률 분포 함수를 이용하여 차이를 확률 밀도 값으로 변환하여 매칭 포인트 쌍의 실제 매칭 값으로 사용하는 단계를 포함한다. Here, the step of determining the actual matching value of the matching point pair based on the difference between the image point and the projection point includes converting the difference into a probability density value using a preset probability distribution function and using it as the actual matching value of the matching point pair including the steps of

따라서, 기설정된 확률 분포 함수를 이용하여 차이를 확률 밀도 값으로 변환하여 매칭 포인트 쌍의 실제 매칭 값으로 사용하므로, 투영 포인트와 이미지 포인트 간의 차이를 정확히 설명하는데 유리할 수 있으며, 따라서 매칭 예측 모델의 정확성 향상에 유리할 수 있다. Therefore, since the difference is converted into a probability density value using a preset probability distribution function and used as an actual matching value of a pair of matching points, it may be advantageous to accurately explain the difference between the projection point and the image point, and thus the accuracy of the matching prediction model may be beneficial for improvement.

여기서, 샘플 매칭 데이터는 이분 그래프이고, 이분 그래프는 복수 그룹의 포인트 쌍 및 각 그룹의 포인트 쌍을 연결하는 연결 에지를 포함하며, 연결 에지에는 포인트 쌍에 대응되는 실제 매칭 값이 라벨링되고; 매칭 예측 모델은 샘플 이미지가 속한 차원에 대응되는 제1 포인트 특징 추출 서브 모델, 맵 데이터가 속한 차원에 대응되는 제2 포인트 특징 추출 서브 모델 및 에지 특징 추출 서브 모델을 포함하며; 매칭 예측 모델을 이용하여 복수 그룹의 포인트 쌍에 대해 예측 처리를 수행하여 포인트 쌍의 예측 매칭 값을 획득하는 단계는, 제1 포인트 특징 추출 서브 모델 및 제2 포인트 특징 추출 서브 모델을 각각 이용하여 이분 그래프에 대해 특징 추출을 수행하여 제1 특징 및 제2 특징을 획득하는 단계; 에지 특징 추출 서브 모델을 이용하여 제1 특징 및 제2 특징에 대해 특징 추출을 수행하여 제3 특징을 획득하는 단계; 및 제3 특징을 이용하여 연결 에지에 대응되는 포인트 쌍의 예측 매칭 값을 획득하는 단계를 포함한다. Here, the sample matching data is a bipartite graph, wherein the bipartite graph includes a plurality of groups of point pairs and a connecting edge connecting each group of point pairs, and the connecting edge is labeled with an actual matching value corresponding to the point pair; the matching prediction model includes a first point feature extraction submodel corresponding to a dimension to which the sample image belongs, a second point feature extraction submodel corresponding to a dimension to which map data belongs, and an edge feature extraction submodel; The step of performing prediction processing on a plurality of groups of point pairs using the matching prediction model to obtain a predicted matching value of the point pair includes using the first point feature extraction sub-model and the second point feature extraction sub-model, respectively. performing feature extraction on the graph to obtain first and second features; obtaining a third feature by performing feature extraction on the first feature and the second feature using the edge feature extraction sub-model; and obtaining a predictive matching value of a point pair corresponding to a connecting edge by using the third feature.

따라서, 이분 그래프에 대해 포인트 특징 추출 및 에지 특징 추출을 각각 수행함으로써, 매칭 예측 모델은 매칭의 공간적 기하학적 구조를 보다 효과적으로 인지할 수 있고, 나아가 매칭 예측 모델의 정확성 향상에 유리할 수 있다. Accordingly, by performing point feature extraction and edge feature extraction respectively on the bipartite graph, the matching prediction model can more effectively recognize the spatial geometry of the matching, and furthermore, it can be advantageous for improving the accuracy of the matching prediction model.

여기서, 제1 포인트 특징 추출 서브 모델 및 제2 포인트 특징 추출 서브 모델의 구조는, 적어도 하나의 레지듀얼 블록을 포함하는 구조, 적어도 하나의 레지듀얼 블록 및 적어도 하나의 공간 변환 네트워크를 포함하는 구조 중 어느 하나이거나; 및/또는, 에지 특징 추출 서브 모델은 적어도 하나의 레지듀얼 블록을 포함한다. Here, the structures of the first point feature extraction sub-model and the second point feature extraction sub-model include a structure including at least one residual block, a structure including at least one residual block and at least one spatial transformation network. either; and/or, the edge feature extraction sub-model includes at least one residual block.

따라서, 제1 포인트 특징 추출 서브 모델 및 제2 포인트 특징 추출 서브 모델의 구조를 적어도 하나의 레지듀얼 블록을 포함하는 구조, 적어도 하나의 레지듀얼 블록 및 적어도 하나의 공간 변환 네트워크를 포함하는 구조 중 어느 하나로 설정하고, 에지 특징 추출 서브 모델을 적어도 하나의 레지듀얼 블록을 포함하는 구조로 설정함으로써, 매칭 예측 모델의 최적화에 유리할 수 있고, 또한 매칭 예측 모델의 정확성을 향상시킨다. Accordingly, the structure of the first point feature extraction sub-model and the second point feature extraction sub-model is any one of a structure including at least one residual block, a structure including at least one residual block and at least one spatial transformation network. By setting one and setting the edge feature extraction sub-model to a structure including at least one residual block, it may be advantageous to optimize the matching prediction model, and also improve the accuracy of the matching prediction model.

여기서, 복수 그룹의 포인트 쌍은 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되는 매칭 포인트 쌍 및 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되지 않는 비매칭 포인트 쌍을 포함하고; 실제 매칭 값 및 예측 매칭 값을 이용하여 매칭 예측 모델의 손실 값을 결정하는 단계는, 매칭 포인트 쌍의 예측 매칭 값 및 실제 매칭 값을 이용하여 매칭 예측 모델의 제1 손실 값을 결정하는 단계; 비매칭 포인트 쌍의 예측 매칭 값 및 실제 매칭 값을 이용하여 매칭 예측 모델의 제2 손실 값을 결정하는 단계; 제1 손실 값 및 제2 손실 값에 대해 가중 처리를 수행하여 매칭 예측 모델의 손실 값을 획득하는 단계를 포함한다. wherein the plurality of groups of point pairs includes a matching point pair that matches between an image point and a map point included in at least one group and a non-matching point pair that does not match between an image point and a map point included in at least one group; The determining of the loss value of the matching prediction model by using the actual matching value and the predicted matching value may include: determining a first loss value of the matching prediction model by using the predicted matching value and the actual matching value of the matching point pair; determining a second loss value of the matching prediction model by using the predicted matching value and the actual matching value of the non-matching point pair; and performing weighting processing on the first loss value and the second loss value to obtain a loss value of the matching prediction model.

따라서, 매칭 포인트 쌍의 예측 매칭 값 및 실제 매칭 값을 이용하여 매칭 예측 모델의 제1 손실 값을 결정하고, 비매칭 포인트 쌍의 예측 매칭 값 및 실제 손실 값을 이용하여 매칭 예측 모델의 제2 손실 값을 결정함으로써, 제1 손실 값 및 제2 손실 값에 대해 가중 처리를 수행하여 매칭 예측 모델의 손실 값을 획득하므로, 매칭 예측 모델이 매칭의 공간적 기하학적 구조를 효과적으로 인지하는데 유리할 수 있고, 따라서 매칭 예측 모델의 정확성을 향상시킨다. Therefore, the first loss value of the matching prediction model is determined using the predicted matching value and the actual matching value of the matching point pair, and the second loss of the matching prediction model is determined using the predicted matching value and the actual loss value of the non-matching point pair. By determining the value, weight processing is performed on the first loss value and the second loss value to obtain a loss value of the matching prediction model, so that the matching prediction model may be advantageous for effectively recognizing the spatial geometry of the matching, and thus the matching Improve the accuracy of predictive models.

여기서, 매칭 포인트 쌍의 예측 매칭 값 및 실제 매칭 값을 이용하여 매칭 예측 모델의 제1 손실 값을 결정하는 단계 이전에, 방법은, 매칭 포인트 쌍의 제1 개수 및 비매칭 포인트 쌍의 제2 개수를 각각 통계하는 단계를 더 포함하고, 매칭 포인트 쌍의 예측 매칭 값 및 실제 매칭 값을 이용하여 매칭 예측 모델의 제1 손실 값을 결정하는 단계는, 매칭 포인트 쌍의 예측 매칭 값과 실제 매칭 값 간의 차이 값 및 제1 개수를 이용하여 제1 손실 값을 결정하는 단계를 포함하며, 비매칭 포인트 쌍의 예측 매칭 값 및 실제 매칭 값을 이용하여 매칭 예측 모델의 제2 손실 값을 결정하는 단계는, 비매칭 포인트 쌍의 예측 매칭 값과 실제 매칭 값 간의 차이 값 및 제2 개수를 이용하여 제2 손실 값을 결정하는 단계를 포함한다. Here, before the step of determining the first loss value of the matching prediction model by using the predicted matching value and the actual matching value of the matching point pair, the method includes: a first number of matching point pairs and a second number of non-matching point pairs further comprising stating each determining a first loss value by using the difference value and the first number, and determining a second loss value of the matching prediction model by using the predicted matching value and the actual matching value of the mismatching point pair, and determining a second loss value using a second number and a difference value between the predicted matching value and the actual matching value of the non-matching point pair.

따라서, 매칭 포인트 쌍의 제1 개수 및 비매칭 포인트 쌍의 제2 개수를 통계함으로써, 매칭 포인트 쌍의 예측 매칭 값과 실제 매칭 값 간의 차이 값 및 제1 개수를 이용하여 제1 손실 값을 결정하고, 비매칭 포인트 쌍의 예측 매칭 값 및 실제 매칭 값 간의 차이 및 제2 개수를 이용하여 제2 손실 값을 결정하므로, 매칭 예측 모델의 손실 값의 정확성 향상에 유리할 수 있고, 따라서 매칭 예측 모델의 정확성 향상에 유리할 수 있다. Therefore, by stating the first number of matching point pairs and the second number of non-matching point pairs, the first loss value is determined using the difference value and the first number between the predicted matching value and the actual matching value of the matching point pair, and , since the second loss value is determined using the second number and the difference between the predicted matching value and the actual matching value of the non-matching point pair, it may be advantageous to improve the accuracy of the loss value of the matching prediction model, and thus the accuracy of the matching prediction model may be beneficial for improvement.

여기서, 샘플 이미지가 속한 차원은 2차원 또는 3차원이고, 맵 데이터가 속한 차원은 2차원 또는 3차원이다. Here, the dimension to which the sample image belongs is 2D or 3D, and the dimension to which the map data belongs is 2D or 3D.

따라서, 샘플 이미지 및 맵 데이터가 속한 차원을 설정하여 훈련을 통해 2차원-2차원을 위한 매칭 예측 모델을 획득하거나, 훈련을 통해 2차원-3차원을 위한 매칭 예측 모델을 획득하거나, 훈련을 통해 3차원-3차원을 위한 매칭 예측 모델을 획득할 수 있으므로, 매칭 예측 모델의 적용 범위를 향상시킬 수 있다. Therefore, by setting the dimension to which the sample image and map data belong, a matching prediction model for 2D-2D is obtained through training, a matching prediction model for 2D-3D is obtained through training, or through training Since a matching prediction model for 3D-3D can be obtained, the application range of the matching prediction model can be improved.

본 발명의 제2 양태는 시각적 포지셔닝 방법을 제공한다. 상기 시각적 포지셔닝 방법은, 포지셔닝할 이미지 및 맵 데이터를 이용하여 식별할 매칭 데이터를 구축하는 단계 - 식별할 매칭 데이터는 복수 그룹의 포인트 쌍을 포함하고, 각 그룹의 포인트 쌍의 두 포인트는 각각 포지셔닝할 이미지 및 맵 데이터로부터 유래됨 - ; 매칭 예측 모델을 이용하여 복수 그룹의 포인트 쌍에 대해 예측 처리를 수행하여 포인트 쌍의 예측 매칭 값을 획득하는 단계; 및 포인트 쌍의 예측 매칭 값을 기반으로 포지셔닝할 이미지의 촬상 소자의 포즈 파라미터를 결정하는 단계를 포함한다. A second aspect of the present invention provides a method of visual positioning. The visual positioning method comprises the steps of constructing matching data to be identified using the image and map data to be positioned - the matching data to be identified includes a plurality of groups of point pairs, and two points of each group of point pairs to be positioned derived from image and map data - ; performing prediction processing on a plurality of groups of point pairs using a matching prediction model to obtain predictive matching values of the point pairs; and determining a pose parameter of an image pickup device of an image to be positioned based on the predictive matching value of the point pair.

따라서, 포지셔닝할 이미지 및 맵 데이터를 이용하여 식별할 매칭 데이터를 구축하고, 식별할 매칭 데이터는 복수 그룹의 포인트 쌍을 포함하며, 각 그룹의 포인트 쌍의 두 포인트는 각각 포지셔닝할 이미지 및 맵 데이터로부터 유래되므로, 매칭 예측 모델을 이용하여 복수 그룹의 포인트 쌍에 대해 예측 처리를 수행하여 포인트 쌍의 예측 매칭 값을 획득하고, 나아가 포인트 쌍의 예측 매칭 값을 기반으로 포지셔닝할 이미지의 촬상 소자의 포즈 파라미터를 결정함으로써, 시각적 포지셔닝의 정확성 및 즉시성이 향상된다. Accordingly, the matching data to be identified is constructed using the image and map data to be positioned, the matching data to be identified includes a plurality of groups of point pairs, and two points of the point pair of each group are respectively obtained from the image and map data to be positioned. Therefore, using a matching prediction model, prediction processing is performed on a plurality of groups of point pairs to obtain a predicted matching value of the point pair, and further, the pose parameter of the imaging device of the image to be positioned based on the predicted matching value of the point pair By determining , the accuracy and immediacy of visual positioning is improved.

여기서, 포인트 쌍의 예측 매칭 값을 기반으로 포지셔닝할 이미지의 촬상 소자의 포즈 파라미터를 결정하는 단계는, 복수 그룹의 포인트 쌍을 예측 매칭 값의 내림차순으로 정렬하는 단계; 및 이전 기설정된 개수 그룹의 포인트 쌍을 이용하여 포지셔닝할 이미지의 촬상 소자의 포즈 파라미터를 결정하는 단계를 포함한다. Here, the determining of the pose parameter of the imaging device of the image to be positioned based on the predictive matching value of the point pair may include: arranging a plurality of groups of point pairs in a descending order of the predictive matching value; and determining a pose parameter of an image pickup device of an image to be positioned by using a previously preset number group of point pairs.

따라서, 복수 그룹의 포인트 쌍을 예측 매칭 값의 내림차순으로 정렬하고, 이전 기설정된 개수 그룹의 포인트 쌍을 이용하여 포지셔닝할 이미지의 촬상 소자의 포즈 파라미터를 결정하므로, 정렬된 포인트 쌍을 이용하여 증분 샘플링을 수행하여 높은 매칭 값을 갖는 포인트 쌍을 우선적으로 샘플링하는데 유리할 수 있다. 따라서 포즈 파라미터를 구하도록 기하학적 및 선험적으로 안내될 수 있어 시각적 포지셔닝의 정확성과 즉시성을 향상시킬 수 있다. Therefore, since a plurality of groups of point pairs are arranged in descending order of predictive matching values, and a pose parameter of an image pickup device of an image to be positioned is determined using a previously preset number group of point pairs, incremental sampling using the sorted point pairs It may be advantageous to preferentially sample a point pair having a high matching value by performing . Therefore, it can be guided geometrically and a priori to obtain the pose parameters, which can improve the accuracy and immediacy of visual positioning.

여기서, 매칭 예측 모델은 상기 제1 양태 중의 매칭 예측 모델의 훈련 방법으로 획득된다. Here, the matching prediction model is obtained by the training method of the matching prediction model in the first aspect.

따라서, 상기 매칭 예측 모델의 훈련 방법으로 획득된 매칭 예측 모델에 대해 시각적 포지셔닝을 수행하므로, 시각적 포지셔닝의 정확성과 즉시성을 향상시킬 수 있다. Therefore, since visual positioning is performed on the matching prediction model obtained by the training method of the matching prediction model, the accuracy and immediateness of the visual positioning can be improved.

본 발명의 제3 양태는 매칭 예측 모델의 훈련 장치를 제공한다. 상기 매칭 예측 모델의 훈련 장치는 샘플 구축 모듈, 예측 처리 모듈, 손실 결정 모듈 및 파라미터 조정 모듈을 포함하고, 샘플 구축 모듈은 샘플 이미지 및 맵 데이터를 이용하여 샘플 매칭 데이터를 구축하되, 샘플 매칭 데이터는 복수 그룹의 포인트 쌍 및 각 그룹의 포인트 쌍의 실제 매칭 값을 포함하고, 각 그룹의 포인트 쌍의 두 포인트는 각각 샘플 이미지 및 맵 데이터로부터 유래되며; 예측 처리 모듈은 매칭 예측 모델을 이용하여 복수 그룹의 포인트 쌍에 대해 예측 처리를 수행하여 포인트 쌍의 예측 매칭 값을 획득하고; 손실 결정 모듈은 실제 매칭 값 및 예측 매칭 값을 이용하여 매칭 예측 모델의 손실 값을 결정하며; 파라미터 조정 모듈은 손실 값을 이용하여 매칭 예측 모델의 파라미터를 조정한다. A third aspect of the present invention provides an apparatus for training a matching prediction model. The training apparatus of the matching prediction model includes a sample building module, a prediction processing module, a loss determination module and a parameter adjustment module, wherein the sample building module builds sample matching data using a sample image and map data, but the sample matching data is a plurality of groups of point pairs and actual matching values of each group of point pairs, wherein two points of each group of point pairs are respectively derived from sample images and map data; the prediction processing module performs prediction processing on a plurality of groups of point pairs by using the matching prediction model to obtain prediction matching values of the point pairs; the loss determining module determines a loss value of the matching prediction model using the actual matching value and the predicted matching value; The parameter adjustment module adjusts the parameters of the matching prediction model using the loss values.

본 발명의 제4 양태는 시각적 포지셔닝 장치를 제공한다. 상기 시각적 포지셔닝 장치는, 데이터 구축 모듈, 예측 처리 모듈 및 파라미터 결정 모듈을 포함하고, 데이터 구축 모듈은 포지셔닝할 이미지 및 맵 데이터를 이용하여 식별할 매칭 데이터를 구축하도록 구성되되, 식별할 매칭 데이터는 복수 그룹의 포인트 쌍을 포함하고, 각 그룹의 포인트 쌍의 두 포인트는 각각 포지셔닝할 이미지 및 맵 데이터로부터 유래되며; 예측 처리 모듈은 매칭 예측 모델을 이용하여 복수 그룹의 포인트 쌍에 대해 예측 처리를 수행하여 포인트 쌍의 예측 매칭 값을 획득하며; 파라미터 결정 모듈은 포인트 쌍의 예측 매칭 값을 기반으로 포지셔닝할 이미지의 촬상 소자의 포즈 파라미터를 결정한다. A fourth aspect of the present invention provides a visual positioning device. The visual positioning device includes a data building module, a prediction processing module, and a parameter determining module, wherein the data building module is configured to construct matching data to be identified using the image to be positioned and the map data, wherein the matching data to be identified is a plurality of a group of point pairs, wherein two points of each group point pair are derived from image and map data to be positioned, respectively; the prediction processing module performs prediction processing on a plurality of groups of point pairs using the matching prediction model to obtain prediction matching values of the point pairs; The parameter determination module determines a pose parameter of the imaging device of the image to be positioned based on the predictive matching value of the point pair.

본 발명의 제5 양태는 전자 기기를 제공한다. 상기 전자 기기는 서로 커플링되는 메모리와 프로세서를 포함하고, 프로세서는 상기 제1 양태 중의 매칭 예측 모델의 훈련 방법 또는 상기 제2 양태 중의 시각적 포지셔닝 방법을 구현하도록, 메모리에 저장된 프로그램 명령을 실행한다. A fifth aspect of the present invention provides an electronic device. The electronic device includes a memory coupled to each other and a processor, wherein the processor executes program instructions stored in the memory to implement the training method of the matching prediction model in the first aspect or the visual positioning method in the second aspect.

본 발명의 제6 양태는 컴퓨터 판독 가능 저장 매체를 제공한다. 상기 컴퓨터 판독 가능 저장 매체에는 프로그램 명령이 저장되고, 프로그램 명령은 프로세서에 의해 실행될 경우 상기 제1 양태 중의 매칭 예측 모델의 훈련 방법 또는 상기 제2 양태 중의 시각적 포지셔닝 방법을 구현한다. A sixth aspect of the present invention provides a computer-readable storage medium. The computer-readable storage medium stores program instructions, which, when executed by a processor, implement the training method of the matching prediction model in the first aspect or the visual positioning method in the second aspect.

본 발명의 제7 양태는 컴퓨터 프로그램을 제공한다. 상기 컴퓨터 프로그램은 컴퓨터 판독 가능 코드를 포함하고, 상기 컴퓨터 판독 가능 코드가 전자 기기에서 실행되고 또한 상기 전자 기기 중의 프로세서에 의해 실행될 경우, 상기 제1 양태 중의 매칭 예측 모델의 훈련 방법 또는 상기 제2 양태 중의 시각적 포지셔닝 방법을 구현한다. A seventh aspect of the present invention provides a computer program. The computer program includes computer readable code, and when the computer readable code is executed in an electronic device and is executed by a processor in the electronic device, the method for training a matching predictive model in the first aspect or the second aspect Implement a visual positioning method in the middle.

상기 수단에 따르면, 매칭 예측 모델을 이용하여 매칭 관계를 구축할 수 있으므로, 시각적 포지셔닝 과정에서 매칭 예측 모델을 이용하여 포인트 쌍 간의 매칭 값을 예측할 수 있다. 따라서 예측에 의해 획득된 매칭 값을 기반으로 높은 매칭 값을 갖는 포인트 쌍을 우선적으로 샘플링하여 매칭 관계를 구축할 수 있으며, 나아가 시각적 포지셔닝의 정확성과 즉시성 향상에 유리할 수 있다.According to the means, since a matching relationship can be built using the matching prediction model, the matching value between the point pairs can be predicted using the matching prediction model in the visual positioning process. Accordingly, it is possible to establish a matching relationship by preferentially sampling a point pair having a high matching value based on the matching value obtained by prediction, and furthermore, it may be advantageous to improve the accuracy and immediacy of visual positioning.

도 1은 본 발명의 매칭 예측 모델의 훈련 방법의 일 실시예의 흐름 모식도이다.
도 2는 본 발명의 매칭 예측 모델의 훈련 방법의 일 실시예의 상태 모식도이다.
도 3은 도 1에서 단계 S11의 일 실시예의 흐름 모식도이다.
도 4는 도 3에서 단계 S111의 일 실시예의 흐름 모식도이다.
도 5는 본 발명의 시각적 포지셔닝 방법의 일 실시예의 흐름 모식도이다.
도 6은 본 발명의 매칭 예측 모델의 훈련 장치의 일 실시예의 프레임워크 모식도이다.
도 7은 본 발명의 시각적 포지셔닝 장치의 일 실시예의 프레임워크 모식도이다.
도 8은 본 발명의 전자 기기의 일 실시예의 프레임워크 모식도이다.
도 9는 본 발명의 컴퓨터 판독 가능 저장 매체의 일 실시예의 프레임워크 모식도이다.
1 is a flow schematic diagram of an embodiment of a method for training a matching prediction model of the present invention.
2 is a state schematic diagram of an embodiment of a method for training a matching prediction model of the present invention.
3 is a flow schematic diagram of an embodiment of step S11 in FIG. 1 .
4 is a flow schematic diagram of an embodiment of step S111 in FIG. 3 .
5 is a flow diagram of an embodiment of the visual positioning method of the present invention.
6 is a schematic diagram of a framework of an embodiment of a training apparatus for a matching prediction model of the present invention.
7 is a schematic diagram of a framework of an embodiment of the visual positioning device of the present invention.
8 is a schematic diagram of a framework of an embodiment of an electronic device of the present invention.
9 is a schematic diagram of a framework of an embodiment of a computer-readable storage medium of the present invention.

이하 명세서 도면을 결부하여 본 발명의 실시예의 기술적 해결수단을 상세하게 설명한다. Hereinafter, the technical solutions of the embodiments of the present invention will be described in detail in conjunction with the drawings in the specification.

하기 설명에서는 본 발명의 실시예에 대한 완전한 이해를 위해 한정이 아니라 설명의 목적으로 특정 시스템 구조, 인터페이스, 기술과 같은 구체적인 세부 사항을 제시한다. In the following description, specific details such as specific system structures, interfaces, and techniques are set forth for purposes of explanation and not limitation, for a thorough understanding of embodiments of the present invention.

본문에서의 용어 “시스템”과 “네트워크”는 본문에서 흔히 서로 교환되어 사용될 수 있다. 본문에서 용어 “및/또는”은, 단지 연관 대상의 연관 관계를 설명하기 위한 것으로, 3가지 관계가 존재함을 의미한다. 예를 들면 “A 및/또는 B”는, A만 존재, A와 B가 동시에 존재, B만 존재하는 3가지 경우를 의미한다. 이밖에, 본문에서 부호 “/”는 일반적으로 전후 연관 대상이 “또는”의 관계임을 의미한다. 이밖에, 본문에서 “복수”는 두 개 또는 두 개 이상임을 의미한다. In this text, the terms “system” and “network” are often used interchangeably in this text. In the text, the term “and/or” is only for describing the relation of the related object, and means that there are three types of relation. For example, "A and/or B" means three cases in which only A exists, A and B exist simultaneously, and only B exists. In addition, in the text, the symbol “/” generally means that the related object before and after is “or”. In addition, “plural” in the text means two or more than two.

도 1을 참조하면, 도 1은 본 발명의 매칭 예측 모델의 훈련 방법의 일 실시예의 흐름 모식도이다. 매칭 예측 모델의 훈련 방법은 하기와 같은 단계를 포함할 수 있다. Referring to FIG. 1, FIG. 1 is a flow schematic diagram of an embodiment of a method for training a matching prediction model of the present invention. The training method of the matching prediction model may include the following steps.

단계 S11에서, 샘플 이미지 및 맵 데이터를 이용하여 샘플 매칭 데이터를 구축한다. In step S11, sample matching data is constructed using the sample image and map data.

본 발명의 실시예에서, 샘플 매칭 데이터는 복수 그룹의 포인트 쌍 및 각 그룹의 포인트 쌍의 실제 매칭 값을 포함하고, 각 그룹의 포인트 쌍의 두 포인트는 각각 샘플 이미지 및 맵 데이터로부터 유래된다. In an embodiment of the present invention, the sample matching data includes a plurality of groups of point pairs and actual matching values of each group of point pairs, and two points of each group of point pairs are derived from sample image and map data, respectively.

일 실시 장면에서, 맵 데이터는 샘플 이미지를 통해 구축될 수 있다. 여기서, 샘플 이미지가 속한 차원은 2차원 또는 3차원이고, 맵 데이터가 속한 차원은 2차원 또는 3차원일 수 있으며, 여기서는 이에 대해 한정하지 않는다. 예를 들어, 샘플 이미지가 2차원 이미지인 경우, SFM(Structure From Motion)과 같은 3차원 재구성 방식으로 2차원 이미지를 처리하여 희소 포인트 클라우드 모델과 같은 맵 데이터를 얻을 수 있다. 이 밖에, 샘플 이미지는 3차원 정보를 더 포함할 수 있는 바, 예를 들어, 샘플 이미지는 또한 RGB-D 이미지(즉 컬러 이미지와 깊이 이미지)일 수도 있으며, 여기서는 이에 대해 한정하지 않는다. 맵 데이터는 단순한 2차원 이미지로 구성될 수 있으며, 3차원 포인트 클라우드 맵으로 구성될 수도 있고, 2차원 이미지와 3차원 포인트 클라우드의 결합일 수도 있으며, 여기서는 이에 대해 한정하지 않는다. In one embodiment, the map data may be constructed through a sample image. Here, the dimension to which the sample image belongs may be two-dimensional or three-dimensional, and the dimension to which the map data belongs may be two-dimensional or three-dimensional, but the present invention is not limited thereto. For example, when the sample image is a two-dimensional image, map data such as a sparse point cloud model may be obtained by processing the two-dimensional image by a three-dimensional reconstruction method such as structure from motion (SFM). In addition, the sample image may further include three-dimensional information. For example, the sample image may also be an RGB-D image (ie, a color image and a depth image), but the present disclosure is not limited thereto. The map data may consist of a simple two-dimensional image, a three-dimensional point cloud map, or a combination of a two-dimensional image and a three-dimensional point cloud, but the present invention is not limited thereto.

본 발명의 실시예에서, 매칭 예측 모델의 훈련 방법의 실행 주체는 매칭 예측 모델의 훈련 장치일 수 있는 바, 아래에서 훈련 장치로 설명되며; 예를 들어, 매칭 예측 모델의 훈련 방법은 단말 기기, 서버 또는 다른 처리 기기에 의해 수행될 수 있고, 여기서 단말 기기는 사용자 기기(User Equipment, UE), 모바일 기기, 사용자 단말, 단말, 셀룰러폰, 무선 전화, 개인 휴대 정보 단말기(Personal Digital Assistant, PDA), 핸드헬드 기기, 컴퓨팅 기기, 차량 탑재 기기, 웨어러블 기기 등일 수 있다. 일부 가능한 구현 방식에서, 상기 매칭 예측 모델의 훈련 방법는 메모리에 저장된 컴퓨터 판독 가능 명령을 호출하는 프로세서에 의해 구현될 수 있다. In an embodiment of the present invention, the execution subject of the training method of the matching prediction model may be a training device of the matching prediction model, which will be described as a training device below; For example, the training method of the matching prediction model may be performed by a terminal device, a server or other processing device, wherein the terminal device is a user equipment (UE), a mobile device, a user terminal, a terminal, a cellular phone, It may be a wireless telephone, a Personal Digital Assistant (PDA), a handheld device, a computing device, an in-vehicle device, a wearable device, or the like. In some possible implementation manners, the training method of the matching prediction model may be implemented by a processor that calls computer readable instructions stored in a memory.

일 실시 장면에서, 샘플 매칭 데이터는 이분할 그래프로도 불리는 이분 그래프일 수 있다. 이는 포인트 집합과 에지 집합으로 구성된 무방향 그래프이고, 포인트 집합은 교차점이 없는 두 개의 서브 집합으로 나뉠 수 이으며, 에지 집합 중 각 에지에 연관된 두 포인트는 각각 교차점이 없는 상기 두 개의 서브 집합에 속한다. 여기서, 샘플 매칭 데이터가 이분 그래프인 경우, 이는 복수 그룹의 포인트 쌍 및 각 그룹의 포인트 쌍을 연결하는 연결 에지를 포함하며, 연결 에지에는 포인트 쌍에 대응되는 실제 매칭 값이 라벨링되고, 포인트 쌍에 대응되는 매칭 정도를 설명하기 위해 사용되는 바, 예를 들어, 실제 매칭 값은 0~1 사이의 값일 수 있고; 여기서, 실제 매칭 값이 0.1인 경우, 이는 대응되는 포인트 쌍 간의 매칭 정도가 낮고, 포인트 쌍에서 샘플 이미지로부터의 포인트와 맵 데이터로부터의 포인트가 공간 내 동일한 포인트에 대응될 확률이 낮음을 의미할 수 있으며; 실제 매칭 값이 0.98인 경우, 이는 대응되는 포인트 쌍 간의 매칭 정도가 높고, 포인트 쌍에서 샘플 이미지로부터의 포인트와 맵 데이터로부터의 포인트가 공간 내 동일한 포인트에 대응될 확률이 높음을 의미할 수 있다. 도 2를 참조하면, 도 2는 본 발명의 매칭 예측 모델의 훈련 방법의 일 실시예의 상태 모식도이다. 도 2에 도시된 바와 같이, 좌측은 이분 그래프로 표시된 샘플 매칭 데이터이고, 이분 그래프의 상측 및 하측은 교차점이 없는 두 개의 포인트 집합이며, 두 포인트 집합 중의 포인트를 연결하는 것은 연결 에지이고, 연결 에지에는 실제 매칭 값(미도시)이 라벨링된다. In one embodiment, the sample matching data may be a bipartite graph, also called a bipartite graph. This is an undirected graph composed of a point set and an edge set, a point set can be divided into two subsets without an intersection point, and two points associated with each edge among the edge set belong to the two subsets each without an intersection point. Here, when the sample matching data is a bipartite graph, it includes a plurality of groups of point pairs and a connecting edge connecting the point pairs of each group, and the connecting edge is labeled with an actual matching value corresponding to the point pair, Used to describe the corresponding matching degree, for example, the actual matching value may be a value between 0 and 1; Here, when the actual matching value is 0.1, it means that the degree of matching between the corresponding point pairs is low, and the probability that the point from the sample image and the point from the map data in the point pair correspond to the same point in space is low. there is; When the actual matching value is 0.98, this may mean that the degree of matching between the corresponding point pairs is high, and the probability that the point from the sample image and the point from the map data in the point pair correspond to the same point in space is high. Referring to FIG. 2, FIG. 2 is a state schematic diagram of an embodiment of a method for training a matching prediction model of the present invention. As shown in FIG. 2 , the left side is sample matching data displayed as a bipartite graph, the upper and lower sides of the bipartite graph are two point sets without intersection points, and connecting the points of the two point sets is a connecting edge, and a connecting edge is labeled with an actual matching value (not shown).

일 실시 장면에서, 샘플 매칭 데이터의 다양화를 향상시키기 위해, 훈련 장치는 또한 샘플 매칭 데이터에 대해 데이터 강화를 수행할 수 있다. 예를 들어, 훈련 장치는 샘플 매칭 데이터 중의 3차원 포인트의 좌표에서 각각 3 개의 축을 랜덤으로 회전시키거나, 샘플 매칭 데이터 중의 3차원 포인트를 정규화 처리할 수도 있으며, 여기서는 이에 대해 한정하지 않는다. In one embodiment, in order to improve the diversification of the sample matching data, the training device may also perform data enhancement on the sample matching data. For example, the training apparatus may randomly rotate three axes at the coordinates of the three-dimensional point in the sample matching data, or normalize the three-dimensional point in the sample matching data, but the present invention is not limited thereto.

단계 S12에서, 매칭 예측 모델을 이용하여 복수 그룹의 포인트 쌍에 대해 예측 처리를 수행하여 포인트 쌍의 예측 매칭 값을 획득한다. In step S12, prediction processing is performed on a plurality of groups of point pairs using the matching prediction model to obtain predictive matching values of the point pairs.

계속해서 도 2를 참조하면, 역시 샘플 매칭 데이터가 이분 그래프로 표시되는 경우를 예로 들면, 매칭 예측 모델은 샘플 이미지가 속한 차원에 대응되는 제1 포인트 특징 추출 서브 모델, 맵 데이터가 속한 차원에 대응되는 제2 포인트 특징 추출 서브 모델 및 에지 특징 추출 서브 모델을 포함할 수 있다. 예를 들어, 샘플 이미지가 2차원 이미지인 경우, 맵 데이터가 2차원 이미지를 포함하고, 제1 포인트 특징 추출 서브 모델 및 제2 포인트 특징 추출 서브 모델이 2차원 포인트 특징 추출 서브 모델이면, 훈련에 의해 획득된 매칭 예측 모델은 2차원-3차원의 매칭 예측에 사용될 수 있으며; 또는 샘플 이미지가 3차원 이미지이고, 맵 데이터가 3차원 포인트 클라우드를 포함하는 경우, 제1 포인트 특징 추출 서브 모델 및 제2 포인트 특징 추출 서브 모델은 3차원 포인트 특징 추출 서브 모델이면, 훈련에 의해 획득된 매칭 예측 모델은 3차원-3차원의 매칭 예측에 사용될 수 있으며; 또는 샘플 이미지가 2차원 이미지이고, 맵 데이터가 3차원 포인트 클라우드인 경우, 제1 포인트 특징 추출 서브 모델이 2차원 포인트 특징 추출 서브 모델이고, 제2 포인트 특징 추출 서브 모델이 3차원 포인트 특징 추출 서브 모델이면, 훈련에 의해 획득된 매칭 예측 모델은 2차원-3차원의 매칭 예측에 사용될 수 있으며; 여기서, 매칭 예측 모델은 실제 적용에 따라 설정될 수 있으며, 여기서는 이에 대해 한정하지 않는다. Continuing to refer to FIG. 2 , for example, when the sample matching data is also displayed as a bipartite graph, the matching prediction model corresponds to the first point feature extraction sub-model corresponding to the dimension to which the sample image belongs, and the dimension to which the map data belongs. It may include a second point feature extraction sub-model and an edge feature extraction sub-model. For example, if the sample image is a two-dimensional image, the map data includes a two-dimensional image, and the first point feature extraction submodel and the second point feature extraction submodel are two-dimensional point feature extraction submodels, The matching prediction model obtained by the above can be used for 2-D-3D matching prediction; Or, if the sample image is a three-dimensional image, and the map data includes a three-dimensional point cloud, the first point feature extraction sub-model and the second point feature extraction sub-model are three-dimensional point feature extraction sub-models, obtained by training The matched prediction model can be used for 3-D matching prediction; Alternatively, when the sample image is a two-dimensional image and the map data is a three-dimensional point cloud, the first point feature extraction sub-model is a two-dimensional point feature extraction sub-model, and the second point feature extraction sub-model is a three-dimensional point feature extraction sub model If it is a model, the matching prediction model obtained by training can be used for two-dimensional and three-dimensional matching prediction; Here, the matching prediction model may be set according to actual application, and the present invention is not limited thereto.

일 실시 장면에서, 훈련 장치는 제1 포인트 특징 추출 서브 모델 및 제2 포인트 특징 추출 서브 모델을 이용하여 이분 그래프에 대해 특징 추출을 수행하여 제1 특징 및 제2 특징을 획득한 후; 에지 특징 추출 서브 모델을 이용하여 제1 특징 및 제2 특징에 대해 특징 추출을 수행하여 제3 특징을 획득하고; 제3 특징을 이용하여 연결 에지에 대응되는 포인트의 예측 매칭 값을 획득할 수 있으며; 도 2는 이분 그래프에서 각 연결 에지에 대응되는 예측 매칭 값을 도시한다. In one embodiment, the training apparatus performs feature extraction on the bipartite graph using the first point feature extraction submodel and the second point feature extraction submodel to obtain the first feature and the second feature; performing feature extraction on the first feature and the second feature using the edge feature extraction sub-model to obtain a third feature; a predictive matching value of a point corresponding to a connecting edge may be obtained using the third feature; 2 shows prediction matching values corresponding to each connected edge in a bipartite graph.

일 실시 장면에서, 제1 포인트 특징 추출 서브 모델 및 제2 포인트 특징 추출 서브 모델이 2차원 포인트 특징 추출 서브 모델인 경우, 이는 적어도 하나의 레지듀얼 블록(resblock), 예를 들어, 1 개의 레지듀얼 블록, 2 개의 레지듀얼 블록, 3 개의 레지듀얼 블록 등을 포함할 수 있고, 각 레지듀얼 블록(resblock)은 복수의 기본 블록(base block)으로 구성되며, 각 기본 블록(base block)은 하나의 1*1 콘볼루션 계층, 배치 정규화 계층(batch normalization), 콘텍스트 정규화 계층(context normalization)으로 구성된다. 제1 포인트 특징 추출 서브 모델 및 제2 포인트 특징 추출 서브 모델이 3차원 포인트 특징 추출 서브 모델인 경우, 적어도 하나의 레지듀얼 블록(resblock) 및 적어도 하나의 공간 변환 네트워크(예, t-net), 예를 들어, 1 개의 레지듀얼 블록, 2 개의 레지듀얼 블록, 3 개의 레지듀얼 블록 등을 포함할 수 있으며, 여기서는 이에 대해 한정하지 않는다. 공간 변환 네트워크는 1개 또는 2개일 수 있고, 여기서, 공간 변환 네트워크는 모델의 시작과 끝에 위치할 수 있으며, 여기서는 이에 대해 한정하지 않는다. 레지듀얼 블록(resblock)의 구조는 전술한 실시 장면 중의 구조를 참조할 수 있으며 여기서 상세한 설명을 생략한다. 에지 특징 추출 서브 모델은 적어도 하나의 레지듀얼 블록, 예를 들어, 1 개의 레지듀얼 블록, 2 개의 레지듀얼 블록, 3 개의 레지듀얼 블록 등을 포함할 수 있으며, 여기서는 이에 대해 한정하지 않는다. 레지듀얼 블록(resblock)의 구조는 전술한 실시 장면 중의 구조를 참조할 수 있으며 여기서 상세한 설명을 생략한다. In one embodiment, when the first point feature extraction sub-model and the second point feature extraction sub-model are two-dimensional point feature extraction sub-models, at least one residual block (resblock), for example, one residual It may include a block, two residual blocks, three residual blocks, etc., and each residual block (resblock) is composed of a plurality of base blocks (base block), and each base block (base block) is one It consists of a 1*1 convolutional layer, a batch normalization layer, and a context normalization layer. When the first point feature extraction submodel and the second point feature extraction submodel are three-dimensional point feature extraction submodels, at least one residual block (resblock) and at least one spatial transformation network (eg, t-net); For example, it may include one residual block, two residual blocks, three residual blocks, and the like, but is not limited thereto. There may be one or two spatial transformation networks, where the spatial transformation networks may be located at the beginning and the end of the model, but the present disclosure is not limited thereto. For the structure of the residual block, reference may be made to the structure in the above-described embodiment, and a detailed description thereof will be omitted. The edge feature extraction sub-model may include at least one residual block, for example, one residual block, two residual blocks, three residual blocks, and the like, but is not limited thereto. For the structure of the residual block, reference may be made to the structure in the above-described embodiment, and a detailed description thereof will be omitted.

단계 S13에서, 실제 매칭 값 및 예측 매칭 값을 이용하여 매칭 예측 모델의 손실 값을 결정한다. In step S13, a loss value of the matching prediction model is determined using the actual matching value and the predicted matching value.

일 실시 장면에서, 훈련 장치는 실제 매칭 값 및 예측 매칭 값 간의 차이를 통계하여 매칭 예측 모델의 손실 값을 결정할 수 있다. 여기서, 훈련 장치는 모든 포인트 쌍의 예측 매칭 값과 실제 매칭 값 간의 차이 값의 합계를 통계한 후, 상기 통계 및 모든 포인트 쌍의 개수를 이용하여 모든 포인트 쌍의 예측 매칭 값의 평균 값을 매칭 예측 모델의 손실 값으로 구할 수 있다. In one embodiment, the training apparatus may determine a loss value of the matching prediction model by stating the difference between the actual matching value and the predicted matching value. Here, the training device stats the sum of the difference values between the predicted matching values of all point pairs and the actual matching values, and then using the statistics and the number of all point pairs, the average value of the predicted matching values of all point pairs is predicted by matching It can be calculated as the loss value of the model.

다른 실시 장면에서, 복수 그룹의 매칭 포인트 쌍은 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되는 매칭 포인트 쌍을 포함할 수 있는 바, 즉 매칭 포인트 쌍에 포함된 이미지 포인트와 맵 포인트는 공간 내의 동일한 포인트이고, 복수 그룹의 매칭 포인트 쌍은 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되지 않는 비매칭 포인트 쌍도 포함할 수 있는 바, 즉 비매칭 포인트 쌍에 포함된 이미지 포인트와 맵 포인트는 공간 내의 상이한 포인트이며, 이 경우 훈련 장치는 매칭 포인트 쌍의 예측 매칭 값

Figure pct00001
및 실제 매칭 값
Figure pct00002
을 이용하여 매칭 예측 모델의 제1 손실 값
Figure pct00003
을 결정하고, 비매칭 포인트 쌍의 예측 매칭 값
Figure pct00004
및 실제 매칭 값
Figure pct00005
을 이용하여 매칭 예측 모델의 제2 손실 값
Figure pct00006
을 결정함으로써, 제1 손실 값
Figure pct00007
및 제2 손실 값
Figure pct00008
에 대해 가중 처리를 수행하여 매칭 예측 모델의 손실 값
Figure pct00009
을 획득할 수 있다. 공식 (1)을 참조하면, In another embodiment, the plurality of groups of matching point pairs may include matching point pairs matched between image points and map points included in at least one group, that is, the image points and map points included in the matching point pairs are spatially is the same point within, and a plurality of groups of matching point pairs may also include mismatching point pairs that do not match between image points and map points included in at least one group, that is, image points and map points included in the non-matching point pair. A point is a different point in space, in which case the training device predicts a matching value of a pair of matching points.
Figure pct00001
and actual matching values
Figure pct00002
The first loss value of the matching prediction model using
Figure pct00003
to determine the predictive matching value of the non-matching point pair.
Figure pct00004
and actual matching values
Figure pct00005
The second loss value of the matching prediction model using
Figure pct00006
By determining the first loss value
Figure pct00007
and a second loss value
Figure pct00008
Loss value of the matching prediction model by performing weighted processing on
Figure pct00009
can be obtained. Referring to formula (1),

Figure pct00010
……(1)
Figure pct00010
… … (One)

상기 공식 (1)에서,

Figure pct00011
는 매칭 예측 모델의 손실 값을 나타내고,
Figure pct00012
는 매칭 포인트 쌍에 대응되는 제1 손실 값을 나타내며,
Figure pct00013
는 비매칭 포인트 쌍에 대응되는 제2 손실 값을 나타내고,
Figure pct00014
Figure pct00015
는 각각 제1 손실 값
Figure pct00016
의 가중치, 제2 손실 값
Figure pct00017
의 가중치를 나타낸다. In the above formula (1),
Figure pct00011
represents the loss value of the matching prediction model,
Figure pct00012
represents the first loss value corresponding to the matching point pair,
Figure pct00013
represents the second loss value corresponding to the non-matching point pair,
Figure pct00014
and
Figure pct00015
are the first loss values, respectively
Figure pct00016
weight of , the second loss value
Figure pct00017
represents the weight of

일 실시 장면에서, 훈련 장치는 또한 매칭 포인트 쌍의 제1 개수

Figure pct00018
및 비매칭 포인트 쌍의 제2 개수
Figure pct00019
를 각각 통계하여 매칭 포인트 쌍의 예측 매칭 값과 실제 매칭 값 간의 차이 값 및 제1 개수를 이용하여 제1 손실 값을 결정할 수 있다. 공식 (2)를 참조하면,In one embodiment, the training device also includes a first number of matching point pairs.
Figure pct00018
and a second number of non-matching point pairs.
Figure pct00019
The first loss value may be determined by using the first number and the difference value between the predicted matching value and the actual matching value of the matching point pair by stating each . Referring to formula (2),

Figure pct00020
……(2)
Figure pct00020
… … (2)

상기 공식 (2)에서,

Figure pct00021
는 제1 손실 값을 나타내고,
Figure pct00022
는 제1 개수를 나타내며,
Figure pct00023
는 각각 매칭 포인트 쌍의 실제 매칭 값 및 예측 매칭 값을 나타낸다. In the above formula (2),
Figure pct00021
represents the first loss value,
Figure pct00022
represents the first number,
Figure pct00023
denotes the actual matching value and the predicted matching value of the matching point pair, respectively.

훈련 장치는 또한 비매칭 포인트 쌍의 예측 매칭 값과 실제 매칭 값 간의 차이 값 및 제2 개수를 이용하여 제2 손실 값을 결정할 수 있다. 공식 (3)을 참조하면,The training apparatus may also determine the second loss value by using the second number and the difference value between the predicted matching value and the actual matching value of the non-matching point pair. Referring to formula (3),

Figure pct00024
……(3)
Figure pct00024
… … (3)

상기 공식 (3)에서,

Figure pct00025
는 제2 손실 값을 나타내고,
Figure pct00026
는 제2 개수를 나타내며,
Figure pct00027
는 각각 비매칭 포인트 쌍의 실제 매칭 값 및 예측 매칭 값을 나타내고; 이 밖에, 비매칭 포인트 쌍의 실제 매칭 값
Figure pct00028
은 또한 하나의 기설정된 값(예를 들어, 0)으로 통일적으로 설정할 수도 있다. In the above formula (3),
Figure pct00025
represents the second loss value,
Figure pct00026
represents the second number,
Figure pct00027
denotes the actual matching value and the predicted matching value of the non-matching point pair, respectively; In addition, the actual matching value of the non-matching point pair
Figure pct00028
may also be uniformly set to one preset value (eg, 0).

단계 S14에서, 손실 값을 이용하여 매칭 예측 모델의 파라미터를 조정한다. In step S14, the parameters of the matching prediction model are adjusted using the loss values.

본 발명의 실시예에서, 훈련 장치는 확률적 경사 하강법(Stochastic Gradient Descent, SGD), 배치 경사 하강법(Batch Gradient Descent, BGD), 미니-배치 경사 하강법(Mini-Batch Gradient Descent, MBGD) 등 방식을 사용하고, 손실 값을 이용하여 매칭 예측 모델의 파라미터를 조정할 수 있으며; 여기서, 배치 경사 하강법은 매회 반복 시 모든 샘플을 사용하여 파라미터를 업데이트함을 의미하고; 확률적 경사 하강법은 매회 반복 시 하나의 샘플을 사용하여 파라미터를 업데이트함을 의미하며; 미니-배치 경사 하강법은 매회 반복 시 한 배치의 샘플을 사용하여 파라미터를 업데이트함을 의미하며 여기서는 이에 대해 상세한 설명을 생략한다. In an embodiment of the present invention, the training device includes stochastic gradient descent (SGD), batch gradient descent (BGD), mini-batch gradient descent (MBGD) etc., and the loss value can be used to adjust the parameters of the matching prediction model; Here, batch gradient descent means updating parameters using all samples in each iteration; Stochastic gradient descent means updating parameters using one sample at each iteration; The mini-batch gradient descent method means that parameters are updated using one batch of samples at each iteration, and a detailed description thereof is omitted here.

일 실시 장면에서, 또한 훈련 종료 조건을 설정할 수 있는 바, 훈련 종료 조건을 충족하면, 훈련 장치는 매칭 예측 모델에 대한 훈련을 종료할 수 있다. 여기서, 훈련 종료 조건은 손실 값이 기설정된 손실 임계 값 미만이고 또한 손실 값이 더 이상 감소하지 않는 조건; 현재 훈련 횟수가 기설정된 횟수 임계 값(예를 들어, 500회, 1000회 등)에 도달하는 조건을 포함할 수 있으며, 여기서는 이에 대해 한정하지 않는다. In one embodiment, a training termination condition may also be set. When the training termination condition is satisfied, the training apparatus may end training for the matching prediction model. Here, the training termination condition is a condition in which the loss value is less than a preset loss threshold and the loss value does not decrease any more; It may include a condition in which the current number of training reaches a preset number threshold (eg, 500 times, 1000 times, etc.), but is not limited thereto.

상기 수단에 따르면, 샘플 이미지 및 맵 데이터를 이용하여 샘플 매칭 데이터를 구축하여 획득하며, 샘플 매칭 데이터는 복수 그룹의 포인트 쌍 및 각 그룹의 포인트 쌍의 실제 매칭 값을 포함하고, 각 그룹의 포인트 쌍의 두 포인트는 각각 샘플 이미지 및 맵 데이터로부터 유래된다. 따라서 매칭 예측 모델을 이용하여 복수 그룹의 포인트 쌍에 대해 예측 처리를 수행하여 포인트 쌍의 예측 매칭 값을 획득하고, 나아가 실제 매칭 값 및 예측 매칭 값을 이용하여 매칭 예측 모델의 손실 값을 결정하며, 손실 값을 이용하여 매칭 예측 모델의 파라미터를 조정하므로, 매칭 예측 모델을 이용하여 매칭 관계를 구축할 수 있고, 이에 따라 시각적 포지셔닝 과정에서 매칭 예측 모델을 이용하여 포인트 쌍 간의 매칭 값을 예측할 수 있으므로, 예측에 의해 획득된 매칭 값을 기반으로 높은 매칭 값을 갖는 포인트 쌍을 우선적으로 샘플링하여 포지셔닝할 이미지의 촬상 포즈 파라미터를 결정할 수 있으며, 나아가 시각적 포지셔닝의 정확성과 즉시성 향상에 유리할 수 있다. According to the above means, sample matching data is constructed and obtained by using the sample image and map data, wherein the sample matching data includes a plurality of groups of point pairs and actual matching values of each group of point pairs, and each group of point pairs The two points of are derived from the sample image and map data, respectively. Therefore, predictive processing is performed on a plurality of groups of point pairs using the matching prediction model to obtain the predicted matching value of the point pair, and further, the loss value of the matching prediction model is determined using the actual matching value and the predicted matching value, Since the parameters of the matching prediction model are adjusted using the loss value, a matching relationship can be built using the matching prediction model, and accordingly, the matching value between the point pairs can be predicted using the matching prediction model in the visual positioning process. Based on the matching value obtained by prediction, it is possible to determine the imaging pose parameter of the image to be positioned by preferentially sampling the point pair having a high matching value, and furthermore, it may be advantageous to improve the accuracy and immediateness of visual positioning.

도 3을 참조하면, 도 3은 도 1에서 단계 S11의 일 실시예의 흐름 모식도이다. 여기서, 훈련 장치는 하기와 같은 단계를 통해 샘플 매칭 데이터를 구축하여 획득할 수 있다.Referring to FIG. 3 , FIG. 3 is a flow schematic diagram of an embodiment of step S11 in FIG. 1 . Here, the training apparatus may build and acquire sample matching data through the following steps.

단계 S111에서, 샘플 이미지에서 복수의 이미지 포인트를 획득하고 맵 데이터에서 복수의 맵 포인트를 획득하여 복수 그룹의 포인트 쌍을 구성한다. In step S111, a plurality of image points are obtained from the sample image and a plurality of map points are obtained from the map data to configure a plurality of groups of point pairs.

복수 그룹의 포인트 쌍은 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되는 매칭 포인트 쌍을 포함하는 바, 즉, 복수 그룹의 포인트 쌍에는 포함된 이미지 포인트와 맵 포인트가 공간 내 동일한 포인트에 대응되는 적어도 한 그룹의 매칭 포인트 쌍이 포함된다. 샘플 이미지가 2차원 이미지이고, 맵 데이터가 SFM 재구성 방식에 의해 획득된 희소 포인트 클라우드 모델인 경우를 예로 들면, 복수 그룹의 포인트 쌍에는 1 개의 삼각화된 포인트 및 희소 포인트 클라우드 모델에서 상기 삼각화된 포인트에 대응되는 3차원 포인트가 적어도 포함된다. The plurality of groups of point pairs includes matching point pairs that match between the image points and map points included in at least one group, that is, the image points and map points included in the plurality of groups of point pairs correspond to the same point in space. At least one group of matching point pairs is included. Taking the case where the sample image is a two-dimensional image and the map data is a sparse point cloud model obtained by the SFM reconstruction method, for example, there is one triangulated point in a plurality of groups of point pairs and the triangulated point in the sparse point cloud model. At least a three-dimensional point corresponding to the point is included.

일 실시 장면에서, 복수 그룹의 포인트 쌍에는 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되지 않는 비매칭 포인트 쌍이 포함될 수도 있는 바, 즉, 복수 그룹의 포인트 쌍에는 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트가 공간 내 상이한 포인트에 대응되는 비매칭 포인트 쌍도 포함될 수 있다. 역시 샘플 이미지가 2차원 이미지이고, 맵 데이터가 SFM 재구성 방식에 의해 획득된 희소 포인트 클라우드 모델인 경우를 예로 들면, 한 그룹의 비매칭 포인트 쌍을 구성하도록, 복수 그룹의 포인트 쌍에는 삼각화되지 않은 포인트 및 희소 포인트 클라우드 모델 중의 임의의 포인트도 포함될 수 있다. 따라서 샘플 매칭 데이터에 노이즈를 추가할 수 있고, 나아가 매칭 예측 모델의 강건성을 향상시킬 수 있다. In one embodiment, the plurality of groups of point pairs may include mismatching point pairs that do not match between the image points and map points included in at least one group, that is, the plurality of groups of point pairs includes images included in at least one group. Non-matching point pairs in which the point and the map point correspond to different points in space may also be included. Again, taking the case where the sample image is a two-dimensional image and the map data is a sparse point cloud model obtained by the SFM reconstruction method, a plurality of groups of point pairs are not triangulated to constitute a group of non-matching point pairs. Any point in point and sparse point cloud models may also be included. Accordingly, noise can be added to the sample matching data, and the robustness of the matching prediction model can be improved.

일 실시 장면에서, 도 4를 참조하면, 도 4는 도 3에서 단계 S111의 일 실시예의 흐름 모식도이다. 여기서, 훈련 장치는 하기와 같은 단계를 통해 복수 그룹의 포인트 쌍을 획득할 수 있다. In one embodiment, referring to FIG. 4 , FIG. 4 is a flowchart of an embodiment of step S111 in FIG. 3 . Here, the training apparatus may acquire a plurality of groups of point pairs through the following steps.

단계 S41에서, 샘플 이미지 중의 이미지 포인트를 제1 이미지 포인트와 제2 이미지 포인트로 분할한다. In step S41, an image point in the sample image is divided into a first image point and a second image point.

본 발명의 실시예에서, 맵 데이터에는 제1 이미지 포인트와 매칭되는 맵 포인트가 존재하고, 맵 데이터에는 제2 이미지 포인트와 매칭되는 맵 포인트가 존재하지 않는다. 역시 샘플 이미지가 2차원 이미지이고, 맵 데이터는 SFM 재구성 방식에 의해 획득된 희소 포인트 클라우드 모델인 경우를 예로 들면, 제1 이미지 포인트는 샘플 이미지 중 삼각화된 특징 포인트일 수 있고, 제2 이미지 포인트는 샘플 이미지 중 삼각화되지 않은 특징 포인트일 수 있으며; 다른 응용 장면에서는 이에 따라 유추할 수 있으며, 여기서는 이에 대해 한정하지 않는다. In an embodiment of the present invention, there is a map point matching the first image point in the map data, and there is no map point matching the second image point in the map data. Again, for example, when the sample image is a two-dimensional image and the map data is a sparse point cloud model obtained by the SFM reconstruction method, the first image point may be a triangulated feature point among the sample images, and the second image point may be non-triangulated feature points in the sample image; In other application scenes, it may be inferred according to this, but the present invention is not limited thereto.

일 실시 장면에서, 샘플 이미지 중의 이미지 포인트는 샘플 이미지의 특징 포인트이다. 다른 실시 장면에서, 특징 포인트의 좌표를 정규화 평면으로 변환할 수도 있다. In one embodiment, the image points in the sample image are feature points of the sample image. In another embodiment, the coordinates of the feature points may be transformed into a normalization plane.

단계 S42에서, 각각의 제1 이미지 포인트에 대해, 맵 데이터에서 복수의 제1 맵 포인트를 할당하고, 제1 이미지 포인트와 각각의 제1 맵 포인트를 각각 하나의 제1 포인트 쌍으로 사용하되, 제1 맵 포인트에는 제1 이미지 포인트와 매칭되는 맵 포인트가 포함된다. In step S42, for each first image point, a plurality of first map points are allocated in the map data, and the first image point and each first map point are each used as one first pair of points, One map point includes a map point that matches the first image point.

각각의 제1 이미지 포인트에 대해, 맵 데이터에서 복수의 제1 맵 포인트를 할당하고, 제1 이미지 포인트와 각각의 제1 맵 포인트를 각각 하나의 제1 포인트 쌍으로 사용하며, 제1 맵 포인트에는 제1 이미지 포인트와 매칭되는 맵 포인트가 포함된다. 일 실시 장면에서, 각각의 제1 이미지 포인트에 할당되는 제1 맵 포인트의 개수는 동일하거나 상이할 수 있다. 다른 실시 장면에서, 제1 맵 포인트를 할당하기 전에, 분할에 의해 획득된 제1 이미지 포인트에서 복수의 제1 이미지 포인트를 랜덤으로 추출하고, 추출에 의해 획득된 제1 이미지 포인트에 대해, 맵 데이터에서 복수의 제1 맵 포인트를 할당하고 제1 이미지 포인트와 각각의 제1 맵 포인트를 각각 하나의 제1 포인트 쌍으로 사용하는 단계를 수행할 수도 있으며, 여기서는 이에 대해 한정하지 않는다. 일 실시 장면에서, 분할에 의해 획득된 제1 이미지 포인트에서 N 개의 포인트를 랜덤으로 추출하고, 추출에 의해 획득된 N 개의 제1 이미지 포인트 중의 각각의 제1 이미지 포인트에 대해, 맵 데이터에서 K 개의 제1 맵 포인트를 랜덤으로 할당할 수 있고, 랜덤으로 할당된 K 개의 제1 맵 포인트에는 제1 이미지 포인트와 매칭되는 맵 포인트가 포함된다. For each first image point, assign a plurality of first map points in the map data, use the first image point and each first map point as one first point pair, respectively, the first map point includes A map point matching the first image point is included. In an embodiment, the number of first map points allocated to each first image point may be the same or different. In another embodiment, before allocating the first map point, a plurality of first image points are randomly extracted from the first image point obtained by segmentation, and for the first image point obtained by the extraction, map data may perform the step of allocating a plurality of first map points and using each of the first image point and each first map point as one first point pair, but the present invention is not limited thereto. In one embodiment, N points are randomly extracted from the first image points obtained by segmentation, and, for each first image point of the N first image points obtained by the extraction, K The first map points may be randomly assigned, and the randomly assigned K first map points include map points matching the first image point.

단계 S43에서, 각각의 제2 이미지 포인트에 대해, 맵 데이터에서 복수의 제2 맵 포인트를 할당하고, 제2 이미지 포인트와 각각의 제2 맵 포인트를 하나의 제2 포인트 쌍으로 사용한다. In step S43, for each second image point, a plurality of second map points are allocated in the map data, and the second image point and each second map point are used as one second point pair.

각각의 제2 이미지 포인트에 대해, 맵 데이터에서 복수의 제2 맵 포인트를 할당하고, 제2 이미지 포인트와 각각의 제2 맵 포인트를 각각 하나의 제2 포인트 쌍으로 사용한다. 일 실시 장면에서, 각각의 제2 이미지 포인트에 할당되는 제2 맵 포인트의 개수는 동일하거나 상이할 수 있다. 다른 실시 장면에서, 제2 맵 포인트를 할당하기 전에, 분할에 의해 획득된 제2 이미지 포인트에서 복수의 제2 이미지 포인트를 랜덤으로 추출하고, 추출에 의해 획득된 제2 이미지 포인트에 대해, 맵 데이터에서 복수의 제2 맵 포인트를 할당하고 제2 이미지 포인트와 각각의 제2 맵 포인트를 각각 하나의 제2 포인트 쌍으로 사용하는 단계를 수행할 수도 있으며, 여기서는 이에 대해 한정하지 않는다. 일 실시 장면에서, 분할에 의해 획득된 제2 이미지 포인트에서 M 개의 포인트를 랜덤으로 추출하고, 추출에 의해 획득된 M 개의 제2 이미지 포인트 중의 각각의 제2 이미지 포인트에 대해, 맵 데이터에서 K 개의 제2 맵 포인트를 랜덤으로 할당할 수 있다. For each second image point, a plurality of second map points are allocated in the map data, and the second image point and each second map point are each used as one second point pair. In an embodiment, the number of second map points allocated to each second image point may be the same or different. In another implementation scene, before allocating the second map point, a plurality of second image points are randomly extracted from the second image point obtained by segmentation, and for the second image point obtained by the extraction, the map data allocating a plurality of second map points and using each of the second image point and each second map point as one second point pair may be performed, but the present disclosure is not limited thereto. In one embodiment, M points are randomly extracted from the second image points obtained by segmentation, and for each second image point among the M second image points obtained by the extraction, K The second map point may be randomly assigned.

일 실시 장면에서, 각각의 제1 포인트 쌍 및 각각의 제2 포인트 쌍이 매칭 포인트 쌍인지 여부를 용이하게 알 수 있도록, 각각의 제1 포인트 쌍 및 각각의 제2 포인트 쌍을 순회하고, 제1 식별자(예를 들어, 1)를 이용하여 매칭 포인트 쌍을 표기하며, 제2 식별자(예를 들어, 0)를 이용하여 비매칭 포인트 쌍을 표기할 수도 있다. In one embodiment, each first point pair and each second point pair are traversed, so as to easily know whether each first point pair and each second point pair are a matching point pair, and a first identifier (eg, 1) may be used to indicate a matching point pair, and a second identifier (eg, 0) may be used to indicate a non-matching point pair.

상기 단계 S42 및 단계 S43은 순차적으로 수행될 수 있는 바, 예를 들어, 먼저 단계 S42를 수행한 후, 단계 S43을 수행하거나; 또는 먼저 단계 S43을 수행한 후, 단계 S42를 수행하며; 이 밖에, 상기 단계 S42 및 단계 S43은 동기적으로 수행될 수도 있으며, 여기서는 이에 대해 한정하지 않는다. Step S42 and step S43 may be sequentially performed, for example, first performing step S42 and then performing step S43; or first performing step S43 and then performing step S42; In addition, the steps S42 and S43 may be performed synchronously, but the present invention is not limited thereto.

단계 S44에서, 제1 포인트 쌍과 제2 포인트 쌍에서 복수 그룹의 포인트 쌍을 추출하여 획득한다. In step S44, a plurality of groups of point pairs are extracted and obtained from the first point pair and the second point pair.

본 발명의 실시예에서, 제1 포인트 쌍 및 제2 포인트 쌍에서 랜덤으로 추출하여 하나의 샘플 매칭 데이터로서 복수 그룹의 포인트 쌍을 획득할 수 있다. 일 실시 장면에서, 제1 포인트 쌍 및 제2 포인트 쌍에서 랜덤으로 복수 회 추출하여 복수의 샘플 매칭 데이터를 획득할 수도 있다. 다른 실시 장면에서, 복수의 샘플 이미지 및 맵 데이터를 획득하고, 각각의 샘플 이미지 및 맵 데이터에 대해 상기 단계를 반복적으로 수행하여 복수의 샘플 매칭 데이터를 획득할 수 있다. 따라서 샘플 개수를 증가시킬 수 있어 매칭 예측 모델의 정확성 향상에 유리하다. In an embodiment of the present invention, a plurality of groups of point pairs may be obtained as one sample matching data by randomly extracting the first point pair and the second point pair. In one embodiment, a plurality of sample matching data may be obtained by randomly extracting the first point pair and the second point pair a plurality of times. In another embodiment, a plurality of sample images and map data may be obtained, and the above steps may be repeatedly performed for each sample image and map data to obtain a plurality of sample matching data. Therefore, it is possible to increase the number of samples, which is advantageous in improving the accuracy of the matching prediction model.

단계 S112에서, 각 그룹의 매칭 포인트 쌍에 대해, 샘플 이미지의 포즈 파라미터를 이용하여 맵 포인트를 샘플 이미지가 속한 차원에 투영하여 맵 포인트의 투영 포인트를 획득하고, 이미지 포인트와 투영 포인트 간의 차이를 기반으로 매칭 포인트 쌍의 실제 매칭 값을 결정한다. In step S112, for each group of matching point pairs, the map point is projected onto the dimension to which the sample image belongs by using the pose parameter of the sample image to obtain the projection point of the map point, and based on the difference between the image point and the projection point to determine the actual matching value of the matching point pair.

각 그룹의 매칭 포인트 쌍에 대해, 대응되는 샘플 이미지의 포즈 파라미터를 이용하여 맵 포인트를 샘플 이미지가 속한 차원에 투영하여 맵 포인트의 투영 포인트를 획득할 수 있다. 역시 샘플 이미지가 2차원 이미지이고, 맵 데이터는 SFM 재구성 방식에 의해 획득된 희소 포인트 클라우드 모델인 경우를 예로 들면, 훈련 장치는 포즈 파라미터를 이용하여 3차원 포인트를 재투영하여 투영 포인트를 획득할 수 있다. For each pair of matching points in each group, the map point may be projected onto a dimension to which the sample image belongs by using the pose parameter of the corresponding sample image to obtain a projection point of the map point. Again, for example, when the sample image is a two-dimensional image and the map data is a sparse point cloud model obtained by the SFM reconstruction method, the training device can obtain a projection point by re-projecting a three-dimensional point using a pose parameter. there is.

일 실시 장면에서, 기설정된 확률 분포 함수를 이용하여 이미지 포인트와 투영 포인트 간의 차이를 확률 밀도 값으로 변환하여 매칭 포인트 쌍의 실제 매칭 값으로 사용할 수 있다. 일 실시 장면에서, 기설정된 확률 분포 함수는 표준 가우스 분포 함수일 수 있으므로, 값의 범위가 음의 무한대와 양의 무한대인 차이를 대응되는 확률 밀도 값으로 변환할 수 있으며, 차이의 절대 값이 클수록 대응되는 확률 밀도 값이 작아지고, 이는 대응되게 포인트 쌍의 매칭 정도가 낮을 수록 차이의 절대 값이 작음을 의미하며, 대응되는 확률 밀도 값이 작을 수록, 이는 대응되게 포인트 쌍의 매칭 정도가 높음을 의미하고, 차이의 절대 값이 0일 때, 대응되는 확률 밀도 값은 최대 값이다. In one embodiment, the difference between the image point and the projection point may be converted into a probability density value using a preset probability distribution function to be used as an actual matching value of a matching point pair. In one embodiment, since the preset probability distribution function may be a standard Gaussian distribution function, a difference having a range of negative infinity and positive infinity may be converted into a corresponding probability density value, and the larger the absolute value of the difference, the corresponding The probability density value becomes smaller, which means that the absolute value of the difference is smaller as the matching degree of the point pair is lower, and the smaller the corresponding probability density value, the higher the matching degree of the point pair is correspondingly , and when the absolute value of the difference is 0, the corresponding probability density value is the maximum value.

일 실시 장면에서, 포즈 파라미터를 이용하여 맵 포인트를 샘플 이미지가 속한 차원에 투영하기 전에, 훈련 장치는 매칭 포인트 쌍을 기반으로 샘플 이미지의 포즈 파라미터를 계산할 수도 있으며; 여기서, BA(Bundle Adjustment)를 사용하여 포즈 파라미터를 계산할 수 있으므로, 포즈 파라미터를 이용하여 맵 포인트를 샘플 이미지가 속한 차원에 투영하여 맵 포인트의 투영 포인트를 획득한다. In one embodiment, before projecting the map point to the dimension to which the sample image belongs by using the pose parameter, the training device may calculate a pose parameter of the sample image based on the pair of matching points; Here, since the pose parameter can be calculated using BA (Bundle Adjustment), the map point is projected onto the dimension to which the sample image belongs by using the pose parameter to obtain the projection point of the map point.

일 실시 장면에서, 비매칭 포인트 쌍의 실제 매칭 값을 기설정된 값으로 설정할 수도 있는 바, 예를 들어, 비매칭 포인트 쌍의 실제 매칭 값을 0으로 설정한다. In one embodiment, the actual matching value of the non-matching point pair may be set to a preset value, for example, the actual matching value of the non-matching point pair is set to 0.

전술한 실시예와 달리, 샘플 이미지에서 복수의 이미지 포인트를 획득하고 맵 데이터에서 복수의 맵 포인트를 획득하여 복수 그룹의 포인트 쌍을 구성하며, 복수 그룹의 포인트 쌍에는 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되는 매칭 포인트 쌍이 포함되므로, 매칭 예측 모델을 훈련하기 위한 샘플을 생성할 수 있고, 또한 각 그룹의 매칭 포인트 쌍에 대해, 샘플 이미지의 포즈 파라미터를 이용하여 맵 포인트를 샘플 이미지가 속한 차원에 투영하여 맵 포인트의 투영 포인트를 획득함으로써, 이미지 포인트와 투영 포인트 간의 차이를 기반으로 매칭 포인트 쌍의 실제 매칭 값을 결정하여 매칭 예측 모델이 훈련 과정에서 매칭 포인트 쌍의 기하학적 특징을 학습할 수 있으므로 매칭 예측 모델의 정확성 향상에 유리하다. Unlike the above-described embodiment, a plurality of image points are obtained from a sample image and a plurality of map points are obtained from map data to configure a plurality of groups of point pairs, and the plurality of groups of point pairs includes at least one image point included in a group. Since matching point pairs matching between and map points are included, samples for training a matching prediction model can be generated, and for each group of matching point pairs, map points are sampled using pose parameters of the sample image. By projecting to the dimension to which it belongs and obtaining the projection point of the map point, the actual matching value of the matching point pair is determined based on the difference between the image point and the projection point, so that the matching prediction model learns the geometrical features of the matching point pair in the training process. Therefore, it is advantageous to improve the accuracy of the matching prediction model.

도 5를 참조하면, 도 5는 본 발명의 시각적 포지셔닝 방법의 일 실시예의 흐름 모식도이다. 시각적 포지셔닝 방법은 하기와 같은 단계를 포함할 수 있다. Referring to Figure 5, Figure 5 is a flow diagram of an embodiment of the visual positioning method of the present invention. The visual positioning method may include the following steps.

단계 S51에서, 포지셔닝할 이미지 및 맵 데이터를 이용하여 식별할 매칭 데이터를 구축한다. In step S51, matching data to be identified is constructed using the image to be positioned and the map data.

본 발명의 실시예에서, 식별할 매칭 데이터는 복수 그룹의 포인트 쌍을 포함하고, 각 그룹의 포인트 쌍의 두 포인트는 각각 포지셔닝할 이미지 및 맵 데이터로부터 유래된다. 여기서, 포지셔닝할 이미지 및 맵 데이터가 속한 차원은 2차원 또는 3차원일 수 있으며, 여기서는 이에 대해 한정하지 않는다. 예를 들어, 포지셔닝할 이미지는 2차원 이미지이거나 포지셔닝할 이미지는 RGB-D 이미지일 수도 있으며, 여기서는 이에 대해 한정하지 않는다. 맵 데이터는 단순한 2차원 이미지로 구성될 수 있으며, 3차원 포인트 클라우드 맵으로 구성될 수도 있고, 2차원 이미지와 3차원 포인트 클라우드의 결합일 수도 있으며, 여기서는 이에 대해 한정하지 않는다. In an embodiment of the present invention, the matching data to be identified includes a plurality of groups of point pairs, and two points of each group of point pairs are derived from image and map data to be positioned, respectively. Here, the dimension to which the image and map data to be positioned belong may be two-dimensional or three-dimensional, but the present invention is not limited thereto. For example, the image to be positioned may be a two-dimensional image or the image to be positioned may be an RGB-D image, but the present disclosure is not limited thereto. The map data may consist of a simple two-dimensional image, a three-dimensional point cloud map, or a combination of a two-dimensional image and a three-dimensional point cloud, but the present invention is not limited thereto.

단계 S52에서, 매칭 예측 모델을 이용하여 복수 그룹의 포인트 쌍에 대해 예측 처리를 수행하여 포인트 쌍의 예측 매칭 값을 획득한다. In step S52, prediction processing is performed on a plurality of groups of point pairs using the matching prediction model to obtain predictive matching values of the point pairs.

매칭 예측 모델은 샘플 매칭 데이터를 통해 미리 훈련하여 획득한 신경망 모델일 수 있다. 일 실시 장면에서, 매칭 예측 모델은 전술한 임의의 매칭 예측 모델의 훈련 방법 실시예 중의 단계를 통해 훈련하여 획득될 수 있다. 여기서, 훈련 단계는 전술한 실시예 중의 단계를 참조할 수 있으며 여기서 상세한 설명을 생략한다. The matching prediction model may be a neural network model obtained by pre-training through sample matching data. In one embodiment, the matching prediction model may be obtained by training through the steps in the embodiments of the training method for any matching prediction model described above. Here, the training step may refer to steps in the above-described embodiments, and detailed description thereof is omitted herein.

매칭 예측 모델을 이용하여 복수 그룹의 포인트 쌍에 대해 예측 처리를 수행하여 식별할 매칭 데이터 중 포인트 쌍의 예측 매칭 값을 획득할 수 있다. 일 실시 장면에서, 식별할 매칭 데이터는 이분 그래프이고, 이분 그래프에는 복수 그룹의 포인트 쌍 및 각 그룹의 포인트 쌍을 연결하는 연결 에지를 포함되며, 매칭 예측 모델은 포지셔닝할 이미지가 속한 차원에 대응되는 제1 포인트 특징 추출 서브 모델, 맵 데이터가 속한 차원에 대응되는 제2 포인트 특징 추출 서브 모델 및 에지 특징 추출 서브 모델을 포함하므로, 제1 포인트 특징 추출 서브 모델 및 제2 포인트 특징 추출 서브 모델을 이용하여 이분 그래프에 대해 특징 추출을 수행하여 제1 특징 및 제2 특징을 획득하고, 에지 특징 추출 서브 모델을 이용하여 제1 특징 및 제2 특징에 대해 특징 추출을 수행하여 제3 특징을 획득하며, 나아가 제3 특징을 이용하여 연결 에지에 대응되는 포인트 쌍의 예측 매칭 값을 획득할 수 있다. 이는 전술한 실시예 중의 단계를 참조할 수 있으며 여기서 상세한 설명을 생략한다. A prediction matching value of a point pair among matching data to be identified may be obtained by performing prediction processing on a plurality of groups of point pairs using the matching prediction model. In one embodiment, the matching data to be identified is a bipartite graph, the bipartite graph includes a plurality of groups of point pairs and a connecting edge connecting each group of point pairs, and the matching prediction model corresponds to a dimension to which the image to be positioned belongs. Since it includes the first point feature extraction submodel, the second point feature extraction submodel corresponding to the dimension to which the map data belongs, and the edge feature extraction submodel, the first point feature extraction submodel and the second point feature extraction submodel are used to obtain the first feature and the second feature by performing feature extraction on the bipartite graph, and performing feature extraction on the first feature and the second feature using the edge feature extraction sub-model to obtain the third feature, Furthermore, a prediction matching value of a point pair corresponding to a connecting edge may be obtained using the third feature. This may refer to steps in the above-described embodiments, and detailed descriptions thereof are omitted herein.

단계 S53에서, 포인트 쌍의 예측 매칭 값을 기반으로 포지셔닝할 이미지의 촬상 소자의 포즈 파라미터를 결정한다. In step S53, a pose parameter of the imaging device of the image to be positioned is determined based on the predictive matching value of the point pair.

식별할 매칭 데이터 중 포인트 쌍의 예측 매칭 값을 통해 우선적으로 높은 예측 매칭 값을 갖는 포인트 쌍을 이용하여 포지셔닝할 이미지의 촬상 소자의 포즈 파라미터를 결정할 수 있다. 일 실시 장면에서, 높은 예측 매칭 값을 갖는 n 개의 포인트 쌍을 이용하여 PnP(Perspective-n-Point) 문제를 구축할 수 있으므로, EPnP(Efficient PnP)와 같은 방식을 사용하여 PnP 문제를 해결하고, 나아가 포지셔닝할 이미지의 촬상 소자의 포즈 파라미터를 획득한다. 다른 실시 장면에서, 복수 그룹의 포인트 쌍을 예측 매칭 값의 내림차순으로 정렬하고, 이전 기설정된 개수 그룹의 포인트 쌍을 이용하여 포지셔닝할 이미지의 촬상 소자의 포즈 파라미터를 결정할 수도 있다. 여기서, 이전 기설정된 개수는 실제 상황에 따라 설정할 수 있는 바, 예를 들어, 정렬된 복수 그룹의 포인트 쌍에서 예측 매칭 값이 0이 아닌 포인트 쌍을 이전 기설정된 개수 그룹의 포인트 쌍으로 사용하거나; 또는 정렬된 복수 그룹의 포인트 쌍에서 예측 매칭 값이 하한 값보다 큰 포인트 쌍을 이전 기설정된 개수 그룹의 포인트 쌍으로 사용할 수도 있으며; 이전 기설정된 개수는 실제 적용에 따라 설정될 수 있으며, 여기서는 이에 대해 한정하지 않는다. 여기서, PROSAC(PROgressive SAmple Consensus, 점진적 샘플 컨센서스)와 같은 방식을 사용하여 정렬된 포인트 쌍을 처리하여 포지셔닝할 이미지의 촬상 소자의 포즈 파라미터를 획득할 수도 있다. 일 실시 장면에서, 포지셔닝할 이미지의 촬상 소자의 포즈 파라미터는 맵 데이터가 속한 맵 좌표계에서 촬상 소자의 6 개의 자유도(Degree of freedom, DoF)를 포함할 수 있으며, 여기에는 포즈 (pose), 즉 좌표 및 x축을 에워싸는 편향 yaw(요 각도), y축을 에워싸는 편향 pitch(피치 각도), z축을 에워싸는 편향 roll(롤 각도)가 포함된다. Among the matching data to be identified, the pose parameter of the imaging device of the image to be positioned may be determined using a point pair having a high predictive matching value through the predictive matching value of the point pair. In one embodiment, since a perspective-n-point (PnP) problem can be constructed using n point pairs having a high predictive matching value, the PnP problem is solved using a method such as Efficient PnP (EPnP), Furthermore, a pose parameter of an image pickup device of an image to be positioned is acquired. In another embodiment, a plurality of groups of point pairs may be arranged in a descending order of predictive matching values, and a pose parameter of an imaging device of an image to be positioned may be determined using a previously preset number of point pairs of groups. Here, the previously preset number can be set according to the actual situation, for example, using a point pair whose prediction matching value is not 0 in a plurality of sorted point pairs as a point pair of a previously preset number group; Alternatively, a point pair having a predictive matching value greater than a lower limit value in the sorted plurality of groups of point pairs may be used as a point pair of a previously preset number of groups; The previously preset number may be set according to actual application, but is not limited thereto. Here, a pose parameter of an image pickup device of an image to be positioned may be obtained by processing the aligned point pair using a method such as PROSAC (PROgressive sample consensus). In one embodiment, the pose parameter of the imaging device of the image to be positioned may include six degrees of freedom (DoF) of the imaging device in a map coordinate system to which the map data belongs, including a pose, that is, Includes coordinates and deflection yaw around the x-axis, pitch deflection around the y-axis, and roll deflection around the z-axis.

상기 수단에 따르면, 포지셔닝할 이미지 및 맵 데이터를 이용하여 식별할 매칭 데이터를 구축하고, 식별할 매칭 데이터는 복수 그룹의 포인트 쌍을 포함하며, 각 그룹의 포인트 쌍의 두 포인트는 각각 포지셔닝할 이미지 및 맵 데이터로부터 유래되므로, 매칭 예측 모델을 이용하여 복수 그룹의 포인트 쌍에 대해 예측 처리를 수행하여 포인트 쌍의 예측 매칭 값을 획득하고, 나아가 포인트 쌍의 예측 매칭 값을 기반으로 포지셔닝할 이미지의 촬상 소자의 포즈 파라미터를 결정함으로써, 시각적 포지셔닝 과정에서 매칭 예측 모델을 이용하여 포인트 쌍 간의 매칭 값을 예측하고 매칭 관계를 구축할 수 있어 시각적 포지셔닝의 정확성과 즉시성 향상에 유리할 수 있다. According to the means, the matching data to be identified is constructed using the image to be positioned and the map data, the matching data to be identified includes a plurality of groups of point pairs, and two points of the point pair of each group are respectively the image to be positioned and the Since it is derived from map data, prediction processing is performed on a plurality of groups of point pairs using a matching prediction model to obtain a predicted matching value of the point pair, and furthermore, an image pickup device of an image to be positioned based on the predicted matching value of the point pair By determining the pose parameter of , it is possible to predict a matching value between pairs of points and build a matching relationship using a matching prediction model in the process of visual positioning, which can be advantageous in improving the accuracy and immediacy of visual positioning.

도 6을 참조하면, 도 6은 본 발명의 매칭 예측 모델의 훈련 장치(60)의 일 실시예의 프레임워크 모식도이다. 매칭 예측 모델의 훈련 장치(60)는 샘플 구축 부분(61), 예측 처리 부분(62), 손실 결정 부분(63) 및 파라미터 조정 부분(64)을 포함하고, 샘플 구축 부분(61)은 샘플 이미지 및 맵 데이터를 이용하여 샘플 매칭 데이터를 구축하도록 구성되되, 샘플 매칭 데이터는 복수 그룹의 포인트 쌍 및 각 그룹의 포인트 쌍의 실제 매칭 값을 포함하고, 각 그룹의 포인트 쌍의 두 포인트는 각각 샘플 이미지 및 맵 데이터로부터 유래되며; 예측 처리 부분(62)은 매칭 예측 모델을 이용하여 복수 그룹의 포인트 쌍에 대해 예측 처리를 수행하여 포인트 쌍의 예측 매칭 값을 획득하도록 구성되며; 손실 결정 부분(63)은 실제 매칭 값 및 예측 매칭 값을 이용하여 매칭 예측 모델의 손실 값을 결정하도록 구성되고; 파라미터 조정 부분(64)은 손실 값을 이용하여 매칭 예측 모델의 파라미터를 조정하도록 구성된다. Referring to FIG. 6 , FIG. 6 is a schematic diagram of a framework of an embodiment of the apparatus 60 for training a matching prediction model of the present invention. The training apparatus 60 of the matching prediction model includes a sample construction part 61 , a prediction processing part 62 , a loss determining part 63 and a parameter adjustment part 64 , and the sample construction part 61 is a sample image and construct sample matching data using the map data, wherein the sample matching data includes a plurality of groups of point pairs and actual matching values of each group of point pairs, and two points of each group of point pairs are respectively sample images and map data; the prediction processing part 62 is configured to perform prediction processing on a plurality of groups of point pairs by using the matching prediction model to obtain predictive matching values of the point pairs; the loss determining part 63 is configured to determine a loss value of the matching prediction model using the actual matching value and the predicted matching value; The parameter adjustment portion 64 is configured to adjust a parameter of the matching prediction model using the loss value.

상기 수단에 따르면, 매칭 예측 모델을 이용하여 매칭 관계를 구축할 수 있으므로, 시각적 포지셔닝 과정에서 매칭 예측 모델을 이용하여 포인트 쌍 간의 매칭 값을 예측할 수 있다. 따라서 예측에 의해 획득된 매칭 값을 기반으로 높은 매칭 값을 갖는 포인트 쌍을 우선적으로 샘플링할 수 있으며, 나아가 시각적 포지셔닝의 정확성과 즉시성 향상에 유리할 수 있다. According to the means, since a matching relationship can be built using the matching prediction model, the matching value between the point pairs can be predicted using the matching prediction model in the visual positioning process. Therefore, it is possible to preferentially sample a point pair having a high matching value based on the matching value obtained by prediction, and furthermore, it may be advantageous to improve the accuracy and immediacy of visual positioning.

일부 실시예에서, 샘플 구축 부분(61)은, 샘플 이미지에서 복수의 이미지 포인트를 획득하고 맵 데이터에서 복수의 맵 포인트를 획득하여 복수 그룹의 포인트 쌍을 구성하도록 구성된 포인트 쌍 획득 서브 부분을 포함하되, 복수 그룹의 포인트 쌍은 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되는 매칭 포인트 쌍을 포함하고, 샘플 구축 부분(61)은, 각 그룹의 매칭 포인트 쌍에 대해, 샘플 이미지의 포즈 파라미터를 이용하여 맵 포인트를 샘플 이미지가 속한 차원에 투영하여 맵 포인트의 투영 포인트를 획득하고, 이미지 포인트와 투영 포인트 간의 차이를 기반으로 매칭 포인트 쌍의 실제 매칭 값을 결정하도록 구성된 제1 매칭 값 결정 서브 부분을 포함한다. In some embodiments, the sample building part 61 includes a point pair acquiring sub part, configured to acquire a plurality of image points from a sample image and acquire a plurality of map points from map data to form a plurality of groups of point pairs; , the plurality of groups of point pairs includes matching point pairs that are matched between image points and map points included in at least one group, and the sample building part 61 includes, for each group of matching point pairs, a pose parameter of a sample image a first matching value determining sub, configured to project the map point onto the dimension to which the sample image belongs, to obtain the projection point of the map point, and to determine the actual matching value of the pair of matching points based on the difference between the image point and the projection point includes part.

전술한 실시예와 달리, 샘플 이미지에서 복수의 이미지 포인트를 획득하고 맵 데이터에서 복수의 맵 포인트를 획득하여 복수 그룹의 포인트 쌍을 구성하며, 복수 그룹의 포인트 쌍에는 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되는 매칭 포인트 쌍이 포함되므로, 매칭 예측 모델을 훈련하기 위한 샘플을 생성할 수 있고, 또한 각 그룹의 매칭 포인트 쌍에 대해, 샘플 이미지의 포즈 파라미터를 이용하여 맵 포인트를 샘플 이미지가 속한 차원에 투영하여 맵 포인트의 투영 포인트를 획득함으로써, 이미지 포인트와 투영 포인트 간의 차이를 기반으로 매칭 포인트 쌍의 실제 매칭 값을 결정하여 매칭 예측 모델이 훈련 과정에서 매칭 포인트 쌍의 기하학적 특징을 학습할 수 있으므로 매칭 예측 모델의 정확성 향상에 유리하다. Unlike the above-described embodiment, a plurality of image points are obtained from a sample image and a plurality of map points are obtained from map data to configure a plurality of groups of point pairs, and the plurality of groups of point pairs includes at least one image point included in a group. Since matching point pairs matching between and map points are included, samples for training a matching prediction model can be generated, and for each group of matching point pairs, map points are sampled using pose parameters of the sample image. By projecting to the dimension to which it belongs and obtaining the projection point of the map point, the actual matching value of the matching point pair is determined based on the difference between the image point and the projection point, so that the matching prediction model learns the geometrical features of the matching point pair in the training process. Therefore, it is advantageous to improve the accuracy of the matching prediction model.

일부 실시예에서, 복수 그룹의 포인트 쌍은 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되지 않는 비매칭 포인트 쌍을 포함하고, 샘플 구축 부분(61)은 비매칭 포인트 쌍의 실제 매칭 값을 기설정된 값으로 설정하도록 구성된 제2 매칭 값 결정 서브 부분을 포함한다. In some embodiments, the plurality of groups of pairs of points include pairs of non-matching points that do not match between the image points and map points included in at least one group, and the sample building portion 61 determines the actual matching values of the pairs of non-matching points. and a second matching value determining sub-portion, configured to set to a preset value.

전술한 실시예와 달리, 복수 그룹의 포인트 쌍은 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되지 않는 비매칭 포인트 쌍을 포함하고, 매칭 포인트 쌍과 달리, 비매칭 포인트 쌍의 실제 매칭 값을 기설정된 값으로 설정하므로, 매칭 예측 모델의 강건성 향상에 유리할 수 있다. Unlike the above-described embodiment, a plurality of groups of point pairs includes a mismatching point pair that does not match between an image point and a map point included in at least one group, and unlike the matching point pair, the actual matching value of the mismatching point pair Since is set to a preset value, it may be advantageous to improve the robustness of the matching prediction model.

일부 실시예에서, 포인트 쌍 획득 서브 부분은, 샘플 이미지 중의 이미지 포인트를 제1 이미지 포인트와 제2 이미지 포인트로 분할하도록 구성된 이미지 포인트 분할 부분을 포함하되, 맵 데이터에는 제1 이미지 포인트와 매칭되는 맵 포인트가 존재하고, 맵 데이터에는 제2 이미지 포인트와 매칭되는 맵 포인트가 존재하지 않으며, 포인트 쌍 획득 서브 부분은, 각각의 제1 이미지 포인트에 대해, 맵 데이터에서 복수의 제1 맵 포인트를 할당하고, 제1 이미지 포인트와 각각의 제1 맵 포인트를 각각 하나의 제1 포인트 쌍으로 사용하도록 구성된 제1 포인트 쌍 획득 부분을 포함하되, 제1 맵 포인트에는 제1 이미지 포인트와 매칭되는 맵 포인트가 포함되고, 포인트 쌍 획득 서브 부분은 각각의 제2 이미지 포인트에 대해, 맵 데이터에서 복수의 제2 맵 포인트를 할당하고, 제2 이미지 포인트와 각각의 제2 맵 포인트를 하나의 제2 포인트 쌍으로 사용하도록 구성된 제2 포인트 쌍 획득 부분을 포함하며, 포인트 쌍 획득 서브 부분은, 제1 포인트 쌍과 제2 포인트 쌍에서 복수 그룹의 포인트 쌍을 추출하여 획득하도록 구성된 포인트 쌍 추출 부분을 포함한다. In some embodiments, the point pair acquiring sub-portion includes an image point dividing part configured to divide an image point in the sample image into a first image point and a second image point, wherein the map data includes a map matching the first image point a point exists, there is no map point matching the second image point in the map data, and the point pair acquisition sub-part allocates, for each first image point, a plurality of first map points in the map data, , a first point pair acquisition portion configured to each use the first image point and each first map point as one first point pair, wherein the first map point includes a map point that matches the first image point and the point pair acquisition sub-part allocates, for each second image point, a plurality of second map points in the map data, and uses the second image point and each second map point as one second point pair a second point pair obtaining portion configured to: wherein the point pair obtaining sub portion includes a point pair extraction portion configured to extract and obtain a plurality of groups of point pairs from the first point pair and the second point pair.

전술한 실시예와 달리, 샘플 이미지 중의 이미지 포인트를 제1 이미지 포인트와 제2 이미지 포인트로 분할하고, 맵에는 제1 이미지 포인트와 매칭되는 맵 포인트가 존재하며, 이미지 데이터에는 제2 이미지 포인트와 매칭되는 이미지 포인트가 존재하지 않고, 제1 이미지 포인트에 대해, 맵 데이터에서 복수의 제1 맵 포인트를 할당하고, 제1 이미지 포인트와 각각의 제1 맵 포인트를 각각 하나의 제1 포인트 쌍으로 사용하며, 제1 맵 포인트에는 제1 이미지 포인트와 매칭되는 맵 포인트가 포함되고, 각각의 제2 이미지 포인트에 대해, 맵 데이터에서 복수의 제2 맵 포인트를 할당하고, 제2 이미지 포인트와 각각의 제2 맵 포인트를 각각 하나의 제2 포인트 쌍으로 사용하며, 제1 포인트 쌍과 제2 포인트 쌍에서 복수 그룹의 포인트 쌍을 추출하여 획득함으로써, 개수가 많고 또한 비매칭 포인트 쌍과 매칭 포인트 쌍을 포함하는 복수 그룹의 포인트 쌍을 구축하여 매칭 예측 모델을 훈련에 사용할 수 있으므로, 매칭 예측 모델의 정확성 향상에 유리할 수 있다. Unlike the above-described embodiment, an image point in the sample image is divided into a first image point and a second image point, a map point matching the first image point exists in the map, and the image data matches the second image point There is no image point to be used, and for the first image point, a plurality of first map points are allocated from the map data, and the first image point and each first map point are each used as one first point pair, , the first map point includes a map point that matches the first image point, for each second image point, assigns a plurality of second map points in the map data, the second image point and each second image point Each map point is used as a second pair of points, and by extracting and obtaining a plurality of groups of point pairs from the first and second point pairs, the number of Since the matching prediction model can be used for training by constructing a plurality of groups of point pairs, it may be advantageous to improve the accuracy of the matching prediction model.

일부 실시예에서, 제1 매칭 값 결정 서브 부분은, 매칭 포인트 쌍을 기반으로 샘플 이미지의 포즈 파라미터를 계산하도록 구성된 포즈 계산 부분을 포함하고, 제1 매칭 값 결정 서브 부분은, 포즈 파라미터를 이용하여 맵 포인트를 샘플 이미지가 속한 차원에 투영하여 맵 포인트의 투영 포인트를 획득하도록 구성된 투영 부분을 포함한다. In some embodiments, the first matching value determining sub-portion includes a pose calculating part configured to calculate a pose parameter of the sample image based on the pair of matching points, wherein the first matching value determining sub-portion includes: and a projection portion configured to project the map point onto a dimension to which the sample image belongs to obtain a projection point of the map point.

전술한 실시예와 달리, 매칭 포인트 쌍을 이용하여 샘플 이미지의 포즈 파라미터를 계산하고, 포즈 파라미터를 이용하여 맵 포인트를 샘플 이미지가 속한 차원에 투영하여 맵 포인트의 투영 포인트를 획득함으로써, 투영 포인트와 이미지 포인트 간의 차이 정확성 향상에 유리할 수 있고, 나아가 매칭 예측 모델의 정확성 향상에 유리할 수 있다. Unlike the above-described embodiment, the projection point and the projection point are obtained by calculating the pose parameter of the sample image using a pair of matching points, and projecting the map point to the dimension to which the sample image belongs by using the pose parameter. It may be advantageous to improve the accuracy of the difference between image points, and further, it may be advantageous to improve the accuracy of the matching prediction model.

일부 실시예에서, 제1 매칭 값 결정 서브 부분은, 기설정된 확률 분포 함수를 이용하여 차이를 확률 밀도 값으로 변환하여 매칭 포인트 쌍의 실제 매칭 값으로 사용하도록 구성된 확률 밀도 변환 부분을 포함한다.In some embodiments, the first matching value determining sub-portion includes a probability density transformation part configured to convert the difference into a probability density value using a preset probability distribution function to be used as an actual matching value of a matching point pair.

전술한 실시예와 달리, 기설정된 확률 분포 함수를 이용하여 차이를 확률 밀도 값으로 변환하여 매칭 포인트 쌍의 실제 매칭 값으로 사용하므로, 투영 포인트와 이미지 포인트 간의 차이를 정확히 설명하는데 유리할 수 있으며, 따라서 매칭 예측 모델의 정확성 향상에 유리할 수 있다. Unlike the above-described embodiment, since the difference is converted into a probability density value using a preset probability distribution function and used as an actual matching value of a pair of matching points, it may be advantageous to accurately explain the difference between the projection point and the image point, and thus It may be advantageous to improve the accuracy of the matching prediction model.

일부 실시예에서, 샘플 매칭 데이터는 이분 그래프이고, 이분 그래프는 복수 그룹의 포인트 쌍 및 각 그룹의 포인트 쌍을 연결하는 연결 에지를 포함하며, 연결 에지에는 포인트 쌍에 대응되는 실제 매칭 값이 라벨링되고; 매칭 예측 모델은 샘플 이미지가 속한 차원에 대응되는 제1 포인트 특징 추출 서브 모델, 맵 데이터가 속한 차원에 대응되는 제2 포인트 특징 추출 서브 모델 및 에지 특징 추출 서브 모델을 포함하며, 예측 처리 부분(62)은, 제1 포인트 특징 추출 서브 모델 및 제2 포인트 특징 추출 서브 모델을 각각 이용하여 이분 그래프에 대해 특징 추출을 수행하여 제1 특징 및 제2 특징을 획득하도록 구성된 포인트 특징 추출 서브 부분을 포함하고, 예측 처리 부분(62)은, 에지 특징 추출 서브 모델을 이용하여 제1 특징 및 제2 특징에 대해 특징 추출을 수행하여 제3 특징을 획득하도록 구성된 에지 특징 추출 서브 부분을 포함하며, 예측 처리 부분(62)은, 제3 특징을 이용하여 연결 에지에 대응되는 포인트 쌍의 예측 매칭 값을 획득하도록 구성된 예측 서브 부분을 포함한다. In some embodiments, the sample matching data is a bipartite graph, the bipartite graph comprising a plurality of groups of point pairs and connecting edges connecting each group of point pairs, wherein the connecting edges are labeled with actual matching values corresponding to the point pairs, and ; The matching prediction model includes a first point feature extraction submodel corresponding to a dimension to which the sample image belongs, a second point feature extraction submodel corresponding to a dimension to which map data belongs, and an edge feature extraction submodel, and a prediction processing part 62 ) includes a point feature extraction sub-portion configured to perform feature extraction on the bipartite graph using the first point feature extraction sub-model and the second point feature extraction sub-model, respectively, to obtain the first feature and the second feature, , the prediction processing part 62 includes an edge feature extraction sub-part configured to perform feature extraction on the first feature and the second feature to obtain a third feature by using the edge feature extraction sub-model, the prediction processing part (62) includes a prediction sub-portion configured to obtain a prediction matching value of a point pair corresponding to a connecting edge by using the third feature.

전술한 실시예와 달리, 이분 그래프에 대해 포인트 특징 추출 및 에지 특징 추출을 각각 수행함으로써, 매칭 예측 모델은 매칭의 공간적 기하학적 구조를 보다 효과적으로 인지할 수 있고, 나아가 매칭 예측 모델의 정확성 향상에 유리할 수 있다. Unlike the above-described embodiment, by performing point feature extraction and edge feature extraction respectively on the bipartite graph, the matching prediction model can more effectively recognize the spatial geometry of the matching, and furthermore, it can be advantageous for improving the accuracy of the matching prediction model. there is.

일부 실시예에서, 제1 포인트 특징 추출 서브 모델 및 제2 포인트 특징 추출 서브 모델의 구조는, 적어도 하나의 레지듀얼 블록을 포함하는 구조, 적어도 하나의 레지듀얼 블록 및 적어도 하나의 공간 변환 네트워크를 포함하는 구조 중 어느 하나이거나; 및/또는, 에지 특징 추출 서브 모델은 적어도 하나의 레지듀얼 블록을 포함한다. In some embodiments, the structures of the first point feature extraction sub-model and the second point feature extraction sub-model include a structure including at least one residual block, at least one residual block, and at least one spatial transformation network. any one of the structures; and/or, the edge feature extraction sub-model includes at least one residual block.

전술한 실시예와 달리, 제1 포인트 특징 추출 서브 모델 및 제2 포인트 특징 추출 서브 모델의 구조를 적어도 하나의 레지듀얼 블록을 포함하는 구조, 적어도 하나의 레지듀얼 블록 및 적어도 하나의 공간 변환 네트워크를 포함하는 구조 중 어느 하나로 설정하고, 에지 특징 추출 서브 모델을 적어도 하나의 레지듀얼 블록을 포함하는 구조로 설정함으로써, 매칭 예측 모델의 최적화에 유리할 수 있고, 또한 매칭 예측 모델의 정확성을 향상시킨다. Unlike the above-described embodiment, the structure of the first point feature extraction sub-model and the second point feature extraction sub-model is a structure including at least one residual block, at least one residual block, and at least one spatial transformation network. By setting it to any one of the including structures and setting the edge feature extraction sub-model to a structure including at least one residual block, it may be advantageous to optimize the matching prediction model, and also improve the accuracy of the matching prediction model.

일부 실시예에서, 복수 그룹의 포인트 쌍은 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되는 매칭 포인트 쌍 및 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되지 않는 비매칭 포인트 쌍을 포함하고, 손실 결정 부분(63)은, 매칭 포인트 쌍의 예측 매칭 값 및 실제 매칭 값을 이용하여 매칭 예측 모델의 제1 손실 값을 결정하도록 구성된 제1 손실 결정 서브 부분을 포함하고, 손실 결정 부분(63)은, 비매칭 포인트 쌍의 예측 매칭 값 및 실제 매칭 값을 이용하여 매칭 예측 모델의 제2 손실 값을 결정하도록 구성된 제2 손실 결정 서브 부분을 포함하며, 손실 결정 부분(63)은 제1 손실 값 및 제2 손실 값에 대해 가중 처리를 수행하여 매칭 예측 모델의 손실 값을 획득하도록 구성된 손실 가중 서브 부분을 포함한다. In some embodiments, the plurality of groups of pairs of points include matching point pairs that match between image points and map points included in at least one group and pairs of non-matching points between image points and map points included in at least one group that do not match. and the loss determining part 63 includes a first loss determining sub part, configured to determine a first loss value of the matching prediction model using the predicted matching value and the actual matching value of the matching point pair, the loss determining part ( 63) includes a second loss determining sub-part, configured to determine a second loss value of the matching predictive model by using the predicted matching value and the actual matching value of the non-matching point pair, wherein the loss determining part 63 includes the first and a loss weighting sub-portion, configured to perform weighting processing on the loss value and the second loss value to obtain a loss value of the matching prediction model.

전술한 실시예와 달리, 매칭 포인트 쌍의 예측 매칭 값 및 실제 매칭 값을 이용하여 매칭 예측 모델의 제1 손실 값을 결정하고, 비매칭 포인트 쌍의 예측 매칭 값 및 실제 손실 값을 이용하여 매칭 예측 모델의 제2 손실 값을 결정함으로써, 제1 손실 값 및 제2 손실 값에 대해 가중 처리를 수행하여 매칭 예측 모델의 손실 값을 획득하므로, 매칭 예측 모델이 매칭의 공간적 기하학적 구조를 효과적으로 인지하는데 유리할 수 있고, 따라서 매칭 예측 모델의 정확성을 향상시킨다. Unlike the above-described embodiment, the first loss value of the matching prediction model is determined using the predicted matching value and the actual matching value of the matching point pair, and the matching prediction is made using the predicted matching value and the actual loss value of the non-matching point pair. By determining the second loss value of the model, weight processing is performed on the first loss value and the second loss value to obtain a loss value of the matching prediction model, which will be advantageous for the matching prediction model to effectively recognize the spatial geometry of the matching. and thus improve the accuracy of the matching prediction model.

일부 실시예에서, 손실 결정 부분(63)은 매칭 포인트 쌍의 제1 개수 및 비매칭 포인트 쌍의 제2 개수를 각각 통계하도록 구성된 개수 통계 서브 부분; 매칭 포인트 쌍의 예측 매칭 값과 실제 매칭 값 간의 차이 값 및 제1 개수를 이용하여 제1 손실 값을 결정하도록 구성된 제1 손실 결정 서브 부분; 및 비매칭 포인트 쌍의 예측 매칭 값과 실제 매칭 값 간의 차이 값 및 제2 개수를 이용하여 제2 손실 값을 결정하도록 구성된 제2 손실 결정 서브 부분을 더 포함한다. In some embodiments, the loss determining portion 63 includes: a count statistics sub-portion configured to statistic respectively a first number of matching point pairs and a second number of non-matching point pairs; a first loss determining sub-portion, configured to determine a first loss value using the first number and the difference value between the predicted matching value and the actual matching value of the matching point pair; and a second loss determining sub-portion, configured to determine a second loss value using the second number and the difference value between the predicted matching value and the actual matching value of the non-matching point pair.

전술한 실시예와 달리, 매칭 포인트 쌍의 제1 개수 및 비매칭 포인트 쌍의 제2 개수를 통계함으로써, 매칭 포인트 쌍의 예측 매칭 값과 실제 매칭 값 간의 차이 값 및 제1 개수를 이용하여 제1 손실 값을 결정하고, 비매칭 포인트 쌍의 예측 매칭 값 및 실제 매칭 값 간의 차이 및 제2 개수를 이용하여 제2 손실 값을 결정하므로, 매칭 예측 모델의 손실 값의 정확성 향상에 유리할 수 있고, 따라서 매칭 예측 모델의 정확성 향상에 유리할 수 있다. Unlike the above-described embodiment, by stating the first number of matching point pairs and the second number of non-matching point pairs, the first number and the difference value between the predicted matching value of the matching point pair and the actual matching value are used to determine the first Since the loss value is determined and the second loss value is determined using the second number and the difference between the predicted matching value and the actual matching value of the non-matching point pair, it may be advantageous to improve the accuracy of the loss value of the matching prediction model, and thus It may be advantageous to improve the accuracy of the matching prediction model.

일부 실시예에서, 샘플 이미지가 속한 차원은 2차원 또는 3차원이고, 맵 데이터가 속한 차원은 2차원 또는 3차원이다. In some embodiments, the dimension to which the sample image belongs is two-dimensional or three-dimensional, and the dimension to which the map data belongs is two-dimensional or three-dimensional.

전술한 실시예와 달리, 샘플 이미지 및 맵 데이터가 속한 차원을 설정하여 훈련을 통해 2차원-2차원을 위한 매칭 예측 모델을 획득하거나, 훈련을 통해 2차원-3차원을 위한 매칭 예측 모델을 획득하거나, 훈련을 통해 3차원-3차원을 위한 매칭 예측 모델을 획득할 수 있으므로, 매칭 예측 모델의 적용 범위를 향상시킬 수 있다. Unlike the above-described embodiment, a matching prediction model for 2D-2D is obtained through training by setting the dimension to which the sample image and map data belong, or a matching prediction model for 2D-3D is obtained through training Alternatively, since a matching prediction model for 3D-3D can be obtained through training, the application range of the matching prediction model can be improved.

도 7을 참조하면, 도 7은 본 발명의 시각적 포지셔닝 장치(70)의 일 실시예의 프레임워크 모식도이다. 시각적 포지셔닝 장치(70)는 데이터 구축 부분(71), 예측 처리 부분(72) 및 파라미터 결정 부분(73)을 포함하고, 데이터 구축 부분(71)은 포지셔닝할 이미지 및 맵 데이터를 이용하여 식별할 매칭 데이터를 구축하도록 구성되되, 식별할 매칭 데이터는 복수 그룹의 포인트 쌍을 포함하고, 각 그룹의 포인트 쌍의 두 포인트는 각각 포지셔닝할 이미지 및 맵 데이터로부터 유래되며; 예측 처리 부분(72)은 매칭 예측 모델을 이용하여 복수 그룹의 포인트 쌍에 대해 예측 처리를 수행하여 포인트 쌍의 예측 매칭 값을 획득하도록 구성되며; 파라미터 결정 부분(73)은 포인트 쌍의 예측 매칭 값을 기반으로 포지셔닝할 이미지의 촬상 소자의 포즈 파라미터를 결정하도록 구성된다. Referring to FIG. 7 , FIG. 7 is a schematic diagram of a framework of an embodiment of the visual positioning device 70 of the present invention. The visual positioning device 70 includes a data building part 71 , a prediction processing part 72 and a parameter determining part 73 , and the data building part 71 uses the image to be positioned and the map data to identify a match construct data, wherein the matching data to be identified includes a plurality of groups of point pairs, and two points of each group of point pairs are respectively derived from image and map data to be positioned; the prediction processing part 72 is configured to perform prediction processing on a plurality of groups of point pairs by using the matching prediction model to obtain predictive matching values of the point pairs; The parameter determining part 73 is configured to determine a pose parameter of the image pickup device of the image to be positioned based on the predictive matching value of the point pair.

상기 수단에 따르면, 매칭 예측 모델을 이용하여 매칭 관계를 구축할 수 있으므로, 시각적 포지셔닝 과정에서 매칭 예측 모델을 이용하여 포인트 쌍 간의 매칭 값을 예측하고 매칭 관계를 구축할 수 있어 시각적 포지셔닝의 정확성과 즉시성 향상에 유리할 수 있다. According to the above means, since a matching relationship can be built using the matching prediction model, it is possible to predict the matching value between pairs of points and build a matching relationship using the matching prediction model in the process of visual positioning, so that the accuracy of visual positioning and immediate It can be beneficial for performance improvement.

일부 실시예에서, 파라미터 결정 부분(73)은 복수 그룹의 포인트 쌍을 예측 매칭 값의 내림차순으로 정렬하도록 구성된 포인트 쌍 정렬 서브 부분을 포함하고, 파라미터 결정 부분(73)은 이전 기설정된 개수 그룹의 포인트 쌍을 이용하여 포지셔닝할 이미지의 촬상 소자의 포즈 파라미터를 결정하도록 구성된 파라미터 결정 서브 부분을 더 포함한다. In some embodiments, the parameter determining portion 73 includes a point pair sorting sub-portion configured to sort the plurality of groups of point pairs in a descending order of predictive matching values, wherein the parameter determining portion 73 includes a previously preset number of groups of points and a parameter determining sub-portion configured to determine a pose parameter of the imaging device of the image to be positioned using the pair.

본 발명의 실시예 및 다른 실시예에서, “부분”은 부분적 회로, 부분적 프로세서, 부분적 프로그램 또는 소프트웨어 등일 수 있고, 물론 유닛, 모듈 또는 비모듈일 수도 있다. In embodiments and other embodiments of the present invention, a “part” may be a partial circuit, a partial processor, a partial program or software, and of course, a unit, a module, or a non-module.

전술한 실시예와 달리, 복수 그룹의 포인트 쌍을 예측 매칭 값의 내림차순으로 정렬하고, 이전 기설정된 개수 그룹의 포인트 쌍을 이용하여 포지셔닝할 이미지의 촬상 소자의 포즈 파라미터를 결정하며, 정렬된 포인트 쌍을 이용하여 증분 샘플링을 수행하여 높은 매칭 값을 갖는 포인트 쌍을 우선적으로 샘플링하는데 유리할 수 있으므로, 포즈 파라미터를 구하도록 기하학적 및 선험적으로 안내될 수 있어 시각적 포지셔닝의 정확성과 즉시성을 향상시킬 수 있다. Unlike the above-described embodiment, a plurality of groups of point pairs are arranged in a descending order of predictive matching values, a pose parameter of an image pickup device of an image to be positioned is determined using a previously preset number of point pairs of groups, and the aligned point pairs Since it may be advantageous to preferentially sample point pairs with high matching values by performing incremental sampling using

일부 실시예에서, 매칭 예측 모델은 상기 임의의 매칭 예측 모델의 훈련 장치 실시예 중의 매칭 예측 모델의 훈련 장치를 이용하여 훈련하여 획득된다. In some embodiments, the matching predictive model is obtained by training using the matching predictive model training device in the above any matching predictive model training device embodiments.

전술한 실시예와 달리, 상기 임의의 매칭 예측 모델의 훈련 장치 실시예 중의 매칭 예측 모델의 훈련 장치를 통해 획득한 매칭 예측 모델에 대해 시각적 포지셔닝을 수행함으로써, 시각적 포지셔닝의 정확성과 즉시성을 향상시킬 수 있다. Unlike the above-described embodiment, by performing visual positioning on the matching prediction model obtained through the training apparatus of the matching prediction model in the training apparatus of the arbitrary matching prediction model in the embodiment, the accuracy and immediacy of the visual positioning can be improved. can

도 8을 참조하면, 도 8은 본 발명의 전자 기기(80)의 일 실시예의 프레임워크 모식도이다. 전자 기기(80)는 서로 커플링되는 메모리(81) 및 프로세서(82)를 포함하고, 프로세서(82)는 상기 임의의 매칭 예측 모델의 훈련 방법 실시예의 단계 또는 상기 임의의 시각적 포지셔닝 방법 실시예 중의 단계를 구현하기 위해 메모리(81)에 저장된 프로그램 명령을 실행한다. 일 실시 장면에서, 전자 기기(80)는 휴대폰, 매칭 컴퓨터와 같은 모바일 기기를 포함할 수 있으며, 여기서는 이에 대해 한정하지 않는다. Referring to FIG. 8, FIG. 8 is a schematic diagram of a framework of an embodiment of an electronic device 80 of the present invention. The electronic device 80 includes a memory 81 and a processor 82 coupled to each other, the processor 82 comprising a step in any of the above embodiments of the training method of a matching prediction model or any of the above embodiments of the visual positioning method. Execute the program instructions stored in the memory 81 to implement the steps. In one embodiment, the electronic device 80 may include a mobile device such as a mobile phone or a matching computer, but is not limited thereto.

여기서, 프로세서(82)는 자체 및 메모리(81)를 제어하여 상기 임의의 매칭 예측 모델의 훈련 방법 실시예 중의 단계 또는 상기 임의의 시각적 포지셔닝 방법 실시예 중의 단계를 구현하도록 한다. 프로세서(82)는 또한 중앙 처리 장치(Central Processing Unit, CPU)로 지칭될 수 있다. 프로세서(82)는 신호 처리 능력을 갖는 집적 회로 칩일 수 있다. 프로세서(82)는 또한 범용 프로세서, 디지털 신호 프로세서(Digital Signal Processor, DSP), 주문형 집적 회로(Application Specific Integrated Circuit, ASIC), 필드 프로그래머블 게이트 어레이(Field-Programmable Gate Array, FPGA) 또는 다른 프로그래머블 논리 소자, 개별 게이트 또는 트랜지스터 논리 소자, 개별 하드웨어 컴포넌트일 수 있다. 범용 프로세서는 마이크로 프로세서일 수 있거나 상기 프로세서는 임의의 통상적인 프로세서 등일 수도 있다. 이 밖에, 프로세서(82)는 집적 회로 칩에 의해 공동으로 구현될 수 있다. Here, the processor 82 controls itself and the memory 81 to implement a step in any of the above training method embodiments of the matching prediction model or a step in any of the above embodiments of the visual positioning method. The processor 82 may also be referred to as a Central Processing Unit (CPU). The processor 82 may be an integrated circuit chip having signal processing capabilities. Processor 82 may also be a general purpose processor, Digital Signal Processor (DSP), Application Specific Integrated Circuit (ASIC), Field-Programmable Gate Array (FPGA), or other programmable logic device. , discrete gate or transistor logic devices, discrete hardware components. A general purpose processor may be a microprocessor, or the processor may be any conventional processor or the like. In addition, the processor 82 may be jointly implemented by an integrated circuit chip.

상기 수단에 따르면, 매칭 예측 모델을 이용하여 매칭 관계를 구축할 수 있으므로, 시각적 포지셔닝 과정에서 매칭 예측 모델을 이용하여 포인트 쌍 간의 매칭 값을 예측할 수 있다. 따라서 예측에 의해 획득된 매칭 값을 기반으로 높은 매칭 값을 갖는 포인트 쌍을 우선적으로 샘플링할 수 있으며, 나아가 시각적 포지셔닝의 정확성과 즉시성 향상에 유리할 수 있다. According to the means, since a matching relationship can be built using the matching prediction model, the matching value between the point pairs can be predicted using the matching prediction model in the visual positioning process. Therefore, it is possible to preferentially sample a point pair having a high matching value based on the matching value obtained by prediction, and furthermore, it may be advantageous to improve the accuracy and immediacy of visual positioning.

도 9를 참조하면, 도 9는 본 발명의 컴퓨터 판독 가능 저장 매체(90)의 일 실시예의 프레임워크 모식도이다. 컴퓨터 판독 가능 저장 매체(90)에는 프로세서에 의해 실행 가능한 프로그램 명령(901)이 저장되고, 프로그램 명령(901)은 상기 임의의 매칭 예측 모델의 훈련 방법 실시예 중의 단계 또는 상기 임의의 시각적 포지셔닝 방법 실시예 중의 단계를 구현한다. Referring to FIG. 9, FIG. 9 is a schematic diagram of a framework of an embodiment of a computer-readable storage medium 90 of the present invention. The computer-readable storage medium 90 stores program instructions 901 executable by a processor, the program instructions 901 executing a step in the embodiment of the training method of any matching prediction model or implementing the any visual positioning method Implement the steps in the example.

상기 수단에 따르면, 매칭 예측 모델을 이용하여 매칭 관계를 구축할 수 있으므로, 시각적 포지셔닝 과정에서 매칭 예측 모델을 이용하여 포인트 쌍 간의 매칭 값을 예측할 수 있다. 따라서 예측에 의해 획득된 매칭 값을 기반으로 높은 매칭 값을 갖는 포인트 쌍을 우선적으로 샘플링할 수 있으며, 나아가 시각적 포지셔닝의 정확성과 즉시성 향상에 유리할 수 있다. According to the above means, since a matching relationship can be established using the matching prediction model, the matching value between the point pairs can be predicted using the matching prediction model in the visual positioning process. Therefore, it is possible to preferentially sample a point pair having a high matching value based on the matching value obtained by prediction, and furthermore, it may be advantageous to improve the accuracy and immediacy of visual positioning.

본 발명에서 제공되는 몇몇 실시예에서, 개시된 방법 및 장치는 다른 방식으로 구현될 수 있음을 이해해야 할 것이다. 예를 들면, 이상에서 설명한 장치 실시형태는 단지 예시적인 것으로, 예를 들어 모듈 또는 유닛의 구획은 논리적 기능 구획일 뿐 실제 구현 시 다른 구획 방식이 있을 수 있으며, 예를 들면 유닛 또는 컴포넌트는 다른 하나의 시스템에 통합될 수 있거나, 일부 특징은 생략되거나 실행되지 않을 수 있다. 또한, 기재 또는 논의된 서로 간의 커플링 또는 직접 커플링 또는 통신 연결은 일부 인터페이스를 통한 것일 수 있고, 장치 또는 유닛의 간접 커플링 또는 통신 연결은 전기적, 기계적 또는 다른 형태일 수 있다.In some embodiments provided herein, it is to be understood that the disclosed methods and apparatus may be implemented in other ways. For example, the device embodiments described above are merely exemplary, and for example, the partition of a module or unit is only a logical function partition, and there may be other partitioning methods in actual implementation, for example, the unit or component is another may be integrated into the system of, or some features may be omitted or not implemented. Further, the described or discussed coupling or direct coupling or communication connection between each other may be through some interface, and the indirect coupling or communication connection of a device or unit may be electrical, mechanical, or other form.

분리 부재로 설명된 유닛은 물리적으로 분리되거나 분리되지 않을 것일 수 있고, 유닛으로 표시된 부재는 물리적 유닛일 수 있거나, 물리적 유닛이 아닐 수 있으며, 하나의 장소에 위치하거나, 다수의 네트워크 유닛에 분포될 수 있다. 실제 수요에 따라 그중의 일부 또는 전부 유닛을 선택하여 본 실시예의 해결수단의 목적을 구현할 수 있다. A unit described as a separation member may or may not be physically separated, and a member denoted as a unit may or may not be a physical unit, and may be located in one place or distributed across multiple network units. can According to the actual demand, some or all of the units may be selected to implement the purpose of the solution of the present embodiment.

이 밖에, 본 발명의 각 실시예에서 각 기능 유닛은 하나의 처리 유닛에 통합되거나 또는 각 유닛이 별도로 물리적으로 존재할 수도 있고, 둘 이상의 유닛이 하나의 유닛에 통합될 수도 있으며; 상기 통합된 유닛은 하드웨어의 형태로 구현되거나 하드웨어와 소프트웨어 기능 유닛의 형태로 구현될 수도 있다. In addition, in each embodiment of the present invention, each functional unit may be integrated into one processing unit, or each unit may physically exist separately, and two or more units may be integrated into one unit; The integrated unit may be implemented in the form of hardware or may be implemented in the form of hardware and software functional units.

집적된 유닛이 소프트웨어 기능 유닛의 형태로 구현되고 별도의 제품으로 판매되거나 사용될 경우, 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 이러한 이해에 기반해보면, 본 발명의 기술적 해결수단은 본질적으로 또는 선행기술에 기여하는 부분 또는 해당 기술적 해결수단의 일부는 소프트웨어 제품의 형태로 구현될 수 있고, 해당 컴퓨터 소프트웨어 제품은 하나의 저장 매체에 저장되며, 약간의 명령을 포함하여 하나의 컴퓨터 기기(개인용 컴퓨터, 서버 또는 네트워크 기기 등일 수 있음) 또는 프로세서(processor)가 본 발명의 각 실시형태에 따른 방법의 전체 또는 일부 단계를 수행하도록 할 수 있다. 전술한 저장 매체는 USB 메모리, 외장 하드, 판독 전용 메모리(Read-Only Memory, ROM), 랜덤 액세스 메모리(Random Access Memory, RAM), 디스켓 또는 CD 등 프로그램 코드를 저장할 수 있는 다양한 매체를 포함한다.When the integrated unit is implemented in the form of a software functional unit and sold or used as a separate product, it may be stored in a computer-readable storage medium. Based on this understanding, the technical solution of the present invention essentially or a part contributing to the prior art or a part of the technical solution may be implemented in the form of a software product, and the computer software product is stored in a single storage medium. stored, including some instructions, that may cause one computer device (which may be a personal computer, server or network device, etc.) or processor to perform all or some steps of the method according to each embodiment of the present invention there is. The above-described storage medium includes various media capable of storing program codes, such as a USB memory, an external hard drive, a read-only memory (ROM), a random access memory (RAM), a diskette, or a CD.

본 발명의 실시예에서, 매칭 예측 모델을 이용하여 매칭 관계를 구축할 수 있으므로, 시각적 포지셔닝 과정에서 매칭 예측 모델을 이용하여 포인트 쌍 간의 매칭 값을 예측할 수 있다. 따라서 예측에 의해 획득된 매칭 값을 기반으로 높은 매칭 값을 갖는 포인트 쌍을 우선적으로 샘플링하여 매칭 관계를 구축할 수 있으며, 나아가 시각적 포지셔닝의 정확성과 즉시성 향상에 유리할 수 있다.In an embodiment of the present invention, since a matching relationship can be built using the matching prediction model, the matching value between the point pairs can be predicted using the matching prediction model in the visual positioning process. Therefore, it is possible to establish a matching relationship by preferentially sampling a point pair having a high matching value based on the matching value obtained by prediction, and furthermore, it may be advantageous to improve the accuracy and immediacy of visual positioning.

Claims (18)

매칭 예측 모델의 훈련 방법으로서,
샘플 이미지 및 맵 데이터를 이용하여 샘플 매칭 데이터를 구축하는 단계 - 상기 샘플 매칭 데이터는 복수 그룹의 포인트 쌍 및 각 그룹의 포인트 쌍의 실제 매칭 값을 포함하고, 각 그룹의 포인트 쌍의 두 포인트는 각각 상기 샘플 이미지 및 상기 맵 데이터로부터 유래됨 - ;
매칭 예측 모델을 이용하여 상기 복수 그룹의 포인트 쌍에 대해 예측 처리를 수행하여 상기 포인트 쌍의 예측 매칭 값을 획득하는 단계;
상기 실제 매칭 값 및 상기 예측 매칭 값을 이용하여 상기 매칭 예측 모델의 손실 값을 결정하는 단계; 및
상기 손실 값을 이용하여 상기 매칭 예측 모델의 파라미터를 조정하는 단계를 포함하는 매칭 예측 모델의 훈련 방법.
A method for training a matching prediction model, comprising:
constructing sample matching data using sample image and map data, wherein the sample matching data includes a plurality of groups of point pairs and actual matching values of each group of point pairs, wherein the two points of each group of point pairs are respectively derived from the sample image and the map data;
performing prediction processing on the plurality of groups of point pairs using a matching prediction model to obtain predictive matching values of the point pairs;
determining a loss value of the matching prediction model using the actual matching value and the predicted matching value; and
and adjusting a parameter of the matching prediction model by using the loss value.
제1항에 있어서,
상기 샘플 이미지 및 맵 데이터를 이용하여 샘플 매칭 데이터를 구축하는 단계는,
상기 샘플 이미지에서 복수의 이미지 포인트를 획득하고 상기 맵 데이터에서 복수의 맵 포인트를 획득하여 복수 그룹의 포인트 쌍을 구성하는 단계 - 상기 복수 그룹의 포인트 쌍은 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되는 매칭 포인트 쌍을 포함함 - ; 및
각 그룹의 상기 매칭 포인트 쌍에 대해, 상기 샘플 이미지의 포즈 파라미터를 이용하여 상기 맵 포인트를 상기 샘플 이미지가 속한 차원에 투영하여 상기 맵 포인트의 투영 포인트를 획득하고, 상기 이미지 포인트와 상기 투영 포인트 간의 차이를 기반으로 상기 매칭 포인트 쌍의 실제 매칭 값을 결정하는 단계를 포함하는 매칭 예측 모델의 훈련 방법.
According to claim 1,
The step of constructing sample matching data using the sample image and map data includes:
obtaining a plurality of image points from the sample image and obtaining a plurality of map points from the map data to configure a plurality of groups of point pairs, wherein the plurality of groups of point pairs includes at least one image point and a map point included in a group contains matching point pairs that match between - ; and
For each pair of matching points in each group, project the map point to the dimension to which the sample image belongs by using the pose parameter of the sample image to obtain a projection point of the map point, and between the image point and the projection point A method of training a matching prediction model, comprising determining an actual matching value of the pair of matching points based on a difference.
제2항에 있어서,
상기 복수 그룹의 포인트 쌍은 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되지 않는 비매칭 포인트 쌍을 포함하고, 상기 샘플 이미지 및 맵 데이터를 이용하여 샘플 매칭 데이터를 구축하는 단계는,
상기 비매칭 포인트 쌍의 실제 매칭 값을 기설정된 값으로 설정하는 단계를 더 포함하는 매칭 예측 모델의 훈련 방법.
3. The method of claim 2,
The plurality of groups of point pairs includes a non-matching point pair that does not match between image points and map points included in at least one group, and the step of constructing sample matching data using the sample image and map data comprises:
The method of training a matching prediction model further comprising the step of setting the actual matching value of the non-matching point pair to a preset value.
제2항 또는 제3항에 있어서,
상기 샘플 이미지에서 복수의 이미지 포인트를 획득하고 상기 맵 데이터에서 복수의 맵 포인트를 획득하여 복수 그룹의 포인트 쌍을 구성하는 단계는,
상기 샘플 이미지 중의 이미지 포인트를 제1 이미지 포인트와 제2 이미지 포인트로 분할하는 단계 - 상기 맵 데이터에는 상기 제1 이미지 포인트와 매칭되는 상기 맵 포인트가 존재하고, 상기 맵 데이터에는 상기 제2 이미지 포인트와 매칭되는 상기 맵 포인트가 존재하지 않음 - ;
각각의 상기 제1 이미지 포인트에 대해, 상기 맵 데이터에서 복수의 제1 맵 포인트를 할당하고, 상기 제1 이미지 포인트와 각각의 상기 제1 맵 포인트를 각각 하나의 제1 포인트 쌍으로 사용하는 단계 - 상기 제1 맵 포인트에는 상기 제1 이미지 포인트와 매칭되는 상기 맵 포인트가 포함됨 - ;
각각의 상기 제2 이미지 포인트에 대해, 상기 맵 데이터에서 복수의 제2 맵 포인트를 할당하고, 상기 제2 이미지 포인트와 각각의 상기 제2 맵 포인트를 하나의 제2 포인트 쌍으로 사용하는 단계; 및
상기 제1 포인트 쌍과 상기 제2 포인트 쌍에서 복수 그룹의 포인트 쌍을 추출하여 획득하는 단계를 포함하는 매칭 예측 모델의 훈련 방법.
4. The method of claim 2 or 3,
The step of obtaining a plurality of image points from the sample image and obtaining a plurality of map points from the map data to configure a plurality of groups of point pairs comprises:
dividing an image point in the sample image into a first image point and a second image point; the map data includes the map point matching the first image point, and the map data includes the second image point and no matching map point exists;
allocating, for each said first image point, a plurality of first map points in said map data, and using said first image point and each said first map point each as a first pair of points; the first map point includes the map point matching the first image point;
allocating, for each second image point, a plurality of second map points in the map data, and using the second image point and each second map point as one second point pair; and
and extracting and obtaining a plurality of groups of point pairs from the first point pair and the second point pair.
제2항 내지 제4항 중 어느 한 항에 있어서,
상기 샘플 이미지의 포즈 파라미터를 이용하여 상기 맵 포인트를 상기 샘플 이미지가 속한 차원에 투영하여 상기 맵 포인트의 투영 포인트를 획득하는 단계는, 상기 매칭 포인트 쌍을 기반으로 상기 샘플 이미지의 포즈 파라미터를 계산하는 단계; 및 상기 포즈 파라미터를 이용하여 상기 맵 포인트를 상기 샘플 이미지가 속한 차원에 투영하여 상기 맵 포인트의 투영 포인트를 획득하는 단계를 포함하는 것; 및
상기 이미지 포인트와 상기 투영 포인트 간의 차이를 기반으로 상기 매칭 포인트 쌍의 실제 매칭 값을 결정하는 단계는, 기설정된 확률 분포 함수를 이용하여 상기 차이를 확률 밀도 값으로 변환하여 상기 매칭 포인트 쌍의 실제 매칭 값으로 사용하는 단계를 포함하는 것; 중 적어도 하나인 매칭 예측 모델의 훈련 방법.
5. The method according to any one of claims 2 to 4,
The step of obtaining the projection point of the map point by projecting the map point to a dimension to which the sample image belongs by using the pose parameter of the sample image includes calculating the pose parameter of the sample image based on the pair of matching points. step; and projecting the map point to a dimension to which the sample image belongs by using the pose parameter to obtain a projection point of the map point; and
The step of determining the actual matching value of the matching point pair based on the difference between the image point and the projection point includes converting the difference into a probability density value using a preset probability distribution function to actually match the matching point pair including the step of using it as a value; At least one of the training methods of the matching prediction model.
제1항 내지 제5항 중 어느 한 항에 있어서,
상기 샘플 매칭 데이터는 이분 그래프이고, 상기 이분 그래프는 복수 그룹의 포인트 쌍 및 각 그룹의 포인트 쌍을 연결하는 연결 에지를 포함하며, 상기 연결 에지에는 상기 포인트 쌍에 대응되는 실제 매칭 값이 라벨링되고; 상기 매칭 예측 모델은 상기 샘플 이미지가 속한 차원에 대응되는 제1 포인트 특징 추출 서브 모델, 상기 맵 데이터가 속한 차원에 대응되는 제2 포인트 특징 추출 서브 모델 및 에지 특징 추출 서브 모델을 포함하며;
상기 매칭 예측 모델을 이용하여 상기 복수 그룹의 포인트 쌍에 대해 예측 처리를 수행하여 상기 포인트 쌍의 예측 매칭 값을 획득하는 단계는,
상기 제1 포인트 특징 추출 서브 모델 및 상기 제2 포인트 특징 추출 서브 모델을 각각 이용하여 상기 이분 그래프에 대해 특징 추출을 수행하여 제1 특징 및 제2 특징을 획득하는 단계;
상기 에지 특징 추출 서브 모델을 이용하여 상기 제1 특징 및 상기 제2 특징에 대해 특징 추출을 수행하여 제3 특징을 획득하는 단계; 및
상기 제3 특징을 이용하여 상기 연결 에지에 대응되는 포인트 쌍의 예측 매칭 값을 획득하는 단계를 포함하는 매칭 예측 모델의 훈련 방법.
6. The method according to any one of claims 1 to 5,
the sample matching data is a bipartite graph, wherein the bipartite graph includes a plurality of groups of point pairs and a connecting edge connecting each group of point pairs, wherein the connecting edge is labeled with an actual matching value corresponding to the point pair; the matching prediction model includes a first point feature extraction submodel corresponding to a dimension to which the sample image belongs, a second point feature extraction submodel corresponding to a dimension to which the map data belongs, and an edge feature extraction submodel;
Acquiring the prediction matching value of the point pair by performing prediction processing on the plurality of groups of point pairs using the matching prediction model,
performing feature extraction on the bipartite graph using the first point feature extraction sub-model and the second point feature extraction sub-model, respectively, to obtain first features and second features;
obtaining a third feature by performing feature extraction on the first feature and the second feature using the edge feature extraction sub-model; and
and obtaining a prediction matching value of a point pair corresponding to the connected edge by using the third feature.
제6항에 있어서,
상기 제1 포인트 특징 추출 서브 모델 및 상기 제2 포인트 특징 추출 서브 모델의 구조는, 적어도 하나의 레지듀얼 블록을 포함하는 구조, 적어도 하나의 레지듀얼 블록을 포함하는 구조 및 적어도 하나의 공간 변환 네트워크를 포함하는 구조 중 어느 하나인 것; 및
상기 에지 특징 추출 서브 모델은 적어도 하나의 레지듀얼 블록을 포함하는 것; 중 적어도 하나인 매칭 예측 모델의 훈련 방법.
7. The method of claim 6,
The structures of the first point feature extraction submodel and the second point feature extraction submodel include a structure including at least one residual block, a structure including at least one residual block, and at least one spatial transformation network. any one of the structures comprising; and
wherein the edge feature extraction sub-model includes at least one residual block; At least one of the training methods of the matching prediction model.
제1항 내지 제7항 중 어느 한 항에 있어서,
상기 복수 그룹의 포인트 쌍은 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되는 매칭 포인트 쌍 및 적어도 한 그룹에 포함된 이미지 포인트와 맵 포인트 간에 매칭되지 않는 비매칭 포인트 쌍을 포함하고;
상기 실제 매칭 값 및 상기 예측 매칭 값을 이용하여 상기 매칭 예측 모델의 손실 값을 결정하는 단계는,
상기 매칭 포인트 쌍의 상기 예측 매칭 값 및 상기 실제 매칭 값을 이용하여 상기 매칭 예측 모델의 제1 손실 값을 결정하는 단계;
상기 비매칭 포인트 쌍의 상기 예측 매칭 값 및 상기 실제 매칭 값을 이용하여 상기 매칭 예측 모델의 제2 손실 값을 결정하는 단계; 및
상기 제1 손실 값 및 상기 제2 손실 값에 대해 가중 처리를 수행하여 상기 매칭 예측 모델의 손실 값을 획득하는 단계를 포함하는 매칭 예측 모델의 훈련 방법.
8. The method according to any one of claims 1 to 7,
the plurality of groups of point pairs include matching point pairs matching between image points and map points included in at least one group and non-matching point pairs not matching between image points and map points included in at least one group;
The step of determining the loss value of the matching prediction model by using the actual matching value and the predicted matching value includes:
determining a first loss value of the matching prediction model by using the predicted matching value and the actual matching value of the matching point pair;
determining a second loss value of the matching prediction model by using the predicted matching value and the actual matching value of the non-matching point pair; and
and obtaining a loss value of the matching prediction model by performing weighting on the first loss value and the second loss value.
제8항에 있어서,
상기 매칭 포인트 쌍의 상기 예측 매칭 값 및 상기 실제 매칭 값을 이용하여 상기 매칭 예측 모델의 제1 손실 값을 결정하는 단계 이전에, 상기 매칭 예측 모델의 훈련 방법은,
상기 매칭 포인트 쌍의 제1 개수 및 상기 비매칭 포인트 쌍의 제2 개수를 각각 통계하는 단계를 더 포함하고,
상기 매칭 포인트 쌍의 상기 예측 매칭 값 및 상기 실제 매칭 값을 이용하여 상기 매칭 예측 모델의 제1 손실 값을 결정하는 단계는,
상기 매칭 포인트 쌍의 상기 예측 매칭 값과 상기 실제 매칭 값 간의 차이 값 및 상기 제1 개수를 이용하여 상기 제1 손실 값을 결정하는 단계를 포함하며,
상기 비매칭 포인트 쌍의 상기 예측 매칭 값 및 상기 실제 매칭 값을 이용하여 상기 매칭 예측 모델의 제2 손실 값을 결정하는 단계는,
상기 비매칭 포인트 쌍의 상기 예측 매칭 값과 상기 실제 매칭 값 간의 차이 값 및 상기 제2 개수를 이용하여 상기 제2 손실 값을 결정하는 단계를 포함하는 매칭 예측 모델의 훈련 방법.
9. The method of claim 8,
Before determining the first loss value of the matching prediction model by using the predicted matching value and the actual matching value of the matching point pair, the training method of the matching prediction model includes:
The method further comprising: stating the first number of matching point pairs and the second number of non-matching point pairs, respectively;
The step of determining the first loss value of the matching prediction model by using the predicted matching value and the actual matching value of the matching point pair,
determining the first loss value using the first number and a difference value between the predicted matching value and the actual matching value of the matching point pair;
Determining the second loss value of the matching prediction model by using the predicted matching value and the actual matching value of the non-matching point pair,
and determining the second loss value by using the second number and a difference value between the predicted matching value and the actual matching value of the non-matching point pair.
제1항 내지 제9항 중 어느 한 항에 있어서,
상기 샘플 이미지가 속한 차원은 2차원 또는 3차원이고, 상기 맵 데이터가 속한 차원은 2차원 또는 3차원인 매칭 예측 모델의 훈련 방법.
10. The method according to any one of claims 1 to 9,
The dimension to which the sample image belongs is two-dimensional or three-dimensional, and the dimension to which the map data belongs is two-dimensional or three-dimensional.
시각적 포지셔닝 방법으로서,
포지셔닝할 이미지 및 맵 데이터를 이용하여 식별할 매칭 데이터를 구축하는 단계 - 상기 식별할 매칭 데이터는 복수 그룹의 포인트 쌍을 포함하고, 각 그룹의 포인트 쌍의 두 포인트는 각각 상기 포지셔닝할 이미지 및 상기 맵 데이터로부터 유래됨 - ;
매칭 예측 모델을 이용하여 상기 복수 그룹의 포인트 쌍에 대해 예측 처리를 수행하여 상기 포인트 쌍의 예측 매칭 값을 획득하는 단계; 및
상기 포인트 쌍의 예측 매칭 값을 기반으로 상기 포지셔닝할 이미지의 촬상 소자의 포즈 파라미터를 결정하는 단계를 포함하는 시각적 포지셔닝 방법.
A visual positioning method comprising:
constructing matching data to be identified using the image to be positioned and the map data, wherein the matching data to be identified comprises a plurality of groups of point pairs, and two points of each group of point pairs are respectively the image to be positioned and the map. Derived from data - ;
performing prediction processing on the plurality of groups of point pairs using a matching prediction model to obtain predictive matching values of the point pairs; and
and determining a pose parameter of an imaging device of the image to be positioned based on the predictive matching value of the point pair.
제11항에 있어서,
상기 포인트 쌍의 예측 매칭 값을 기반으로 상기 포지셔닝할 이미지의 촬상 소자의 포즈 파라미터를 결정하는 단계는,
상기 복수 그룹의 포인트 쌍을 상기 예측 매칭 값의 내림차순으로 정렬하는 단계; 및
이전 기설정된 개수 그룹의 상기 포인트 쌍을 이용하여 상기 포지셔닝할 이미지의 촬상 소자의 포즈 파라미터를 결정하는 단계를 포함하는 시각적 포지셔닝 방법.
12. The method of claim 11,
The step of determining a pose parameter of the imaging device of the image to be positioned based on the predictive matching value of the point pair comprises:
sorting the plurality of groups of point pairs in a descending order of the predictive matching values; and
and determining a pose parameter of an imaging device of the image to be positioned by using the pair of points in a previously preset number group.
제11항 또는 제12항에 있어서,
상기 매칭 예측 모델은 제1항 내지 제10항 중 어느 한 항에 따른 매칭 예측 모델의 훈련 방법을 이용하여 획득된 것인 시각적 포지셔닝 방법.
13. The method of claim 11 or 12,
The matching prediction model is a visual positioning method obtained by using the training method of the matching prediction model according to any one of claims 1 to 10.
매칭 예측 모델의 훈련 장치로서,
샘플 이미지 및 맵 데이터를 이용하여 샘플 매칭 데이터를 구축하는 샘플 구축 모듈 - 상기 샘플 매칭 데이터는 복수 그룹의 포인트 쌍 및 각 그룹의 포인트 쌍의 실제 매칭 값을 포함하고, 각 그룹의 포인트 쌍의 두 포인트는 각각 상기 샘플 이미지 및 상기 맵 데이터로부터 유래됨 - ;
매칭 예측 모델을 이용하여 상기 복수 그룹의 포인트 쌍에 대해 예측 처리를 수행하여 상기 포인트 쌍의 예측 매칭 값을 획득하도록 구성된 예측 처리 부분;
상기 실제 매칭 값 및 상기 예측 매칭 값을 이용하여 상기 매칭 예측 모델의 손실 값을 결정하도록 구성된 손실 결정 부분; 및
상기 손실 값을 이용하여 상기 매칭 예측 모델의 파라미터를 조정하도록 구성된 파라미터 조정 부분을 포함하는 매칭 예측 모델의 훈련 장치.
A training apparatus for a matching prediction model, comprising:
A sample building module for constructing sample matching data by using a sample image and map data, wherein the sample matching data includes a plurality of groups of point pairs and actual matching values of each group of point pairs, and two points of each group of point pairs are derived from the sample image and the map data, respectively;
a prediction processing part configured to perform prediction processing on the plurality of groups of point pairs by using a matching prediction model to obtain predictive matching values of the point pairs;
a loss determining portion, configured to determine a loss value of the matching prediction model by using the actual matching value and the predictive matching value; and
and a parameter adjustment part configured to adjust a parameter of the matching prediction model by using the loss value.
시각적 포지셔닝 장치로서,
포지셔닝할 이미지 및 맵 데이터로 식별할 매칭 데이터를 구축하되, 상기 식별할 매칭 데이터는 복수 그룹의 포인트 쌍을 포함하고, 각 그룹의 포인트 쌍의 두 포인트는 각각 상기 포지셔닝할 이미지 및 상기 맵 데이터로부터 유래되며;
예측 처리 부분은, 매칭 예측 모델을 이용하여 상기 복수 그룹의 포인트 쌍에 대해 예측 처리를 수행하여 상기 포인트 쌍의 예측 매칭 값을 획득하도록 구성되고;
파라미터 결정 부분은, 상기 포인트 쌍의 예측 매칭 값을 기반으로 상기 포지셔닝할 이미지의 촬상 소자의 포즈 파라미터를 결정하도록 구성되는 시각적 포지셔닝 장치.
A visual positioning device comprising:
Construct matching data to be identified with the image to be positioned and the map data, wherein the matching data to be identified includes a plurality of groups of point pairs, and two points of each group of point pairs are derived from the image to be positioned and the map data, respectively. become;
the prediction processing part is configured to perform prediction processing on the plurality of groups of point pairs by using a matching prediction model to obtain prediction matching values of the point pairs;
The parameter determining part is configured to determine a pose parameter of the imaging device of the to-be-positioned image based on the predictive matching value of the point pair.
서로 커플링되는 메모리와 프로세서를 포함하는 전자 기기로서,
상기 프로세서는 상기 메모리에 저장된 프로그램 명령을 실행하여 제1항 내지 제10항 중 어느 한 항에 따른 매칭 예측 모델의 훈련 방법 또는 제11항 내지 제13항에 따른 시각적 포지셔닝 방법을 구현하는 전자 기기.
An electronic device comprising a memory and a processor coupled to each other, the electronic device comprising:
The processor executes the program instructions stored in the memory to implement the training method of the matching prediction model according to any one of claims 1 to 10 or the visual positioning method according to any one of claims 11 to 13.
프로그램 명령이 저장된 컴퓨터 판독 가능 저장 매체로서,
상기 프로그램 명령은 프로세서에 의해 실행될 경우 제1항 내지 제10항 중 어느 한 항에 따른 매칭 예측 모델의 훈련 방법 또는 제11항 내지 제13항에 따른 시각적 포지셔닝 방법을 구현하는 컴퓨터 판독 가능 저장 매체.
A computer-readable storage medium having program instructions stored thereon, comprising:
The program instructions, when executed by a processor, implement a method for training a matching predictive model according to any one of claims 1 to 10 or a method for visual positioning according to any one of claims 11 to 13.
컴퓨터 판독 가능 코드를 포함하는 컴퓨터 프로그램으로서,
상기 컴퓨터 판독 가능 코드가 전자 기기에서 실행되고 또한 상기 전자 기기 중의 프로세서에 의해 실행될 경우, 제1항 내지 제10항 중 어느 한 항에 따른 매칭 예측 모델의 훈련 방법 또는 제11항 내지 제13항에 따른 시각적 포지셔닝 방법을 구현하는 컴퓨터 프로그램.
A computer program comprising computer readable code, comprising:
14. When the computer readable code is executed in an electronic device and executed by a processor in the electronic device, the method for training a matching prediction model according to any one of claims 1 to 10 or to claim 11 to 13 A computer program that implements a visual positioning method according to
KR1020227003201A 2020-10-16 2021-03-22 Visual positioning methods, training methods for related models, and related devices and devices KR20220051162A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011110569.5 2020-10-16
CN202011110569.5A CN112328715B (en) 2020-10-16 2020-10-16 Visual positioning method, training method of related model, related device and equipment
PCT/CN2021/082198 WO2022077863A1 (en) 2020-10-16 2021-03-22 Visual positioning method, and method for training related model, related apparatus, and device

Publications (1)

Publication Number Publication Date
KR20220051162A true KR20220051162A (en) 2022-04-26

Family

ID=74313967

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227003201A KR20220051162A (en) 2020-10-16 2021-03-22 Visual positioning methods, training methods for related models, and related devices and devices

Country Status (5)

Country Link
JP (1) JP7280393B2 (en)
KR (1) KR20220051162A (en)
CN (1) CN112328715B (en)
TW (1) TW202217662A (en)
WO (1) WO2022077863A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114998600A (en) * 2022-06-17 2022-09-02 北京百度网讯科技有限公司 Image processing method, model training method, device, equipment and medium
CN117351306A (en) * 2023-12-04 2024-01-05 齐鲁空天信息研究院 Training method, determining method and device for three-dimensional point cloud projection pose solver

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112328715B (en) * 2020-10-16 2022-06-03 浙江商汤科技开发有限公司 Visual positioning method, training method of related model, related device and equipment
CN113240656B (en) * 2021-05-24 2023-04-07 浙江商汤科技开发有限公司 Visual positioning method and related device and equipment
CN113822916B (en) * 2021-08-17 2023-09-15 北京大学 Image matching method, device, equipment and readable storage medium
WO2023097491A1 (en) * 2021-11-30 2023-06-08 宁德时代新能源科技股份有限公司 Machine vision inspection method, and inspection apparatus and inspection system therefor

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI356355B (en) * 2007-12-03 2012-01-11 Inst Information Industry Motion transition method and system for dynamic im
CN102236798B (en) * 2011-08-01 2012-12-05 清华大学 Image matching method and device
US9989969B2 (en) * 2015-01-19 2018-06-05 The Regents Of The University Of Michigan Visual localization within LIDAR maps
US9934587B2 (en) * 2016-06-30 2018-04-03 Daqri, Llc Deep image localization
CN107967457B (en) * 2017-11-27 2024-03-19 全球能源互联网研究院有限公司 Site identification and relative positioning method and system adapting to visual characteristic change
CN109658445A (en) * 2018-12-14 2019-04-19 北京旷视科技有限公司 Network training method, increment build drawing method, localization method, device and equipment
CN110009722A (en) 2019-04-16 2019-07-12 成都四方伟业软件股份有限公司 Three-dimensional rebuilding method and device
CN110095752B (en) * 2019-05-07 2021-08-10 百度在线网络技术(北京)有限公司 Positioning method, apparatus, device and medium
CN110274598B (en) * 2019-06-24 2023-03-24 西安工业大学 Robot monocular vision robust positioning estimation method
CN110473259A (en) * 2019-07-31 2019-11-19 深圳市商汤科技有限公司 Pose determines method and device, electronic equipment and storage medium
CN111260726A (en) * 2020-02-07 2020-06-09 北京三快在线科技有限公司 Visual positioning method and device
CN111508019A (en) * 2020-03-11 2020-08-07 上海商汤智能科技有限公司 Target detection method, training method of model thereof, and related device and equipment
CN111414968B (en) 2020-03-26 2022-05-03 西南交通大学 Multi-mode remote sensing image matching method based on convolutional neural network characteristic diagram
CN111476251A (en) 2020-03-26 2020-07-31 中国人民解放军战略支援部队信息工程大学 Remote sensing image matching method and device
CN111538855B (en) * 2020-04-29 2024-03-08 浙江商汤科技开发有限公司 Visual positioning method and device, electronic equipment and storage medium
CN111627065B (en) * 2020-05-15 2023-06-20 Oppo广东移动通信有限公司 Visual positioning method and device and storage medium
CN111652929A (en) * 2020-06-03 2020-09-11 全球能源互联网研究院有限公司 Visual feature identification and positioning method and system
CN111627050B (en) 2020-07-27 2020-12-01 杭州雄迈集成电路技术股份有限公司 Training method and device for target tracking model
CN112328715B (en) * 2020-10-16 2022-06-03 浙江商汤科技开发有限公司 Visual positioning method, training method of related model, related device and equipment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114998600A (en) * 2022-06-17 2022-09-02 北京百度网讯科技有限公司 Image processing method, model training method, device, equipment and medium
CN117351306A (en) * 2023-12-04 2024-01-05 齐鲁空天信息研究院 Training method, determining method and device for three-dimensional point cloud projection pose solver

Also Published As

Publication number Publication date
JP2023502819A (en) 2023-01-26
CN112328715B (en) 2022-06-03
JP7280393B2 (en) 2023-05-23
TW202217662A (en) 2022-05-01
WO2022077863A1 (en) 2022-04-21
CN112328715A (en) 2021-02-05

Similar Documents

Publication Publication Date Title
KR20220051162A (en) Visual positioning methods, training methods for related models, and related devices and devices
CN111583284B (en) Small sample image semantic segmentation method based on hybrid model
CN110322453B (en) 3D point cloud semantic segmentation method based on position attention and auxiliary network
CN116188805B (en) Image content analysis method and device for massive images and image information network
WO2021052283A1 (en) Method for processing three-dimensional point cloud data and computing device
CN114186632B (en) Method, device, equipment and storage medium for training key point detection model
CN110276768B (en) Image segmentation method, image segmentation device, image segmentation apparatus, and medium
CN112085701B (en) Face ambiguity detection method and device, terminal equipment and storage medium
CN111310821B (en) Multi-view feature fusion method, system, computer equipment and storage medium
CN111831844A (en) Image retrieval method, image retrieval device, image retrieval apparatus, and medium
CN111291768A (en) Image feature matching method and device, equipment and storage medium
CN116188822B (en) Image similarity judging method, device, electronic equipment and storage medium
CN109376743A (en) Image processing method, device, image recognition apparatus and storage medium
CN111382791B (en) Deep learning task processing method, image recognition task processing method and device
CN115272691A (en) Training method, recognition method and equipment for steel bar binding state detection model
CN112825199A (en) Collision detection method, device, equipment and storage medium
US9311523B1 (en) Method and apparatus for supporting object recognition
CN111860557B (en) Image processing method and device, electronic equipment and computer storage medium
CN111192302A (en) Feature matching method based on motion smoothness and RANSAC algorithm
CN114693943A (en) Non-maximum suppression acceleration method, system and equipment for target detection
CN115457202A (en) Method and device for updating three-dimensional model and storage medium
CN114154222A (en) Image segmentation method for BIM (building information modeling), electronic equipment and storage medium
CN110853087B (en) Parallax estimation method, device, storage medium and terminal
CN111967579A (en) Method and apparatus for performing convolution calculation on image using convolution neural network
CN113362342B (en) Image segmentation method and related device thereof