KR102638632B1 - Methods, devices, electronic devices, storage media and programs for building point cloud models - Google Patents

Methods, devices, electronic devices, storage media and programs for building point cloud models Download PDF

Info

Publication number
KR102638632B1
KR102638632B1 KR1020227013015A KR20227013015A KR102638632B1 KR 102638632 B1 KR102638632 B1 KR 102638632B1 KR 1020227013015 A KR1020227013015 A KR 1020227013015A KR 20227013015 A KR20227013015 A KR 20227013015A KR 102638632 B1 KR102638632 B1 KR 102638632B1
Authority
KR
South Korea
Prior art keywords
image
point
feature
feature point
pair
Prior art date
Application number
KR1020227013015A
Other languages
Korean (ko)
Other versions
KR20220125714A (en
Inventor
요우지 펭
밍슈안 지앙
리양 조우
한칭 지앙
구오펭 장
Original Assignee
저지앙 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 저지앙 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 filed Critical 저지앙 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Publication of KR20220125714A publication Critical patent/KR20220125714A/en
Application granted granted Critical
Publication of KR102638632B1 publication Critical patent/KR102638632B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

본 발명의 실시예는 포인트 클라우드 모델 구축 방법, 장치, 기기 및 저장 매체에 관한 것으로서, 상기 포인트 클라우드 모델 구축 방법은, 파노라마 이미지 세트에서의 파노라마 이미지의 제1 특징을 획득하는 단계; 상기 제1 특징에 따라 상기 파노라마 이미지 세트에서의 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과를 결정하는 단계 - 상기 이미지 쌍은 제1 특징이 매칭되는 두개의 파노라마 이미지를 포함하고, 상기 매칭 결과는 두 개의 파노라마 이미지의 제1 특징 간의 대응 관계를 지시함 - ; 및 상기 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과에 따라 포인트 클라우드 모델을 구축하는 단계를 포함한다. 파노라마 이미지를 사용하여 매칭을 진행하고 추가로 매칭된 결과로 포인트 클라우드 모델을 구축하였기 때문에, 이미지 세트에서의 이미지 개수를 감소시킬 수 있음으로써, 매칭 효율 및 모델링 효율을 향상시킬 수 있고, 파노라마 이미지에 대응되는 공간의 범위가 비교적 크기 때문에, 파노라마 이미지 간의 매칭 효과를 높일 수 있음으로써, 포인트 클라우드 모델 구축의 정확도 및 품질을 향상시킨다.Embodiments of the present invention relate to a point cloud model building method, apparatus, device, and storage medium, wherein the point cloud model building method includes: acquiring a first feature of a panoramic image in a panoramic image set; determining at least one group of image pairs and a corresponding matching result in the panoramic image set according to the first feature, wherein the image pair includes two panoramic images to which the first feature is matched, and the matching result is: Indicates the correspondence relationship between the first features of two panoramic images - ; and constructing a point cloud model according to the at least one group of image pairs and the corresponding matching result. Since matching was performed using panoramic images and a point cloud model was built with the additional matching results, the number of images in the image set can be reduced, thereby improving matching efficiency and modeling efficiency, and the panoramic image Since the range of the corresponding space is relatively large, the matching effect between panoramic images can be increased, thereby improving the accuracy and quality of point cloud model construction.

Description

포인트 클라우드 모델 구축 방법, 장치, 전자 기기, 저장 매체 및 프로그램Methods, devices, electronic devices, storage media and programs for building point cloud models

관련 출원의 상호 참조Cross-reference to related applications

본 발명은 출원 번호가 202110240320.4이고, 출원일이 2021년 3월 4일이고, 특허 명칭이 “포인트 클라우드 모델 구축 방법, 장치, 전자 기기, 및 저장 매체”인 중국 특허 출원에 기반하여 제출하였고, 상기 중국 특허 출원의 우선권을 주장하는 바, 상기 중국 특허 출원의 모든 내용은 참조로서 본 출원에 인용된다.The present invention was filed based on a Chinese patent application with application number 202110240320.4, application date March 4, 2021, and patent title “Method, Apparatus, Electronic Device, and Storage Media for Building Point Cloud Model,” filed in China. Priority of the patent application is claimed, and the entire content of the above Chinese patent application is hereby incorporated by reference.

본 발명은 삼차원 모델링에 관한 것으로서, 포인트 클라우드 모델 구축 방법, 장치, 전자 기기, 컴퓨터 저장 매체 및 컴퓨터 프로그램에 관한 것이지만 이에 한정되지 않는다.The present invention relates to three-dimensional modeling, and relates to, but is not limited to, a point cloud model construction method, device, electronic device, computer storage medium, and computer program.

인공 지능 기술의 발전에 따라, 공간 모델링 기술은 갈수록 더욱 풍부해지고, 정확도가 더욱 높아진다. 모션 복구 구조 기술은 복수 개의 이미지를 이용하여 삼차원 포인트 클라우드 모델을 구축할 수 있으며, 이는 물리적 공간 디지털화, 고정밀 지도 구축 및 증강 현실 등 분야에서 널리 사용될 수 있다. 따라서, 삼차원 모델링 기술 분야에서 포인트 클라우드 모델 구축의 정확도와 품질을 향상시키는 방법은 매우 중요하다.With the development of artificial intelligence technology, spatial modeling technology becomes increasingly richer and more accurate. Motion recovery structure technology can build a three-dimensional point cloud model using multiple images, which can be widely used in fields such as physical space digitization, high-precision map construction, and augmented reality. Therefore, in the field of three-dimensional modeling technology, methods to improve the accuracy and quality of point cloud model construction are very important.

본 발명의 실시예는 포인트 클라우드 모델 구축 방법, 장치, 전자 기기, 컴퓨터 저장 매체 및 컴퓨터 프로그램을 제공한다.Embodiments of the present invention provide a point cloud model building method, apparatus, electronic device, computer storage medium, and computer program.

본 발명의 실시예의 제1 측면에 따르면, 전자 기기에 적용되는 포인트 클라우드 모델 구축 방법을 제공하고, 상기 포인트 클라우드 모델 구축 방법은, According to a first aspect of an embodiment of the present invention, a point cloud model building method applied to electronic devices is provided, the point cloud model building method comprising:

파노라마 이미지 세트에서의 파노라마 이미지의 제1 특징을 획득하는 단계; Obtaining first features of a panoramic image in a panoramic image set;

상기 제1 특징에 따라 상기 파노라마 이미지 세트에서의 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과를 결정하는 단계 - 상기 이미지 쌍은 제1 특징이 매칭되는 두개의 파노라마 이미지를 포함하고, 상기 매칭 결과는 두 개의 파노라마 이미지의 제1 특징 간의 대응 관계를 지시함 - ; 및determining at least one group of image pairs and a corresponding matching result in the panoramic image set according to the first feature, wherein the image pair includes two panoramic images to which the first feature is matched, and the matching result is: Indicates the correspondence relationship between the first features of two panoramic images - ; and

상기 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과에 따라 포인트 클라우드 모델을 구축하는 단계를 포함한다.and building a point cloud model according to the at least one group of image pairs and the corresponding matching result.

일 실시예에 있어서, 상기 파노라마 이미지 세트에서의 파노라마 이미지의 제1 특징을 획득하는 단계는, In one embodiment, obtaining a first feature of a panoramic image in the panoramic image set comprises:

상기 파노라마 이미지에 대응되는 복수 개의 투시 이미지를 결정하는 단계 - 복수 개의 투시 이미지에 대응되는 공간의 세트는 파노라마 이미지에 대응되는 공간임 - ; determining a plurality of perspective images corresponding to the panoramic image, wherein a set of spaces corresponding to the plurality of perspective images is a space corresponding to the panoramic image;

상기 복수 개의 투시 이미지에서의 적어도 하나의 투시 이미지의 제2 특징을 획득하는 단계; acquiring a second feature of at least one perspective image from the plurality of perspective images;

상기 투시 이미지의 제2 특징에 따라 상기 파노라마 이미지의 대응 위치의 제1 서브 특징을 결정하는 단계 - 상기 투시 이미지와 상기 파노라마 이미지의 대응 위치는 동일한 공간에 대응됨 - ; 및 determining a first sub-feature of a corresponding position of the panoramic image according to a second characteristic of the perspective image, wherein the corresponding position of the perspective image and the panoramic image correspond to the same space; and

적어도 하나의 상기 제1 서브 특징에 따라 상기 파노라마 이미지의 제1 특징을 결정하는 단계를 포함한다.and determining a first feature of the panoramic image according to at least one first sub-feature.

일 실시예에 있어서, 상기 파노라마 이미지에 대응되는 복수 개의 투시 이미지를 결정하는 단계는, In one embodiment, the step of determining a plurality of perspective images corresponding to the panoramic image includes:

상기 파노라마 이미지에 대응되는 단위 구면을 획득하고, 파노라마 이미지의 픽셀 포인트 좌표와 단위 구면의 포인트 좌표 간의 제1 매핑 관계를 결정하는 단계; Obtaining a unit sphere corresponding to the panoramic image and determining a first mapping relationship between pixel point coordinates of the panoramic image and point coordinates of the unit sphere;

상기 단위 구면에 따라 복수 개의 투시 이미지를 결정하고, 투시 이미지의 픽셀 포인트 좌표와 단위 구면의 포인트 좌표 간의 제2 매핑 관계를 결정하는 단계 - 상기 복수 개의 투시 이미지에 대응되는 구면 포인트의 집합은 단위 구면임 - ; 및 determining a plurality of perspective images according to the unit sphere, and determining a second mapping relationship between pixel point coordinates of the perspective image and point coordinates of the unit sphere - a set of spherical points corresponding to the plurality of perspective images is a unit sphere lim - ; and

상기 제1 매핑 관계 및 상기 제2 매핑 관계에 따라 파노라마 이미지의 픽셀 포인트 좌표와 투시 이미지의 픽셀 포인트 좌표 간의 제3 매핑 관계를 결정하고, 파노라마 이미지의 픽셀 포인트의 픽셀 정보 및 상기 제3 매핑 관계에 따라 투시 이미지의 픽셀 포인트의 픽셀 정보를 결정하는 단계를 포함한다.Determine a third mapping relationship between the pixel point coordinates of the panoramic image and the pixel point coordinates of the perspective image according to the first mapping relationship and the second mapping relationship, and apply the third mapping relationship to the pixel information of the pixel point of the panoramic image and the third mapping relationship. Accordingly, determining the pixel information of the pixel point of the perspective image.

일 실시예에 있어서, 상기 투시 이미지의 제2 특징은 제2 특징 포인트 및 대응되는 제2 디스크립터를 포함하고; In one embodiment, the second feature of the perspective image includes a second feature point and a corresponding second descriptor;

상기 투시 이미지의 제2 특징에 따라 상기 파노라마 이미지의 대응 위치의 제1 서브 특징을 결정하는 단계는, Determining a first sub-feature of a corresponding position of the panoramic image according to the second feature of the perspective image includes:

상기 투시 이미지의 제2 특징 포인트의 좌표 및 상기 제3 매핑 관계에 따라 상기 파노라마 이미지의 제1 특징 포인트의 좌표를 결정하는 단계; 및 determining coordinates of a first feature point of the panoramic image according to the coordinates of a second feature point of the perspective image and the third mapping relationship; and

상기 투시 이미지의 제2 특징 포인트에 대응되는 제2 디스크립터에 따라 상기 파노라마 이미지의 제1 특징 포인트에 대응되는 제1 디스크립터를 결정하는 단계를 포함한다.and determining a first descriptor corresponding to a first feature point of the panoramic image according to a second descriptor corresponding to a second feature point of the perspective image.

일 실시예에 있어서, 상기 제1 특징은 제1 특징 포인트 및 대응되는 제1 디스크립터를 포함하고; In one embodiment, the first feature includes a first feature point and a corresponding first descriptor;

상기 제1 특징에 따라 상기 파노라마 이미지 세트에서의 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과를 결정하는 단계는, Determining at least one group of image pairs and a corresponding matching result in the panoramic image set according to the first characteristic comprises:

각 파노라마 이미지와 대응되는 매칭될 파노라마 이미지에 따라 복수 개 그룹의 이미지 쌍을 결정하는 단계; determining a plurality of groups of image pairs according to the panoramic images to be matched corresponding to each panoramic image;

상기 이미지 쌍의 두 개의 파노라마 이미지의 제1 디스크립터에 따라 복수 개 그룹의 특징 포인트 쌍을 결정하는 단계 - 각 그룹의 상기 특징 포인트 쌍은 두 개의 대응 매칭되고 두 개의 파노라마 이미지에 속하는 제1 특징 포인트를 포함함 - ; 및 determining a plurality of groups of feature point pairs according to the first descriptor of the two panoramic images of the image pair, wherein the feature point pair of each group has two corresponding matching first feature points belonging to the two panoramic images. Contains - ; and

상기 복수 개 그룹의 특징 포인트 쌍에 따라 제1 에센셜 매트릭스를 결정하고, 상기 제1 에센셜 매트릭스를 이용하여 상기 복수 개 그룹의 특징 포인트 쌍에 대해 필터링을 진행하여, 상기 이미지 쌍에 대응되는 매칭 결과를 얻는 단계를 포함한다.Determine a first essential matrix according to the feature point pairs of the plurality of groups, perform filtering on the feature point pairs of the plurality of groups using the first essential matrix, and produce a matching result corresponding to the image pair. Includes steps to obtain

일 실시예에 있어서, 상기 각 그룹의 상기 이미지 쌍의 두 개의 파노라마 이미지의 제1 디스크립터에 따라 복수 개 그룹의 특징 포인트 쌍을 결정하는 단계 이후, 상기 단계는, In one embodiment, after the step of determining a plurality of groups of feature point pairs according to the first descriptor of the two panoramic images of the image pairs of each group, the step includes:

상기 이미지 쌍의 두 개의 파노라마 이미지의 특징 포인트 쌍의 개수를 획득하는 단계; 및 Obtaining the number of feature point pairs of two panoramic images of the image pair; and

특징 포인트 쌍의 개수가 기설정된 제1 조건에 부합되는 이미지 쌍을 필터링하는 단계를 더 포함한다.It further includes filtering image pairs in which the number of feature point pairs meets a preset first condition.

일 실시예에 있어서, 상기 복수 개 그룹의 특징 포인트 쌍에 따라 제1 에센셜 매트릭스를 결정하는 단계는, In one embodiment, determining a first essential matrix according to the plurality of groups of feature point pairs includes:

상기 특징 포인트 쌍에서의 두 개의 제1 특징 포인트의 각도 오차에 따라 상기 특징 포인트 쌍의 각도 오차를 결정하는 단계 - 상기 제1 특징 포인트의 각도 오차는 상기 제1 특징 포인트에 대응되는 단위 구면의 구면 포인트와 단위 구면의 광학적 중심을 연결하는 선 및 외부 극평면 간의 끼인각임 - ;Determining an angular error of the feature point pair according to the angular error of two first feature points in the feature point pair, wherein the angular error of the first feature point is a spherical surface of a unit sphere corresponding to the first feature point. - Included angle between the point and the line connecting the optical center of the unit sphere and the external polar plane - ;

대응되는 상기 특징 포인트 쌍의 각도 오차를 잔차항으로 사용하여, 기설정된 개수의 상기 특징 포인트 쌍에 따라 에센셜 매트릭스를 여러번 결정하는 단계; 및 determining an essential matrix several times according to a preset number of feature point pairs, using the angular error of the corresponding feature point pair as a residual term; and

각 상기 에센셜 매트릭스의 내부 포인트 개수를 결정하고, 내부 포인트 개수가 가장 많은 에센셜 매트릭스를 상기 제1 에센셜 매트릭스로 결정하는 단계를 포함한다.It includes determining the number of internal points of each essential matrix and determining the essential matrix with the largest number of internal points as the first essential matrix.

일 실시예에 있어서, 상기 각 상기 에센셜 매트릭스에 대응되는 내부 포인트 개수를 결정하는 단계는, In one embodiment, the step of determining the number of internal points corresponding to each of the essential matrices includes:

상기 에센셜 매트릭스에 따라 상기 이미지 쌍의 각 그룹의 특징 포인트 쌍의 각도 오차를 결정하는 단계; determining an angular error of a feature point pair of each group of the image pairs according to the essential matrix;

상기 각도 오차가 기설정된 제2 조건에 부합되는 특징 포인트 쌍을 내부 포인트로 결정하는 단계; 및 determining a feature point pair whose angular error meets a preset second condition as an internal point; and

모든 내부 포인트에 따라 상기 에센셜 매트릭스에 대응되는 내부 포인트 개수를 결정하는 단계를 포함한다.and determining the number of internal points corresponding to the essential matrix according to all internal points.

일 실시예에 있어서, 상기 제1 에센셜 매트릭스를 이용하여 복수 개 그룹의 특징 포인트 쌍에 대해 필터링을 진행하는 단계는, In one embodiment, the step of filtering a plurality of groups of feature point pairs using the first essential matrix includes:

상기 제1 에센셜 매트릭스에 따라 상기 이미지 쌍의 각 그룹의 특징 포인트 쌍의 각도 오차를 결정하는 단계; 및 determining an angular error of a feature point pair of each group of the image pairs according to the first essential matrix; and

상기 각도 오차가 기설정된 제3 조건에 부합되는 특징 포인트 쌍을 필터링하는 단계를 포함한다.and filtering feature point pairs whose angle error meets a preset third condition.

일 실시예에 있어서, 상기 포인트 클라우드 모델 구축 방법은, In one embodiment, the point cloud model building method includes:

상기 이미지 쌍의 특징 포인트 쌍의 두 개의 제1 특징 포인트가 파노라마 이미지에서의 좌표를 획득하는 단계; obtaining coordinates of two first feature points of the feature point pair of the image pair in a panoramic image;

상기 파노라마 이미지에 대응되는 제3 매핑 관계 및 상기 파노라마 이미지에서의 특징 포인트 쌍에 속하는 제1 특징 포인트의 좌표에 따라, 특징 포인트 쌍과 관련된 투시 이미지를 결정하는 단계 - 상기 특징 포인트 쌍과 관련된 투시 이미지는 특징 포인트 쌍에 속하는 제1 특징 포인트에 대응되는 제2 특징 포인트가 존재하는 투시 이미지임 - ; 및 According to a third mapping relationship corresponding to the panoramic image and the coordinates of a first feature point belonging to the feature point pair in the panoramic image, determining a perspective image associated with the feature point pair - a perspective image associated with the feature point pair is a perspective image in which a second feature point corresponding to the first feature point belonging to the feature point pair exists; and

상기 특징 포인트 쌍과 관련된 투시 이미지를 이용하여 상기 이미지 쌍에 대해 필터링을 진행하는 단계를 더 포함한다.It further includes filtering the image pair using a perspective image related to the feature point pair.

일 실시예에 있어서, 상기 특징 포인트 쌍과 관련된 투시 이미지를 이용하여 상기 이미지 쌍에 대해 필터링을 진행하는 단계는, In one embodiment, filtering the image pair using a perspective image related to the feature point pair includes:

상기 이미지 쌍의 적어도 하나의 파노라마 이미지에 대응되는 특징 포인트 쌍과 관련된 투시 이미지가 연속적인 복수 개의 이미지이고, 상기 연속적인 복수 개의 이미지의 개수가 기설정된 필터링 임계값보다 작은 것에 응답하여, 상기 이미지 쌍을 필터링하는 단계를 포함한다.In response to the perspective image associated with the feature point pair corresponding to at least one panoramic image of the image pair being a plurality of consecutive images, and the number of the plurality of consecutive images being less than a preset filtering threshold, the image pair It includes a filtering step.

일 실시예에 있어서, 상기 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과에 따라 포인트 클라우드 모델을 구축하는 단계는, In one embodiment, the step of building a point cloud model according to the at least one group of image pairs and the corresponding matching result includes,

기설정된 초기화 조건 및 각 그룹의 이미지 쌍의 특징 포인트 쌍 및 제1 에센셜 매트릭스에 따라 한 그룹의 이미지 쌍이 초기 이미지 쌍인 것을 결정하고, 상기 초기 이미지 쌍의 각 파노라마 이미지의 카메라 포즈를 결정하며, 상기 초기 이미지 쌍의 제1 특징 포인트 쌍에 대해 삼각화를 수행하여, 초기 삼차원 포인트를 형성하는 단계; Determine that a group of image pairs is an initial image pair according to preset initialization conditions, feature point pairs of each group of image pairs, and a first essential matrix, determine a camera pose of each panoramic image of the initial image pair, and determine the initial image pair. performing triangulation on the first feature point pair of the image pair to form initial three-dimensional points;

제1 삼차원 포인트에 대응되는 제1 특징 포인트 및 각 미등록 이미지의 제1 특징 포인트 간의 매칭 관계에 따라, 파노라마 이미지 세트에서의 각 파노라마 이미지가 모두 등록된 이미지가 될 때까지, 하나의 미등록 이미지를 등록 이미지로 여러번 결정하는 단계 - 상기 미등록 이미지는 모든 제1 특징 포인트가 삼각화되지 않은 파노라마 이미지이고, 상기 등록된 이미지는 제1 특징 포인트가 삼각화된 파노라마 이미지이며, 상기 제1 삼차원 포인트는 상기 초기 삼차원 포인트를 포함하거나, 상기 초기 삼차원 포인트 및 상기 등록된 이미지의 제1 특징 포인트를 삼각화하여 형성된 삼차원 포인트를 포함함 - ; 및 According to the matching relationship between the first feature point corresponding to the first three-dimensional point and the first feature point of each unregistered image, one unregistered image is registered until each panoramic image in the panoramic image set becomes a registered image. A step of determining an image multiple times - the unregistered image is a panoramic image in which all first feature points are not triangulated, the registered image is a panoramic image in which first feature points are triangulated, and the first three-dimensional point is the initial Includes a three-dimensional point, or includes a three-dimensional point formed by triangulating the initial three-dimensional point and the first feature point of the registered image; and

매번 등록 이미지를 결정한 이후, 상기 등록 이미지의 카메라 포즈를 결정하고, 상기 등록된 이미지의 제1 특징 포인트에 대해 삼각화를 수행하여 대응되는 삼차원 포인트를 형성하며, 및 등록된 이미지의 제3 특징 포인트에 대해 삼각화를 수행하여 대응되는 삼차원 포인트를 형성하는 단계 - 상기 제3 특징 포인트는 상기 등록된 이미지에서 상기 등록 이미지의 제1 특징 포인트와 매칭되는 제1 특징 포인트임 - 를 포함한다.After determining a registered image each time, a camera pose of the registered image is determined, triangulation is performed on the first feature point of the registered image to form a corresponding three-dimensional point, and a third feature point of the registered image is performed. performing triangulation on to form a corresponding three-dimensional point, wherein the third feature point is a first feature point in the registered image that matches the first feature point of the registered image.

일 실시예에 있어서, 상기 기설정된 초기화 조건 및 각 그룹의 이미지 쌍의 특징 포인트 쌍 및 제1 에센셜 매트릭스에 따라 한 그룹의 이미지 쌍이 초기 이미지 쌍인 것을 결정하는 단계는, In one embodiment, the step of determining that a group of image pairs is an initial image pair according to the preset initialization conditions, feature point pairs of each group of image pairs, and a first essential matrix includes:

특징 포인트 쌍의 개수의 내림순에 따라 순차적으로 이미지 쌍을 선택하고, 매번 이미지 쌍을 선택한 이후 모두 상기 특징 포인트 쌍 및 상기 제1 에센셜 매트릭스에 따라, 선택된 이미지 쌍이 상기 초기화 조건을 만족할 때까지, 상기 이미지 쌍이 상기 초기화 조건을 만족하는지 여부에 대해 결정하고, 선택된 이미지 쌍을 초기 이미지 쌍으로 결정하는 단계를 포함한다.Select image pairs sequentially in descending order of the number of feature point pairs, and after each image pair selection, all according to the feature point pair and the first essential matrix, until the selected image pair satisfies the initialization condition. It includes determining whether the image pair satisfies the initialization conditions and determining the selected image pair as the initial image pair.

일 실시예에 있어서, 상기 특징 포인트 쌍 및 상기 제1 에센셜 매트릭스에 따라, 상기 이미지 쌍이 상기 초기화 조건을 만족하는지 여부에 대해 결정하는 단계는, In one embodiment, determining whether the image pair satisfies the initialization condition according to the feature point pair and the first essential matrix includes:

상기 이미지 쌍의 제1 에센셜 매트릭스에 따라 적어도 한 그룹의 변위 변수를 결정하고, 각 그룹의 변위 변수에 대해 특징 포인트 쌍의 특징 포인트를 각각 삼각화하여, 각 그룹의 변위 변수에 대응되는 삼차원 포인트를 형성하고, 및 각 그룹의 삼차원 포인트의 재투영 오차 및 삼각화 각도에 따라 상기 삼차원 포인트를 필터링하는 단계 - 상기 변위 변수는 회전 변수 및 평행 이동 변수를 포함함 - ; Determine at least one group of displacement variables according to the first essential matrix of the image pair, triangulate the feature points of each pair of feature points for the displacement variable of each group, and create a three-dimensional point corresponding to the displacement variable of each group. forming, and filtering the three-dimensional points according to the reprojection error and triangulation angle of each group of three-dimensional points, wherein the displacement variable includes a rotation variable and a translation variable;

개수가 가장 많은 한 그룹의 삼차원 포인트의 개수가 기설정된 제1 개수 임계값보다 큰 것에 응답하여, 대응되는 변위 변수를 제1 변위 변수로 결정하는 단계; In response to the number of three-dimensional points in a group having the largest number being greater than a preset first number threshold, determining a corresponding displacement variable as a first displacement variable;

여러번 계산하여 얻은 에센셜 매트릭스에서 내부 포인트 개수가 포인트 개수 임계값보다 크거나 같은 에센셜 매트릭스를 선택하고, 각 에센셀 매트릭스에 따라 적어도 한 그룹의 변위 변수를 각각 결정하며, 각 그룹의 변위 변수에 대해 특징 포인트 쌍의 특징 포인트를 각각 삼각화하여, 각 그룹의 변위 변수에 대응되는 삼차원 포인트를 형성하고, 및 각 그룹의 삼차원 포인트의 재투영 오차 및 삼각화 각도에 따라 상기 삼차원 포인트를 필터링하며, 각 에센셜 매트리스의 개수가 가장 많은 그룹의 삼차원 포인트에 대응되는 변위 변수를 보유하는 단계; 및 From the essential matrices obtained by calculating multiple times, select an essential matrix where the number of internal points is greater than or equal to the point number threshold, determine the displacement variables of at least one group according to each essential matrix, and determine the characteristics of the displacement variables of each group. Each feature point of a point pair is triangulated to form a three-dimensional point corresponding to the displacement variable of each group, and the three-dimensional points are filtered according to the reprojection error and triangulation angle of the three-dimensional point of each group, and each essential maintaining a displacement variable corresponding to a three-dimensional point of the group with the largest number of mattresses; and

각 에센셜 매트릭스가 보유한 변위 변수와 상기 제1 변위 변수 간의 차이가 기설정된 범위를 만족하는 경우, 상기 이미지 쌍이 상기 초기화 조건을 만족하는 것을 결정하는 단계를 포함한다.When the difference between the displacement variable held by each essential matrix and the first displacement variable satisfies a preset range, determining that the image pair satisfies the initialization condition.

일 실시예에 있어서, 상기 포인트 클라우드 모델 구축 방법은, In one embodiment, the point cloud model building method includes:

초기의 삼차원 포인트가 초기 이미지 쌍의 두 개의 파노라마 이미지에서의 재투영 오차를 최소화하는 것을 통해, 각 파노라마 이미지의 카메라 포즈 및 초기의 삼차원 포인트의 위치를 최적화하는 단계; optimizing the camera pose and position of the initial three-dimensional point in each panoramic image through minimizing the reprojection error of the initial three-dimensional point in the two panoramic images of the initial image pair;

매번 등록 이미지의 카메라 포즈를 결정한 이후, 삼차원 포인트가 상기 등록 이미지에서의 재투영 오차를 최소화하는 것을 통해 상기 등록 이미지의 카메라 포즈를 최적화하는 단계; 및After determining the camera pose of the registered image each time, optimizing the camera pose of the registered image by minimizing the reprojection error of the three-dimensional point in the registered image; and

매번 상기 등록 이미지의 특징 포인트에 대해 삼각화를 수행하여 대응되는 삼차원 포인트를 형성하고, 및 등록된 이미지의 제3 특징 포인트에 대해 삼각화를 수행하여 대응되는 삼차원 포인트를 형성한 이후, 각 삼차원 포인트가 각 등록된 이미지에서의 재투영 오차를 최소화하는 것을 통해, 각 등록된 이미지의 카메라 포즈 및 각 삼차원 포인트의 위치를 최적화하는 단계 중 적어도 하나를 포함한다.Each time, triangulation is performed on the feature point of the registered image to form a corresponding three-dimensional point, and triangulation is performed on the third feature point of the registered image to form a corresponding three-dimensional point, and then each three-dimensional point and optimizing the position of each three-dimensional point and the camera pose of each registered image through minimizing reprojection error in each registered image.

일 실시예에 있어서, 상기 포인트 클라우드 모델 구축 방법은, In one embodiment, the point cloud model building method includes:

각 파노라마 이미지에 대응되는 공간에 따라 대응되는 매칭될 파노라마 이미지를 결정하는 단계; 또는determining a panoramic image to be matched according to a space corresponding to each panoramic image; or

기설정된 매칭 규칙에 따라 각 파노라마 이미지에 대응되는 매칭될 파노라마 이미지를 결정하는 단계를 포함한다.It includes determining a panoramic image to be matched corresponding to each panoramic image according to a preset matching rule.

본 발명의 실시예의 제2 측면에 따르면, 포인트 클라우드 모델 구축 장치를 제공하고, 상기 포인트 클라우드 모델 구축 장치는,According to a second aspect of an embodiment of the present invention, a point cloud model building device is provided, the point cloud model building device comprising:

파노라마 이미지 세트에서의 파노라마 이미지의 제1 특징을 획득하도록 구성된 획득 모듈; an acquisition module configured to acquire first features of a panoramic image in the panoramic image set;

상기 제1 특징에 따라 상기 파노라마 이미지 세트에서의 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과를 결정 - 상기 이미지 쌍은 제1 특징이 매칭되는 두개의 파노라마 이미지를 포함하고, 상기 매칭 결과는 두 개의 파노라마 이미지의 제1 특징 간의 대응 관계를 지시함 - 하도록 구성된 매칭 모듈; 및 Determine at least one group of image pairs and a corresponding matching result in the panoramic image set according to the first feature, wherein the image pair comprises two panoramic images to which the first feature is matched, and the matching result is two panoramic images. a matching module configured to indicate correspondence between first features of the panoramic image; and

상기 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과에 따라 포인트 클라우드 모델을 구축하도록 구성된 구축 모듈을 포함한다.and a building module configured to build a point cloud model according to the at least one group of image pairs and the corresponding matching result.

일 실시예에 있어서, 상기 획득 모듈은 구체적으로, In one embodiment, the acquisition module specifically:

상기 파노라마 이미지에 대응되는 복수 개의 투시 이미지를 결정하고 - 복수 개의 투시 이미지에 대응되는 공간의 세트는 파노라마 이미지에 대응되는 공간임 - ;determining a plurality of perspective images corresponding to the panoramic image, wherein a set of spaces corresponding to the plurality of perspective images is a space corresponding to the panoramic image;

상기 복수 개의 투시 이미지에서의 적어도 하나의 투시 이미지의 제2 특징을 획득하며;acquire a second feature of at least one perspective image in the plurality of perspective images;

상기 투시 이미지의 제2 특징에 따라 상기 파노라마 이미지의 대응 위치의 제1 서브 특징을 결정하며 - 상기 투시 이미지와 상기 파노라마 이미지의 대응 위치는 동일한 공간에 대응됨 - ; determining a first sub-feature of a corresponding position of the panoramic image according to a second characteristic of the perspective image, wherein the corresponding position of the perspective image and the panoramic image correspond to the same space;

적어도 하나의 상기 제1 서브 특징에 따라 상기 파노라마 이미지의 제1 특징을 결정하도록 구성된다.and determine a first feature of the panoramic image according to the at least one first sub-feature.

일 실시예에 있어서, 상기 획득 모듈이 상기 파노라마 이미지에 대응되는 복수 개의 투시 이미지를 결정하도록 구성된 경우, 구체적으로, In one embodiment, when the acquisition module is configured to determine a plurality of perspective images corresponding to the panoramic image, specifically,

상기 파노라마 이미지에 대응되는 단위 구면을 획득하고, 파노라마 이미지의 픽셀 포인트 좌표와 단위 구면의 포인트 좌표 간의 제1 매핑 관계를 결정하고;Obtain a unit sphere corresponding to the panoramic image, and determine a first mapping relationship between pixel point coordinates of the panoramic image and point coordinates of the unit sphere;

상기 단위 구면에 따라 복수 개의 투시 이미지를 결정하고, 투시 이미지의 픽셀 포인트 좌표와 단위 구면의 포인트 좌표 간의 제2 매핑 관계를 결정하며 - 상기 복수 개의 투시 이미지에 대응되는 구면 포인트의 집합은 단위 구면임 - ; Determine a plurality of perspective images according to the unit sphere, determine a second mapping relationship between pixel point coordinates of the perspective image and point coordinates of the unit sphere, and - a set of spherical points corresponding to the plurality of perspective images is a unit sphere. - ;

상기 제1 매핑 관계 및 상기 제2 매핑 관계에 따라 파노라마 이미지의 픽셀 포인트 좌표와 투시 이미지의 픽셀 포인트 좌표 간의 제3 매핑 관계를 결정하고, 파노라마 이미지의 픽셀 포인트의 픽셀 정보 및 상기 제3 매핑 관계에 따라 투시 이미지의 픽셀 포인트의 픽셀 정보를 결정하도록 구성된다.Determine a third mapping relationship between the pixel point coordinates of the panoramic image and the pixel point coordinates of the perspective image according to the first mapping relationship and the second mapping relationship, and apply the third mapping relationship to the pixel information of the pixel point of the panoramic image and the third mapping relationship. Accordingly, it is configured to determine pixel information of the pixel point of the perspective image.

일 실시예에 있어서, 상기 투시 이미지의 제2 특징은 제2 특징 포인트 및 대응되는 제2 디스크립터를 포함하고;In one embodiment, the second feature of the perspective image includes a second feature point and a corresponding second descriptor;

상기 획득 모듈이 상기 투시 이미지의 제2 특징에 따라 상기 파노라마 이미지의 대응 위치의 제1 서브 특징을 결정하도록 구성된 경우, 구체적으로, When the acquisition module is configured to determine a first sub-feature of a corresponding position of the panoramic image according to the second feature of the perspective image, specifically,

상기 투시 이미지의 제2 특징 포인트의 좌표 및 상기 제3 매핑 관계에 따라 상기 파노라마 이미지의 제1 특징 포인트의 좌표를 결정하고; determine coordinates of a first feature point of the panoramic image according to the coordinates of a second feature point of the perspective image and the third mapping relationship;

상기 투시 이미지의 제2 특징 포인트에 대응되는 제2 디스크립터에 따라 상기 파노라마 이미지의 제1 특징 포인트에 대응되는 제1 디스크립터를 결정하도록 구성된다.and determine a first descriptor corresponding to a first feature point of the panoramic image according to a second descriptor corresponding to a second feature point of the perspective image.

일 실시예에 있어서, 상기 제1 특징은 제1 특징 포인트 및 대응되는 제1 디스크립터를 포함하고;In one embodiment, the first feature includes a first feature point and a corresponding first descriptor;

상기 매칭 모듈은 구체적으로, The matching module specifically,

각 파노라마 이미지와 대응되는 매칭될 파노라마 이미지에 따라 복수 개 그룹의 이미지 쌍을 결정하고;determining a plurality of groups of image pairs according to the panoramic images to be matched corresponding to each panoramic image;

각 그룹의 상기 이미지 쌍의 두 개의 파노라마 이미지의 제1 디스크립터에 따라 복수 개 그룹의 특징 포인트 쌍을 결정하며 - 각 그룹의 상기 특징 포인트 쌍은 두 개의 대응 매칭되고 두 개의 파노라마 이미지에 속하는 제1 특징 포인트를 포함함 - ; Determining a plurality of groups of feature point pairs according to a first descriptor of the two panoramic images of the image pair of each group, wherein the feature point pair of each group corresponds to two matching first features belonging to the two panoramic images. Contains points - ;

상기 복수 개 그룹의 특징 포인트 쌍에 따라 제1 에센셜 매트릭스를 결정하고, 상기 제1 에센셜 매트릭스를 이용하여 상기 복수 개 그룹의 특징 포인트 쌍에 대해 필터링을 진행하여, 상기 이미지 쌍에 대응되는 매칭 결과를 얻도록 구성된다.Determine a first essential matrix according to the feature point pairs of the plurality of groups, perform filtering on the feature point pairs of the plurality of groups using the first essential matrix, and produce a matching result corresponding to the image pair. It is designed to obtain

일 실시예에 있어서, 상기 매칭 모듈이 각 그룹의 상기 이미지 쌍의 두 개의 파노라마 이미지의 제1 디스크립터에 따라 복수 개 그룹의 특징 포인트 쌍을 결정하도록 구성된 이후, 또한, In one embodiment, after the matching module is configured to determine a plurality of groups of feature point pairs according to the first descriptor of the two panoramic images of the image pair of each group, further:

각 그룹의 상기 이미지 쌍의 두 개의 파노라마 이미지의 특징 포인트 쌍의 개수를 획득하고;Obtain the number of feature point pairs of the two panoramic images of the image pairs in each group;

특징 포인트 쌍의 개수가 기설정된 제1 조건에 부합되는 이미지 쌍을 필터링하도록 구성된다.It is configured to filter image pairs in which the number of feature point pairs meets a preset first condition.

일 실시예에 있어서, 상기 매칭 모듈이 상기 복수 개 그룹의 특징 포인트 쌍에 따라 제1 에센셜 매트릭스를 결정하도록 구성된 경우, 구체적으로, In one embodiment, when the matching module is configured to determine a first essential matrix according to the plurality of groups of feature point pairs, specifically,

상기 특징 포인트 쌍에서의 두 개의 제1 특징 포인트의 각도 오차에 따라 상기 특징 포인트 쌍의 각도 오차를 결정하고 - 상기 제1 특징 포인트의 각도 오차는 상기 제1 특징 포인트에 대응되는 단위 구면의 구면 포인트와 단위 구면의 광학적 중심을 연결하는 선 및 외부 극평면 간의 끼인각임 - ; Determine the angular error of the feature point pair according to the angular error of the two first feature points in the feature point pair, and the angular error of the first feature point is a spherical point of the unit sphere corresponding to the first feature point. - the included angle between the line connecting the optical center of the unit sphere and the outer polar plane;

대응되는 상기 특징 포인트 쌍의 각도 오차를 잔차항으로 사용하여, 기설정된 개수의 상기 특징 포인트 쌍에 따라 에센셜 매트릭스를 여러번 결정하며; Using the angular error of the corresponding feature point pair as a residual term, an essential matrix is determined several times according to a preset number of feature point pairs;

각 상기 에센셜 매트릭스에 대응되는 내부 포인트 개수를 결정하고, 내부 포인트 개수가 가장 많은 에센셜 매트릭스를 상기 제1 에센셜 매트릭스로 결정하도록 구성된다.It is configured to determine the number of internal points corresponding to each essential matrix, and determine the essential matrix with the largest number of internal points as the first essential matrix.

일 실시예에 있어서, 상기 매칭 모듈이 각 상기 에센셜 매트릭스에 대응되는 내부 포인트 개수를 결정하도록 구성된 경우, 구체적으로, In one embodiment, when the matching module is configured to determine the number of internal points corresponding to each of the essential matrices, specifically,

상기 에센셜 매트릭스에 따라 상기 이미지 쌍의 각 그룹의 특징 포인트 쌍의 각도 오차를 결정하고;determine the angular error of the feature point pair of each group of the image pairs according to the essential matrix;

상기 각도 오차가 기설정된 제2 조건에 부합되는 특징 포인트 쌍을 내부 포인트로 결정하며; determining a feature point pair whose angle error satisfies a preset second condition as an internal point;

모든 내부 포인트에 따라 상기 에센셜 매트릭스에 대응되는 내부 포인트 개수를 결정하도록 구성된다.It is configured to determine the number of internal points corresponding to the essential matrix according to all internal points.

일 실시예에 있어서, 상기 매칭 모듈이 상기 제1 에센셜 매트릭스를 이용하여 복수 개 그룹의 특징 포인트 쌍에 대해 필터링을 진행하도록 구성된 경우, 구체적으로, In one embodiment, when the matching module is configured to perform filtering on a plurality of groups of feature point pairs using the first essential matrix, specifically,

상기 제1 에센셜 매트릭스에 따라 상기 이미지 쌍의 각 그룹의 특징 포인트 쌍의 각도 오차를 결정하고; determine the angular error of the feature point pair of each group of the image pairs according to the first essential matrix;

상기 각도 오차가 기설정된 제3 조건에 부합되는 특징 포인트 쌍을 필터링하도록 구성된다.It is configured to filter feature point pairs whose angle error meets a preset third condition.

일 실시예에 있어서, 상기 매칭 모듈은 또한, In one embodiment, the matching module also:

상기 이미지 쌍의 특징 포인트 쌍의 두 개의 제1 특징 포인트가 파노라마 이미지에서의 좌표를 획득하고;Two first feature points of the feature point pair of the image pair obtain coordinates in the panoramic image;

상기 파노라마 이미지에 대응되는 제3 매핑 관계 및 상기 파노라마 이미지에서의 특징 포인트 쌍에 속하는 제1 특징 포인트의 좌표에 따라, 특징 포인트 쌍과 관련된 투시 이미지를 결정하며 - 상기 특징 포인트 쌍과 관련된 투시 이미지는 특징 포인트 쌍에 속하는 제1 특징 포인트에 대응되는 제2 특징 포인트가 존재하는 투시 이미지임 - ; According to a third mapping relationship corresponding to the panoramic image and the coordinates of a first feature point belonging to the feature point pair in the panoramic image, determine a perspective image associated with the feature point pair, wherein the perspective image associated with the feature point pair is A perspective image in which a second feature point corresponding to a first feature point belonging to a feature point pair exists - ;

상기 특징 포인트 쌍과 관련된 투시 이미지를 이용하여 상기 이미지 쌍에 대해 필터링을 진행하도록 구성된다.It is configured to perform filtering on the image pair using a perspective image related to the feature point pair.

일 실시예에 있어서, 상기 매칭 모듈이 상기 특징 포인트 쌍과 관련된 투시 이미지를 이용하여 상기 이미지 쌍에 대해 필터링을 진행하도록 구성된 경우, 구체적으로, In one embodiment, when the matching module is configured to perform filtering on the image pair using a perspective image related to the feature point pair, specifically,

상기 이미지 쌍의 적어도 하나의 파노라마 이미지에 대응되는 특징 포인트 쌍과 관련된 투시 이미지가 연속적인 복수 개의 이미지이고, 상기 연속적인 복수 개의 이미지의 개수가 기설정된 필터링 임계값보다 작은 것에 응답하여, 상기 이미지 쌍을 필터링하도록 구성된다.In response to the perspective image associated with the feature point pair corresponding to at least one panoramic image of the image pair being a plurality of consecutive images, and the number of the plurality of consecutive images being less than a preset filtering threshold, the image pair It is configured to filter.

일 실시예에 있어서, 상기 구축 모듈은 구체적으로, In one embodiment, the construction module specifically,

기설정된 초기화 조건 및 각 그룹의 이미지 쌍의 특징 포인트 쌍 및 제1 에센셜 매트릭스에 따라 한 그룹의 이미지 쌍이 초기 이미지 쌍인 것을 결정하고, 상기 초기 이미지 쌍의 각 파노라마 이미지의 카메라 포즈를 결정하며, 상기 초기 이미지 쌍의 제1 특징 포인트 쌍에 대해 삼각화를 수행하여, 초기 삼차원 포인트를 형성하고;Determine that a group of image pairs is an initial image pair according to preset initialization conditions, feature point pairs of each group of image pairs, and a first essential matrix, determine a camera pose of each panoramic image of the initial image pair, and determine the initial image pair. Perform triangulation on the first feature point pair of the image pair to form initial three-dimensional points;

제1 삼차원 포인트에 대응되는 제1 특징 포인트 및 각 미등록 이미지의 제1 특징 포인트 간의 매칭 관계에 따라, 파노라마 이미지 세트에서의 각 파노라마 이미지가 모두 등록된 이미지가 될 때까지, 하나의 미등록 이미지를 등록 이미지로 여러번 결정하며 - 상기 미등록 이미지는 모든 제1 특징 포인트가 삼각화되지 않은 파노라마 이미지이고, 상기 등록된 이미지는 제1 특징 포인트가 삼각화된 파노라마 이미지이며, 상기 제1 삼차원 포인트는 상기 초기 삼차원 포인트를 포함하거나, 상기 초기 삼차원 포인트 및 상기 등록된 이미지의 제1 특징 포인트를 삼각화하여 형성된 삼차원 포인트를 포함함 - ; According to the matching relationship between the first feature point corresponding to the first three-dimensional point and the first feature point of each unregistered image, one unregistered image is registered until each panoramic image in the panoramic image set becomes a registered image. The image is determined several times - the unregistered image is a panoramic image in which all first feature points are not triangulated, the registered image is a panoramic image in which first feature points are triangulated, and the first three-dimensional point is the initial three-dimensional point. Includes a point, or includes a three-dimensional point formed by triangulating the initial three-dimensional point and the first feature point of the registered image;

매번 등록 이미지를 결정한 이후, 상기 등록 이미지의 카메라 포즈를 결정하고, 상기 등록된 이미지의 제1 특징 포인트에 대해 삼각화를 수행하여 대응되는 삼차원 포인트를 형성하며, 및 등록된 이미지의 제3 특징 포인트에 대해 삼각화를 수행하여 대응되는 삼차원 포인트를 형성 - 상기 제3 특징 포인트는 상기 등록된 이미지에서 상기 등록 이미지의 제1 특징 포인트와 매칭되는 제1 특징 포인트임 - 하도록 구성된다.After determining a registered image each time, a camera pose of the registered image is determined, triangulation is performed on the first feature point of the registered image to form a corresponding three-dimensional point, and a third feature point of the registered image is performed. Triangulation is performed to form a corresponding three-dimensional point - the third feature point is a first feature point in the registered image that matches the first feature point of the registered image.

일 실시예에 있어서, 상기 구축 모듈이 기설정된 초기화 조건 및 각 그룹의 이미지 쌍의 특징 포인트 쌍 및 제1 에센셜 매트릭스에 따라 한 그룹의 이미지 쌍이 초기 이미지 쌍인 것을 결정하도록 구성된 경우, 구체적으로, In one embodiment, when the building module is configured to determine that a group of image pairs is an initial image pair according to preset initialization conditions and feature point pairs of each group of image pairs and a first essential matrix, specifically,

특징 포인트 쌍의 개수의 내림순에 따라 순차적으로 이미지 쌍을 선택하고, 매번 이미지 쌍을 선택한 이후 모두 상기 특징 포인트 쌍 및 상기 제1 에센셜 매트릭스에 따라, 선택된 이미지 쌍이 상기 초기화 조건을 만족할 때까지, 상기 이미지 쌍이 상기 초기화 조건을 만족하는지 여부에 대해 결정하고, 선택된 이미지 쌍을 초기 이미지 쌍으로 결정하도록 구성된다.Select image pairs sequentially in descending order of the number of feature point pairs, and after each image pair selection, all according to the feature point pair and the first essential matrix, until the selected image pair satisfies the initialization condition. It is configured to determine whether the image pair satisfies the initialization conditions and determine the selected image pair as the initial image pair.

일 실시예에 있어서, 상기 구축 모듈이 상기 특징 포인트 쌍 및 상기 제1 에센셜 매트릭스에 따라, 상기 이미지 쌍이 상기 초기화 조건을 만족하는지 여부에 대해 결정하도록 구성된 경우, 구체적으로In one embodiment, when the building module is configured to determine whether the image pair satisfies the initialization condition according to the feature point pair and the first essential matrix, specifically:

상기 이미지 쌍의 제1 에센셜 매트릭스에 따라 적어도 한 그룹의 변위 변수를 결정하고, 각 그룹의 변위 변수에 대해 특징 포인트 쌍의 특징 포인트를 각각 삼각화하여, 각 그룹의 변위 변수에 대응되는 삼차원 포인트를 형성하고, 및 각 그룹의 삼차원 포인트의 재투영 오차 및 삼각화 각도에 따라 상기 삼차원 포인트를 필터링하고 - 상기 변위 변수는 회전 변수 및 평행 이동 변수를 포함함 - ;Determine at least one group of displacement variables according to the first essential matrix of the image pair, triangulate the feature points of each pair of feature points for the displacement variable of each group, and create a three-dimensional point corresponding to the displacement variable of each group. forming, and filtering the three-dimensional points according to the reprojection error and triangulation angle of each group of three-dimensional points, wherein the displacement variable includes a rotation variable and a translation variable;

개수가 가장 많은 한 그룹의 삼차원 포인트의 개수가 기설정된 제1 개수 임계값보다 큰 것에 응답하여, 대응되는 변위 변수를 제1 변위 변수로 결정하며;In response to the number of three-dimensional points in a group having the largest number being greater than a preset first number threshold, determining the corresponding displacement variable as the first displacement variable;

여러번 계산하여 얻은 에센셜 매트릭스에서 내부 포인트 개수가 포인트 개수 임계값보다 크거나 같은 에센셜 매트릭스를 선택하고, 각 에센셀 매트릭스에 따라 적어도 한 그룹의 변위 변수를 각각 결정하며, 각 그룹의 변위 변수에 대해 특징 포인트 쌍의 특징 포인트를 각각 삼각화하여, 각 그룹의 변위 변수에 대응되는 삼차원 포인트를 형성하고, 및 각 그룹의 삼차원 포인트의 재투영 오차 및 삼각화 각도에 따라 상기 삼차원 포인트를 필터링하며, 각 에센셜 매트리스의 개수가 가장 많은 그룹의 삼차원 포인트에 대응되는 변위 변수를 보유하며; From the essential matrices obtained by calculating multiple times, select an essential matrix where the number of internal points is greater than or equal to the point number threshold, determine the displacement variables of at least one group according to each essential matrix, and determine the characteristics of the displacement variables of each group. Each feature point of a point pair is triangulated to form a three-dimensional point corresponding to the displacement variable of each group, and the three-dimensional points are filtered according to the reprojection error and triangulation angle of the three-dimensional point of each group, and each essential It holds the displacement variable corresponding to the three-dimensional point of the group with the largest number of mattresses;

각 에센셜 매트릭스가 보유한 변위 변수와 상기 제1 변위 변수 간의 차이가 기설정된 범위를 만족하는 경우, 상기 이미지 쌍이 상기 초기화 조건을 만족하는 것을 결정하는 단계를 포함한다.When the difference between the displacement variable held by each essential matrix and the first displacement variable satisfies a preset range, determining that the image pair satisfies the initialization condition.

일 실시예에 있어서, 상기 구축 모듈은 또한, In one embodiment, the building module also:

초기의 삼차원 포인트가 초기 이미지 쌍의 두 개의 파노라마 이미지에서의 재투영 오차를 최소화하는 것을 통해, 각 파노라마 이미지의 카메라 포즈 및 초기의 삼차원 포인트의 위치를 최적화하는 것;optimizing the camera pose and position of the initial three-dimensional point in each panoramic image through minimizing the reprojection error of the initial three-dimensional point in the two panoramic images of the initial image pair;

매번 등록 이미지의 카메라 포즈를 결정한 이후, 삼차원 포인트가 상기 등록 이미지에서의 재투영 오차를 최소화하는 것을 통해 상기 등록 이미지의 카메라 포즈를 최적화하는 것; After determining the camera pose of the registered image each time, optimizing the camera pose of the registered image through minimizing the three-dimensional point reprojection error in the registered image;

매번 상기 등록 이미지의 특징 포인트에 대해 삼각화를 수행하여 대응되는 삼차원 포인트를 형성하고, 및 등록된 이미지의 제3 특징 포인트에 대해 삼각화를 수행하여 대응되는 삼차원 포인트를 형성한 이후, 각 삼차원 포인트가 각 등록된 이미지에서의 재투영 오차를 최소화하는 것을 통해, 각 등록된 이미지의 카메라 포즈 및 각 삼차원 포인트의 위치를 최적화하는 것 중 적어도 하나를 수행하도록 구성된다.Each time, triangulation is performed on the feature point of the registered image to form a corresponding three-dimensional point, and triangulation is performed on the third feature point of the registered image to form a corresponding three-dimensional point, and then each three-dimensional point is configured to perform at least one of optimizing the position of each three-dimensional point and the camera pose of each registered image through minimizing reprojection error in each registered image.

일 실시예에 있어서, 상기 매칭 모듈은 또한, In one embodiment, the matching module also:

각 파노라마 이미지에 대응되는 공간에 따라 대응되는 매칭될 파노라마 이미지를 결정하고; 또는determining a corresponding panoramic image to be matched according to a space corresponding to each panoramic image; or

기설정된 매칭 규칙에 따라 각 파노라마 이미지에 대응되는 매칭될 파노라마 이미지를 결정하도록 구성된다.It is configured to determine a panoramic image to be matched corresponding to each panoramic image according to a preset matching rule.

본 발명의 실시예의 제3 측면에 따르면, 전자 기기를 제공하고, 상기 기기는 메모리, 프로세서를 포함하고, 상기 메모리는 프로세서 상에서 작동 가능한 컴퓨터 명령어를 저장하기 위한 것이며, 상기 프로세서는 상기 컴퓨터 명령어를 실행할 경우 제1 측면에 따른 방법에 기반하여 포인트 클라우드 모형을 구축하기 위한 것이다.According to a third aspect of an embodiment of the present invention, an electronic device is provided, the device includes a memory and a processor, the memory is for storing computer instructions operable on the processor, and the processor executes the computer instructions. The purpose is to build a point cloud model based on the method according to the first aspect.

본 발명의 실시예의 제4 측면에 따르면, 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능 저장 매체를 제공하며, 상기 프로그램은 프로세서에 의해 실행될 경우 제1 측면에 따른 방법을 구현한다.According to a fourth aspect of an embodiment of the present invention, a computer-readable storage medium is provided storing a computer program, wherein the program implements the method according to the first aspect when executed by a processor.

본 발명의 실시예의 제5 측면에 따르면, 컴퓨터 판독 가능한 코드를 포함하는 컴퓨터 프로그램을 제공하고, 상기 컴퓨터 판독 가능한 코드가 전자 기기에서 작동될 경우, 상기 전자 기기의 프로세서는 전술한 방법 중의 임의의 하나를 구현한다.According to a fifth aspect of an embodiment of the present invention, a computer program including computer-readable code is provided, and when the computer-readable code is operated in an electronic device, the processor of the electronic device performs any one of the above-described methods. Implement.

전술한 실시예에 따라 알다시피, 파노라마 이미지를 통해 파노라마 이미지 세트를 구성하고, 추가로 제1 특징에 따라 파노라마 이미지 세트에서의 파노라마 이미지를 매칭하며, 제1 특징 매칭이 완료된 두 개의 파노라마 이미지를 하나의 그룹 이미지 쌍으로 사용함으로써, 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과를 결정하며, 마지막으로 결정된 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과에 따라 포인트 클라우드 모델을 구축한다. 파노라마 이미지를 사용하여 매칭을 진행하고 추가로 매칭된 결과로 포인트 클라우드 모델을 구축하였기 때문에, 이미지 세트에서의 이미지 개수를 감소시킬 수 있음으로써, 매칭 효율 및 모델링 효율을 향상시킬 수 있고, 파노라마 이미지에 대응되는 공간의 범위가 비교적 크기 때문에, 파노라마 이미지 간의 매칭 효과를 높일 수 있음으로써, 포인트 클라우드 모델 구축의 정확도 및 질량을 향상시킨다.As can be seen from the above-described embodiments, a panoramic image set is formed using the panoramic images, the panoramic images in the panoramic image set are further matched according to the first feature, and the two panoramic images for which the first feature matching is completed are combined into one panoramic image. By using it as a group image pair, at least one group of image pairs and the corresponding matching result are determined, and finally, a point cloud model is built according to the determined at least one group of image pairs and the corresponding matching result. Since matching was performed using panoramic images and a point cloud model was built with the additional matching results, the number of images in the image set can be reduced, thereby improving matching efficiency and modeling efficiency, and the panoramic image Since the corresponding spatial range is relatively large, the matching effect between panoramic images can be increased, thereby improving the accuracy and mass of point cloud model construction.

이해해야 할 것은, 이상의 일반적인 설명 및 하기의 상세한 설명은 다만 예시적이고 해석적인 것이며, 본 발명을 한정하려는 것은 아니다.It is to be understood that the foregoing general description and the following detailed description are illustrative and interpretive only and are not intended to limit the invention.

본문의 도면은 본 명세서에 포함되어 본 명세서의 일부를 구성하고, 본 발명과 일치하는 실시예를 예시하고, 본 명세서와 함께 본 발명의 원리를 설명하기 위해 사용된다.
도 1은 본 발명의 실시예에 따른 포인트 클라우드 모델 구축 방법의 흐름도이다.
도 2는 본 발명의 실시예에 따른 파노라마 이미지의 예시도이다.
도 3은 본 발명의 실시예에 따른 파노라마 이미지의 제1 특징을 획득하는 방식의 예시도이다.
도 4는 본 발명의 실시예에 따른 이미지 쌍 및 대응되는 매칭 결과를 결정하는 방식의 예시도이다.
도 5는 본 발명의 실시예에 따른 각도 오차의 예시도이다.
도 6은 본 발명의 실시예에 따른 초기화 조건 및 특징 포인트 쌍 및 제1 에센셜 매트릭스를 비교하는 방식의 예시도이다.
도 7은 본 발명의 실시예에 따른 포인트 클라우드 모델 구축 장치의 구조도이다.
도 8은 본 발명의 실시예에 따른 전자 기기의 구조 예시도이다.
The drawings of this text are incorporated in and constitute a part of this specification, illustrate embodiments consistent with the present invention, and are used together with this specification to explain the principles of the present invention.
1 is a flowchart of a point cloud model construction method according to an embodiment of the present invention.
Figure 2 is an exemplary diagram of a panoramic image according to an embodiment of the present invention.
Figure 3 is an exemplary diagram of a method for obtaining the first feature of a panoramic image according to an embodiment of the present invention.
Figure 4 is an exemplary diagram of a method for determining image pairs and corresponding matching results according to an embodiment of the present invention.
Figure 5 is an example diagram of angle error according to an embodiment of the present invention.
Figure 6 is an exemplary diagram of a method for comparing initialization conditions, feature point pairs, and a first essential matrix according to an embodiment of the present invention.
Figure 7 is a structural diagram of an apparatus for building a point cloud model according to an embodiment of the present invention.
Figure 8 is an exemplary structural diagram of an electronic device according to an embodiment of the present invention.

아래에 예시적 실시예에 대해 상세히 설명할 것이며, 그 예는 도면에 도시되어 있다. 이하의 설명은 도면을 참조할 때, 다른 표시가 없는 한, 상이한 도면에서 동일한 숫자는 동일하거나 유사한 요소를 나타낸다. 아래의 예시적 실시예에서 설명된 실시형태는 본 발명과 일치하는 모든 실시형태를 나타내는 것은 아니다. 이와 반대로, 이들은 다만 청구 범위에 상세히 서술된 바와 같이 본 개시의 일부 측면과 일치하는 장치 및 방법의 예일 뿐이다.Exemplary embodiments will be described in detail below, examples of which are shown in the drawings. When the following description refers to the drawings, unless otherwise indicated, like numbers in different drawings refer to the same or similar elements. The embodiments described in the example examples below do not represent all embodiments consistent with the invention. On the contrary, these are merely examples of devices and methods consistent with some aspects of the present disclosure as detailed in the claims.

본 발명에서 사용된 용어는 다만 특정 실시예를 설명하기 위한 것으로, 본 발명을 한정하려는 것이 아니다. 본 발명의 명세서와 청구 범위에 사용된 단수 형태인 “한 가지” 및 "상기”는 본문이 다른 의미를 명확하게 나타내지 않는 한, 복수 형태를 포함한다. 또한 이해해야 할 것은, 본문에 사용된 용어 “및/또는”은 하나 또는 복수 개의 관련되어 열거된 항목의 임의의 조합 또는 모든 가능한 조합을 의미하고 포함한다.The terms used in the present invention are only for describing specific embodiments and are not intended to limit the present invention. As used in the specification and claims of the present invention, the singular forms “a” and “the” include the plural forms, unless the text clearly indicates otherwise. It should also be understood that the term “a” as used in the text. “and/or” means and includes any combination or all possible combinations of one or more related listed items.

이해해야 할 것은, 본 발명에서 "제1", "제2", "제3" 등과 같은 용어를 사용하여 다양한 정보를 설명하지만 이러한 정보들은 이러한 용어로 한정되어서는 안된다. 이러한 용어는 한 타입의 정보를 다른 타입과 구별하기 위해서만 사용된다. 예를 들어, 본 발명의 범위를 벗어나지 않으면서, 제 1 정보는 제 2 정보로 지칭될 수 있고; 유사하게, 제 2 정보는 또한 제 1 정보로 지칭될 수 있다. 문맥에 따라, 본문에 사용되는 용어 "....면"은 상황에 따라 "....할 때" 또는 "....할 경우" 또는 "결정에 응답하여"를 의미하는 것으로 이해 될수 있다.It should be understood that although the present invention uses terms such as “first,” “second,” “third,” etc. to describe various information, such information should not be limited to these terms. These terms are only used to distinguish one type of information from another. For example, without departing from the scope of the present invention, first information may be referred to as second information; Similarly, the second information may also be referred to as first information. Depending on the context, the term "...." as used in the text may be understood to mean "when...." or "if...." or "in response to a decision," as the case may be. there is.

인공 지능 기술의 발전에 따라, 공간 모델링 기술은 갈수록 더욱 풍부해지고, 정확도가 더욱 높아진다. 모션 복구 구조 기술은 복수 개의 이미지를 이용하여 삼차원 포인트 클라우드 모델을 구축할 수 있으며, 이는 물리적 공간 디지털화, 고정밀 지도 구축 및 증강 현실 등 분야에서 널리 사용될 수 있다. 기존의 기술에 있어서, 복수 개의 이미지 간의 매칭 효율이 좋지 않음으로써, 순차적으로 구축된 포인트 클라우드 모델의 정확도가 낮고, 품질이 떨어지는 것을 초래한다.With the development of artificial intelligence technology, spatial modeling technology becomes increasingly richer and more accurate. Motion recovery structure technology can build a three-dimensional point cloud model using multiple images, which can be widely used in fields such as physical space digitization, high-precision map construction, and augmented reality. In existing technology, the matching efficiency between multiple images is poor, resulting in low accuracy and poor quality of the sequentially constructed point cloud model.

이에 기반하여, 제1 측면에 있어서, 본 발명의 적어도 일 실시예는 포인트 클라우드 모델 구축 방법을 제공하고, 도1을 참조하면, 단계 S101 내지 S103을 포함하는 방법의 흐름을 도시하였다.Based on this, in a first aspect, at least one embodiment of the present invention provides a method for building a point cloud model, and referring to Figure 1, the flow of the method including steps S101 to S103 is shown.

여기서, 상기 포인트 클라우드 모델은 공간에 대응되는 삼차원 모델이고, 공간은 현실 세계를 의미할 수 있다. 현실 세계에서의 각 물체는 모델에서 대응되는 포인트 클라우드로 표시되고, 포인트 클라우드는 삼차원 포인트가 구성한 포인트의 집합을 의미한다.Here, the point cloud model is a three-dimensional model corresponding to space, and space may mean the real world. Each object in the real world is represented by a corresponding point cloud in the model, and a point cloud refers to a set of points made up of three-dimensional points.

또한, 상기 포인트 클라우드 모델 구축 방법은 단말 기기 또는 서버 등 전자 기기에 의해 실행될 수 있고, 단말 기기는 사용자 기기(User Equipment, UE), 모바일 기기, 사용자 단말, 단말, 셀룰러 폰, 무선 전화, 개인용 정보 단말기(Personal Digital Assistant, PDA), 핸드 헬드 기기, 컴퓨팅 기기, 차량용 기기, 웨어러블 기기 등일 수 있으며, 상기 포인트 클라우드 모델 구축 방법은 프로세서에 의해 메모리에 저장된 컴퓨터 판독 가능한 명령어가 호출되는 방식으로 구현될 수 있다. 또는, 상기 포인트 클라우드 모델 구축 방법은 서버를 통해 실행될 수 있으며, 상기 서버는 로컬 서버, 클라우드 서버 등이 될 수 있다.In addition, the point cloud model construction method can be executed by an electronic device such as a terminal device or server, and the terminal device is a user equipment (UE), a mobile device, a user terminal, a terminal, a cellular phone, a wireless phone, and personal information. It may be a terminal (Personal Digital Assistant, PDA), a handheld device, a computing device, a vehicle device, a wearable device, etc., and the point cloud model construction method may be implemented in such a way that a computer-readable command stored in a memory is called by a processor. there is. Alternatively, the point cloud model building method may be executed through a server, and the server may be a local server, a cloud server, or the like.

단계 S101에 있어서, 파노라마 이미지 세트에서의 파노라마 이미지의 제1 특징을 획득한다.In step S101, the first feature of the panoramic image in the panoramic image set is obtained.

여기서, 파노라마 이미지 세트는 복수 개의 파노라마 이미지를 포함하고, 파노라마 이미지는 예를 들어 360° 파노라마 이미지와 같은 다양한 각도의 파노라마 이미지일 수 있으며; 파노라마 이미지는 구면 카메라가 획득한 이미지거나, 복수 개의 어안 카메라로 획득한 스플라이싱 이미지를 등거리 직사각형 투영 방식에 따라 얻은 이미지일 수 있으며, 도 2를 참조하면, 예시적으로 하나의 파노라마 이미지를 예시한다. 각 파노라마 이미지는 모델링 공간의 하나의 국부 서브 공간에 대응되고, 파노라마 이미지에 대응되는 국부 서브 공간의 크기는 동일한 파라미터에서의 일반 이미지에 대응되는 국부 서브 공간의 크기보다 크며, 상기 파노라마 이미지 세트의 모든 파노라마 이미지에 대응되는 국부 서브 공간은 전체 모델링 공간을 구성할 수 있으며; 상이한 파노라마 이미지에 대응되는 국부 서브 공간은 중첩되는 영역이 존재할 수 있다.Here, the panoramic image set includes a plurality of panoramic images, and the panoramic images may be panoramic images from various angles, for example, a 360° panoramic image; The panoramic image may be an image acquired by a spherical camera, or an image obtained by equidistant rectangular projection of spliced images acquired by a plurality of fisheye cameras. Referring to FIG. 2, one panoramic image is exemplarily shown. do. Each panoramic image corresponds to one local subspace of the modeling space, the size of the local subspace corresponding to the panoramic image is larger than the size of the local subspace corresponding to a normal image at the same parameters, and all of the panoramic image sets are The local subspace corresponding to the panoramic image can constitute the entire modeling space; Local subspaces corresponding to different panoramic images may have overlapping areas.

본 단계에 있어서, 미리 훈련된 신경 네트워크를 사용하여 파노라마 이미지의 제1 특징을 획득할 수 있고, 다른 방식을 사용하여 파노라마 이미지의 제1 특징을 획득할 수도 있으며, 본 발명은 획득 방식에 대해 구체적으로 제한하지 않는다. 파노라마 이미지 세트에서의 각 파노라마 이미지의 제1 특징을 획득할 수 있다.In this step, the first feature of the panoramic image may be acquired using a pre-trained neural network, and the first feature of the panoramic image may be acquired using another method, and the present invention does not specifically describe the acquisition method. is not limited to The first feature of each panoramic image in the panoramic image set may be obtained.

단계 S102에 있어서, 상기 제1 특징에 따라 상기 파노라마 이미지 세트에서의 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과를 결정하고, 여기서, 상기 이미지 쌍은 제1 특징이 매칭되는 두개의 파노라마 이미지를 포함하고, 상기 매칭 결과는 두 개의 파노라마 이미지의 제1 특징 간의 대응 관계를 지시한다.In step S102, determine at least one group of image pairs and a corresponding matching result in the panoramic image set according to the first feature, wherein the image pair includes two panoramic images to which the first feature is matched. And, the matching result indicates a correspondence relationship between the first features of the two panoramic images.

여기서, 제1 특징 매칭은, 두 개의 파노라마 이미지가 동일한 공간에 대응되는 제1 특징 포인트가 존재하는 것, 즉 하나의 파노라마 이미지의 적어도 하나의 제1 특징 포인트와 다른 하나의 파노라마 이미지의 적어도 하나의 제1 특징 포인트가, 현실 세계에서 동일한 공간에 대응되는 것을 의미한다.Here, the first feature matching means that there is a first feature point corresponding to the same space in the two panoramic images, that is, at least one first feature point of one panoramic image and at least one first feature point of the other panoramic image. This means that the first feature point corresponds to the same space in the real world.

본 단계에 있어서, 무차별 매칭 방식을 사용하여 파노라마 이미지 세트 내의 파노라마 이미지에 대해 매칭을 진행할 수 있고, 다시 말해 일일이 매칭하는 방식을 사용하여 매칭을 진행할 수 있고, 예를 들어, 순차적으로 각 파노라마 이미지를 선택하여, 다른 각 파노라마 이미지와 매칭을 진행할 수 있으며; 두 개의 파노라마 이미지 매칭을 진행하는 경우, 두 개의 파노라마 이미지의 제1 특징을 이용하여 매칭을 진행하고, 다시 말해 두 개의 파노라마 이미지의 제1 특징의 매칭 결과에 따라 파노라마 이미지의 매칭 결과를 결정한다. 두 개의 파노라마 이미지의 제1 특징 매칭이 완료되면, 다시 말해 두 개의 파노라마 이미지가 특징 매칭을 완료하면, 이 두 개의 이미지를 한 그룹의 이미지 쌍으로 결정할 수 있고, 동시에 두 개의 파노라마 이미지의 제1 특징의 대응 관계를 매칭 결과로 결정할 수 있다.In this step, matching can be performed on the panoramic images in the panoramic image set using a brute-force matching method. In other words, matching can be performed using a one-by-one matching method. For example, each panoramic image can be matched sequentially. By selecting, you can proceed with matching with each other panoramic image; When matching two panoramic images, matching is performed using the first feature of the two panoramic images. In other words, the matching result of the panoramic image is determined according to the matching result of the first feature of the two panoramic images. When the first feature matching of the two panoramic images is completed, that is, when the two panoramic images complete the feature matching, these two images can be determined as a group of image pairs, and at the same time, the first feature of the two panoramic images The corresponding relationship can be determined as a matching result.

여기서, 각 파노라마 이미지는 다른 한 파노라마 이미지와 이미지 쌍을 구성할 수 있고, 각각 다른 복수 개의 파노라마 이미지와 복수 개 그룹의 이미지 쌍을 구성할 수도 있으며, 다시 말해, 각 파노라마 이미지가 이미지 쌍을 구성한 이후, 로킹되지 않으면, 계속하여, 다른 파노라마 이미지와 새로운 이미지 쌍을 구성할 수 있다.Here, each panoramic image may form an image pair with another panoramic image, and each panoramic image may form a plurality of different panoramic images and a plurality of groups of image pairs. In other words, after each panoramic image forms an image pair, , If not locked, you can continue to construct new image pairs with other panoramic images.

단계 S103에 있어서, 상기 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과에 따라 포인트 클라우드 모델을 구축한다.In step S103, a point cloud model is constructed according to the at least one group of image pairs and the corresponding matching result.

본 단계에 있어서, 전술한 단계 S102에서의 매칭 결과를 이용하여 포인트 클라우드 모델의 구축을 진행한다. 모델링 과정, 다시 말해 모션 복구 구조 과정은, 카메라 등록 및 포인트 클라우드 재구성을 포함하고, 카메라 등록은 파노라마 이미지 세트 내의 각 하나의 파노라마 이미지의 카메라 운동 파라미터(예를 들어, 카메라 포즈를 사용하여 표시할 수 있음)를 복구하는 과정이고, 포인트 클라우드 재구축은 대응되는 국부 서브 공간(즉 단계 S102에서 제안한 국부 서브 공간)의 삼차원 구조의 포인트 클라우드를 복구하는 것이다.In this step, a point cloud model is constructed using the matching result in step S102 described above. The modeling process, that is, the motion recovery architecture process, includes camera registration and point cloud reconstruction, where camera registration can be expressed using the camera motion parameters (e.g. camera pose) of each single panoramic image within the panoramic image set. It is a process of restoring the point cloud, and point cloud reconstruction is restoring the point cloud of the three-dimensional structure of the corresponding local subspace (i.e., the local subspace proposed in step S102).

일 예에 있어서, 점진적 재구축의 방식을 사용하여 포인트 클라우드 모델을 구축할 수 있다.In one example, a point cloud model can be built using an incremental reconstruction approach.

본 발명의 실시예에 있어서, 파노라마 이미지를 통해 파노라마 이미지 세트를 구성하고, 추가로 제1 특징에 따라 파노라마 이미지 세트에서의 파노라마 이미지를 매칭하며, 특징 매칭이 완료된 두 개의 파노라마 이미지를 하나의 그룹 이미지 쌍으로 사용함으로써, 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과를 결정하며, 마지막으로 결정된 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과에 따라 포인트 클라우드 모델을 구축한다. 파노라마 이미지를 사용하여 매칭을 진행하고 추가로 매칭된 결과로 포인트 클라우드 모델을 구축하였기 때문에, 이미지 세트에서의 이미지 개수를 감소시킬 수 있음으로써, 매칭 효율 및 모델링 효율을 향상시킬 수 있고, 파노라마 이미지에 대응되는 공간의 범위가 비교적 크기 때문에, 파노라마 이미지 간의 매칭 효과를 높일 수 있음으로써, 포인트 클라우드 모델 구축의 정확도 및 품질을 향상시킨다.In an embodiment of the present invention, a panoramic image set is formed using panoramic images, the panoramic images in the panoramic image set are matched according to the first feature, and the two panoramic images for which feature matching has been completed are converted into one group image. By using them in pairs, at least one group of image pairs and the corresponding matching results are determined, and finally, a point cloud model is built according to the at least one group of image pairs and the corresponding matching results determined. Since matching was performed using panoramic images and a point cloud model was built with the additional matching results, the number of images in the image set can be reduced, thereby improving matching efficiency and modeling efficiency, and the panoramic image Since the range of the corresponding space is relatively large, the matching effect between panoramic images can be increased, thereby improving the accuracy and quality of point cloud model construction.

본 발명의 일부 실시예에 있어서, 아래 방식을 사용하여 파노라마 이미지 세트의 파노라마 이미지의 제1 특징을 획득할 수 있고, 도 3을 참조하면, 상기 획득 방식의 흐름을 예시하고, 단계 S301 내지 단계 S304를 포함한다.In some embodiments of the present invention, the first feature of the panoramic image of the panoramic image set may be acquired using the following method, referring to Figure 3, which illustrates the flow of the acquisition method, steps S301 to S304. Includes.

단계 S301에 있어서, 상기 파노라마 이미지에 대응되는 복수 개의 투시 이미지를 결정하고, 여기서, 복수 개의 투시 이미지에 대응되는 공간의 세트는 파노라마 이미지에 대응되는 공간이다.In step S301, a plurality of perspective images corresponding to the panoramic image are determined, where a set of spaces corresponding to the plurality of perspective images is a space corresponding to the panoramic image.

일 예에 있어서, 아래의 방식을 사용하여 복수 개의 투시 이미지를 결정할 수 있고, 먼저, 상기 파노라마 이미지에 대응되는 단위 구면을 획득하고, 파노라마 이미지의 픽셀 포인트 좌표와 단위 구면의 포인트 좌표 간의 제1 매핑 관계를 결정하고; 다음, 상기 단위 구면에 따라 복수 개의 투시 이미지를 결정하고, 투시 이미지의 픽셀 포인트 좌표와 단위 구면의 포인트 좌표 간의 제2 매핑 관계를 결정하며 - 상기 복수 개의 투시 이미지에 대응되는 구면 포인트의 집합은 단위 구면임 - ; 마지막으로, 상기 제1 매핑 관계 및 상기 제2 매핑 관계에 따라 파노라마 이미지의 픽셀 포인트 좌표와 투시 이미지의 픽셀 포인트 좌표 간의 제3 매핑 관계를 결정하고, 파노라마 이미지의 픽셀 포인트의 픽셀 정보 및 상기 제3 매핑 관계에 따라 투시 이미지의 픽셀 포인트의 픽셀 정보를 결정한다.In one example, a plurality of perspective images can be determined using the method below, first, obtaining a unit sphere corresponding to the panoramic image, and performing a first mapping between the pixel point coordinates of the panoramic image and the point coordinates of the unit sphere. determine relationships; Next, determine a plurality of perspective images according to the unit sphere, determine a second mapping relationship between the pixel point coordinates of the perspective image and the point coordinates of the unit sphere - a set of spherical points corresponding to the plurality of perspective images is a unit Spherical - ; Finally, determine a third mapping relationship between the pixel point coordinates of the panoramic image and the pixel point coordinates of the perspective image according to the first mapping relationship and the second mapping relationship, and determine the pixel information of the pixel point of the panoramic image and the third mapping relationship. Determine the pixel information of the pixel point of the perspective image according to the mapping relationship.

여기서, 파노라마 이미지에 대응되는 단위 구면을 획득하는 것은, 파노라마 이미지를 단위 구면으로 역투사하는 것일 수 있다. 단위 구면에 따라 복수 개의 투시 이미지를 결정하는 것은, 단위 구면의 중심을 광학적 중식으로 하는 가상 투시 카메라가 단위 구면을 촬영하고, 얻은 이미지를 투시 이미지로 결정하는 것일 수 있고, 단위 구면을 촬영할 경우, 가상 카메라로 하여금 일정한 각도에 따라 회전하도록 하여 매번 회전에 하나의 투시이미지를 촬영하도록 하고, 전체 구면을 촬영하여, 모든 시각을 커버하는 복수 개의 투시 이미지를 획득할 때까지 촬영하며, 예를 들어, 매번 60°를 회전하여 하나의 투시 이미지를 촬영하면, 여섯 개의 투시 이미지를 촬영하여야만 모든 구면을 촬영할 수 있으며; 가상 카메라의 시야(Field of view,FOV) 및 초점 거리를 일반적인 이미지 수집 기기(예를 들어, 휴대폰, 디지털 카메라 등)의 파라미터로 설정하여, 일반적인 이미지 수집 기기가 획득한 이미지와 근사화할 수 있다.Here, obtaining the unit sphere corresponding to the panoramic image may be back-projecting the panoramic image onto the unit sphere. Determining a plurality of perspective images according to the unit sphere may mean that a virtual perspective camera optically centered on the center of the unit sphere photographs the unit sphere and determines the obtained image as a perspective image. When photographing the unit sphere, The virtual camera is rotated at a certain angle to capture one perspective image each rotation, and the entire spherical surface is captured until multiple perspective images covering all perspectives are obtained, for example, If one perspective image is taken by rotating 60° each time, the entire spherical surface can be captured only by taking six perspective images; The field of view (FOV) and focal length of the virtual camera can be set to the parameters of a general image collection device (e.g., mobile phone, digital camera, etc.) to approximate the image acquired by a general image collection device.

파노라마 이미지의 픽셀 포인트 좌표와 단위 구면의 포인트 좌표 간의 제1 매핑 관계는 아래의 공식(1)에 따라 표시될 수 있다.The first mapping relationship between the pixel point coordinates of the panoramic image and the point coordinates of the unit sphere can be expressed according to formula (1) below.

(1) (One)

여기서, 는 단위 구면의 포인트 좌표이고, 는 파노라마 이미지의 픽셀 포인트 좌표이며, w는 파노라마 이미지의 너비이며, h는 파노라마 이미지의 높이이다.here, is the point coordinate of the unit sphere, is the pixel point coordinate of the panoramic image, w is the width of the panoramic image, and h is the height of the panoramic image.

단위 구면의 좌표계와 동일한 가상 카메라로 획득한 투시 이미지의 픽셀 포인트 좌표와 단위 구면의 포인트 좌표 간의 제2 매핑 관계는 아래의 공식(2)에 따라 표시될 수 있다, The second mapping relationship between the pixel point coordinates of the perspective image acquired with the same virtual camera as the coordinate system of the unit sphere and the point coordinates of the unit sphere can be expressed according to formula (2) below,

(2) (2)

여기서, 는 단위 구면의 포인트 좌표이고, 는 투시도 이미지의 픽셀 포인트 좌표이며, w~는 투시 이미지의 너비이며, h~는 투시 이미지의 높이이며, f는 가상 카메라의 초점 거리이다.here, is the point coordinate of the unit sphere, is the pixel point coordinate of the perspective image, w~ is the width of the perspective image, h~ is the height of the perspective image, and f is the focal length of the virtual camera.

단위 구면의 좌표계를 기준으로 일정한 각도를 회전한 가상 카메라가 획득한 투시 이미지의 픽셀 포인트 좌표와 단위 구면의 포인트 좌표 간의 제2 매핑 관계는 아래의 공식(3)에 따라 표시될 수 있다.The second mapping relationship between the pixel point coordinates of a perspective image acquired by a virtual camera rotated at a certain angle based on the coordinate system of the unit sphere and the point coordinates of the unit sphere can be expressed according to formula (3) below.

(3) (3)

여기서, 는 단위 구면의 좌표 포인트 가 가상 카메라의 역회전 매트릭스 R을 통해 변환된 좌표이고, 는 투시 이미지에서의 좌표이며, w~는 투시 이미지의 너비이며, h~는 투시 이미지의 높이이며, f는 가상 카메라의 초점 거리이다.here, is the coordinate point of the unit sphere are the coordinates transformed through the virtual camera's reverse rotation matrix R, are the coordinates in the perspective image, w~ is the width of the perspective image, h~ is the height of the perspective image, and f is the focal length of the virtual camera.

본 발명의 실시예에 있어서, 가상 카메라의 복수 개의 촬영 각도에서, 하나의 각도와 단위 구면의 좌표계는 동일하고, 따라서 상기 각도에서, 파노라마 이미지의 픽셀 포인트 좌표와 투시 이미지의 픽셀 포인트 좌표 간의 제3 매핑 관계는 상기 공식 (1) 및 공식 (2)을 조합하는 것을 통해 얻을 수 있고; 다른 각도에서, 파노라마 이미지의 픽셀 포인트 좌표와 투시 이미지의 픽셀 포인트 좌표 간의 제3 매핑 관계는 상기 공식 (1) 및 공식 (3)을 연립하는 것을 통해 얻을 수 있다.In an embodiment of the present invention, in a plurality of shooting angles of the virtual camera, the coordinate system of one angle and the unit sphere is the same, so that at this angle, there is a third difference between the pixel point coordinates of the panoramic image and the pixel point coordinates of the perspective image. The mapping relationship can be obtained through combining formula (1) and formula (2) above; From another angle, a third mapping relationship between the pixel point coordinates of the panoramic image and the pixel point coordinates of the perspective image can be obtained through combining the above formulas (1) and (3).

여기서, 파노라마 이미지의 픽셀 포인트의 픽셀 정보 및 상기 제3 매핑 관계에 따라 투시 이미지의 픽셀 포인트의 픽셀 정보를 결정하는 것은, 파노라마 이미지의 픽셀 포인트의 픽셀 정보를 투시 이미지에 대응되는 픽셀 포인트의 픽셀 정보로 직접 결정할 수 있고, 파노라마 이미지의 픽셀 포인트에 대해 샘플링 및 쌍선형 보간 중 적어도 하나를 진행하는 것을 통해 투시 이미지의 픽셀 정보를 얻을 수 있다. 픽셀 정보는 픽셀 포인트의 밝기 값이거나, 픽셀 포인트의 각 색상 채널(예를 들어, 빨강, 녹색 및 파랑 채널)의 값일 수 있다.Here, determining the pixel information of the pixel point of the panoramic image and the pixel information of the pixel point of the perspective image according to the third mapping relationship includes pixel information of the pixel point of the panoramic image and pixel information of the pixel point corresponding to the perspective image. can be determined directly, and pixel information of the perspective image can be obtained by performing at least one of sampling and bilinear interpolation on the pixel points of the panoramic image. The pixel information may be the brightness value of the pixel point, or the value of each color channel (eg, red, green, and blue channels) of the pixel point.

단계 S302에 있어서, 상기 복수 개의 투시 이미지에서의 적어도 하나의 투시 이미지의 제2 특징을 획득한다.In step S302, a second feature of at least one perspective image in the plurality of perspective images is acquired.

본 단계에 있어서, 미리 훈련된 신경 네트워크를 사용하여 투시 이미지의 제2 특징을 추출할 수 있고, 다른 방식을 사용하여 투시 이미지의 제2 특징을 추출할 수도 있으며, 본 발명은 추출 방식에 대해 구체적인 제한을 하지 않는다. 파노라마 이미지에 대응되는 각 투시 이미지의 제2 특징을 획득할 수 있다.In this step, the second feature of the perspective image may be extracted using a pre-trained neural network, and the second feature of the perspective image may be extracted using another method, and the present invention provides specific details about the extraction method. No restrictions. The second feature of each perspective image corresponding to the panoramic image can be obtained.

일 예에 있어서, 제2 특징은 제2 특징 포인트 및 대응되는 제2 디스크립터이고, 다시 말해, 투시 이미지 내의 모든 제2 특징 포인트 및 대응되는 제2 디스크립터는 투시 이미지의 제2 특징을 구성한다.In one example, the second feature is a second feature point and a corresponding second descriptor, that is, all the second feature points and the corresponding second descriptor in the perspective image constitute a second feature of the perspective image.

단계 S303에 있어서, 상기 투시 이미지의 제2 특징에 따라 상기 파노라마 이미지의 대응 위치의 제1 서브 특징을 결정하고, 여기서, 상기 투시 이미지와 상기 파노라마 이미지의 대응 위치는 동일한 공간에 대응된다.In step S303, a first sub-feature of the corresponding position of the panoramic image is determined according to the second feature of the perspective image, where the corresponding position of the perspective image and the panoramic image corresponds to the same space.

여기서, 상기 투시 이미지와 상기 파노라마 이미지의 대응 위치는 동일한 공간에 대응되고, 다시 말해, 투시 이미지와 파노라마 이미지의 대응 위치는 단위 구면에서 동일한 구면 포인트 세트에 대응된다.Here, the corresponding positions of the perspective image and the panoramic image correspond to the same space, that is, the corresponding positions of the perspective image and the panoramic image correspond to the same set of spherical points on the unit sphere.

여기서, 제1 서브 특징은 파노라마 이미지의 대응 위치 내의 모든 제1 특징 포인트 및 대응되는 제1 디스크립터를 포함할 수 있다.Here, the first sub-feature may include all first feature points and a corresponding first descriptor within the corresponding location of the panoramic image.

단계 S302의 예에 대응되는 예에 있어서, 아래의 방식을 사용하여 파노라마 이미지의 대응 위치의 제1 서브 특징을 결정할 수 있고, 먼저, 상기 투시 이미지의 제2 특징 포인트의 좌표 및 상기 제3 매핑 관계에 따라 상기 파노라마 이미지의 제1 특징 포인트의 좌표를 결정하고; 다음, 상기 투시 이미지의 제2 특징 포인트에 대응되는 제2 디스크립터에 따라 상기 파노라마 이미지의 제1 특징 포인트에 대응되는 제1 디스크립터를 결정한다.In an example corresponding to the example of step S302, the first sub-feature of the corresponding position of the panoramic image may be determined using the method below, first, the coordinates of the second feature point of the perspective image and the third mapping relationship determine the coordinates of a first feature point of the panoramic image according to; Next, a first descriptor corresponding to the first feature point of the panoramic image is determined according to the second descriptor corresponding to the second feature point of the perspective image.

여기서, 제2 특징 포인트에 대응되는 파노라마 이미지에서의 포인트는 제1 특징 포인트이고, 다시 말해, 제1 특징 포인트 및 제2 특징 포인트는 서로 대응되거나, 제1 특징 포인트에 대응되는 단위 구면의 구면 포인트와 제2 특징 포인트에 대응되는 단위 구면의 구면 포인트는 일치하다. 제2 특징 포인트에 대응되는 제2 디스크립터를 대응되는 제1 특징 포인트의 제1 디스크립터로 직접 사용할 수 있다.Here, the point in the panoramic image corresponding to the second feature point is the first feature point, in other words, the first feature point and the second feature point correspond to each other, or are spherical points of the unit sphere corresponding to the first feature point. and the spherical point of the unit sphere corresponding to the second feature point coincides. The second descriptor corresponding to the second feature point can be directly used as the first descriptor of the corresponding first feature point.

단계 S304에 있어서, 적어도 하나의 상기 제1 서브 특징에 따라 상기 파노라마 이미지의 제1 특징을 결정한다.In step S304, a first feature of the panoramic image is determined according to the at least one first sub-feature.

여기서, 파노라마 이미지의 제1 특징은 파노라마 이미지 내의 모든 제1 특징 포인트 및 대응되는 제1 디스크립터를 포함한다.Here, the first feature of the panoramic image includes all first feature points and the corresponding first descriptor in the panoramic image.

본 발명의 실시예에 있어서, 파노라마 이미지와 단위 구면 간의 매핑 관계 및 단위 구면과 투시 이미지 간의 매핑 관계를 통해, 파노라마 이미지와 투시 이미지 간의 매핑 관계를 결정하고, 다시 말해 단위 구면을 매체로 파노라마 이미지를 복수 개의 투시 이미지로 분할하고, 추가로 투시 이미지의 제2 특징을 추출하고 및 제2 특징 포인트를 파노라마 이미지의 제1 특징 포인트로 역매핑하는 것을 통해, 파노라마 이미지의 제1 특징의 추출을 구현한다.In an embodiment of the present invention, the mapping relationship between the panoramic image and the perspective image is determined through the mapping relationship between the panoramic image and the unit sphere and the mapping relationship between the unit sphere and the perspective image, that is, the panoramic image is generated using the unit sphere as a medium. Extraction of the first feature of the panoramic image is implemented by dividing it into a plurality of perspective images, further extracting the second feature of the perspective image, and reverse mapping the second feature point to the first feature point of the panoramic image. .

본 발명의 일부 실시예에 있어서, 상기 제1 특징은 제1 특징 포인트 및 대응되는 제1 디스크립터를 포함하고, 대응되게, 아래의 방식을 통해 상기 제1 특징에 따라 상기 파노라마 이미지 세트에서의 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과를 결정하할 수 있으며, 도 4를 참조하면, 단계 S401 내지 단계 S403을 포함하는 상기 결정 방식의 흐름을 예시한다.In some embodiments of the present invention, the first feature includes a first feature point and a corresponding first descriptor, and correspondingly, at least one feature in the panoramic image set is selected according to the first feature through the following manner. Group image pairs and corresponding matching results can be determined. Referring to FIG. 4, the flow of the decision method including steps S401 to S403 is illustrated.

단계 S401에 있어서, 각 파노라마 이미지와 대응되는 매칭될 파노라마 이미지에 따라 복수 개 그룹의 이미지 쌍을 결정한다.In step S401, a plurality of groups of image pairs are determined according to the panoramic image to be matched corresponding to each panoramic image.

본 단계에 있어서, 두 개의 파노라마 이미지를 한 그룹의 이미지 쌍으로 구성한다. 각 파노라마 이미지에 대응되는 공간에 따라 매칭될 파노라마 이미지를 결정하거나, 기설정된 매칭 규칙에 따라 각 파노라마 이미지에 대응되는 매칭될 파노라마 이미지를 결정할 수 있다. 다시 말해, 하나의 파노라마 이미지의 매칭될 파노라마 이미지를 결정할 경우, 상기 파노라마 이미지의 대응 공간에 존재하는 중첩된 파노라마 이미지를 매칭될 파노라마 이미지로 사용할 수 있고, 또한 기설정된 매칭 규칙에 따라 결정할 수 도 있으며, 기설정된 매칭 규칙은 상기 원칙에 따라 결정될 수 있으며, 예를 들어 대응되는 공간 순서에 따라 파노라마 이미지를 번호를 매긴 다음, 각 파노라마 이미지의 이후의 기설정된 개수(예를 들어10개)의 파노라마 이미지를 매칭될 파노라마 이미지로 사용할 수 있다. 또한 하나의 파노라마 이미지 이외의 모든 파노라마 이미지를 상기 파노라마 이미지의 매칭될 파노라마 이미지로 사용할 수 있다.In this step, two panoramic images are formed into a group of image pairs. The panoramic image to be matched can be determined according to the space corresponding to each panoramic image, or the panoramic image to be matched can be determined according to a preset matching rule. In other words, when determining a panoramic image to be matched with one panoramic image, an overlapping panoramic image existing in the corresponding space of the panoramic image can be used as a panoramic image to be matched, and can also be determined according to preset matching rules. , a preset matching rule may be determined according to the above principles, for example, numbering the panoramic images according to the corresponding spatial order, and then matching a preset number (e.g., 10) of panoramic images after each panoramic image. can be used as a panoramic image to be matched. Additionally, all panoramic images other than one panoramic image can be used as a panoramic image to be matched with the panoramic image.

단계 S402에 있어서, 상기 이미지 쌍의 두 개의 파노라마 이미지의 제1 디스크립터에 따라 복수 개 그룹의 특징 포인트 쌍을 결정하고, 여기서, 각 그룹의 상기 특징 포인트 쌍은 두 개의 대응 매칭되고 두 개의 파노라마 이미지에 속하는 제1 특징 포인트를 포함한다.In step S402, determine a plurality of groups of feature point pairs according to the first descriptor of the two panoramic images of the image pair, wherein the feature point pair of each group is correspondingly matched to two panoramic images. Includes a first feature point belonging to

본 단계에 있어서, 먼저 이미지 쌍의 첫 번째 파노라마 이미지에서의 각 제1 디스크립터를 위해 두 번째 파노라마 이미지에서 유클리드 거리가 가장 가까운 제1 디스크립터를 검색한 다음, 반대로, 이미지 쌍의 두 번째 파노라마 이미지에서의 각 제1 디스크립터를 위해 첫 번째 파노라마 이미지에서 유클리드 거리가 가장 가까운 제1 디스크립터를 검색하며, 첫 번째 파노라마 이미지에서의 특정된 제1 디스크립터 및 두 번째 파노라마 이미지에서의 특정된 제1 디스크립터가 다른 파노라마 이미지에서의 유클리드 거리가 가장 가까운 제1 디스크립터이면, 상기 두 개의 제1 디스크립터가 매칭되는 것으로 간주함으로써, 상기 두 개의 제1 디스크립터에 대응되는 두 개의 제1 특징 포인트가 매칭되는 것으로 결정하며, 다시 말해 두 개의 제1 특징 포인트가 특징 매칭을 완료하여, 특징 포인트 쌍을 구성한다.In this step, first, for each first descriptor in the first panoramic image of the image pair, the first descriptor with the closest Euclidean distance is searched in the second panoramic image, and then, conversely, for each first descriptor in the first panoramic image of the image pair, the first descriptor with the closest Euclidean distance is searched. For each first descriptor, the first descriptor with the closest Euclidean distance is searched in the first panoramic image, and the specified first descriptor in the first panoramic image and the specified first descriptor in the second panoramic image are different panoramic images. If the Euclidean distance in is the closest first descriptor, the two first descriptors are considered to match, thereby determining that the two first feature points corresponding to the two first descriptors are matched, in other words, the two first descriptors are considered to match. The first feature points complete feature matching, forming a feature point pair.

본 단계에 있어서, 상기 방식에 따라 이미지 쌍의 두 개의 파노라마 이미지 간의 모든 특징 포인트 쌍을 결정한 이후, 또한 특징 포인트 쌍의 개수를 통계하여, 제1 조건을 다시 기설정하고, 제1 조건을 이용하여 단계 S401에서 결정된 복수 개 그룹의 이미지 쌍을 필터링할 수 있으며, 다시 말해 제1 조건을 이용하여 일부 이미지 쌍을 제거할 수도 있다. 일 예에 있어서, 제1 조건은 제2 개수 임계값보다 작을 수 있고, 다시 말해 필터링된 특징 포인트 쌍의 개수는 제2 개수 임계값의 이미지 쌍보다 작을 수 있으며, 특징 포인트 쌍을 제거한 개수가 제2 개수 임계값의 이미지 쌍보다 작을 수 있으며, 예를 들어, 제2 개수 임계값을 5 또는 10 등으로 설정할 수 있으며, 본 발명의 실시예는 제2 개수 임계값의 구체적인 값에 대해 구체적으로 제한하지 않는다. 일부 이미지 쌍을 필터링하는 것을 통해, 일치도가 낮은 이미지 쌍에 대한 후속적인 작업을 감소시킬 수 있음으로써, 작업의 복잡도를 저하시키는 동시에, 처리 효율을 향상시킬 수 있다.In this step, after determining all feature point pairs between two panoramic images of an image pair according to the method above, the number of feature point pairs is also statistic, the first condition is preset again, and the first condition is used to A plurality of groups of image pairs determined in step S401 may be filtered, that is, some image pairs may be removed using the first condition. In one example, the first condition may be less than the second number threshold, that is, the number of filtered feature point pairs may be less than the image pairs of the second number threshold, and the number of feature point pairs removed may be the second number threshold. The number threshold may be smaller than the image pair, for example, the second number threshold may be set to 5 or 10, etc., and embodiments of the present invention are specifically limited to the specific value of the second number threshold. I never do that. By filtering some image pairs, subsequent operations on image pairs with low matching can be reduced, thereby reducing the complexity of the operation and improving processing efficiency.

여기서, 각 그룹의 특징 포인트 쌍은 두 개의 제1 특징 포인트의 대응 관계를 표시하고, 복수 개 그룹의 특징 포인트 쌍은 이미지 쌍의 매칭 결과를 구성한다.Here, a pair of feature points in each group indicates a correspondence relationship between two first feature points, and a pair of feature points in a plurality of groups constitutes a matching result of an image pair.

단계 S403에 있어서, 상기 복수 개 그룹의 특징 포인트 쌍에 따라 제1 에센셜 매트릭스를 결정하고, 상기 제1 에센셜 매트릭스를 이용하여 상기 복수 개 그룹의 특징 포인트 쌍에 대해 필터링을 진행하여, 상기 이미지 쌍에 대응되는 매칭 결과를 얻는다.In step S403, a first essential matrix is determined according to the plurality of groups of feature point pairs, filtering is performed on the plurality of groups of feature point pairs using the first essential matrix, and the image pair is Obtain the corresponding matching result.

본 단계에 있어서, 아래 방식을 사용하여 제1 에센셜 매트릭스를 결정할 수 있고, 먼저, 상기 특징 포인트 쌍에서의 두 개의 제1 특징 포인트의 각도 오차에 따라 상기 특징 포인트 쌍의 각도 오차를 결정하고, 여기서, 상기 제1 특징 포인트의 각도 오차는 상기 제1 특징 포인트에 대응되는 단위 구면의 구면 포인트와 단위 구면의 광학적 중심을 연결하는 선 및 외부 극평면 간의 끼인각이며, 다음, 대응되는 상기 특징 포인트 쌍의 각도 오차를 잔차항으로 사용하여, 기설정된 개수의 상기 특징 포인트 쌍에 따라 에센셜 매트릭스를 여러번 결정하며; 마지막으로, 각 상기 에센셜 매트릭스에 대응되는 내부 포인트 개수를 결정하고, 내부 포인트 개수가 가장 많은 에센셜 매트릭스를 상기 제1 에센셜 매트릭스로 결정한다.In this step, the first essential matrix can be determined using the method below, first, determine the angular error of the feature point pair according to the angular error of the two first feature points in the feature point pair, where , the angular error of the first feature point is the included angle between the line connecting the spherical point of the unit sphere corresponding to the first feature point and the optical center of the unit sphere and the outer polar plane, and then the corresponding pair of feature points Using the angle error as a residual term, the essential matrix is determined several times according to a preset number of the feature point pairs; Finally, the number of internal points corresponding to each essential matrix is determined, and the essential matrix with the largest number of internal points is determined as the first essential matrix.

여기서, 각 그룹의 특징 포인트 쌍의 두 개의 제1 특징 포인트에 대응되는 단위 구면의 포인트 좌표, 및 에센셜 매트릭스는 아래의 공식(4)에 도시된 관계를 만족하고, Here, the point coordinates of the unit sphere corresponding to the two first feature points of each group of feature point pairs and the essential matrix satisfy the relationship shown in formula (4) below,

(4) (4)

상기 공식(4)에 있어서, E 는 에센셜 매트릭스이고, 는 첫 번째 파노라마 이미지에서의 제1 특징 포인트에 대응되는 단위 구면의 포인트 좌표이며, 는 두 번째 파노라마 이미지에서의 제1 특징 포인트에 대응되는 단위 구면의 포인트 좌표이다.In the above formula (4), E is the essential matrix, is the point coordinate of the unit sphere corresponding to the first feature point in the first panoramic image, is the point coordinate of the unit sphere corresponding to the first feature point in the second panoramic image.

여기서, 두 개의 제1 특징 포인트의 각도 오차 중 비교적 큰 것을 특징 포인트 쌍의 각도 오차로 결정하며, 다시 말해 아래의 공식(5)에 따라 특징 포인트 쌍의 각도 오차를 결정한다.Here, the relatively larger angle error of the two first feature points is determined as the angle error of the feature point pair. In other words, the angle error of the feature point pair is determined according to formula (5) below.

(5) (5)

상기 공식(5)에 있어서, 는 두 번째 파노라마 이미지의 제1 특징 포인트의 각도 오차이고, 다시 말해 두 번째 파노라마 이미지에서 제1 특징 포인트에 대응되는 구면 포인트 S' 및 광학적 중심 O2을 연결하는 선과 대응되는 외부 극평면간의 끼인각이고, 여기서, 대응되는 외부 극평면은 첫 번째 파노라마 이미지에서의 제1 특징 포인트에 대응되는 구면 포인트 S와 광학적 중심 O1을 연결하는 선 및 두 개의 광학적 중심 Q1 및 Q2을 연결하는 선으로 구성된 평면이다. 대응되게 도 5를 참고하면, 는 첫 번째 파노라마 이미지의 제1 특징 포인트의 각도 오차이고, 다시 말해 첫 번째 파노라마 이미지에서 제1 특징 포인트에 대응되는 구면 포인트 및 광학적 중심을 연결하는 선과 대응되는 외부 극평면 간의 끼인각이고, 여기서, 대응되는 외부 극평면은 두 번째 파노라마 이미지에서 제1 특징 포인트에 대응되는 구면 포인트와 광학적 중심을 연결하는 선 및 두 개의 광학적 중심을 연결하는 선으로 구성된 평면이다. 본 발명의 실시예에 있어서 각도 오차 및 구면 오차를 사용하여 파노라마 이미지의 카메라 모델에 더 잘 적응할 수 있다.In the above formula (5), is the angular error of the first feature point of the second panoramic image, that is, the included angle between the line connecting the spherical point S' corresponding to the first feature point in the second panoramic image and the optical center O 2 and the corresponding external polar plane, , where the corresponding external polar plane consists of a line connecting the optical center O 1 and a spherical point S corresponding to the first feature point in the first panoramic image and a line connecting the two optical centers Q 1 and Q 2 It is flat. Correspondingly, referring to Figure 5, is the angular error of the first feature point of the first panoramic image, that is, is the included angle between the line connecting the optical center and the spherical point corresponding to the first feature point in the first panoramic image and the corresponding external polar plane, where The external polar plane is a plane composed of a line connecting the optical center and a spherical point corresponding to the first feature point in the second panoramic image and a line connecting two optical centers. In embodiments of the present invention, angular error and spherical error can be used to better adapt the camera model of the panoramic image.

여기서, 특징 포인트 쌍의 각도 오차를 잔차항으로 사용하여 RANSAC(Random Sample Consensus) 및 5 포인트 알고리즘을 통해 복수 개의 에센셜 매트릭스를 계산할 수 있고, 각 5개 그룹의 특징 포인트 쌍은 하나의 에센셜 매트릭스를 계산할 수 있으며, 상기 방식을 이용하여 복수 개의 에센셜 매트릭스를 얻을 수 있다.Here, multiple essential matrices can be calculated through RANSAC (Random Sample Consensus) and the 5-point algorithm by using the angular error of the feature point pair as a residual term, and each of the five groups of feature point pairs can calculate one essential matrix. And, using the above method, a plurality of essential matrices can be obtained.

여기서, 아래의 방식에 따라 에센셜 매트릭스에 대응되는 내부 포인트 개수를 결정할 수 있고, 먼저, 상기 에센셜 매트릭스에 따라 상기 이미지 쌍의 각 그룹의 특징 포인트 쌍의 각도 오차를 계산하고; 다음, 상기 각도 오차가 기설정된 제2 조건에 부합되는 특징 포인트 쌍을 내부 포인트로 결정하는며; 마지막으로, 모든 내부 포인트에 따라 상기 에센셜 매트릭스에 대응되는 내부 포인트 개수를 결정한다. 다시 말해 상기 공식(5) 및 에센셜 매트릭스를 이용하여 각 그룹의 특징 포인트 쌍의 각도 오차를 결정하고; 제2 조건을 기설정하고, 제2 조건을 이용하여 내부 포인트를 선별하며, 일 실시예에 있어서, 제2 조건은 각도 오차가 제1 각도 임계값보다 작은 것일 수 있고, 다시 말해 제1 각도 임계값보다 작은 각도 오차에 대응되는 특징 포인트 쌍을 내부 포인트로 결정한다.Here, the number of internal points corresponding to the essential matrix can be determined according to the following method: first, calculate the angular error of the feature point pair of each group of the image pair according to the essential matrix; Next, a feature point pair whose angular error meets a preset second condition is determined as an internal point; Finally, the number of internal points corresponding to the essential matrix is determined according to all internal points. In other words, determine the angle error of each pair of feature points in each group using the above formula (5) and the essential matrix; A second condition is preset, and internal points are selected using the second condition. In one embodiment, the second condition may be that the angle error is less than the first angle threshold, that is, the first angle threshold. The feature point pair corresponding to the angle error smaller than the value is determined as the internal point.

본 단계에 있어서, 아래의 방식을 통해 상기 제1 에센셜 매트릭스을 이용하여 상기 복수 개 그룹의 특징 포인트 쌍에 대해 필터링을 진행할 수 있고, 먼저, 상기 제1 에센셜 매트릭스에 따라 상기 이미지 쌍의 각 그룹의 특징 포인트 쌍의 각도 오차를 결정하고; 다음, 각도 오차가 기설정된 제3 조건에 부합되는 특징 포인트 쌍을 결정한다.In this step, filtering can be performed on the feature point pairs of the plurality of groups using the first essential matrix through the method below. First, the features of each group of the image pairs are filtered according to the first essential matrix. determine the angular error of the point pair; Next, a pair of feature points whose angle error meets the preset third condition is determined.

여기서, 상기 공식(5) 및 제1 에센셜 매트릭스을 이용하여 각 그룹의 특징 포인트 쌍의 각도 오차를 계산할 수 있고; 제3 조건을 기설정하고, 제3 조건을 이용하여 특징 포인트 쌍을 선별하며, 일 실시예에 있어서, 제3 조건은 각도 오차가 제2 각도 임계값(예를 들어 0.4도보다 크거나 같음)보다 크거나 같을 수 있고, 다시 말해 제2 각도 임계값보다 크거나 같은 각도 오차에 대응되는 특징 포인트 쌍을 필터링하고, 즉 제2 각도 임계값보다 크거나 같은 각도 오차에 대응되는 특징 포인트 쌍을 제거하고, 제2 각도 임계값보다 작은 각도 오차에 대응되는 특징 포인트 쌍을 보유한다.Here, the angular error of each pair of feature points in each group can be calculated using the formula (5) and the first essential matrix; A third condition is preset, and feature point pairs are selected using the third condition. In one embodiment, the third condition is that the angle error is greater than or equal to the second angle threshold (for example, 0.4 degrees). may be greater than or equal to, that is, filter feature point pairs corresponding to an angular error greater than or equal to the second angle threshold, i.e. remove feature point pairs corresponding to an angular error greater than or equal to the second angle threshold. And, a pair of feature points corresponding to an angle error smaller than the second angle threshold is maintained.

본 발명의 실시예에 있어서, 이미지 쌍에 대해 특징 매칭을 진행하는 것을 통해, 이미지 쌍 간의 특징 포인트 쌍을 결정하고, 추가로 특징 포인트 쌍에 따라 제1 에센셜 매트릭스를 결정하며, 마지막으로 제1 에센셜 매트릭스로 상기 특징 포인트 쌍을 필터링하며, 제1 에센셜 매트릭스를 결정하고 및 특징 포인트 쌍을 필터링할 경우 모두 각도 오차를 사용하였기에, 다른 에센셜 매트릭스에 비해, 제1 에센셜 매트릭스와 일치한 특징 특징 포인트 쌍이 가장 많고, 필터링 단계는 제1 에센셜 매트릭스와 일치하지 않는 특징 포인트 쌍을 제거하였기에, 제1 에센셜 매트릭스의 정확도를 향상시켰을 뿐만 아니라, 잘못된 특징 포인트 쌍을 제거하는 전제하에서, 특징 포인트 쌍의 개수를 최대화함으로써, 이미지 쌍의 두 개의 파노라마 이미지의 매칭 정밀도 및 정확도를 향상시킨다. 파노라마 이미지 360도의 시각 커버를 이용하여 이미지 간의 특징 매칭 개수를 향상시키고, 약한 텍스처 영역에서 카메라 등록 실패의 가능성을 저하시킨다.In an embodiment of the present invention, feature matching is performed on image pairs to determine feature point pairs between image pairs, further determine a first essential matrix according to the feature point pairs, and finally, the first essential When filtering the feature point pair with a matrix, determining the first essential matrix, and filtering the feature point pair, the angle error is used, so compared to other essential matrices, the feature point pair matching the first essential matrix is the best. The filtering step not only improves the accuracy of the first essential matrix by removing feature point pairs that do not match the first essential matrix, but also maximizes the number of feature point pairs under the premise of removing incorrect feature point pairs. , improves the matching precision and accuracy of two panoramic images of image pairs. Using a 360-degree visual cover of a panoramic image, the number of feature matches between images is improved and the possibility of camera registration failure in weak texture areas is reduced.

본 발명의 일부 실시예에 있어서, 각 그룹의 이미지 쌍의 제1 에센셜 매트릭스 계산 및 특징 포인트 쌍 필터링을 완료한 이후, 또한 제1 특징 포인트의 분포를 이용하여 두 개의 파노라마 이미지의 매칭이 중복된 텍스처로 인해 발생하였는지 여부를 판단하여, 추가로 복수 개 그룹의 이미지 쌍에 대해 필터링을 진행할 수 있고, 구체적으로 아래 방식을 사용할 수 있고, 먼저, 상기 이미지 쌍의 특징 포인트 쌍의 두 개의 제1 특징 포인트가 파노라마 이미지에서의 좌표를 획득하고; 다음, 상기 파노라마 이미지에 대응되는 제3 매핑 관계 및 상기 파노라마 이미지에서의 특징 포인트 쌍에 속하는 제1 특징 포인트의 좌표에 따라, 특징 포인트 쌍과 관련된 투시 이미지를 결정하며, 여기서, 상기 특징 포인트 쌍과 관련된 투시 이미지는 특징 포인트 쌍에 속하는 제1 특징 포인트에 대응되는 제2 특징 포인트가 존재하는 투시 이미지이며; 마지막으로, 상기 특징 포인트 쌍과 관련된 투시 이미지를 이용하여 상기 이미지 쌍에 대해 필터링을 진행한다.In some embodiments of the present invention, after completing the calculation of the first essential matrix and filtering of the feature point pairs of each group of image pairs, matching of the two panoramic images using the distribution of the first feature points is performed to create an overlapping texture. By determining whether or not it occurred due to the above, filtering can be performed on a plurality of groups of image pairs. Specifically, the method below can be used. First, the two first feature points of the feature point pair of the image pair obtain coordinates in the panoramic image; Next, according to the third mapping relationship corresponding to the panoramic image and the coordinates of the first feature point belonging to the feature point pair in the panoramic image, a perspective image associated with the feature point pair is determined, wherein the feature point pair and The related perspective image is a perspective image in which there is a second feature point corresponding to the first feature point belonging to the feature point pair; Finally, filtering is performed on the image pair using the perspective image associated with the feature point pair.

또한 제3 개수 임계값을 기설정하고, 투시 이미지에 포함된 특징 포인트 쌍에 대응되는 제2 특징 포인트의 개수를 결정할 수 있고, 상기 개수가 전술한 제3 개수 임계값보다 크거나 같은 경우, 투시 이미지를 특징 포인트 쌍과 관련된 투시 이미지로 결정하고, 예를 들어, 상기 제3 개수 임계값을 5로 설정할 수 있고, 이로써 소량의 소음 매칭에 따른 잘못된 통계를 피할 수 있다.In addition, a third number threshold may be preset, and the number of second feature points corresponding to a pair of feature points included in the perspective image may be determined, and if the number is greater than or equal to the above-described third number threshold, the perspective image If the image is determined to be a perspective image associated with a pair of feature points, the third number threshold can be set to, for example, 5, thereby avoiding incorrect statistics due to matching a small amount of noise.

여기서, 상기 이미지 쌍의 적어도 하나의 파노라마 이미지에 대응되는 특징 포인트 쌍과 관련된 투시 이미지가 연속적인 복수 개의 이미지이고, 상기 연속적인 복수 개의 이미지의 개수가 기설정된 필터링 임계값보다 작은 것에 응답하여, 상기 이미지 쌍을 필터링한다. 다시 말해, 특징 포인트 쌍과 관련된 제1 특징 포인트에 대응되는 제2 특징 포인트는 모두 일부 투시 이미지에 집중되었고, 이 일부 투시 이미지의 개수는 기설정된 필터링 임계값보다 작으면, 이 두 개의 파노라마 이미지의 매칭은 중복된 텍스처로 인한 잘못된 매칭이며, 따라서 상기 이미지 쌍을 필터링하고, 다시 말해 상기 이미지 쌍을 제거한다. 필터링 임계값은 투시 이미지의 총 개수 및 기설정된 제1 비율에 따라 결정될 수 있고, 예를 들어 투시 이미지의 총 개수는 6이고, 기설정된 제1 비율이 0.5이면, 특징 포인트 쌍과 관련된 투시 이미지의 개수가 3보다 작을 경우, 상기 이미지 쌍을 필터링한다.Here, in response to the perspective image associated with the feature point pair corresponding to at least one panoramic image of the image pair being a plurality of consecutive images, and the number of the plurality of consecutive images being less than a preset filtering threshold, Filter image pairs. In other words, if the second feature points corresponding to the first feature point associated with the feature point pair are all concentrated in some perspective images, and the number of these some perspective images is less than the preset filtering threshold, the two panoramic images The match is a bad match due to duplicate textures, so the image pair is filtered, i.e. the image pair is removed. The filtering threshold may be determined according to the total number of perspective images and a preset first ratio. For example, if the total number of perspective images is 6 and the preset first ratio is 0.5, the number of the perspective images associated with the feature point pair is 0.5. If the number is less than 3, filter the image pair.

본 발명의 실시예에 있어서, 특징 매칭이 완료된 제1 특징 포인트는 모두 투시 이미지의 제2 특징 포인트에 대응되고, 따라서 제2 특징 포인트의 분포를 결정하는 것을 통해 두 개의 파노라마 이미지의 매칭이 중복된 텍스처에 의해 발생되었는지 여부를 판단하고, 노이즈 매칭을 제거함으로써 추가로 상기 판단의 정확도를 더욱 향상시킬 수 있고, 잘못된 매칭의 이미지 쌍을 제거할 수 있다. 반복되는 텍스처의 대부분은 국부적이며, 파노라마 이미지 간의 전체 매칭 상황을 이용하여 잘못된 매칭을 최대한 제거하고, 이로 인한 카메라 등록의 오차율의 발생을 피한다.In an embodiment of the present invention, the first feature points for which feature matching has been completed all correspond to the second feature points of the perspective image, and thus the matching of the two panoramic images is duplicated by determining the distribution of the second feature points. By determining whether it is caused by a texture and removing matching noise, the accuracy of the determination can be further improved, and image pairs with incorrect matching can be removed. Most of the repeated textures are local, and the overall matching situation between panoramic images is used to eliminate incorrect matching as much as possible and avoid the occurrence of error rates in camera registration.

본 발명의 일부 실시예에 있어서, 아래의 방식을 통해 상기 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과에 따라 포인트 클라우드 모델을 구축할 수 있고, 먼저, 기설정된 초기화 조건 및 각 그룹의 이미지 쌍의 특징 포인트 쌍 및 제1 에센셜 매트릭스에 따라 한 그룹의 이미지 쌍이 초기 이미지 쌍인 것을 결정하고, 초기 이미지 쌍의 각 파노라마 이미지의 카메라 포즈를 결정하고, 및 상기 초기 이미지 쌍의 제1 특징 포인트 쌍에 대해 삼각화를 수행하여, 초기 삼차원 포인트를 형성하며; 다음, 제1 삼차원 포인트에 대응되는 제1 특징 포인트 및 각 미등록 이미지의 제1 특징 포인트 간의 매칭 관계에 따라, 파노라마 이미지 세트에서의 각 파노라마 이미지가 모두 등록된 이미지가 될 때까지, 하나의 미등록 이미지를 등록 이미지로 여러번 결정하며, 여기서, 상기 미등록 이미지는 모든 제1 특징 포인트가 삼각화되지 않은 파노라마 이미지이고, 상기 등록된 이미지는 제1 특징 포인트가 삼각화된 파노라마 이미지이며, 상기 제1 삼차원 포인트는 상기 초기 삼차원 포인트를 포함하거나, 상기 초기 삼차원 포인트 및 상기 등록된 이미지의 제1 특징 포인트를 삼각화하여 형성된 삼차원 포인트이며; 매번 등록 이미지를 결정한 이후, 상기 등록 이미지의 카메라 포즈를 결정하고, 상기 등록된 이미지의 제1 특징 포인트에 대해 삼각화를 수행하여 대응되는 삼차원 포인트를 형성하며, 및 등록된 이미지의 제3 특징 포인트에 대해 삼각화를 수행하여 대응되는 삼차원 포인트를 형성하며 상기 제3 특징 포인트는 상기 등록된 이미지에서 상기 등록 이미지의 제1 특징 포인트와 매칭되는 제1 특징 포인트이다.In some embodiments of the present invention, a point cloud model can be built according to the at least one group of image pairs and the corresponding matching result through the following method, first, preset initialization conditions and image pairs of each group Determine that a group of image pairs are initial image pairs according to the feature point pairs and the first essential matrix, determine the camera pose of each panoramic image of the initial image pair, and triangulate for the first feature point pair of the initial image pair. perform processing to form an initial three-dimensional point; Next, according to the matching relationship between the first feature point corresponding to the first three-dimensional point and the first feature point of each unregistered image, one unregistered image is selected until each panoramic image in the panoramic image set becomes a registered image. is determined several times as a registered image, wherein the unregistered image is a panoramic image in which all first feature points are not triangulated, the registered image is a panoramic image in which first feature points are triangulated, and the first three-dimensional point includes the initial three-dimensional point, or is a three-dimensional point formed by triangulating the initial three-dimensional point and the first feature point of the registered image; After determining a registered image each time, a camera pose of the registered image is determined, triangulation is performed on the first feature point of the registered image to form a corresponding three-dimensional point, and a third feature point of the registered image is performed. Triangulation is performed on to form corresponding three-dimensional points, and the third feature point is a first feature point that matches the first feature point of the registered image in the registered image.

여기서, 초기 이미지 쌍을 결정할 경우, 특징 포인트 쌍의 개수의 내림순에 따라 순차적으로 이미지 쌍을 선택할 수 있고, 매번 이미지 쌍을 선택한 이후 모두 상기 특징 포인트 쌍 및 상기 제1 에센셜 매트릭스에 따라, 선택된 이미지 쌍이 상기 초기화 조건을 만족할 때까지, 상기 이미지 쌍이 상기 초기화 조건을 만족하는지 여부에 대해 결정하고, 선택된 이미지 쌍을 초기 이미지 쌍으로 결정한다.Here, when determining the initial image pair, image pairs can be selected sequentially in descending order of the number of feature point pairs, and after each image pair is selected, the selected image is selected according to the feature point pair and the first essential matrix. Until the pair satisfies the initialization condition, a decision is made as to whether the image pair satisfies the initialization condition, and the selected image pair is determined as the initial image pair.

또한, 아래의 방식을 사용하여 상기 특징 포인트 쌍 및 상기 제1 에센셜 매트릭스에 따라, 상기 이미지 쌍이 상기 초기화 조건을 만족하는지 여부에 대해 결정할 수 있으며, 도 6을 참조하면, 상기 방식의 흐름을 예시하고, 단계 S601 내지 단계 S604를 포함한다.In addition, it is possible to determine whether the image pair satisfies the initialization condition according to the feature point pair and the first essential matrix using the method below. Referring to FIG. 6, the flow of the method is illustrated. , including steps S601 to S604.

단계 S601에 있어서, 상기 이미지 쌍의 제1 에센셜 매트릭스에 따라 적어도 한 그룹(예를 들어 네 개 그룹)의 변위 변수를 결정하고, 각 그룹의 변위 변수에 대해 특징 포인트 쌍의 특징 포인트를 각각 삼각화하여, 각 그룹의 변위 변수에 대응되는 삼차원 포인트를 형성하고, 및 각 그룹의 삼차원 포인트의 재투영 오차 및 삼각화 각도에 따라 상기 삼차원 포인트를 필터링하며, 여기서, 상기 변위 변수는 회전 변수 및 평행 이동 변수를 포함한다.In step S601, the displacement variable of at least one group (for example, four groups) is determined according to the first essential matrix of the image pair, and the feature points of the feature point pair are triangulated for the displacement variable of each group. Thus, three-dimensional points corresponding to the displacement variables of each group are formed, and the three-dimensional points are filtered according to the reprojection error and triangulation angle of the three-dimensional points of each group, where the displacement variables are rotation variables and translation variables. Contains variables.

여기서, 회전 변수는 3*3의 매트릭스 R로 표시할 수 있으며, 평행 이동 변수는 삼차원의 벡터 T로 표시한다. 각 그룹의 삼차원 포인트 X가 i 번째 파노라마 이미지(즉 첫 번째 또는 두 번째 파노라마 이미지 )에서의 재투영 오차를 계산할 경우, 아래 공식을 사용할 수 있고, Here, the rotation variable can be expressed as a 3*3 matrix R, and the translation variable can be expressed as a three-dimensional vector T. For each group of three-dimensional points

(6) (6)

상기 공식에 있어서, 는 제1 특징 포인트에 대응되는 단위 구면의 포인트 좌표이고, X는 삼차원 포인트 좌표 벡터이며, f는 가상 투시 카메라의 초점 거리이며, 는 i 번째 파노라마 이미지의 카메라 매트릭스이며, 초기화의 경우, 는 단위 매트릭스이고, 는 영 벡터이며, , 이며, R 및 T는 각각 각 그룹의 삼차원 포인트에 대응되는 회전 변수 및 평행 이동 변수이다.In the above formula, is the point coordinate of the unit sphere corresponding to the first feature point, is the camera matrix of the ith panoramic image, and for initialization, is the unit matrix, is the zero vector, , , and R and T are rotation variables and translation variables, respectively, corresponding to the three-dimensional points of each group.

여기서, 각 그룹의 삼차원 포인트의 재투영 오차 및 삼각화 각도에 따라 상기 삼차원 포인트를 필터링하는 경우, 제3 각도 임계값 및 제4 각도 임계값을 설정한 다음, 두 개의 파노라마 이미지에서의 재투영 오차가 모두 제3 각도 임계값보다 작고 삼각화한 각도가 제4 각도 임계값의 삼차원 포인트보다 큰 것을 보유할 수 있다.Here, when filtering the three-dimensional points according to the reprojection error and triangulation angle of each group of three-dimensional points, set the third angle threshold and the fourth angle threshold, and then set the reprojection error in the two panoramic images. It can be maintained that all are smaller than the third angle threshold and the triangulated angle is larger than the three-dimensional point of the fourth angle threshold.

단계 S602에 있어서, 개수가 가장 많은 한 그룹의 삼차원 포인트의 개수가 기설정된 제1 개수 임계값보다 큰 것에 응답하여, 대응되는 변위 변수를 제1 변위 변수로 결정한다.In step S602, in response to the fact that the number of three-dimensional points in a group with the largest number is greater than the preset first number threshold, the corresponding displacement variable is determined as the first displacement variable.

단계 S603에 있어서, 여러번 계산하여 얻은 에센셜 매트릭스에서 내부 포인트 개수가 포인트 개수 임계값보다 크거나 같은 에센셜 매트릭스를 선택하고, 각 에센셀 매트릭스에 따라 적어도 한 그룹(예를 들어 네개 그룹)의 변위 변수를 각각 결정하며, 각 그룹의 변위 변수에 대해 특징 포인트 쌍의 특징 포인트를 각각 삼각화하여, 각 그룹의 변위 변수에 대응되는 삼차원 포인트를 형성하고, 및 각 그룹의 삼차원 포인트의 재투영 오차 및 삼각화 각도에 따라 상기 삼차원 포인트를 필터링하며, 각 에센셜 매트리스의 개수가 가장 많은 그룹의 삼차원 포인트에 대응되는 변위 변수를 보유한다.In step S603, an essential matrix whose internal point number is greater than or equal to the point number threshold is selected from the essential matrix obtained by calculating multiple times, and at least one group (for example, four groups) of displacement variables is selected according to each essential matrix. respectively, triangulating the feature points of the feature point pair for the displacement variables of each group to form three-dimensional points corresponding to the displacement variables of each group, and reprojection error and triangulation of the three-dimensional points of each group. The three-dimensional points are filtered according to the angle, and a displacement variable corresponding to the three-dimensional point of the group with the largest number of each essential mattress is held.

여기서, 단계 S403에서 복수 개의 에센셜 매트릭스를 계산하여 얻고 제1 에센셜 매트릭스를 결정한 이후, 나머지 에센셜 매트릭스를 보유하여, 본 단계에서 사용하거나, 본 단계에서 다시 단계 S403과 동일한 방식을 이용하여, 복수 개의 에센셜 매트릭스를 계산하여 얻는다.Here, after calculating and obtaining a plurality of essential matrices and determining the first essential matrix in step S403, the remaining essential matrices are retained and used in this step, or in this step again using the same method as in step S403, a plurality of essential matrices are obtained. It is obtained by calculating the matrix.

여기서, 제2 비율을 기설정할 수 있고, 다음 제1 에센셜 매트릭스의 내부 포인트 개수와 상기 제2 비율을 이용하여 포인트 개수 임계값을 결정하고; 제1 에센셜 매트릭스의 내부 포인트 개수와 제2 비율의 곱을 포인트 개수 임계값으로 사용할 수 있고, 예를 들어, 제2 비율을 0.6으로 기설정할 수 있고, 본 발명은 제2 비율의 구체적인 값에 대해 한정하지 않는다.Here, the second ratio can be preset, and then the point number threshold is determined using the internal point number of the first essential matrix and the second ratio; The product of the number of internal points of the first essential matrix and the second ratio can be used as a point number threshold. For example, the second ratio can be preset to 0.6, and the present invention is limited to the specific value of the second ratio. I never do that.

본 단계에서 선택된 에센셜 매트릭스에 대해 실행되는 조작은 단계 S601 내지 단계 S602의 조작과 동일하고, 각 에센셜 매트릭스에 대해 하나의 변위 벡터를 보유한다.The operation performed on the essential matrix selected in this step is the same as that of steps S601 to S602, and holds one displacement vector for each essential matrix.

단계 S604에 있어서, 각 에센셜 매트릭스가 보유한 변위 변수와 상기 제1 변위 변수 간의 차이가 기설정된 범위를 만족하는 경우, 상기 이미지 쌍이 상기 초기화 조건을 만족하는 것을 결정한다.In step S604, when the difference between the displacement variable held by each essential matrix and the first displacement variable satisfies a preset range, it is determined that the image pair satisfies the initialization condition.

여기서, 에센셜 매트릭스가 보유한 변위 변수와 제1 변위 변수 간의 차이는, 두 개의 변위 변수의 방향각을 사용하여 표시될 수 있고, 방향각은 두 개의 변위 변수의 회전 매트릭스의 곱으로 얻고; 기설정된 범위는 하나의 기설정된 제5 각도 임계값을 사용하여 표시될 수 있고, 다시 말해 제5 각도 임계값보다 작으면 기설정된 범위를 만족하고; 따라서, 각 에센셜 매트릭스가 보유한 위치 벡터와 제1 변위 벡터의 방향각이 제5 각도 임계값보다 모두 작으면, 상기 이미지 쌍이 상기 초기화 조건을 만족하는 것을 결정한다.Here, the difference between the displacement variable held by the essential matrix and the first displacement variable can be expressed using the orientation angle of the two displacement variables, and the orientation angle is obtained by multiplying the rotation matrix of the two displacement variables; The preset range can be displayed using one preset fifth angle threshold, that is, if it is less than the fifth angle threshold, the preset range is satisfied; Accordingly, if the direction angles of the position vector and the first displacement vector held by each essential matrix are both smaller than the fifth angle threshold, it is determined that the image pair satisfies the initialization condition.

이미지 쌍이 초기화 조건을 만족하지 않는 경우, 단계 S601 내지 단계 S604를 사용하여, 계속하여 다른 이미지 쌍이 초기화 조건을 만족하는지 여부를 판단한다.If the image pair does not satisfy the initialization condition, steps S601 to S604 are used to continue determining whether another image pair satisfies the initialization condition.

상기 초기화 조건을 판단하는 과정에 있어서, 각 에센셜 매트릭스의 복수 개 해석에 관한 판정은, 초기화 조건의 판단 결과를 더욱 안정하게 한다.In the process of determining the initialization conditions, determination of multiple interpretations of each essential matrix makes the determination result of the initialization conditions more stable.

또한, 초기의 삼차원 포인트가 초기 이미지 쌍의 두 개의 파노라마 이미지에서의 재투영 오차를 최소화하는 것을 통해, 각 파노라마 이미지의 카메라 포즈 및 초기의 삼차원 포인트의 위치를 최적화할 수 있으며;In addition, the camera pose of each panoramic image and the position of the initial three-dimensional point can be optimized by minimizing the reprojection error of the initial three-dimensional point in the two panoramic images of the initial image pair;

또한, 매번 등록 이미지의 카메라 포즈를 결정한 이후, 삼차원 포인트가 상기 등록 이미지에서의 재투영 오차를 최소화하는 것을 통해 상기 등록 이미지의 카메라 포즈를 최적화할 수 있으며;In addition, after determining the camera pose of the registered image each time, the three-dimensional point can optimize the camera pose of the registered image by minimizing reprojection error in the registered image;

또한, 매번 상기 등록 이미지의 특징 포인트에 대해 삼각화를 수행하여 대응되는 삼차원 포인트를 형성하고, 및 등록된 이미지의 제3 특징 포인트에 대해 삼각화를 수행하여 대응되는 삼차원 포인트를 형성한 이후, 또한 각 삼차원 포인트가 각 등록된 이미지에서의 재투영 오차를 최소화하는 것을 통해, 각 등록된 이미지의 카메라 포즈 및 각 삼차원 포인트의 위치를 최적화할 수 있다.In addition, each time, triangulation is performed on the feature point of the registered image to form a corresponding three-dimensional point, and after triangulation is performed on the third feature point of the registered image to form a corresponding three-dimensional point, further By minimizing the reprojection error of each three-dimensional point in each registered image, the camera pose of each registered image and the position of each three-dimensional point can be optimized.

상기 최적화는, 아래 손실 함수를 사용하여 최적화를 진행할 수 있고, The above optimization can be performed using the loss function below,

(7) (7)

상기 공식(7)에 있어서, 는 제1 특징 포인트에 대응되는 단위 구면의 포인트 좌표이고, 는 i 번?? 삼차원 포인트 좌표의 벡터이며, f는 가상 투시 카메라의 초점 거리이며, 는 i 번째 파노라마 이미지의 카메라 매트릭스이며, 초기화의 경우, 는 단위 매트릭스이고, 는 영 벡터이며, , 이며, R 및 T는 각각 각 삼차원 포인트에 대응되는 회전 변수 및 평행 이동 변수이며, m은 파노라마 이미지의 개수이고, n은 삼차원 포인트의 개수이다.In the above formula (7), is the point coordinate of the unit sphere corresponding to the first feature point, Is it i times?? is a vector of three-dimensional point coordinates, f is the focal length of the virtual perspective camera, is the camera matrix of the ith panoramic image, and for initialization, is the unit matrix, is the zero vector, , , R and T are rotation variables and translation variables corresponding to each three-dimensional point, respectively, m is the number of panoramic images, and n is the number of three-dimensional points.

상기 이미지의 카메라 포즈를 결정하는 것은, RANSAC(Random Sample Consensus) 및 P3P 알고리즘을 사용하여 진행할 수 있다.Determining the camera pose of the image can be done using RANSAC (Random Sample Consensus) and P3P algorithms.

상기 포인트 클라우드 모델 구축 방법에 대한 설명에 기반하여 알다 시피, 상기 포인트 클라우드 모델 구축 방법은 파노라마 이미지를 이용하여 카메라 등록 및 포인트 클라우드 재구축을 진행할 수 있음으로써, 포인트 클라우드 모델의 구축을 완료하고, 파노라마 이미지에 기반하여 구축한 포인트 클라우드 모델은 기존의 일반 투시 이미지에 기반하여 구축한 포인트 클라우드 모델보다 정확도가 더 높고, 중복된 텍스처에 대한 로버스트가 더욱 좋으며, 시나리오 재구축이 더욱 전면적이다. 상기 포인트 클라우드 모델 구축 방법을 이용하여 고정밀 시각 지도를 구축하여, 자율 주행, AR을 위해 포지셔닝을 위한 시각적 특징 및 삼차원 랜드마크 포인트를 제공할 수 있고, 또한 상기 포인트 클라우드 모델 구축 방법을 이용하여, 특정된 시나리오의 삼차원 모델을 구축하여, 시나리오 전시 및 VR 응용이 가능하며, 예를 들어, 관광 명소, 박물관, 전시장 AR/VR 투어 또는 특정된 건물, 특정된 거리 또는 특정된 도시의 3D 모델 구축, AR 특수 효과에 응용이 가능하다.As can be seen based on the description of the point cloud model building method, the point cloud model building method can proceed with camera registration and point cloud reconstruction using a panoramic image, thereby completing construction of the point cloud model and panorama Point cloud models built based on images have higher accuracy, better robustness for overlapping textures, and more comprehensive scenario reconstruction than point cloud models built based on existing general perspective images. By constructing a high-precision visual map using the point cloud model building method, it is possible to provide visual features and three-dimensional landmark points for positioning for autonomous driving and AR, and also using the point cloud model building method, a specific By building a three-dimensional model of a given scenario, scenario exhibitions and VR applications are possible. For example, AR/VR tours of tourist attractions, museums, exhibition halls, or building a 3D model of a specific building, a specific street, or a specific city, AR. It can be applied to special effects.

본 발명의 실시예의 제2 측면에 따르면, 포인트 클라우드 모델 구축 장치를 제공하고, 도 7을 참조하면, 상기 장치의 구조를 예시하고, 상기 포인트 클라우드 모델 구축 장치는, According to a second aspect of an embodiment of the present invention, a point cloud model building device is provided. Referring to FIG. 7, the structure of the device is illustrated, and the point cloud model building device includes:

파노라마 이미지 세트에서의 파노라마 이미지의 제1 특징을 획득하도록 구성된 획득 모듈(701);an acquisition module 701 configured to acquire first features of a panoramic image in the panoramic image set;

상기 제1 특징에 따라 상기 파노라마 이미지 세트에서의 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과를 결정 - 상기 이미지 쌍은 제1 특징이 매칭되는 두개의 파노라마 이미지를 포함하고, 상기 매칭 결과는 두 개의 파노라마 이미지의 제1 특징 간의 대응 관계를 지시함 - 하도록 구성된 매칭 모듈(702); 및Determine at least one group of image pairs and a corresponding matching result in the panoramic image set according to the first feature, wherein the image pair comprises two panoramic images to which the first feature is matched, and the matching result is two panoramic images. a matching module 702 configured to indicate correspondence between first features of the panoramic image; and

상기 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과에 따라 포인트 클라우드 모델을 구축하도록 구성된 구축 모듈(703)을 포함한다.and a building module 703 configured to build a point cloud model according to the at least one group of image pairs and the corresponding matching result.

일 실시예에 있어서, 상기 획득 모듈은 구체적으로, In one embodiment, the acquisition module specifically:

상기 파노라마 이미지에 대응되는 복수 개의 투시 이미지를 결정하고 - 복수 개의 투시 이미지에 대응되는 공간의 세트는 파노라마 이미지에 대응되는 공간임 - ;determining a plurality of perspective images corresponding to the panoramic image, wherein a set of spaces corresponding to the plurality of perspective images is a space corresponding to the panoramic image;

상기 복수 개의 투시 이미지에서의 적어도 하나의 투시 이미지의 제2 특징을 획득하며;acquire a second feature of at least one perspective image in the plurality of perspective images;

상기 투시 이미지의 제2 특징에 따라 상기 파노라마 이미지의 대응 위치의 제1 서브 특징을 결정하며 - 상기 투시 이미지와 상기 파노라마 이미지의 대응 위치는 동일한 공간에 대응됨 - ; 및determining a first sub-feature of a corresponding position of the panoramic image according to a second characteristic of the perspective image, wherein the corresponding position of the perspective image and the panoramic image correspond to the same space; and

적어도 하나의 상기 제1 서브 특징에 따라 상기 파노라마 이미지의 제1 특징을 결정하도록 구성된다.and determine a first feature of the panoramic image according to the at least one first sub-feature.

일 실시예에 있어서, 상기 획득 모듈이 상기 파노라마 이미지에 대응되는 복수 개의 투시 이미지를 결정하도록 구성된 경우, 구체적으로, In one embodiment, when the acquisition module is configured to determine a plurality of perspective images corresponding to the panoramic image, specifically,

상기 파노라마 이미지에 대응되는 단위 구면을 획득하고, 파노라마 이미지의 픽셀 포인트 좌표와 단위 구면의 포인트 좌표 간의 제1 매핑 관계를 결정하며;Obtain a unit sphere corresponding to the panoramic image, and determine a first mapping relationship between pixel point coordinates of the panoramic image and point coordinates of the unit sphere;

상기 단위 구면에 따라 복수 개의 투시 이미지를 결정하고, 투시 이미지의 픽셀 포인트 좌표와 단위 구면의 포인트 좌표 간의 제2 매핑 관계를 결정하며 - 상기 복수 개의 투시 이미지에 대응되는 구면 포인트의 집합은 단위 구면임 - ; Determine a plurality of perspective images according to the unit sphere, determine a second mapping relationship between pixel point coordinates of the perspective image and point coordinates of the unit sphere, and - a set of spherical points corresponding to the plurality of perspective images is a unit sphere. - ;

상기 제1 매핑 관계 및 상기 제2 매핑 관계에 따라 파노라마 이미지의 픽셀 포인트 좌표와 투시 이미지의 픽셀 포인트 좌표 간의 제3 매핑 관계를 결정하고, 파노라마 이미지의 픽셀 포인트의 픽셀 정보 및 상기 제3 매핑 관계에 따라 투시 이미지의 픽셀 포인트의 픽셀 정보를 결정하도록 구성된다.Determine a third mapping relationship between the pixel point coordinates of the panoramic image and the pixel point coordinates of the perspective image according to the first mapping relationship and the second mapping relationship, and apply the third mapping relationship to the pixel information of the pixel point of the panoramic image and the third mapping relationship. Accordingly, it is configured to determine pixel information of the pixel point of the perspective image.

일 실시예에 있어서, 상기 투시 이미지의 제2 특징은 제2 특징 포인트 및 대응되는 제2 디스크립터를 포함하고;In one embodiment, the second feature of the perspective image includes a second feature point and a corresponding second descriptor;

상기 획득 모듈은 상기 투시 이미지의 제2 특징에 따라 상기 파노라마 이미지의 대응 위치의 제1 서브 특징을 결정하도록 구성된 경우, 구체적으로, When the acquisition module is configured to determine a first sub-feature of a corresponding position of the panoramic image according to a second feature of the perspective image, specifically,

상기 투시 이미지의 제2 특징 포인트의 좌표 및 상기 제3 매핑 관계에 따라 상기 파노라마 이미지의 제1 특징 포인트의 좌표를 결정하고; determine coordinates of a first feature point of the panoramic image according to the coordinates of a second feature point of the perspective image and the third mapping relationship;

상기 투시 이미지의 제2 특징 포인트에 대응되는 제2 디스크립터에 따라 상기 파노라마 이미지의 제1 특징 포인트에 대응되는 제1 디스크립터를 결정하도록 구성된다.and determine a first descriptor corresponding to a first feature point of the panoramic image according to a second descriptor corresponding to a second feature point of the perspective image.

일 실시예에 있어서, 상기 제1 특징은 제1 특징 포인트 및 대응되는 제1 디스크립터를 포함하고;In one embodiment, the first feature includes a first feature point and a corresponding first descriptor;

상기 매칭 모듈은 구체적으로, The matching module specifically,

각 파노라마 이미지와 대응되는 매칭될 파노라마 이미지에 따라 복수 개 그룹의 이미지 쌍을 결정하고;determining a plurality of groups of image pairs according to the panoramic images to be matched corresponding to each panoramic image;

각 그룹의 상기 이미지 쌍의 두 개의 파노라마 이미지의 제1 디스크립터에 따라 복수 개 그룹의 특징 포인트 쌍을 결정하며 - 각 그룹의 상기 특징 포인트 쌍은 두 개의 대응 매칭되고 두 개의 파노라마 이미지에 속하는 제1 특징 포인트를 포함함 - ; Determining a plurality of groups of feature point pairs according to a first descriptor of the two panoramic images of the image pair of each group, wherein the feature point pair of each group corresponds to two matching first features belonging to the two panoramic images. Contains points - ;

상기 복수 개 그룹의 특징 포인트 쌍에 따라 제1 에센셜 매트릭스를 결정하고, 상기 제1 에센셜 매트릭스를 이용하여 상기 복수 개 그룹의 특징 포인트 쌍에 대해 필터링을 진행하여, 상기 이미지 쌍에 대응되는 매칭 결과를 얻도록 구성된다.Determine a first essential matrix according to the feature point pairs of the plurality of groups, perform filtering on the feature point pairs of the plurality of groups using the first essential matrix, and produce a matching result corresponding to the image pair. It is designed to obtain

일 실시예에 있어서, 상기 매칭 모듈은 각 그룹의 상기 이미지 쌍의 두 개의 파노라마 이미지의 제1 디스크립터에 따라 복수 개 그룹의 특징 포인트 쌍을 결정하도록 구성된 이후, 또한, In one embodiment, after the matching module is configured to determine a plurality of groups of feature point pairs according to the first descriptor of the two panoramic images of the image pair of each group, further,

각 그룹의 상기 이미지 쌍의 두 개의 파노라마 이미지의 특징 포인트 쌍의 개수를 획득하고;Obtain the number of feature point pairs of the two panoramic images of the image pairs in each group;

특징 포인트 쌍의 개수가 기설정된 제1 조건에 부합되는 이미지 쌍을 필터링하도록 구성된다.It is configured to filter image pairs in which the number of feature point pairs meets a preset first condition.

일 실시예에 있어서, 상기 매칭 모듈은 상기 복수 개 그룹의 특징 포인트 쌍에 따라 제1 에센셜 매트릭스를 결정하도록 구성된 경우, 구체적으로, In one embodiment, when the matching module is configured to determine a first essential matrix according to the plurality of groups of feature point pairs, specifically,

상기 특징 포인트 쌍에서의 두 개의 제1 특징 포인트의 각도 오차에 따라 상기 특징 포인트 쌍의 각도 오차를 결정하고 - 상기 제1 특징 포인트의 각도 오차는 상기 제1 특징 포인트에 대응되는 단위 구면의 구면 포인트와 단위 구면의 광학적 중심을 연결하는 선 및 외부 극평면 간의 끼인각임 - ; Determine the angular error of the feature point pair according to the angular error of the two first feature points in the feature point pair, and the angular error of the first feature point is a spherical point of the unit sphere corresponding to the first feature point. - the included angle between the line connecting the optical center of the unit sphere and the external polar plane;

대응되는 상기 특징 포인트 쌍의 각도 오차를 잔차항으로 사용하여, 기설정된 개수의 상기 특징 포인트 쌍에 따라 에센셜 매트릭스를 여러번 결정하며;Using the angular error of the corresponding feature point pair as a residual term, an essential matrix is determined several times according to a preset number of feature point pairs;

각 상기 에센셜 매트릭스에 대응되는 내부 포인트 개수를 결정하고, 내부 포인트 개수가 가장 많은 에센셜 매트릭스를 상기 제1 에센셜 매트릭스로 결정하도록 구성된다.It is configured to determine the number of internal points corresponding to each essential matrix, and determine the essential matrix with the largest number of internal points as the first essential matrix.

일 실시예에 있어서, 상기 매칭 모듈은 각 상기 에센셜 매트릭스에 대응되는 내부 포인트 개수를 결정하도록 구성된 경우, 구체적으로, In one embodiment, when the matching module is configured to determine the number of internal points corresponding to each of the essential matrices, specifically,

상기 에센셜 매트릭스에 따라 상기 이미지 쌍의 각 그룹의 특징 포인트 쌍의 각도 오차를 결정하고;determine the angular error of the feature point pair of each group of the image pairs according to the essential matrix;

상기 각도 오차가 기설정된 제2 조건에 부합되는 특징 포인트 쌍을 내부 포인트로 결정하며; determining a feature point pair whose angle error satisfies a preset second condition as an internal point;

모든 내부 포인트에 따라 상기 에센셜 매트릭스에 대응되는 내부 포인트 개수를 결정하도록 구성된다.It is configured to determine the number of internal points corresponding to the essential matrix according to all internal points.

일 실시예에 있어서, 상기 매칭 모듈이 상기 제1 에센셜 매트릭스를 이용하여 복수 개 그룹의 특징 포인트 쌍에 대해 필터링을 진행하도록 구성된 경우, 구체적으로, In one embodiment, when the matching module is configured to perform filtering on a plurality of groups of feature point pairs using the first essential matrix, specifically,

상기 제1 에센셜 매트릭스에 따라 상기 이미지 쌍의 각 그룹의 특징 포인트 쌍의 각도 오차를 결정하고; determine the angular error of the feature point pair of each group of the image pairs according to the first essential matrix;

상기 각도 오차가 기설정된 제3 조건에 부합되는 특징 포인트 쌍을 필터링하도록 구성된다.It is configured to filter feature point pairs whose angle error meets a preset third condition.

일 실시예에 있어서, 상기 매칭 모듈은 또한, In one embodiment, the matching module also:

상기 이미지 쌍의 특징 포인트 쌍의 두 개의 제1 특징 포인트가 파노라마 이미지에서의 좌표를 획득하고;Two first feature points of the feature point pair of the image pair obtain coordinates in the panoramic image;

상기 파노라마 이미지에 대응되는 제3 매핑 관계 및 상기 파노라마 이미지에서의 특징 포인트 쌍에 속하는 제1 특징 포인트의 좌표에 따라, 특징 포인트 쌍과 관련된 투시 이미지를 결정하며 - 상기 특징 포인트 쌍과 관련된 투시 이미지는 특징 포인트 쌍에 속하는 제1 특징 포인트에 대응되는 제2 특징 포인트가 존재하는 투시 이미지임 - ; According to a third mapping relationship corresponding to the panoramic image and the coordinates of a first feature point belonging to the feature point pair in the panoramic image, determine a perspective image associated with the feature point pair, wherein the perspective image associated with the feature point pair is It is a perspective image in which there is a second feature point corresponding to the first feature point belonging to the feature point pair - ;

상기 특징 포인트 쌍과 관련된 투시 이미지를 이용하여 상기 이미지 쌍에 대해 필터링을 진행하도록 구성된다.It is configured to perform filtering on the image pair using a perspective image related to the feature point pair.

일 실시예에 있어서, 상기 매칭 모듈이 상기 특징 포인트 쌍과 관련된 투시 이미지를 이용하여 상기 이미지 쌍에 대해 필터링을 진행하도록 구성된 경우, 구체적으로, In one embodiment, when the matching module is configured to perform filtering on the image pair using a perspective image related to the feature point pair, specifically,

상기 이미지 쌍의 적어도 하나의 파노라마 이미지에 대응되는 특징 포인트 쌍과 관련된 투시 이미지가 연속적인 복수 개의 이미지이고, 상기 연속적인 복수 개의 이미지의 개수가 기설정된 필터링 임계값보다 작은 것에 응답하여, 상기 이미지 쌍을 필터링하도록 구성된다.In response to the perspective image associated with the feature point pair corresponding to at least one panoramic image of the image pair being a plurality of consecutive images, and the number of the plurality of consecutive images being less than a preset filtering threshold, the image pair It is configured to filter.

일 실시예에 있어서, 상기 구축 모듈은 구체적으로, In one embodiment, the construction module specifically,

기설정된 초기화 조건 및 각 그룹의 이미지 쌍의 특징 포인트 쌍 및 제1 에센셜 매트릭스에 따라 한 그룹의 이미지 쌍이 초기 이미지 쌍인 것을 결정하고, 상기 초기 이미지 쌍의 각 파노라마 이미지의 카메라 포즈를 결정하며, 상기 초기 이미지 쌍의 제1 특징 포인트 쌍에 대해 삼각화를 수행하여, 초기 삼차원 포인트를 형성하고;Determine that a group of image pairs is an initial image pair according to preset initialization conditions, feature point pairs of each group of image pairs, and a first essential matrix, determine a camera pose of each panoramic image of the initial image pair, and determine the initial image pair. Perform triangulation on the first feature point pair of the image pair to form initial three-dimensional points;

제1 삼차원 포인트에 대응되는 제1 특징 포인트 및 각 미등록 이미지의 제1 특징 포인트 간의 매칭 관계에 따라, 파노라마 이미지 세트에서의 각 파노라마 이미지가 모두 등록된 이미지가 될 때까지, 하나의 미등록 이미지를 등록 이미지로 여러번 결정하며 - 상기 미등록 이미지는 모든 제1 특징 포인트가 삼각화되지 않은 파노라마 이미지이고, 상기 등록된 이미지는 제1 특징 포인트가 삼각화된 파노라마 이미지이며, 상기 제1 삼차원 포인트는 상기 초기 삼차원 포인트를 포함하거나, 상기 초기 삼차원 포인트 및 상기 등록된 이미지의 제1 특징 포인트를 삼각화하여 형성된 삼차원 포인트를 포함함 - ;According to the matching relationship between the first feature point corresponding to the first three-dimensional point and the first feature point of each unregistered image, one unregistered image is registered until each panoramic image in the panoramic image set becomes a registered image. The image is determined several times - the unregistered image is a panoramic image in which all first feature points are not triangulated, the registered image is a panoramic image in which first feature points are triangulated, and the first three-dimensional point is the initial three-dimensional point. Includes a point, or includes a three-dimensional point formed by triangulating the initial three-dimensional point and the first feature point of the registered image;

매번 등록 이미지를 결정한 이후, 상기 등록 이미지의 카메라 포즈를 결정하고, 상기 등록된 이미지의 제1 특징 포인트에 대해 삼각화를 수행하여 대응되는 삼차원 포인트를 형성하며, 및 등록된 이미지의 제3 특징 포인트에 대해 삼각화를 수행하여 대응되는 삼차원 포인트를 형성 - 상기 제3 특징 포인트는 상기 등록된 이미지에서 상기 등록 이미지의 제1 특징 포인트와 매칭되는 제1 특징 포인트임 - 하도록 구성된다.After determining a registered image each time, a camera pose of the registered image is determined, triangulation is performed on the first feature point of the registered image to form a corresponding three-dimensional point, and a third feature point of the registered image is performed. Triangulation is performed to form a corresponding three-dimensional point - the third feature point is a first feature point in the registered image that matches the first feature point of the registered image.

일 실시예에 있어서, 상기 구축 모듈이 기설정된 초기화 조건 및 각 그룹의 이미지 쌍의 특징 포인트 쌍 및 제1 에센셜 매트릭스에 따라 한 그룹의 이미지 쌍이 초기 이미지 쌍인 것을 결정하도록 구성된 경우, 구체적으로, In one embodiment, when the building module is configured to determine that a group of image pairs is an initial image pair according to preset initialization conditions and feature point pairs of each group of image pairs and a first essential matrix, specifically,

특징 포인트 쌍의 개수의 내림순에 따라 순차적으로 이미지 쌍을 선택하고, 매번 이미지 쌍을 선택한 이후 모두 상기 특징 포인트 쌍 및 상기 제1 에센셜 매트릭스에 따라, 선택된 이미지 쌍이 상기 초기화 조건을 만족할 때까지, 상기 이미지 쌍이 상기 초기화 조건을 만족하는지 여부에 대해 결정하고, 선택된 이미지 쌍을 초기 이미지 쌍으로 결정하도록 구성된다.Select image pairs sequentially in descending order of the number of feature point pairs, and after each image pair selection, all according to the feature point pair and the first essential matrix, until the selected image pair satisfies the initialization condition. It is configured to determine whether the image pair satisfies the initialization conditions and determine the selected image pair as the initial image pair.

일 실시예에 있어서, 상기 구축 모듈이 상기 특징 포인트 쌍 및 상기 제1 에센셜 매트릭스에 따라, 상기 이미지 쌍이 상기 초기화 조건을 만족하는지 여부에 대해 결정하도록 구성된 경우, 구체적으로In one embodiment, when the building module is configured to determine whether the image pair satisfies the initialization condition according to the feature point pair and the first essential matrix, specifically:

상기 이미지 쌍의 제1 에센셜 매트릭스에 따라 적어도 한 그룹의 변위 변수를 결정하고, 각 그룹의 변위 변수에 대해 특징 포인트 쌍의 특징 포인트를 각각 삼각화하여, 각 그룹의 변위 변수에 대응되는 삼차원 포인트를 형성하고, 및 각 그룹의 삼차원 포인트의 재투영 오차 및 삼각화 각도에 따라 상기 삼차원 포인트를 필터링하고 - 상기 변위 변수는 회전 변수 및 평행 이동 변수를 포함함 - ;Determine at least one group of displacement variables according to the first essential matrix of the image pair, triangulate the feature points of each pair of feature points for the displacement variable of each group, and create a three-dimensional point corresponding to the displacement variable of each group. forming, and filtering the three-dimensional points according to the reprojection error and triangulation angle of each group of three-dimensional points, wherein the displacement variable includes a rotation variable and a translation variable;

개수가 가장 많은 한 그룹의 삼차원 포인트의 개수가 기설정된 제1 개수 임계값보다 큰 것에 응답하여, 대응되는 변위 변수를 제1 변위 변수로 결정하며;In response to the number of three-dimensional points in a group having the largest number being greater than a preset first number threshold, determining the corresponding displacement variable as the first displacement variable;

여러번 계산하여 얻은 에센셜 매트릭스에서 내부 포인트 개수가 포인트 개수 임계값보다 크거나 같은 에센셜 매트릭스를 선택하고, 각 에센셀 매트릭스에 따라 적어도 한 그룹의 변위 변수를 각각 결정하며, 각 그룹의 변위 변수에 대해 특징 포인트 쌍의 특징 포인트를 각각 삼각화하여, 각 그룹의 변위 변수에 대응되는 삼차원 포인트를 형성하고, 및 각 그룹의 삼차원 포인트의 재투영 오차 및 삼각화 각도에 따라 상기 삼차원 포인트를 필터링하며, 각 에센셜 매트리스의 개수가 가장 많은 그룹의 삼차원 포인트에 대응되는 변위 변수를 보유하며; From the essential matrices obtained by calculating multiple times, select an essential matrix where the number of internal points is greater than or equal to the point number threshold, determine the displacement variables of at least one group according to each essential matrix, and determine the characteristics of the displacement variables of each group. Each feature point of a point pair is triangulated to form a three-dimensional point corresponding to the displacement variable of each group, and the three-dimensional points are filtered according to the reprojection error and triangulation angle of the three-dimensional point of each group, and each essential It holds the displacement variable corresponding to the three-dimensional point of the group with the largest number of mattresses;

각 에센셜 매트릭스가 보유한 변위 변수와 상기 제1 변위 변수 간의 차이가 기설정된 범위를 만족하는 경우, 상기 이미지 쌍이 상기 초기화 조건을 만족하는 것을 결정하도록 구성된다.If the difference between the displacement variable held by each essential matrix and the first displacement variable satisfies a preset range, it is configured to determine that the image pair satisfies the initialization condition.

일 실시예에 있어서, 상기 구축 모듈은 또한, In one embodiment, the building module also:

초기의 삼차원 포인트가 초기 이미지 쌍의 두 개의 파노라마 이미지에서의 재투영 오차를 최소화하는 것을 통해, 각 파노라마 이미지의 카메라 포즈 및 초기의 삼차원 포인트의 위치를 최적화하고;Optimize the camera pose and the position of the initial three-dimensional point of each panoramic image through minimizing the reprojection error of the initial three-dimensional point in the two panoramic images of the initial image pair;

매번 등록 이미지의 카메라 포즈를 결정한 이후, 삼차원 포인트가 상기 등록 이미지에서의 재투영 오차를 최소화하는 것을 통해 상기 등록 이미지의 카메라 포즈를 최적화하며; After determining the camera pose of the registered image each time, three-dimensional points optimize the camera pose of the registered image through minimizing reprojection error in the registered image;

매번 상기 등록 이미지의 특징 포인트에 대해 삼각화를 수행하여 대응되는 삼차원 포인트를 형성하고, 및 등록된 이미지의 제3 특징 포인트에 대해 삼각화를 수행하여 대응되는 삼차원 포인트를 형성한 이후, 각 삼차원 포인트가 각 등록된 이미지에서의 재투영 오차를 최소화하는 것을 통해, 각 등록된 이미지의 카메라 포즈 및 각 삼차원 포인트의 위치를 최적화하는 것 중 적어도 하나로 구성된다.Each time, triangulation is performed on the feature point of the registered image to form a corresponding three-dimensional point, and triangulation is performed on the third feature point of the registered image to form a corresponding three-dimensional point, and then each three-dimensional point consists of at least one of optimizing the camera pose of each registered image and the position of each three-dimensional point by minimizing the reprojection error in each registered image.

일 실시예에 있어서, 상기 매칭 모듈은 또한, In one embodiment, the matching module also:

각 파노라마 이미지에 대응되는 공간에 따라 대응되는 매칭될 파노라마 이미지를 결정하고; 또는determining a corresponding panoramic image to be matched according to a space corresponding to each panoramic image; or

기설정된 매칭 규칙에 따라 각 파노라마 이미지에 대응되는 매칭될 파노라마 이미지를 결정하도록 구성된다. 상기 실시예에서의 장치에 관련하여, 각 모듈이 동작을 실행하는 구체적인 형태는 제1 측면에서 상기 포인트 클라우드 모델 구축 방법에 관련된 실시예에서 이미 자세하게 설명하였으므로, 여기서 더이상 반복하지 않는다.It is configured to determine a panoramic image to be matched corresponding to each panoramic image according to a preset matching rule. Regarding the devices in the above embodiments, the specific form in which each module executes operations has already been described in detail in the embodiments related to the point cloud model construction method in the first aspect, and will not be repeated here.

도 8을 참조하면, 본 발명의 실시예의 제3 측면에 따르면, 전자 기기를 제공하고, 상기 전자 기기는 메모리(801), 프로세서(802)를 포함하고, 상기 메모리(801)는 프로세서(802) 상에서 작동 가능한 컴퓨터 명령어를 저장하기 위한 것이며, 상기 프로세서는 상기 컴퓨터 명령어를 실행할 경우 제1 측면에에 따른 방법에 기반하여 포인트 클라우드 모형을 구축하기 위한 것이다. 상기 메모리(801)는 휘발성 또는 비휘발성 저장 매체를 사용할 수 있다.Referring to FIG. 8, according to a third aspect of an embodiment of the present invention, an electronic device is provided, the electronic device includes a memory 801 and a processor 802, and the memory 801 includes a processor 802. It is for storing computer instructions operable on the computer, and the processor is for building a point cloud model based on the method according to the first aspect when executing the computer instructions. The memory 801 may use volatile or non-volatile storage media.

본 발명의 실시예의 제4 측면에 따르면, 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능 저장 매체를 제공하며, 상기 프로그램은 프로세서에 의해 실행될 경우 제1 측면에 따른 방법을 구현한다. 컴퓨터 판독 가능한 저장 매체는 휘발성 저장 매체이거나 비휘발성 저장 매체일 수 있다.According to a fourth aspect of an embodiment of the present invention, a computer-readable storage medium is provided storing a computer program, wherein the program implements the method according to the first aspect when executed by a processor. Computer-readable storage media may be volatile or non-volatile storage media.

본 발명은 또한 컴퓨터 판독 가능한 코드를 포함하는 컴퓨터 프로그램 제품을 제공하고, 컴퓨터 판독 가능한 코드가 기기에서 작동될 경우, 기기에서의 프로세서는 전술한 어느 한 실시예에서 제공한 포인트 클라우드 모델 구축 방법을 구현하기 위한 명령어를 실행한다.The present invention also provides a computer program product including computer-readable code, and when the computer-readable code is operated in a device, the processor in the device implements the point cloud model building method provided in any of the above-described embodiments. Execute the command to:

상기 컴퓨터 프로그램 제품은 구체적으로 하드웨어, 소프트웨어 또는 이들의 조합을 통해 구현될 수 있다. 하나의 선택적인 실시예에서, 상기 컴퓨터 프로그램 제품은 구체적으로 컴퓨터 저장 매체로 구현되며, 다른 하나의 선택적인 예에서, 상기 컴퓨터 프로그램 제품은 구체적으로 소프트웨어 개발 키트(Software Development Kit, SDK) 등과 같은 소프트웨어 제품으로 구현된다.The computer program product may be specifically implemented through hardware, software, or a combination thereof. In one alternative embodiment, the computer program product is specifically implemented on a computer storage medium, and in another alternative example, the computer program product is specifically implemented in software such as a software development kit (SDK), etc. implemented as a product.

본 발명에 있어서, 용어 “제1”, “제2”는 목적을 설명하기 위한 것일 뿐이고, 상대적 중요성을 나타내거나 암시하는 것으로 이해될 수 없다. "복수 개"라는 용어는 달리 명시적으로 제한되지 않는 한 두 개 또는 두 개 이상을 의미한다.In the present invention, the terms “first” and “second” are only for explaining the purpose and cannot be understood as indicating or implying relative importance. The term “plural” means two or more than two, unless explicitly limited otherwise.

당업자는 명세서 및 본문에 개시된 발명을 고려하여, 본 발명의 다른 실시방안을 용이하게 생각해낼 수 있을 것이다. 본 발명은 본 발명의 임의의 변형, 용도 또는 적응성 변화를 포함하도록 의도되며, 이러한 변형, 용도 또는 적응성 변화는 본 개시의 일반적인 원리에 따르며, 본 발명에서 개시되지 않은 본 기술분야의 공지된 상식이나 통상적인 기술수단을 포함한다. 명세서 및 실시예는 다만 예시적인 것으로 간주되며, 본 발명의 진정한 범위 및 사상은 아래의 청구범위에 의해 지적된다.Those skilled in the art will be able to easily think of other implementation methods of the present invention, considering the specification and the invention disclosed in the main text. The present invention is intended to cover any modifications, uses, or adaptations of the present invention, and such modifications, uses, or adaptability changes are in accordance with the general principles of the present disclosure and are not disclosed in the present invention or are known in the art. Includes conventional technical means. The specification and examples are to be regarded as illustrative only, and the true scope and spirit of the invention is indicated by the following claims.

이해해야 할 것은, 본 발명은 위에서 설명되고 도면에 도시된 정확한 구조에 한정되지 않으며, 이 범위를 벗어나지 않고 다양한 수정 및 변경을 진행할 수 있다. 본 발명의 범위는 첨부된 청구범위에 의해서만 한정된다.It should be understood that the present invention is not limited to the exact structure described above and shown in the drawings, and may be subject to various modifications and changes without departing from its scope. The scope of the present invention is limited only by the appended claims.

본 발명의 실시예는 포인트 클라우드 모델 구축 방법, 장치, 기기 및 저장 매체를 제공하고, 여기서, 상기 포인트 클라우드 모델 구축 방법은, 파노라마 이미지 세트에서의 파노라마 이미지의 제1 특징을 획득하는 단계; 상기 제1 특징에 따라 상기 파노라마 이미지 세트에서의 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과를 결정하는 단계 - 상기 이미지 쌍은 제1 특징이 매칭되는 두개의 파노라마 이미지를 포함하고, 상기 매칭 결과는 두 개의 파노라마 이미지의 제1 특징 간의 대응 관계를 지시함 - ; 및 상기 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과에 따라 포인트 클라우드 모델을 구축하는 단계를 포함한다. 파노라마 이미지를 사용하여 매칭을 진행하고 추가로 매칭된 결과로 포인트 클라우드 모델을 구축하였기 때문에, 이미지 세트에서의 이미지 개수를 감소시킬 수 있음으로써, 매칭 효율 및 모델링 효율을 향상시킬 수 있고, 파노라마 이미지에 대응되는 공간의 범위가 비교적 크기 때문에, 파노라마 이미지 간의 매칭 효과를 높일 수 있음으로써, 포인트 클라우드 모델 구축의 정확도 및 품질을 향상시킨다.Embodiments of the present invention provide a point cloud model building method, device, device, and storage medium, wherein the point cloud model building method includes: acquiring a first feature of a panoramic image in a panoramic image set; determining at least one group of image pairs and a corresponding matching result in the panoramic image set according to the first feature, wherein the image pair includes two panoramic images to which the first feature is matched, and the matching result is: Indicates the correspondence relationship between the first features of two panoramic images - ; and constructing a point cloud model according to the at least one group of image pairs and the corresponding matching result. Since matching was performed using panoramic images and a point cloud model was built with the additional matching results, the number of images in the image set can be reduced, thereby improving matching efficiency and modeling efficiency, and the panoramic image Since the range of the corresponding space is relatively large, the matching effect between panoramic images can be increased, thereby improving the accuracy and quality of point cloud model construction.

Claims (35)

포인트 클라우드 모델 구축 방법으로서,
전자 기기에 적용되고, 상기 포인트 클라우드 모델 구축 방법은,
파노라마 이미지 세트에서의 파노라마 이미지의 제1 특징을 획득하는 단계;
상기 제1 특징에 따라 상기 파노라마 이미지 세트에서의 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과를 결정하는 단계 - 상기 이미지 쌍은 제1 특징이 매칭되는 두개의 파노라마 이미지를 포함하고, 상기 매칭 결과는 두 개의 파노라마 이미지의 제1 특징 간의 대응 관계를 지시함 - ; 및
상기 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과에 따라 포인트 클라우드 모델을 구축하는 단계를 포함하고;
상기 파노라마 이미지 세트에서의 파노라마 이미지의 제1 특징을 획득하는 단계는,
상기 파노라마 이미지에 대응되는 복수 개의 투시 이미지를 결정하는 단계 - 복수 개의 투시 이미지에 대응되는 공간의 세트는 파노라마 이미지에 대응되는 공간임 - ;
상기 복수 개의 투시 이미지에서의 적어도 하나의 투시 이미지의 제2 특징을 획득하는 단계;
상기 투시 이미지의 제2 특징에 따라 상기 파노라마 이미지의 대응 위치의 제1 서브 특징을 결정하는 단계 - 상기 투시 이미지와 상기 파노라마 이미지의 대응 위치는 동일한 공간에 대응됨 - ; 및
적어도 하나의 상기 제1 서브 특징에 따라 상기 파노라마 이미지의 제1 특징을 결정하는 단계를 포함하는 것을 특징으로 하는 포인트 클라우드 모델 구축 방법.
As a method for building a point cloud model,
Applied to electronic devices, the point cloud model construction method is,
Obtaining first features of a panoramic image in a panoramic image set;
determining at least one group of image pairs and a corresponding matching result in the panoramic image set according to the first feature, wherein the image pair includes two panoramic images to which the first feature is matched, and the matching result is: Indicates the correspondence relationship between the first features of two panoramic images - ; and
Constructing a point cloud model according to the at least one group of image pairs and the corresponding matching result;
The step of acquiring a first feature of a panoramic image in the panoramic image set includes:
determining a plurality of perspective images corresponding to the panoramic image, wherein a set of spaces corresponding to the plurality of perspective images is a space corresponding to the panoramic image;
acquiring a second feature of at least one perspective image from the plurality of perspective images;
determining a first sub-feature of a corresponding position of the panoramic image according to a second characteristic of the perspective image, wherein the corresponding position of the perspective image and the panoramic image correspond to the same space; and
A point cloud model building method comprising determining a first feature of the panoramic image according to at least one first sub-feature.
삭제delete 제1항에 있어서,
상기 파노라마 이미지에 대응되는 복수 개의 투시 이미지를 결정하는 단계는,
상기 파노라마 이미지에 대응되는 단위 구면을 획득하고, 파노라마 이미지의 픽셀 포인트 좌표와 단위 구면의 포인트 좌표 간의 제1 매핑 관계를 결정하는 단계;
상기 단위 구면에 따라 복수 개의 투시 이미지를 결정하고, 투시 이미지의 픽셀 포인트 좌표와 단위 구면의 포인트 좌표 간의 제2 매핑 관계를 결정하는 단계 - 상기 복수 개의 투시 이미지에 대응되는 구면 포인트의 집합은 단위 구면임 - ; 및
상기 제1 매핑 관계 및 상기 제2 매핑 관계에 따라 파노라마 이미지의 픽셀 포인트 좌표와 투시 이미지의 픽셀 포인트 좌표 간의 제3 매핑 관계를 결정하고, 파노라마 이미지의 픽셀 포인트의 픽셀 정보 및 상기 제3 매핑 관계에 따라 투시 이미지의 픽셀 포인트의 픽셀 정보를 결정하는 단계를 포함하는 것을 특징으로 하는 포인트 클라우드 모델 구축 방법.
According to paragraph 1,
The step of determining a plurality of perspective images corresponding to the panoramic image,
Obtaining a unit sphere corresponding to the panoramic image and determining a first mapping relationship between pixel point coordinates of the panoramic image and point coordinates of the unit sphere;
determining a plurality of perspective images according to the unit sphere, and determining a second mapping relationship between pixel point coordinates of the perspective image and point coordinates of the unit sphere - a set of spherical points corresponding to the plurality of perspective images is a unit sphere lim - ; and
Determine a third mapping relationship between the pixel point coordinates of the panoramic image and the pixel point coordinates of the perspective image according to the first mapping relationship and the second mapping relationship, and apply the third mapping relationship to the pixel information of the pixel point of the panoramic image and the third mapping relationship. A point cloud model building method comprising the step of determining pixel information of a pixel point of a perspective image.
제3항에 있어서,
상기 투시 이미지의 제2 특징은 제2 특징 포인트 및 대응되는 제2 디스크립터를 포함하고;
상기 투시 이미지의 제2 특징에 따라 상기 파노라마 이미지의 대응 위치의 제1 서브 특징을 결정하는 단계는,
상기 투시 이미지의 제2 특징 포인트의 좌표 및 상기 제3 매핑 관계에 따라 상기 파노라마 이미지의 제1 특징 포인트의 좌표를 결정하는 단계; 및
상기 투시 이미지의 제2 특징 포인트에 대응되는 제2 디스크립터에 따라 상기 파노라마 이미지의 제1 특징 포인트에 대응되는 제1 디스크립터를 결정하는 단계를 포함하는 것을 특징으로 하는 포인트 클라우드 모델 구축 방법.
According to paragraph 3,
The second feature of the perspective image includes a second feature point and a corresponding second descriptor;
Determining a first sub-feature of a corresponding position of the panoramic image according to the second feature of the perspective image includes:
determining coordinates of a first feature point of the panoramic image according to the coordinates of a second feature point of the perspective image and the third mapping relationship; and
A point cloud model building method comprising determining a first descriptor corresponding to a first feature point of the panoramic image according to a second descriptor corresponding to a second feature point of the perspective image.
제4항에 있어서,
상기 제1 특징은 제1 특징 포인트 및 대응되는 제1 디스크립터를 포함하고;
상기 제1 특징에 따라 상기 파노라마 이미지 세트에서의 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과를 결정하는 단계는,
각 파노라마 이미지와 대응되는 매칭될 파노라마 이미지에 따라 복수 개 그룹의 이미지 쌍을 결정하는 단계;
각 그룹의 상기 이미지 쌍의 두 개의 파노라마 이미지의 제1 디스크립터에 따라 복수 개 그룹의 특징 포인트 쌍을 결정하는 단계 - 각 그룹의 상기 특징 포인트 쌍은 두 개의 대응 매칭되고 두 개의 파노라마 이미지에 속하는 제1 특징 포인트를 포함함 - ; 및
상기 복수 개 그룹의 특징 포인트 쌍에 따라 제1 에센셜 매트릭스를 결정하고, 상기 제1 에센셜 매트릭스를 이용하여 상기 복수 개 그룹의 특징 포인트 쌍에 대해 필터링을 진행하여, 상기 이미지 쌍에 대응되는 매칭 결과를 얻는 단계를 포함하는 것을 특징으로 하는 포인트 클라우드 모델 구축 방법.
According to paragraph 4,
The first feature includes a first feature point and a corresponding first descriptor;
Determining at least one group of image pairs and a corresponding matching result in the panoramic image set according to the first characteristic comprises:
determining a plurality of groups of image pairs according to the panoramic images to be matched corresponding to each panoramic image;
determining a plurality of groups of feature point pairs according to a first descriptor of the two panoramic images of the image pairs of each group, wherein the feature point pairs of each group are correspondingly matched and belong to two panoramic images; Contains feature points - ; and
Determine a first essential matrix according to the feature point pairs of the plurality of groups, perform filtering on the feature point pairs of the plurality of groups using the first essential matrix, and produce a matching result corresponding to the image pair. A point cloud model building method comprising the steps of obtaining.
제5항에 있어서,
상기 각 그룹의 상기 이미지 쌍의 두 개의 파노라마 이미지의 제1 디스크립터에 따라 복수 개 그룹의 특징 포인트 쌍을 결정하는 단계 이후, 상기 단계는,
각 그룹의 상기 이미지 쌍의 두 개의 파노라마 이미지의 특징 포인트 쌍의 개수를 획득하는 단계; 및
특징 포인트 쌍의 개수가 기설정된 제1 조건에 부합되는 이미지 쌍을 필터링하는 단계를 더 포함하는 것을 특징으로 하는 포인트 클라우드 모델 구축 방법.
According to clause 5,
After the step of determining a plurality of groups of feature point pairs according to the first descriptor of the two panoramic images of the image pairs of each group, the step includes:
Obtaining the number of feature point pairs of two panoramic images of the image pair in each group; and
A method for building a point cloud model, further comprising filtering image pairs in which the number of feature point pairs meets a preset first condition.
제5항 또는 제6항에 있어서,
상기 복수 개 그룹의 특징 포인트 쌍에 따라 제1 에센셜 매트릭스를 결정하는 단계는,
상기 특징 포인트 쌍에서의 두 개의 제1 특징 포인트의 각도 오차에 따라 상기 특징 포인트 쌍의 각도 오차를 결정하는 단계 - 상기 제1 특징 포인트의 각도 오차는 상기 제1 특징 포인트에 대응되는 단위 구면의 구면 포인트와 단위 구면의 광학적 중심을 연결하는 선 및 외부 극평면 간의 끼인각임 - ;
대응되는 상기 특징 포인트 쌍의 각도 오차를 잔차항으로 사용하여, 기설정된 개수의 상기 특징 포인트 쌍에 따라 에센셜 매트릭스를 여러번 결정하는 단계; 및
각 상기 에센셜 매트릭스에 대응되는 내부 포인트 개수를 결정하고, 내부 포인트 개수가 가장 많은 에센셜 매트릭스를 상기 제1 에센셜 매트릭스로 결정하는 단계를 포함하는 것을 특징으로 하는 포인트 클라우드 모델 구축 방법.
According to claim 5 or 6,
The step of determining a first essential matrix according to the plurality of groups of feature point pairs includes:
Determining an angular error of the feature point pair according to the angular error of two first feature points in the feature point pair, wherein the angular error of the first feature point is a spherical surface of a unit sphere corresponding to the first feature point. - Included angle between the point and the line connecting the optical center of the unit sphere and the external polar plane - ;
determining an essential matrix several times according to a preset number of feature point pairs, using the angular error of the corresponding feature point pair as a residual term; and
A point cloud model building method comprising determining the number of internal points corresponding to each of the essential matrices, and determining the essential matrix with the largest number of internal points as the first essential matrix.
제7항에 있어서,
상기 각 상기 에센셜 매트릭스에 대응되는 내부 포인트 개수를 결정하는 단계는,
상기 에센셜 매트릭스에 따라 상기 이미지 쌍의 각 그룹의 특징 포인트 쌍의 각도 오차를 결정하는 단계;
상기 각도 오차가 기설정된 제2 조건에 부합되는 특징 포인트 쌍을 내부 포인트로 결정하는 단계; 및
모든 내부 포인트에 따라 상기 에센셜 매트릭스에 대응되는 내부 포인트 개수를 결정하는 단계를 포함하는 것을 특징으로 하는 포인트 클라우드 모델 구축 방법.
In clause 7,
The step of determining the number of internal points corresponding to each of the essential matrices is:
determining an angular error of a feature point pair of each group of the image pairs according to the essential matrix;
determining a feature point pair whose angular error meets a preset second condition as an internal point; and
A method for building a point cloud model, comprising the step of determining the number of internal points corresponding to the essential matrix according to all internal points.
제7항에 있어서,
상기 제1 에센셜 매트릭스를 이용하여 복수 개 그룹의 특징 포인트 쌍에 대해 필터링을 진행하는 단계는,
상기 제1 에센셜 매트릭스에 따라 상기 이미지 쌍의 각 그룹의 특징 포인트 쌍의 각도 오차를 결정하는 단계; 및
상기 각도 오차가 기설정된 제3 조건에 부합되는 특징 포인트 쌍을 필터링하는 단계를 포함하는 것을 특징으로 하는 포인트 클라우드 모델 구축 방법.
In clause 7,
The step of filtering a plurality of groups of feature point pairs using the first essential matrix includes:
determining an angular error of a feature point pair of each group of the image pairs according to the first essential matrix; and
A method for building a point cloud model, comprising filtering feature point pairs whose angular errors meet a preset third condition.
제5항 또는 제6항에 있어서,
상기 포인트 클라우드 모델 구축 방법은,
상기 이미지 쌍의 특징 포인트 쌍의 두 개의 제1 특징 포인트가 파노라마 이미지에서의 좌표를 획득하는 단계;
상기 파노라마 이미지에 대응되는 제3 매핑 관계 및 상기 파노라마 이미지에서의 특징 포인트 쌍에 속하는 제1 특징 포인트의 좌표에 따라, 특징 포인트 쌍과 관련된 투시 이미지를 결정하는 단계 - 상기 특징 포인트 쌍과 관련된 투시 이미지는 특징 포인트 쌍에 속하는 제1 특징 포인트에 대응되는 제2 특징 포인트가 존재하는 투시 이미지임 - ; 및
상기 특징 포인트 쌍과 관련된 투시 이미지를 이용하여 상기 이미지 쌍에 대해 필터링을 진행하는 단계를 포함하는 것을 특징으로 하는 포인트 클라우드 모델 구축 방법.
According to claim 5 or 6,
The point cloud model construction method is,
obtaining coordinates of two first feature points of the feature point pair of the image pair in a panoramic image;
According to a third mapping relationship corresponding to the panoramic image and the coordinates of a first feature point belonging to the feature point pair in the panoramic image, determining a perspective image associated with the feature point pair - a perspective image associated with the feature point pair is a perspective image in which a second feature point corresponding to the first feature point belonging to the feature point pair exists; and
A point cloud model building method comprising filtering the image pair using a perspective image related to the feature point pair.
제10항에 있어서,
상기 특징 포인트 쌍과 관련된 투시 이미지를 이용하여 상기 이미지 쌍에 대해 필터링을 진행하는 단계는,
상기 이미지 쌍의 적어도 하나의 파노라마 이미지에 대응되는 특징 포인트 쌍과 관련된 투시 이미지가 연속적인 복수 개의 이미지이고, 상기 연속적인 복수 개의 이미지의 개수가 기설정된 필터링 임계값보다 작은 것에 응답하여, 상기 이미지 쌍을 필터링하는 단계를 포함하는 것을 특징으로 하는 포인트 클라우드 모델 구축 방법.
According to clause 10,
The step of filtering the image pair using a perspective image related to the feature point pair,
In response to the perspective image associated with the feature point pair corresponding to at least one panoramic image of the image pair being a plurality of consecutive images, and the number of the plurality of consecutive images being less than a preset filtering threshold, the image pair A point cloud model building method comprising the step of filtering.
제5항 또는 제6항에 있어서,
상기 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과에 따라 포인트 클라우드 모델을 구축하는 단계는,
기설정된 초기화 조건 및 각 그룹의 이미지 쌍의 특징 포인트 쌍 및 제1 에센셜 매트릭스에 따라 한 그룹의 이미지 쌍이 초기 이미지 쌍인 것을 결정하고, 상기 초기 이미지 쌍의 각 파노라마 이미지의 카메라 포즈를 결정하며, 상기 초기 이미지 쌍의 제1 특징 포인트 쌍에 대해 삼각화를 수행하여, 초기 삼차원 포인트를 형성하는 단계;
제1 삼차원 포인트에 대응되는 제1 특징 포인트 및 각 미등록 이미지의 제1 특징 포인트 간의 매칭 관계에 따라, 파노라마 이미지 세트에서의 각 파노라마 이미지가 모두 등록된 이미지가 될 때까지, 하나의 미등록 이미지를 등록 이미지로 여러번 결정하는 단계 - 상기 미등록 이미지는 모든 제1 특징 포인트가 삼각화되지 않은 파노라마 이미지이고, 상기 등록된 이미지는 제1 특징 포인트가 삼각화된 파노라마 이미지이며, 상기 제1 삼차원 포인트는 상기 초기 삼차원 포인트를 포함하거나, 상기 초기 삼차원 포인트 및 상기 등록된 이미지의 제1 특징 포인트를 삼각화하여 형성된 삼차원 포인트를 포함함 - ; 및
매번 등록 이미지를 결정한 이후, 상기 등록 이미지의 카메라 포즈를 결정하고, 상기 등록된 이미지의 제1 특징 포인트에 대해 삼각화를 수행하여 대응되는 삼차원 포인트를 형성하며, 및 등록된 이미지의 제3 특징 포인트에 대해 삼각화를 수행하여 대응되는 삼차원 포인트를 형성하는 단계 - 상기 제3 특징 포인트는 상기 등록된 이미지에서 상기 등록 이미지의 제1 특징 포인트와 매칭되는 제1 특징 포인트임 - 를 포함하는 것을 특징으로 하는 포인트 클라우드 모델 구축 방법.
According to claim 5 or 6,
The step of building a point cloud model according to the at least one group of image pairs and the corresponding matching result,
Determine that a group of image pairs is an initial image pair according to preset initialization conditions, feature point pairs of each group of image pairs, and a first essential matrix, determine a camera pose of each panoramic image of the initial image pair, and determine the initial image pair. performing triangulation on the first feature point pair of the image pair to form initial three-dimensional points;
According to the matching relationship between the first feature point corresponding to the first three-dimensional point and the first feature point of each unregistered image, one unregistered image is registered until each panoramic image in the panoramic image set becomes a registered image. A step of determining an image multiple times - the unregistered image is a panoramic image in which all first feature points are not triangulated, the registered image is a panoramic image in which first feature points are triangulated, and the first three-dimensional point is the initial Includes a three-dimensional point, or includes a three-dimensional point formed by triangulating the initial three-dimensional point and the first feature point of the registered image; and
After determining a registered image each time, a camera pose of the registered image is determined, triangulation is performed on the first feature point of the registered image to form a corresponding three-dimensional point, and a third feature point of the registered image is performed. Forming a corresponding three-dimensional point by performing triangulation on - wherein the third feature point is a first feature point in the registered image that matches the first feature point of the registered image. How to build a point cloud model.
제12항에 있어서,
상기 기설정된 초기화 조건 및 각 그룹의 이미지 쌍의 특징 포인트 쌍 및 제1 에센셜 매트릭스에 따라 한 그룹의 이미지 쌍이 초기 이미지 쌍인 것을 결정하는 단계는,
특징 포인트 쌍의 개수의 내림순에 따라 순차적으로 이미지 쌍을 선택하고, 매번 이미지 쌍을 선택한 이후 모두 상기 특징 포인트 쌍 및 상기 제1 에센셜 매트릭스에 따라, 선택된 이미지 쌍이 상기 초기화 조건을 만족할 때까지, 상기 이미지 쌍이 상기 초기화 조건을 만족하는지 여부에 대해 결정하고, 선택된 이미지 쌍을 초기 이미지 쌍으로 결정하는 단계를 포함하는 것을 특징으로 하는 포인트 클라우드 모델 구축 방법.
According to clause 12,
The step of determining that a group of image pairs is an initial image pair according to the preset initialization conditions, feature point pairs of each group of image pairs, and a first essential matrix includes:
Select image pairs sequentially in descending order of the number of feature point pairs, and after each image pair selection, all according to the feature point pair and the first essential matrix, until the selected image pair satisfies the initialization condition. A point cloud model building method comprising determining whether an image pair satisfies the initialization condition and determining the selected image pair as an initial image pair.
제13항에 있어서,
상기 특징 포인트 쌍 및 상기 제1 에센셜 매트릭스에 따라, 상기 이미지 쌍이 상기 초기화 조건을 만족하는지 여부에 대해 결정하는 단계는,
상기 이미지 쌍의 제1 에센셜 매트릭스에 따라 적어도 한 그룹의 변위 변수를 결정하고, 각 그룹의 변위 변수에 대해 특징 포인트 쌍의 특징 포인트를 각각 삼각화하여, 각 그룹의 변위 변수에 대응되는 삼차원 포인트를 형성하고, 및 각 그룹의 삼차원 포인트의 재투영 오차 및 삼각화 각도에 따라 상기 삼차원 포인트를 필터링하는 단계 - 상기 변위 변수는 회전 변수 및 평행 이동 변수를 포함함 - ;
개수가 가장 많은 한 그룹의 삼차원 포인트의 개수가 기설정된 제1 개수 임계값보다 큰 것에 응답하여, 대응되는 변위 변수를 제1 변위 변수로 결정하는 단계;
여러번 계산하여 얻은 에센셜 매트릭스에서 내부 포인트 개수가 포인트 개수 임계값보다 크거나 같은 에센셜 매트릭스를 선택하고, 각 에센셀 매트릭스에 따라 적어도 한 그룹의 변위 변수를 각각 결정하며, 각 그룹의 변위 변수에 대해 특징 포인트 쌍의 특징 포인트를 각각 삼각화하여, 각 그룹의 변위 변수에 대응되는 삼차원 포인트를 형성하고, 및 각 그룹의 삼차원 포인트의 재투영 오차 및 삼각화 각도에 따라 상기 삼차원 포인트를 필터링하며, 각 에센셜 매트리스의 개수가 가장 많은 그룹의 삼차원 포인트에 대응되는 변위 변수를 보유하는 단계; 및
각 에센셜 매트릭스가 보유한 변위 변수와 상기 제1 변위 변수 간의 차이가 기설정된 범위를 만족하는 경우, 상기 이미지 쌍이 상기 초기화 조건을 만족하는 것을 결정하는 단계를 포함하는 것을 특징으로 하는 포인트 클라우드 모델 구축 방법.
According to clause 13,
According to the feature point pair and the first essential matrix, determining whether the image pair satisfies the initialization condition includes:
Determine at least one group of displacement variables according to the first essential matrix of the image pair, triangulate the feature points of each pair of feature points for the displacement variable of each group, and create a three-dimensional point corresponding to the displacement variable of each group. forming, and filtering the three-dimensional points according to the reprojection error and triangulation angle of each group of three-dimensional points, wherein the displacement variable includes a rotation variable and a translation variable;
In response to the number of three-dimensional points in a group having the largest number being greater than a preset first number threshold, determining a corresponding displacement variable as a first displacement variable;
From the essential matrices obtained by calculating multiple times, select an essential matrix where the number of internal points is greater than or equal to the point number threshold, determine the displacement variables of at least one group according to each essential matrix, and determine the characteristics of the displacement variables of each group. Each feature point of a point pair is triangulated to form a three-dimensional point corresponding to the displacement variable of each group, and the three-dimensional points are filtered according to the reprojection error and triangulation angle of the three-dimensional point of each group, and each essential maintaining a displacement variable corresponding to a three-dimensional point of the group with the largest number of mattresses; and
If the difference between the displacement variable held by each essential matrix and the first displacement variable satisfies a preset range, determining that the image pair satisfies the initialization condition.
제12항에 있어서,
상기 포인트 클라우드 모델 구축 방법은,
초기의 삼차원 포인트가 초기 이미지 쌍의 두 개의 파노라마 이미지에서의 재투영 오차를 최소화하는 것을 통해, 각 파노라마 이미지의 카메라 포즈 및 초기의 삼차원 포인트의 위치를 최적화하는 단계;
매번 등록 이미지의 카메라 포즈를 결정한 이후, 삼차원 포인트가 상기 등록 이미지에서의 재투영 오차를 최소화하는 것을 통해 상기 등록 이미지의 카메라 포즈를 최적화하는 단계; 및
매번 상기 등록 이미지의 특징 포인트에 대해 삼각화를 수행하여 대응되는 삼차원 포인트를 형성하고, 및 등록된 이미지의 제3 특징 포인트에 대해 삼각화를 수행하여 대응되는 삼차원 포인트를 형성한 이후, 각 삼차원 포인트가 각 등록된 이미지에서의 재투영 오차를 최소화하는 것을 통해, 각 등록된 이미지의 카메라 포즈 및 각 삼차원 포인트의 위치를 최적화하는 단계 중 적어도 하나를 더 포함하는 것을 특징으로 하는 포인트 클라우드 모델 구축 방법.
According to clause 12,
The point cloud model construction method is,
optimizing the camera pose and position of the initial three-dimensional point in each panoramic image through minimizing the reprojection error of the initial three-dimensional point in the two panoramic images of the initial image pair;
After determining the camera pose of the registered image each time, optimizing the camera pose of the registered image by minimizing the reprojection error of the three-dimensional point in the registered image; and
Each time, triangulation is performed on the feature point of the registered image to form a corresponding three-dimensional point, and triangulation is performed on the third feature point of the registered image to form a corresponding three-dimensional point, and then each three-dimensional point A method for building a point cloud model, further comprising at least one of optimizing the camera pose of each registered image and the location of each three-dimensional point by minimizing the reprojection error in each registered image.
제5항에 있어서,
상기 포인트 클라우드 모델 구축 방법은,
각 파노라마 이미지에 대응되는 공간에 따라 대응되는 매칭될 파노라마 이미지를 결정하는 단계; 또는
기설정된 매칭 규칙에 따라 각 파노라마 이미지에 대응되는 매칭될 파노라마 이미지를 결정하는 단계를 포함하는 것을 특징으로 하는 포인트 클라우드 모델 구축 방법.
According to clause 5,
The point cloud model construction method is,
determining a panoramic image to be matched according to a space corresponding to each panoramic image; or
A point cloud model building method comprising the step of determining a panoramic image to be matched corresponding to each panoramic image according to a preset matching rule.
포인트 클라우드 모델 구축 장치로서,
상기 포인트 클라우드 모델 구축 장치는,
파노라마 이미지 세트에서의 파노라마 이미지의 제1 특징을 획득하도록 구성된 획득 모듈;
상기 제1 특징에 따라 상기 파노라마 이미지 세트에서의 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과를 결정 - 상기 이미지 쌍은 제1 특징이 매칭되는 두개의 파노라마 이미지를 포함하고, 상기 매칭 결과는 두 개의 파노라마 이미지의 제1 특징 간의 대응 관계를 지시함 - 하도록 구성된 매칭 모듈; 및
상기 적어도 한 그룹의 이미지 쌍 및 대응되는 매칭 결과에 따라 포인트 클라우드 모델을 구축하도록 구성된 구축 모듈을 포함하고
획득 모듈은 또한,
상기 파노라마 이미지에 대응되는 복수 개의 투시 이미지를 결정하고 - 복수 개의 투시 이미지에 대응되는 공간의 세트는 파노라마 이미지에 대응되는 공간임 - ;
상기 복수 개의 투시 이미지에서의 적어도 하나의 투시 이미지의 제2 특징을 획득하며;
상기 투시 이미지의 제2 특징에 따라 상기 파노라마 이미지의 대응 위치의 제1 서브 특징을 결정하며 - 상기 투시 이미지와 상기 파노라마 이미지의 대응 위치는 동일한 공간에 대응됨 - ;
적어도 하나의 상기 제1 서브 특징에 따라 상기 파노라마 이미지의 제1 특징을 결정하도록 구성되는 것을 특징으로 하는 포인트 클라우드 모델 구축 장치.
As a point cloud model building device,
The point cloud model building device,
an acquisition module configured to acquire first features of a panoramic image in the panoramic image set;
Determine at least one group of image pairs and a corresponding matching result in the panoramic image set according to the first feature, wherein the image pair comprises two panoramic images to which the first feature is matched, and the matching result is two panoramic images. a matching module configured to indicate correspondence between first features of the panoramic image; and
A building module configured to build a point cloud model according to the at least one group of image pairs and the corresponding matching result;
The acquisition module also:
determining a plurality of perspective images corresponding to the panoramic image, wherein a set of spaces corresponding to the plurality of perspective images is a space corresponding to the panoramic image;
acquire a second feature of at least one perspective image in the plurality of perspective images;
determining a first sub-feature of a corresponding position of the panoramic image according to a second characteristic of the perspective image, wherein the corresponding position of the perspective image and the panoramic image correspond to the same space;
A point cloud model building device, characterized in that it is configured to determine a first feature of the panoramic image according to at least one first sub-feature.
전자 기기로서,
메모리 및 프로세서를 포함하고, 상기 메모리는 프로세서에서 작동 가능한 컴퓨터 명령어를 저장하기 위한 것이고, 상기 프로세서는 상기 컴퓨터 명령을 실행할 때 제1항, 제3항 내지 제6항 중 어느 한에 따른 포인트 클라우드 모델 구축 방법을 구현하기 위한 것을 특징으로 하는 전자 기기.
As an electronic device,
Comprising a memory and a processor, the memory is for storing computer instructions operable in the processor, and the processor executes the computer instruction according to any one of claims 1, 3 to 6. An electronic device characterized for implementing a construction method.
컴퓨터 판독 가능한 저장 매체로서,
컴퓨터 프로그램이 저장되고, 상기 프로그램이 프로세서에 의해 실행될 때 제1항, 제3항 내지 제6항 중 어느 한 항에 따른 포인트 클라우드 모델 구축 방법을 구현하는 것을 특징으로 하는 컴퓨터 판독 가능한 저장 매체.
A computer-readable storage medium, comprising:
A computer-readable storage medium that stores a computer program and implements the point cloud model building method according to any one of claims 1, 3 to 6 when the program is executed by a processor.
컴퓨터 판독 가능한 저장 매체에 기록된 컴퓨터 프로그램으로서,
컴퓨터 판독 가능한 코드를 포함하며, 상기 컴퓨터 판독 가능한 코드가 전자 기기에서 작동될 때, 상기 전자 기기에서의 프로세서는 제1항, 제3항 내지 제6항 중 어느 한 항에 따른 포인트 클라우드 모델 구축 방법을 구현하는 것을 특징으로 하는 컴퓨터 프로그램.
A computer program recorded on a computer-readable storage medium,
It includes a computer-readable code, and when the computer-readable code is operated in an electronic device, the processor in the electronic device is a method of building a point cloud model according to any one of claims 1, 3 to 6. A computer program characterized by implementing.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020227013015A 2021-03-04 2021-07-09 Methods, devices, electronic devices, storage media and programs for building point cloud models KR102638632B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202110240320.4A CN112837419B (en) 2021-03-04 2021-03-04 Point cloud model construction method, device, equipment and storage medium
CN202110240320.4 2021-03-04
PCT/CN2021/105574 WO2022183657A1 (en) 2021-03-04 2021-07-09 Point cloud model construction method and apparatus, electronic device, storage medium, and program

Publications (2)

Publication Number Publication Date
KR20220125714A KR20220125714A (en) 2022-09-14
KR102638632B1 true KR102638632B1 (en) 2024-02-20

Family

ID=75934603

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227013015A KR102638632B1 (en) 2021-03-04 2021-07-09 Methods, devices, electronic devices, storage media and programs for building point cloud models

Country Status (4)

Country Link
JP (1) JP2023519466A (en)
KR (1) KR102638632B1 (en)
CN (1) CN112837419B (en)
WO (1) WO2022183657A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112837419B (en) * 2021-03-04 2022-06-24 浙江商汤科技开发有限公司 Point cloud model construction method, device, equipment and storage medium
CN113920263A (en) * 2021-10-18 2022-01-11 浙江商汤科技开发有限公司 Map construction method, map construction device, map construction equipment and storage medium
CN114429495B (en) * 2022-03-14 2022-08-30 荣耀终端有限公司 Three-dimensional scene reconstruction method and electronic equipment
CN116858215B (en) * 2023-09-05 2023-12-05 武汉大学 AR navigation map generation method and device
CN117437289B (en) * 2023-12-20 2024-04-02 绘见科技(深圳)有限公司 Space calculation method based on multi-source sensor and related equipment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110021065A (en) * 2019-03-07 2019-07-16 杨晓春 A kind of indoor environment method for reconstructing based on monocular camera

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101692187A (en) * 2008-05-11 2010-04-07 捷讯研究有限公司 Mobile electronic device and associated method enabling transliteration of a text input
CN101398937B (en) * 2008-10-29 2011-05-18 北京航空航天大学 Three-dimensional reconstruction method based on fringe photograph collection of same scene
EP3422711A1 (en) * 2017-06-29 2019-01-02 Koninklijke Philips N.V. Apparatus and method for generating an image
KR102015099B1 (en) * 2018-01-25 2019-10-21 전자부품연구원 Apparatus and method for providing wrap around view monitoring using dis information
CN110211223A (en) * 2019-05-28 2019-09-06 哈工大新材料智能装备技术研究院(招远)有限公司 A kind of increment type multiview three-dimensional method for reconstructing
CN110363838B (en) * 2019-06-06 2020-12-15 浙江大学 Large-visual-field image three-dimensional reconstruction optimization method based on multi-spherical-surface camera model
CN112837419B (en) * 2021-03-04 2022-06-24 浙江商汤科技开发有限公司 Point cloud model construction method, device, equipment and storage medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110021065A (en) * 2019-03-07 2019-07-16 杨晓春 A kind of indoor environment method for reconstructing based on monocular camera

Also Published As

Publication number Publication date
WO2022183657A1 (en) 2022-09-09
JP2023519466A (en) 2023-05-11
CN112837419A (en) 2021-05-25
CN112837419B (en) 2022-06-24
KR20220125714A (en) 2022-09-14

Similar Documents

Publication Publication Date Title
KR102638632B1 (en) Methods, devices, electronic devices, storage media and programs for building point cloud models
Sturm et al. Camera models and fundamental concepts used in geometric computer vision
Sturm Multi-view geometry for general camera models
Ventura et al. Wide-area scene mapping for mobile visual tracking
WO2020206903A1 (en) Image matching method and device, and computer readable storage medium
Zhang et al. A UAV-based panoramic oblique photogrammetry (POP) approach using spherical projection
JP2022537984A (en) Information processing method, positioning method and device, electronic device and storage medium
Tang et al. ESTHER: Joint camera self-calibration and automatic radial distortion correction from tracking of walking humans
CN108288292A (en) A kind of three-dimensional rebuilding method, device and equipment
EP3274964B1 (en) Automatic connection of images using visual features
CN111127524A (en) Method, system and device for tracking trajectory and reconstructing three-dimensional image
CN107358633A (en) Join scaling method inside and outside a kind of polyphaser based on 3 points of demarcation things
CN112686877B (en) Binocular camera-based three-dimensional house damage model construction and measurement method and system
CN111981982B (en) Multi-directional cooperative target optical measurement method based on weighted SFM algorithm
CN110580720B (en) Panorama-based camera pose estimation method
Aly et al. Street view goes indoors: Automatic pose estimation from uncalibrated unordered spherical panoramas
WO2021136386A1 (en) Data processing method, terminal, and server
US20090232415A1 (en) Platform for the production of seamless orthographic imagery
US8509522B2 (en) Camera translation using rotation from device
CN115082617A (en) Pipeline three-dimensional reconstruction method and device based on multi-view optimization and storage medium
CN114266823A (en) Monocular SLAM method combining SuperPoint network characteristic extraction
CN113902802A (en) Visual positioning method and related device, electronic equipment and storage medium
CN113808269A (en) Map generation method, positioning method, system and computer readable storage medium
Abrams et al. Webcams in context: Web interfaces to create live 3D environments
KR100944293B1 (en) Mechanism for reconstructing full 3D model using single-axis turntable images

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant