KR20230072002A - System for updating spatial information using device - Google Patents

System for updating spatial information using device Download PDF

Info

Publication number
KR20230072002A
KR20230072002A KR1020210158245A KR20210158245A KR20230072002A KR 20230072002 A KR20230072002 A KR 20230072002A KR 1020210158245 A KR1020210158245 A KR 1020210158245A KR 20210158245 A KR20210158245 A KR 20210158245A KR 20230072002 A KR20230072002 A KR 20230072002A
Authority
KR
South Korea
Prior art keywords
information
data
image data
image
spatial information
Prior art date
Application number
KR1020210158245A
Other languages
Korean (ko)
Inventor
홍승환
Original Assignee
주식회사 카카오모빌리티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 카카오모빌리티 filed Critical 주식회사 카카오모빌리티
Priority to KR1020210158245A priority Critical patent/KR20230072002A/en
Publication of KR20230072002A publication Critical patent/KR20230072002A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3859Differential updating map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/3867Geometry of map features, e.g. shape points, polygons or for simplified maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • G01C21/3874Structures specially adapted for data searching and retrieval
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps

Abstract

디바이스를 이용한 공간 정보 지도 갱신 시스템이 개시된다.
상기 공간 정보 지도 갱신 시스템은, 제 1 외부 기하 데이터가 포함된 기준 기하 정보와 연계하여 기준 영상 데이터를 저장하는 기준 영상 데이터베이스부; 디바이스의 영상 데이터의 2차원 위치 데이터 및 상기 3차원 위치 데이터를 참조하여 상기 기준 영상 데이터와 최고의 정합도를 갖는 상기 영상 데이터를 선정하는 검색 선정부; 상기 기준 영상 데이터와 선정 영상 데이터를 정합하는 정합부; 선정 영상 데이터의 디바이스의 기하 정보를 기하 변환하여 3차원 디바이스 기하 정보로 보정하는 기하 변환부; 상기 디바이스의 영상 데이터에 기반하여 생성된 3차원 영상 정보로부터 특정 형태의 객체를 추출하는 객체 정보 추출부; 상기 추출된 객체와 동일한 기준 영상 데이터의 객체에 기초하여, 객체 정보를 상기 3차원 영상 정보에 포함하는 신규 공간 정보를 생성하는 공간 정보 생성부; 및 동일 위치의 객체 정보에 있어서, 상기 신규 공간 정보가 상기 기존 공간 정보와 상이한지 여부를 판단하여 상이한 객체 정보가 있는 경우, 상기 기존 공간 정보를 상기 신규 공간 정보로 갱신하는 공간 정보 갱신부를 포함한다.
A spatial information map updating system using a device is disclosed.
The spatial information map updating system may include a reference image database unit for storing reference image data in association with reference geometric information including first external geometric data; a search selection unit for selecting the image data having the highest degree of matching with the reference image data by referring to the 2-dimensional location data and the 3-dimensional location data of the image data of the device; a matching unit matching the reference image data and selected image data; a geometric conversion unit for geometrically transforming device geometric information of the selected image data and correcting the 3D device geometric information; an object information extractor extracting a specific type of object from 3D image information generated based on the image data of the device; a spatial information generating unit generating new spatial information including object information in the 3D image information based on the same object of the reference image data as the extracted object; and a spatial information updating unit determining whether the new spatial information is different from the existing spatial information in the object information of the same location, and updating the existing spatial information with the new spatial information if there is different object information. .

Figure P1020210158245
Figure P1020210158245

Description

디바이스를 이용한 공간 정보 지도 갱신 시스템{SYSTEM FOR UPDATING SPATIAL INFORMATION USING DEVICE}Spatial information map update system using device {SYSTEM FOR UPDATING SPATIAL INFORMATION USING DEVICE}

본 개시는 디바이스를 이용한 공간 정보 지도 갱신 시스템에 관한 것이며, 보다 구체적으로 영상 획득이 가능한 디바이스를 이용하여 3차원 공간 정보를 실질적으로 실시간에 갱신할 수 있는 공간 정보 지도 갱신 시스템에 대한 것이다.The present disclosure relates to a spatial information map updating system using a device, and more particularly, to a spatial information map updating system capable of updating 3D spatial information substantially in real time using a device capable of obtaining an image.

공간 정보 분야에서 공간 정보를 업데이트하는 작업은 공간 지도의 유지 관리에 있어서 많은 비중을 차지하고 있다. 특히 도로 운영 및 관리 사업은 수시 혹은 연단위 유지보수가 필요한 지속적인 작업으로 장기간이 소요된다. 기존 유지 관리 방법은 많은 인력이 현장을 직접 방문하여 현황을 파악하고, 갱신 필요 여부를 결정하는 작업으로 많은 시간과 비용이 소요된다.In the field of spatial information, updating spatial information occupies a large portion of spatial map maintenance. In particular, the road operation and management business is a continuous work that requires occasional or annual maintenance and takes a long time. Existing maintenance methods require a lot of time and money as a lot of manpower directly visits the site to understand the current status and decides whether or not renewal is necessary.

이에 따라, 스마트폰, HMD (Head Mount Display), 스마트안경 등 영상 카메라 센서, 측위 센서, 지자기 센서, 자이로 센서, 지자기 센서, 통신 모듈과 더불어 연산 컴퓨팅 시스템을 탑재한 스마트형 디바이스들을 이용하여, 해당 지역의 데이터를 획득하여 공간 정보를 생성하거나 갱신하려는 기술이 시도되고 있다. Accordingly, by using smart devices equipped with an operation computing system along with video camera sensors, positioning sensors, geomagnetic sensors, gyro sensors, geomagnetic sensors, and communication modules such as smart phones, HMD (Head Mount Display), and smart glasses, A technique for generating or updating spatial information by obtaining local data has been attempted.

그러나, 일반적인 단일 카메라 기반의 스마트 디바이스의 영상 데이터로부터 취득된 정보를 3차원 공간 정보를 기반으로 하는 서비스로 연결시키는데 곤란함이 존재하고 있다. 이는 3차원 공간 정보를 활용하는 것에 있어서 데이터 용량, 계산량에 문제가 있는데 기인하여, 이를 극복하기 위한 방안이 지속적으로 제기되고 있다. However, there is a difficulty in connecting information obtained from image data of a general single-camera-based smart device to a service based on 3D spatial information. This is due to problems with data capacity and computational complexity in utilizing 3D spatial information, and methods for overcoming these problems are continuously being proposed.

본 개시의 기술적 과제는 디바이스를 이용한 공간 정보 지도 갱신 시스템에 관한 것이며, 보다 구체적으로 영상 획득이 가능한 디바이스를 이용하여 3차원 공간 정보를 실질적으로 실시간에 갱신할 수 있는 공간 정보 지도 갱신 시스템을 제공하는데 그 목적이 있다. A technical problem of the present disclosure relates to a spatial information map updating system using a device, and more specifically, to provide a spatial information map updating system capable of updating 3D spatial information in real time using a device capable of acquiring images. It has a purpose.

본 개시의 기술적 과제는 상세하게, 2차원 정적 데이터를 3차원 동적 데이터로 구축 가능하고, 광범위한 지역의 데이터를 신속하게 취득하여 인력에 의한 데이터 수집에 비해 작업시간을 획기적으로 단축하는 공간 정보 지도 갱신 시스템을 제공하는데 그 목적이 있다. The technical problem of the present disclosure is, in detail, spatial information map renewal that can construct 2D static data into 3D dynamic data, rapidly acquires data in a wide area, and dramatically reduces work time compared to data collection by manpower. Its purpose is to provide a system.

본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present disclosure are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

본 개시의 일 양상에 따르면, 디바이스를 이용한 공간 정보 지도 갱신 시스템은, 3차원 위치 데이터 및 제 1 자세 데이터를 갖는 제 1 외부 기하 데이터가 포함된 기준 기하 정보와 연계하여 기준 영상 데이터를 저장하는 기준 영상 데이터베이스부; 디바이스로부터 취득한 영상 데이터에 관련되어 적어도 2차원 위치 데이터를 갖는 제 2 외부 기하 데이터를 포함하는 디바이스 기하 정보를 획득하고, 상기 2차원 위치 데이터 및 상기 3차원 위치 데이터를 참조하여 상기 기준 영상 데이터와 최고의 정합도를 갖는 상기 영상 데이터를 선정하는 검색 선정부; 상기 기준 영상 데이터와 상기 선정된 영상 데이터 간에 공통되는 소정 형태의 특징 기하들에 기반하여 상기 기준 영상 데이터와 선정 영상 데이터를 정합하는 정합부; 공통된 특징 기하들에 있어서, 상기 3차원 위치 데이터를 포함하도록, 상기 기준 영상 데이터에 대한 상기 선정 영상 데이터의 디바이스의 기하 정보를 기하 변환하여 3차원 디바이스 기하 정보로 보정하는 기하 변환부; 상기 3차원 디바이스 기하 정보 및 상기 특징 기하에 대한 정합 정보에 기초하여, 상기 디바이스의 영상 데이터에 대해 3차원 영상 정보를 생성하는 3차원 영상 정보 생성부; 상기 3차원 영상 정보로부터 특정 형태의 객체를 추출하는 객체 정보 추출부; 상기 추출된 객체와 동일한 기준 영상 데이터의 객체에 기초하여, 상기 3차원 디바이스 기하 정보 및 상기 기준 영상 데이터에 저장된 상기 객체와 관련된 객체 정보를 상기 3차원 영상 정보에 포함하는 신규 공간 정보를 생성하는 공간 정보 생성부; 및 상기 신규 공간 정보가 공간 정보 데이터베이스부에 저장되며, 상기 공간 정보 데이터베이스부에 이미 저장된 기존 공간 정보가 존재하는 경우에, 동일 위치의 객체 정보에 있어서, 상기 신규 공간 정보가 상기 기존 공간 정보와 상이한지 여부를 판단하고, 판단 결과 상이한 객체 정보에 대하여, 상기 기존 공간 정보를 상기 신규 공간 정보로 갱신하는 공간 정보 갱신부를 포함한다. According to one aspect of the present disclosure, a system for updating a spatial information map using a device includes reference image data stored in association with reference geometry information including first external geometry data having 3D position data and first posture data. an image database unit; Device geometry information including second external geometry data having at least two-dimensional positional data in relation to image data obtained from a device is acquired, and the reference image data and the best-in-class positional data are obtained by referring to the two-dimensional positional data and the three-dimensional positional data. a search selection unit that selects the image data having matching degree; a matching unit matching the reference image data and the selected image data based on feature geometries of a predetermined shape common between the reference image data and the selected image data; In the common feature geometries, a geometric conversion unit that performs geometric conversion of device geometry information of the selected image data with respect to the reference image data to include the 3D position data, and corrects the 3D device geometry information; a 3D image information generating unit generating 3D image information for image data of the device based on the 3D device geometry information and matching information on the feature geometry; an object information extractor extracting a specific type of object from the 3D image information; A space for generating new spatial information including object information related to the object stored in the 3D device geometry information and the reference image data in the 3D image information based on the object of the reference image data that is the same as the extracted object. information generating unit; and when the new spatial information is stored in the spatial information database unit and existing spatial information already stored in the spatial information database unit exists, the new spatial information is different from the existing spatial information in object information at the same location. and a spatial information updating unit that determines whether or not the object information is different as a result of the determination and updates the existing spatial information with the new spatial information.

본 개시의 다른 실시예에 따르면, 상기 제 1 자세 데이터는 기준 영상을 생성하는데 설정된 시야 방향을 정의할 수 있다. According to another embodiment of the present disclosure, the first posture data may define a viewing direction set to generate a reference image.

본 개시의 또 다른 실시예에 따르면, 상기 제 2 외부 기하 데이터는 상기 영상을 생성하는데 설정된 시야 방향을 정의하는 제 2 자세 데이터를 더 포함하고, According to another embodiment of the present disclosure, the second external geometric data further includes second attitude data defining a viewing direction set to generate the image,

상기 검색 선정부는 상기 3차원 위치 데이터 및 상기 2차원 위치 데이터에 기초하여 상기 기준 영상 데이터와 대비가능한 상기 영상 데이터의 후보군을 검색하고, 상기 제 1 및 제 2 자세 데이터를 참조하여 상기 후보군 중 상기 기준 영상 데이터와 최고의 정합도를 갖는 상기 영상 데이터를 선정할 수 있다.The search selection unit searches for a candidate group of the image data that can be compared with the reference image data based on the 3D location data and the 2D location data, and selects the standard among the candidate groups with reference to the first and second posture data. The image data having the highest degree of matching with the image data may be selected.

본 개시의 또 다른 실시예에 따르면, 상기 기준 기하 정보는 상기 기준 영상을 생성하는데 설정된 센서에 정의된 기하 파라미터에 근거한 제 1 내부 기하 데이터를 더 포함하며, 상기 디바이스 기하 정보는 상기 영상을 생성하는데 설정된 영상 센서에 정의된 기하 파라미터에 근거한 제 2 내부 기하 데이터를 더 포함하고, 상기 검색 선정부에서의 상기 최고의 정합도를 갖는 상기 영상 데이터의 선정 및 상기 기하 변환부에서의 상기 3차원 디바이스 기하 정보로의 보정은 상기 제 1 및 제 2 내부 기하 데이터를 더 포함하여 참조할 수 있다. According to another embodiment of the present disclosure, the reference geometric information further includes first internal geometric data based on a geometric parameter defined in a sensor set to generate the reference image, and the device geometric information is used to generate the image. Further including second internal geometric data based on a geometric parameter defined in the set image sensor, selection of the image data having the highest degree of matching in the search selection unit and the 3D device geometry information in the geometry conversion unit Correction of may be referenced by further including the first and second internal geometric data.

본 개시의 또 다른 실시예에 따르면, 상기 기준 영상이 레이저 스캔닝 센서로부터 기인하는 경우에, 상기 기준 영상은 상기 레이저 스캔닝 센서로부터 획득되는 점군 데이터가 변환된 가상의 영상 데이터를 이용하고, 상기 3차원 위치 데이터는 상기 가상의 영상 데이터의 3차원 위치 데이터로 정의되며, 상기 제 1 자세 데이터는 상기 가상의 영상 데이터의 시야 방향으로 정의될 수 있다. According to another embodiment of the present disclosure, when the reference image originates from a laser scanning sensor, the reference image uses virtual image data obtained by converting point cloud data obtained from the laser scanning sensor, and The 3D location data may be defined as 3D location data of the virtual image data, and the first posture data may be defined as a viewing direction of the virtual image data.

본 개시의 또 다른 실시예에 따르면, 상기 3차원 디바이스 기하 정보가 연계된 영상 데이터의 특징 기하들을 랜덤 샘플링하여, 상기 샘플링된 특징 기하들 및 상응하는 상기 기준 영상 데이터의 특징 기하들의 상호 이격량이 최소가 되는 샘플링 영상 데이터의 특징 기하를 정합 최적값으로 추정하는 정합 최적값 추정부, 및 상기 정합 최적값으로 추정된 특징 기하와 관련하여 기하 변환된 3차원 디바이스 기하 정보를 최종 3차원 디바이스 기하 정보로 추정하는 디바이스 기하 정보 추정부를 더 포함하고, 상기 3차원 영상 정보의 생성시에 기초되는 정보 중 상기 3차원 디바이스 기하 정보는 상기 최종 3차원 디바이스 기하 정보를 사용할 수 있다. According to another embodiment of the present disclosure, feature geometries of image data associated with the 3D device geometry information are randomly sampled, and a distance between the sampled feature geometries and the corresponding feature geometries of the reference image data is minimized. A matching optimum value estimator for estimating the feature geometry of the sampling image data to be the matching optimum value, and the 3D device geometry information geometrically transformed in relation to the feature geometry estimated with the matching optimum value as the final 3D device geometry information. The apparatus may further include a device geometric information estimator for estimating, and among information based on generating the 3D image information, the final 3D device geometric information may be used as the 3D device geometric information.

본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.The features briefly summarized above with respect to the disclosure are merely exemplary aspects of the detailed description of the disclosure that follows, and do not limit the scope of the disclosure.

본 개시에 따르면, 디바이스를 이용한 공간 정보 지도 갱신 시스템에 관한 것이며, 보다 구체적으로 영상 획득이 가능한 디바이스를 이용하여 3차원 공간 정보를 실질적으로 실시간에 갱신할 수 있는 공간 정보 지도 갱신 시스템을 제공할 수 있다. According to the present disclosure, it relates to a spatial information map updating system using a device, and more specifically, it is possible to provide a spatial information map updating system capable of updating 3D spatial information in real time using a device capable of acquiring images. there is.

구체적으로 본 개시에 따르면, 2차원 정적 데이터를 3차원 동적 데이터로 구축 가능하고, 광범위한 지역의 데이터를 신속하게 취득하여 인력에 의한 데이터 수집에 비해 작업시간을 획기적으로 단축할 수 있다. Specifically, according to the present disclosure, it is possible to construct 2-dimensional static data into 3-dimensional dynamic data, and rapidly acquire data in a wide area to drastically reduce work time compared to data collection by manpower.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the present disclosure are not limited to the effects mentioned above, and other effects not mentioned may be clearly understood by those skilled in the art from the description below. will be.

도 1은 본 개시의 실시예에 따른 디바이스를 이용한 공간 정보 지도 갱신 시스템 및 이와 통신하는 디바이스에 관한 구성도이다.
도 2는 3차원 영상 정보를 이용한 디바이스의 공간 정보 생성 과정에 관한 순서도이다.
도 3은 기준 데이터베이스부에 저장된 3차원 영상 정보의 일례를 도시한 도면이다.
도 4는 기준 영상 데이터베이스부가 레이저 스캔닝 센서로부터 획득되는 점군 데이터가 변환된 가상의 영상 데이터를 저장하는 형태이다.
도 5는 기준 영상 데이터와 정합 가능한 영상 데이터의 후보군을 검색하는 과정을 도시한 도면이다.
도 6은 기준 영상 데이터와 최고의 정합도를 갖는 영상 데이터를 선정하는 과정을 도시한 도면이다.
도 7은 영상 데이터의 2차원 위치 데이터와 대응하는 기준 영상 데이터의 3차원 위치 데이터를 산출하는 과정을 도시한 도면이다.
도 8은 디바이스의 영상 데이터의 위치 및 시야 방향이 최종 3차원 디바이스 기하 정보로 보정된 일례를 도시한 도면이다.
도 9는 본 개시의 다른 실시예에 따른 공간 정보 지도 갱신 시스템을 이용한 공간 정보의 갱신 과정에 관한 순서도이다.
도 10는 최종 3차원 디바이스 기하 정보 및 객체 정보를 3차원 영상 정보에 포함하는 신규 공간 정보를 생성하는 일례를 도시한 도면이다.
도 11은 공간 정보의 갱신 과정의 일례을 도시한 도면이다.
1 is a configuration diagram of a spatial information map updating system using a device according to an embodiment of the present disclosure and a device communicating therewith.
2 is a flowchart illustrating a process of generating spatial information of a device using 3D image information.
3 is a diagram showing an example of 3D image information stored in a reference database unit.
4 is a form in which the reference image database unit stores virtual image data obtained by converting point cloud data obtained from a laser scanning sensor.
5 is a diagram illustrating a process of searching for a candidate group of video data that can be matched with reference video data.
6 is a diagram illustrating a process of selecting image data having the highest degree of matching with reference image data.
7 is a diagram illustrating a process of calculating 2D position data of image data and 3D position data of reference image data corresponding thereto.
8 is a diagram showing an example in which the location and viewing direction of image data of a device are corrected with final 3D device geometry information.
9 is a flowchart illustrating a process of updating spatial information using a spatial information map updating system according to another embodiment of the present disclosure.
10 is a diagram illustrating an example of generating new space information including final 3D device geometry information and object information in 3D image information.
11 is a diagram showing an example of a process of updating spatial information.

이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily carry out the present disclosure. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein.

본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In describing the embodiments of the present disclosure, if it is determined that a detailed description of a known configuration or function may obscure the gist of the present disclosure, a detailed description thereof will be omitted. And, in the drawings, parts irrelevant to the description of the present disclosure are omitted, and similar reference numerals are attached to similar parts.

본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결 관계 뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present disclosure, when a component is said to be "connected", "coupled" or "connected" to another component, this is not only a direct connection relationship, but also an indirect connection relationship where another component exists in the middle. may also be included. In addition, when a component "includes" or "has" another component, this means that it may further include another component without excluding other components unless otherwise stated. .

본 개시에 있어서, 제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들 간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시 예에서의 제 1 구성요소는 다른 실시 예에서 제 2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제 2 구성요소를 다른 실시 예에서 제 1 구성요소라고 칭할 수도 있다. In the present disclosure, terms such as first and second are used only for the purpose of distinguishing one element from another, and do not limit the order or importance of elements unless otherwise specified. Accordingly, within the scope of the present disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly, a second component in one embodiment may be referred to as a first component in another embodiment. can also be called

본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, components that are distinguished from each other are intended to clearly explain each characteristic, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated to form a single hardware or software unit, or a single component may be distributed to form a plurality of hardware or software units. Accordingly, even such integrated or distributed embodiments are included in the scope of the present disclosure, even if not mentioned separately.

본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, components described in various embodiments do not necessarily mean essential components, and some may be optional components. Therefore, an embodiment composed of a subset of components described in one embodiment is also included in the scope of the present disclosure. In addition, embodiments including other components in addition to the components described in various embodiments are also included in the scope of the present disclosure.

이하, 첨부한 도면을 참조하여 본 개시의 실시 예들에 대해서 설명한다.Hereinafter, embodiments of the present disclosure will be described with reference to the accompanying drawings.

이하, 도 1을 참조하여, 본 발명의 실시예에 따른 디바이스로부터 취득한 2차원 위치 정보의 영상 데이터를 기준 영상 데이터베이스부의 3차원 영상 데이터와 정합하여 소정 처리를 수행함으로써, 3차원 영상 정보를 갖는 영상 데이터를 생성하기 위한, 디바이스의 공간 정보 생성 및 갱신 시스템에 대하여 설명하기로 한다. Hereinafter, with reference to FIG. 1, an image having 3D image information is obtained by performing a predetermined process by matching image data of 2D location information obtained from a device according to an embodiment of the present invention with 3D image data of a reference image database unit. A spatial information generating and updating system of a device for generating data will be described.

도 1은 본 개시의 실시예에 따른 디바이스를 이용한 공간 정보 지도 갱신 시스템 및 이와 통신하는 디바이스에 관한 구성도이다. 1 is a configuration diagram of a spatial information map updating system using a device according to an embodiment of the present disclosure and a device communicating therewith.

상기 시스템(100)은 디바이스(102)에서 촬영된 지형, 지물 등의 공간 객체를 촬영한 영상 데이터가 2차원 위치 데이터와 촬영 당시의 추정된 영상 센서(104)의 시야 방향 등과 결합된 정보를 수신한다. The system 100 receives information in which image data of spatial objects such as terrain and features captured by the device 102 are combined with two-dimensional location data and the direction of the field of view of the image sensor 104 estimated at the time of capturing. do.

먼저 디바이스(102)를 설명하면, 디바이스(102)는 영상 센서(104), 측위 센서(106), IMU 센서(Inertial Measurement Unit; 106), 중앙 처리부(110) 및 통신부(112)를 포함할 수 있다. First, the device 102 will be described. The device 102 may include an image sensor 104, a positioning sensor 106, an IMU sensor (Inertial Measurement Unit; 106), a central processing unit 110, and a communication unit 112. there is.

디바이스(102)는 사람, 이동체 등을 통해 이동하면서 주변 환경을 촬영하는 디바이스로서, 2차원 위치 데이터와 결부된 영상 데이터를 생성하여 상기 시스템(100)에 유무선 네트워크를 통해 송수신하는 장치이다. 예를 들어, 디바이스(102)는 스마트폰, HMD (Head Mount Display), 스마트 안경, 차량 충돌 및 사고 등을 인지하는 차량용 블랙 박스 등일 수 있으나, 상술한 기능을 구현하는 장치라면 이에 제한되지 않는다. The device 102 is a device that captures a surrounding environment while moving through a person or a moving object, and generates image data associated with two-dimensional location data and transmits/receives it to the system 100 through a wired/wireless network. For example, the device 102 may be a smart phone, a head mount display (HMD), smart glasses, a vehicle black box that recognizes vehicle collisions and accidents, etc., but is not limited thereto as long as the device implements the above functions.

영상 센서(104)는 디바이스(102)에 탑재되어 그 주위의 주변 대상물, 예컨대 지형, 지물을 이미지로 촬영하여 영상 데이터 및 영상 데이터가 취득된 당시의 영상용 시간 정보를 취득하는 센서들을 복수 구비할 수 있다. 영상 센서(104)는 평면 영상용 센서, 평면 영상용 센서보다 넓은 화각을 갖는 광역 영상 센서, 측량용 또는 비측량용 카메라일 있으며, 이에 제한되지 않는다. 광역 영상 센서는 서로 다른 방향의 시야 방향을 갖는 영상이 조합된 스테레오 영상, 또는 소정 시야각 내에 배치된 카메라의 영상이 결합되는 파노라마 영상을 생성하며, 예컨대 어안 렌즈를 구비하여 어안 렌즈 영상을 생성하는 카메라 또는 다수개의 카메라를 용한 다중 카메라에 의해 전방위 영상을 출력하는 다중 카메라 시스템 등일 수 있다. The image sensor 104 may include a plurality of sensors mounted on the device 102 to acquire image data and time information for an image at the time when the image data was acquired by capturing an image of a surrounding object, for example, a terrain or a feature, as an image. can The image sensor 104 may be a planar image sensor, a wide area image sensor having a wider field of view than the planar image sensor, or a surveying or non-surveying camera, but is not limited thereto. The wide-area image sensor generates a stereo image in which images having different viewing directions are combined, or a panoramic image in which images of cameras disposed within a predetermined viewing angle are combined. For example, a camera having a fisheye lens to generate a fisheye lens image Alternatively, it may be a multi-camera system that outputs omnidirectional images by using multiple cameras.

영상 데이터가 왜곡 영상을 발생하는 광역 영상 센서로부터 기인하는 경우에, 영상 데이터는 후술할 검색 선정부(116)에 의해. 왜곡 영상을 평면 영상 데이터로 변환하여 생성되는 평면 영상 데이터를 이용할 수 있으며, 상세 변환 과정은 후술하기로 한다. When the image data originates from a wide-area image sensor that generates a distorted image, the image data is retrieved by a search selection unit 116 to be described later. Planar image data generated by converting the distorted image into planar image data may be used, and a detailed conversion process will be described later.

측위 센서(106)는 대상물의 측위 좌표, 디바이스(102)의 위치 등의 항법 정보를 검출하여 대상물 좌표와 관련된 2차원 측위 데이터 및 이 위치 데이터가 취득된 당시의 측위 시간 데이터를 포함하는 2차원 위치 데이터를 취득하는 센서이다. 측위 센서(106)는 예컨대, 국제 위성 항법 시스템(GNSS)이 이용되는 위성 항법 장치(GPS)를 통해 플랫폼의 이동 위치를 취득하는 위치 취득 장치 등으로 구성될 수 있다. The positioning sensor 106 detects navigation information such as the positioning coordinates of an object and the location of the device 102 to obtain a two-dimensional position including two-dimensional positioning data related to the coordinates of the object and positioning time data at the time the position data was acquired. It is a sensor that acquires data. The positioning sensor 106 may be configured with, for example, a position acquisition device that acquires a moving position of the platform through a global positioning system (GPS) in which the Global Positioning System (GNSS) is used.

측위 센서(106)가 GNSS를 이용할 경우, 위치 정보는 측위 데이터, 측위 시간 데이터를 기본적으로 포함함과 함께, 항법위성 정보의 상태 및 개수, 수신기의 고도 정보, 속도, 측위 정밀도, 진북 정보 등을 보조 데이터로 가질 수 있다. When the positioning sensor 106 uses GNSS, the position information basically includes positioning data and positioning time data, as well as the status and number of navigation satellite information, altitude information of the receiver, speed, positioning accuracy, true north information, etc. You can have it as auxiliary data.

IMU 센서(108)는 디바이스(102)의 자세 및 속도를 통해 검출하고, 이로부터 영상 센서(104)의 촬영 방향, 각도 등의 시야 방향, 시야각 등의 자세 데이터를 중앙 처리부(110)에 의해 추정할 수 있다. 영상 센서(104)의 시야 방향은 IMU 센서(108)에서 측정된 방위각 등으로 도 10에 도시된 방향 정보일 수 있으며, 소정 좌표계의 동서남북으로부 표현되는 방위이거나 이동 경로와 상대적으로 결정되는 방위각 등일 수 있다. 영상 센서(104)의 시야각은 IMU 센서(108)를 구성하는 가속도계, 각가속도계, 중력계 등이 영상 센서(104)의 지면에 대해 기울어지는 경사를 계측하여 생성될 수 있다. IMU 센서는 관성 항법 장치(Inertial Navigation System; INS)를 통해 디바이스(102) 및 영상 센서의 자세 데이터를 취득하거나 산출하는 자세 취득 장치 등으로 구성될 수 있다. The IMU sensor 108 detects the posture and speed of the device 102, and from this, the central processing unit 110 estimates posture data such as the viewing direction and angle of view of the image sensor 104, such as the shooting direction and angle. can do. The viewing direction of the image sensor 104 may be direction information shown in FIG. 10 as an azimuth measured by the IMU sensor 108, and may be an azimuth expressed as north, south, east, west, or the like of a predetermined coordinate system, or an azimuth angle determined relative to a movement path. can The viewing angle of the image sensor 104 may be generated by measuring an inclination of the image sensor 104 with respect to the ground by an accelerometer, an angular accelerometer, a gravimeter, etc. constituting the IMU sensor 108 . The IMU sensor may include a posture acquisition device that acquires or calculates posture data of the device 102 and an image sensor through an inertial navigation system (INS).

중앙 처리부(110)는 영상 센서(104)로부터 취득된 영상 데이터에 측위 센서(106) 및 IMU 센서(108)로부터 입수된 영상 센서(104)의 2차원 위치 데이터와 자세 데이터(이하, '제 2 자세 데이터' 라 함)를 갖는 외부 기하 데이터(이하, '제 2 외부 기하 데이터' 라 함)와 더불어 영상 센서(104), 측위 센서(106), IMU 센서(108)에 정의된 기하 파라미터에 근거한 내부 기하 데이터(이하, '제 2 내부 기하 데이터' 라 함)를 포함하는 디바이스 기하 정보를 생성할 수 있다. 중앙 처리부(110)는 상술한 데이터들을 통신부(112)를 통해 전송하도록 제어하거나, 상기 시스템(100)으로부터 특정 데이터들을 수신하여 필요한 처리를 수행할 수 있다. The central processing unit 110 converts the two-dimensional position data and posture data of the image sensor 104 obtained from the positioning sensor 106 and the IMU sensor 108 to the image data acquired from the image sensor 104 (hereinafter referred to as 'second Based on the geometric parameters defined in the image sensor 104, the positioning sensor 106, and the IMU sensor 108 together with external geometric data (hereinafter referred to as 'second external geometric data') having 'position data') Device geometry information including internal geometry data (hereinafter referred to as 'second internal geometry data') may be generated. The central processing unit 110 may control transmission of the above-described data through the communication unit 112 or may receive specific data from the system 100 and perform necessary processing.

제 2 외부 기하 데이터는 이동 중인 디바이스(102)의 위치와 자세, 즉 영상 센서(104)의 위치와 자세로 인해, 영상 센서(104)의 영상 정보를 취득할 때마다 가변되는 파라미터 값에 기초하여 산출되는 관측 데이터의 오차이며, 이 경우에 소정의 수학식 내지 모델링을 통해 계산될 수 있다. 영상 데이터가 광역 영상 센서로부터 기인하는 경우에, 2차원 위치 데이터는 평면 영상 데이터의 2차원 위치 데이터를 활용하고, 제 2 자세 데이터는 평면 영상 데이터의 시야 방향 및 시야각 등으로 정의될 수 있다. The second external geometry data is based on a parameter value that varies whenever image information of the image sensor 104 is acquired due to the position and posture of the moving device 102, that is, the position and posture of the image sensor 104. It is the error of the calculated observation data, and in this case, it can be calculated through a predetermined equation or modeling. In the case where the image data originates from a wide-area image sensor, the 2D location data may utilize the 2D location data of the planar image data, and the second attitude data may be defined as the viewing direction and viewing angle of the planar image data.

제 2 내부 기하 데이터는 센서(104~108) 자체의 고유값으로서, 디바이스(102)의 이동 여부에 관계없이 유지되는 파라미터에 기인하는 센서(104~108)마다의 관측 데이터의 오차이다. 영상 센서(104)의 기하 파라미터는 초점거리, 주점 위치, 렌즈왜곡 파라미터 및 센서 포맷 크기 중 어느 하나 이상을 포함할 수 있다. 측위 센서(106) 또는 IMU 센서(108)의 기하 파라미터는 축방향의 스케일 및 축방향의 오프셋 중 어느 하나 이상을 포함할 수 있다.The second internal geometric data is a unique value of the sensors 104 to 108 and is an error in observation data of each sensor 104 to 108 due to a parameter maintained regardless of whether the device 102 moves. The geometric parameter of the image sensor 104 may include any one or more of a focal length, a principal point location, a lens distortion parameter, and a sensor format size. The geometric parameters of the positioning sensor 106 or IMU sensor 108 may include one or more of an axial scale and an axial offset.

상기 시스템(100)은 기준 영상 데이터베이스부(114), 검색 선정부(116), 정합부(118), 기하 변환부(120), 정합 최적값 추정부(122), 디바이스 기하 정보 추정부(124), 3차원 영상 정보 생성부(126), 객체 정보 추출부(128), 공간 정보 생성부(130), 공간 정보 갱신부(132) 및 공간 정보 데이터베이스부(134)를 포함할 수 있다. The system 100 includes a reference image database unit 114, a search selection unit 116, a matching unit 118, a geometric conversion unit 120, an optimal matching value estimation unit 122, and a device geometric information estimation unit 124. ), a 3D image information generating unit 126, an object information extracting unit 128, a spatial information generating unit 130, a spatial information updating unit 132, and a spatial information database unit 134.

기준 영상 데이터베이스부(114)는 기준 영상의 3차원 위치 데이터와, 기준 영상을 생성하는데 설정된 시야 방향, 시야각을 정의하는 제 1 자세 데이터를 갖는 제 1 외부 기하 데이터가 포함된 기준 기하 정보와 연계하여 기준 영상 데이터를 저장한다. 3차원 위치 데이터는 2차원 위치 데이터, 즉 XY 좌표에서 고도값 Z을 추가한 XYZ 좌표일 수 있다. 시야 방향 및 시야각은 영상 센서(104)에 설명된 점과 실질적으로 동일하다. 또한, 기준 기하 정보는 기준 영상을 생성하는데 설정된 센서에 정의된 기하 파라미터에 근거한 제 1 내부 기하 데이터를 더 포함할 수 있다. The reference image database unit 114 is linked with reference geometry information including 3D positional data of the reference image and first external geometry data having first attitude data defining the viewing direction and viewing angle set to generate the reference image. Stores the reference image data. The 3D location data may be 2D location data, that is, XYZ coordinates obtained by adding an altitude value Z from XY coordinates. The viewing direction and viewing angle are substantially the same as those described for the image sensor 104 . In addition, the reference geometry information may further include first internal geometry data based on a geometry parameter defined in a sensor set to generate a reference image.

기준 영상은 외부로부터 입수되며, 3차원 위치 데이터가 적어도 포함되는 영상이며, 디바이스(102)로부터 획득된 영상 데이터와 대비가능한 기준 영상 데이터로 가공된다. 기준 영상을 생성하는데 최초 이용되는 센서는 디바이스(102)보다 높은 측위 정확도, 영상 구현 성능을 갖는 영상 획득 기기 및 레이저 스캔닝 센서(예컨대, 라이다(Lidar)) 중 적어도 하나일 수 있다. 기준 영상과 연계된 기준 기하 정보는 각 픽셀 좌표마다, 3차원 위치 정보, RGB 데이터와 같은 색상 정보, 제 1 외부 기하 데이터 및 제 1 내부 기하 데이터를 포함하고, 기준 기하 정보와 결합되는 기준 영상은 기준 영상 데이터로 저장될 수 있다.The reference image is obtained from the outside, is an image that includes at least 3D location data, and is processed into reference image data that can be compared with image data obtained from the device 102 . The sensor initially used to generate the reference image may be at least one of an image acquisition device having higher positioning accuracy and image realization performance than the device 102 and a laser scanning sensor (eg, Lidar). The reference geometric information associated with the reference image includes, for each pixel coordinate, 3D location information, color information such as RGB data, first external geometric data, and first internal geometric data, and the reference image combined with the reference geometric information It may be stored as reference image data.

기준 영상을 생성하는데 최초 이용되는 센서가 영상 센서인 경우에, 제 1 내부 기하 데이터는 제 2 내부 기하 데이터에서 설명된 영상 센서(104)와 실질적으로 동일하다. 최초 이용되는 센서가 레이저 스캔닝 센서인 경우에 제 1 내부 기하 데이터는 예로 들면, 각 레이저의 입사각, 거리 스케일, 거리 방향 오프셋 및 축방향 오프셋 중 적어도 하나일 수 있다. When the sensor initially used to generate the reference image is an image sensor, the first internal geometric data is substantially the same as the image sensor 104 described in the second internal geometric data. When the sensor used initially is a laser scanning sensor, the first internal geometric data may be, for example, at least one of an incident angle of each laser, a distance scale, a distance direction offset, and an axial direction offset.

기준 영상이 왜곡 영상을 발생하는 광역 영상 센서로부터 기인하는 경우에, 기준 영상은 왜곡 영상을 평면 영상 데이터로 변환하여 생성되는 평면 영상 데이터를 이용하며, 3차원 위치 데이터는 평면 영상 데이터의 3차원 위치 데이터를 활용하고, 제 1 자세 데이터는 평면 영상 데이터의 시야 방향, 시야각 등으로 정의될 수 있다. 상세 변환 과정은 후술하기로 한다. When the reference image originates from a wide-area image sensor that generates a distorted image, the reference image uses planar image data generated by converting the distorted image into planar image data, and the 3D position data is the 3D location of the planar image data. Data is utilized, and the first attitude data may be defined as a viewing direction and a viewing angle of the planar image data. A detailed conversion process will be described later.

기준 영상이 레이저 스캔닝 센서로부터 기인하는 경우에, 기준 영상은 레이저 스캔닝 센서로부터 획득되는 점군 데이터가 변환된 가상의 영상 데이터를 이용할 수 있다, 3차원 위치 데이터는 가상의 영상 데이터의 3차원 위치 데이터로 정의되며, 상기 제 1 자세 데이터는 상기 가상의 영상 데이터의 시야 방향으로 정의될 수 있다. 점군 데이터의 변환은 점군 데이터의 반사 강도, 고도값 등을 감안하는 가상 카메라 모델링에 의해 수행될 수 있다. 기준 영상 생성시에 영상 센서가 추가로 관여되는 경우에, 점군 데이터의 변환시에 영상 센서로 획득된 색상 데이터가 가상의 영상 데이터에 포함될 수 있다. In the case where the reference image originates from the laser scanning sensor, the reference image may use virtual image data obtained by converting point cloud data obtained from the laser scanning sensor. The 3D location data is the 3D location of the virtual image data. data, and the first posture data may be defined as a viewing direction of the virtual image data. The conversion of the point cloud data may be performed by virtual camera modeling taking into account the reflection intensity and altitude value of the point cloud data. When an image sensor is additionally involved in generating the reference image, color data acquired by the image sensor when converting point cloud data may be included in the virtual image data.

이에 더하여, 기준 영상 데이터베이스부(114)는 기준 영상 데이터에 특정 형태의 객체와 관련된 정보, 즉 객체 정보를 함께 연게하여 격납한다. 예를 들어, 객체는 지도 상에 표시될 필요가 있는 건축물, 자율주행을 위해 인식이 필요한 교통 표지판, 신호등, 차선 등이 해당될 수 있다. 이 경우에, 객체 정보는 대상물의 종류, 전체 모양, 대상물의 적어도 일부를 구성하는 선, 면, 원, 구 등과 같은 특정 기하학적 형상, 색상, 질감 관련 속성을 포함할 수 있다. In addition, the reference image database unit 114 connects and stores information related to a specific type of object, that is, object information, together with the reference image data. For example, the object may correspond to a building that needs to be displayed on a map, a traffic sign that needs to be recognized for autonomous driving, a traffic light, a lane, and the like. In this case, the object information may include the type of the object, the overall shape, a specific geometric shape such as a line, plane, circle, or sphere constituting at least a part of the object, color, and texture-related properties.

한편, 검색 선정부(116)는 디바이스(102)로부터 취득한 영상 데이터에 관련되어 디바이스 기하 정보를 획득하고, 3차원, 2차원 위치 데이터와 자세 데이터를 포함하는 제 1 및 제 2 외부 기하 데이터, 제 1 및 제 2 내부 기하 데이터를 참조하여 기준 영상 데이터와 정합 가능한 영상 데이터의 후보군을 검색하며, 후보군 중 기준 영상 데이터와 최고의 정합도를 갖는 영상 데이터를 선정한다. On the other hand, the search selection unit 116 acquires device geometry information in relation to the image data acquired from the device 102, and first and second external geometry data including 3D and 2D position data and attitude data, A candidate group of image data that can be matched with the reference image data is searched with reference to the first and second internal geometric data, and image data having the highest degree of matching with the reference image data is selected from among the candidate groups.

여기서, 영상 데이터는 색상 정보를 가진 행렬 형태의 데이터 뿐만 아니라 특정 객체를 대표할 수 있는 특징을 지닌 디스크립터(descriptor)로 사용될 수 있다. Here, the image data may be used as a descriptor having characteristics capable of representing a specific object as well as data in a matrix form having color information.

구체적으로, 검색 선정부(116)는 3차원 위치 데이터 및 2차원 위치 데이터에 기초하여 기준 영상 데이터와 대비가능한 영상 데이터의 후보군을 검색하고, 제 1 및 제 2 자세 데이터를 참조하여 후보군 중 기준 영상 데이터와 최고의 정합도를 갖는 영상 데이터를 선정할 수 있다. Specifically, the search selection unit 116 searches for a candidate group of image data that can be compared with the reference image data based on the 3D position data and the 2D position data, and selects a reference image from among the candidate group by referring to the first and second posture data. Image data having the highest degree of matching with data may be selected.

검색 선정부(116)는 디바이스(102)로부터 획득되는 영상 데이터가 광역 영상 센서로부터 기인하는 경우에, 광역 영상의 왜곡을 제거하고 평면 영상 데이터로 변환하는 프로세스를 상술한 최고의 정합도를 갖는 영상 데이터의 선정 과정 전에 실행할 수 있다. When the image data acquired from the device 102 originates from the wide-area image sensor, the search selection unit 116 removes the distortion of the wide-area image and converts the image data into planar image data as described above. can be performed prior to the selection process.

이상의 실시예에서는 검색 선정부(116)가 자세 데이터를 포함하는 제 1 및 제 2 외부 기하 데이터, 제 1 및 제 2 내부 기하 데이터까지 분석하여 영상 데이터의 후보군을 선정하고 최고의 정합도를 갖는 영상 데이터를 선정하는 것으로 설명하고 있으나, 2차원 위치 데이터와 함께, 3차원 위치 데이터의 고도값을 제외한 다른 값들에 기반하여 후보군 선정과 영상 데이터의 선정 프로세스를 수행할 수 있다. In the above embodiment, the search selection unit 116 analyzes the first and second external geometric data including posture data and the first and second internal geometric data to select a candidate group of image data and image data having the highest degree of matching. Although it is described as selecting , a process of selecting a candidate group and image data may be performed based on values other than the altitude value of the 3D location data together with the 2D location data.

정합부(118)는 기준 영상 데이터와 선정된 영상 데이터 간에 공통되는 소정 형태의 특징 기하들에 기반하여 기준 영상 데이터와 선정 영상 데이터를 정합하고, 특징 기하를 참고하여 공선조건식 등의 기하 모델을 통해 복수의 선정 영상 데이터를 결합할 수 있다. The matching unit 118 matches the reference image data and the selected image data based on feature geometries of a predetermined shape common between the reference image data and the selected image data, and through a geometric model such as a collinear conditional expression with reference to the feature geometry. A plurality of selected image data may be combined.

소정 형태의 특징 기하는 동일한 위치로 추정되는 선정 영상 데이터와 기준 영상 데이터에 표현된 객체의 특정 기하하적 형상에 기초하여 추출될 수 있다. 객체는 예컨대 도로 표지판, 특이 형상의 물체, 건물 경계선 등과 같이 영상 데이터 상에서 점, 선, 면, 기둥 등의 특징 기하가 용이하게 추출가능한 대상물로 랜덤으로 선정될 수 있다. 이러한 특징 기하는 선정 영상 데이터와 기준 영상 데이터 간의 자세 데이터가 다소 상이하더라도 동일한 객체로의 추정 가능성이 높은 소정 형태를 채용하고, 예를 들어 도로 노면에 표시된 차선, 도로 표지, 건물 윤곽 등일 수 있다. A feature geometry of a predetermined shape may be extracted based on a specific geometric shape of an object expressed in the selected image data and the reference image data estimated to have the same location. The object may be randomly selected as an object from which feature geometry such as a point, line, plane, column, etc. can be easily extracted from image data, such as a road sign, a uniquely shaped object, or a building boundary. This feature geometry adopts a predetermined shape that is highly likely to be estimated as the same object even if the attitude data between the selected image data and the reference image data are slightly different, and may be, for example, a lane marked on a road surface, a road sign, or a building outline.

기하 변환부(120)는 공통된 특징 기하들에 있어서, 기하 변환 모델링에 의해 기준 영상 데이터에 대한 선정 영상 데이터의 디바이스의 기하 정보를 3차원 위치 데이터를 포함하도록 기하 변환하여 3차원 디바이스 기하 정보로 보정한다. In common feature geometries, the geometric transformation unit 120 geometrically transforms the geometric information of the device of the selected image data for the reference image data by geometric transformation modeling to include the 3D position data, and corrects the 3D device geometric information. do.

기하 변환 모델링은 수학식 1과 같은 공선조건식을 이용하거나, 영상 데이터의 기하를 행렬형태로 반영할 수 있는 perspective transformation, affine transformation, homography transformation 중 하나를 대체모델링을 사용할 수 있다.Geometric transformation modeling may use a collinear condition expression such as Equation 1 or substitute modeling for one of perspective transformation, affine transformation, and homography transformation that can reflect the geometry of image data in a matrix form.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

영상 좌표는 동일 특징 기하와 관련된 영상 데이터의 2차원 위치 데이터이며, 대상물 좌표는 동일 특징 기하에 대한 기준 영상 데이터의 3차원 위치 데이터이다. 카메라 위치 및 자세는 기준 영상 데이터의 제 1 외부 기하 데이터이고, 주점 위치, 초점 거리, 렌즈 왜곡은 제 1 내부 기하 데이터이다. Image coordinates are 2D positional data of image data related to the same feature geometry, and object coordinates are 3D positional data of reference image data for the same feature geometry. The camera position and posture are first external geometric data of the reference image data, and the principal point position, focal length, and lens distortion are first internal geometric data.

정합 최적값 추정부(122)는 3차원 디바이스 기하 정보가 연계된 영상 데이터의 특징 기하들을 랜덤 샘플링하여, 샘플링된 특징 기하들 및 상응하는 기준 데이터의 특징 기하들의 상호 이격량이 최소가 되는 샘플링 영상 데이터의 특징 기하를 정합 최적값으로 추정할 수 있다. The matching optimal value estimator 122 randomly samples feature geometries of image data linked with 3D device geometry information, and the sampled image data for which the distance between the sampled feature geometries and the corresponding feature geometries of reference data is minimized. The feature geometry of can be estimated as the matching optimal value.

구체적으로, 동일 추정되는 특징 기하들마다 특징 기하를 공유하는 영상 데이터들을 복수로 샘플링함과 동시에, 특징 기하를 갖는 기준 영상 데이터를 연동하여 선별한다. 이어서, 동일 추정되는 특징 기하를 공유하는 영상 데이터들과 기준 영상 데이터를 3차원 디바이스 기하 정보에 따라 배열하는 경우에, 영상 데이터들과 기준 영상 데이터에 동일 추정의 특징 기하들 간에 이격량이 최소로 판단되는 영상 데이터들의 특징 기하를 정합 최적값으로 추정한다. Specifically, a plurality of image data sharing feature geometries are sampled for each of the same estimated feature geometries, and at the same time, reference image data having feature geometries are interlocked and selected. Next, when the image data and reference image data sharing the same estimated feature geometry are arranged according to the 3D device geometry information, it is determined that the distance between the image data and the reference image data between the feature geometries of the same estimate is minimal. The feature geometries of the image data are estimated as optimal matching values.

디바이스 기하 정보 추정부(124)는 상술의 정합 최적값으로 추정된 특징 기하와 관련하여 기하 변환된 3차원 디바이스 기하 정보를 최종 3차원 디바이스 기하 정보로 추정할 수 있다. The device geometric information estimator 124 may estimate the 3D device geometric information geometrically transformed in relation to the feature geometry estimated to be the optimal matched value as the final 3D device geometric information.

3차원 영상 정보 생성부(126)는 최종 3차원 디바이스 기하 정보 및 특징 기하에 대한 정합 정보에 기초하여, 디바이스(102)의 영상 데이터에 대해 3차원 영상 정보를 생성한다. The 3D image information generator 126 generates 3D image information for the image data of the device 102 based on the final 3D device geometry information and matching information on feature geometry.

3차원 영상 정보는 기준 영상 데이터베이스부(114)의 기준 영상 데이터와 같이, 기하 변환에 의해 보정된 영상 데이터 및 이와 연계되어 3차원 위치 데이터, 보정된 제 2 자세 데이터를 포함하는 보정된 제 2 외부 기하 데이터, 보정된 제 2 내부 기하 데이터를 포함하는 최종 3차원 디바이스 기하 정보, 색상 데이터, 시간 데이터 등을 포함할 수 있다. The 3D image information is the corrected second external image data including the image data corrected by geometric transformation and the 3D position data and corrected second posture data in connection with the image data, such as the reference image data of the reference image database unit 114. It may include geometry data, final 3D device geometry information including corrected second internal geometry data, color data, time data, and the like.

객체 정보 추출부(128)는 영상 데이터로부터 기인하는 3차원 영상 정보로부터 특정 형태의 객체를 추출할 수 있다. The object information extractor 128 may extract a specific type of object from 3D image information derived from image data.

구체적으로, 객체 정보 추출부(128)는 3차원 영상 정보에 포함된 데이터들에 기초하여 추출된 대상물의 속성과 관련된 객체 정보를 추출할 수 있다.Specifically, the object information extractor 128 may extract object information related to the attribute of the extracted object based on data included in the 3D image information.

객체 정보 추출부(128)는 3차원 영상 정보에 포함된 영상 데이터, 최종 3차원 디바이스 기하 정보, 색상 데이터, 시간 데이터 등으로부터 파악된 대상물과 관련된 후보군 데이터를 머신 러닝 기법으로 검출하고, 검출된 후보군 데이터에 순차적으로 추가 기계학습 모델을 적용하여 대상물의 정보를 인식할 수 있다. The object information extractor 128 detects candidate group data related to the object identified from the image data included in the 3D image information, final 3D device geometry information, color data, time data, etc. using a machine learning technique, and detects the detected candidate group It is possible to recognize the information of an object by sequentially applying additional machine learning models to the data.

기계학습은 대상물 객체 검출, 대상물 객체 인식 두 단계로 나누어져 수행되고, 대상물 객체 검출 단계에서는 대상물 객체의 모양, 색상, 질감 등의 벡터와 같은 속성을 기반으로 데이터 내에서 후보군을 기계학습을 통해 검출하고, 검출된 후보군에 순차적으로 추가 기계학습 모델을 적용하여 대상 사물이 나타내는 정보를 인식하여 분류한다.Machine learning is performed in two steps: object detection and object recognition. In the object object detection step, a candidate group is detected within the data through machine learning based on properties such as vectors such as shape, color, and texture of the object object. Then, additional machine learning models are sequentially applied to the detected candidate group to recognize and classify the information represented by the target object.

공간 정보 생성부(130)는 추출된 객체와 동일한 기준 영상 데이터의 객체에 기초하여, 최종 3차원 디바이스 기하 정보 및 기준 영상 데이터에 저장된 객체와 관련된 객체 정보를 3차원 영상 정보에 포함하는 소정 좌표계, 예컨대 절대좌표계에 따른 신규 공간 정보를 생성하며, 공간 정보 데이터베이스부(134)에 전송하여 저장할 수 있다. 공간 정보는 후술한 공간 데이터로서 상세 정보에 대해서는 이후에 설명한다. The spatial information generating unit 130 includes, based on the object of the reference image data identical to the extracted object, object information related to the object stored in the final 3D device geometry information and the reference image data in the 3D image information, a predetermined coordinate system, For example, new spatial information according to the absolute coordinate system may be generated, transmitted to and stored in the spatial information database unit 134 . Spatial information is spatial data described later, and detailed information will be described later.

공간 정보 데이터베이스부(134)는 소정 좌표계, 예컨대 절대 좌표계에 따라, 이종 센서들로부터 기 획득된 관측 데이터와 관측 데이터에 기초하여 도화를 위해 기 생성된 데이터를 공간 데이터로 구조화하여 저장한다. 공간 데이터는 소정 좌표계의 해당 좌표 등에 생성된 데이터로서, 관측 데이터, 내부 기하, 외부 기하, 고유 데이터, 시간 정보, 취득 환경 정보, 이종 센서들 간의 센서 데이터들의 위치 오차로 인한 이격량, 정확도, 정밀도 관련한 확률 정보, 점군 데이터 관련 정보, 영상 데이터 관련 정보, 객체 정보 및 지도 관련 정보를 포함할 수 있다. 본 실시예에서는 공간 데이터가 상술한 데이터들 내지 정보들을 전부 포함하는 것으로 기술하고 있으나, 이에 제한되지 않으며, 설계 사양에 따라 상술한 데이터/정보들 중 일부만을 포함하도록 설정될 수 있다. 공간 정보 데이터베이스부(134)는 3차원의 동일 공간 데이터를 시계열적으로 저장하여, 3차원 동적 데이터(XYZ, Time)로 구축될 수 있다. The spatial information database unit 134 structures and stores observation data pre-obtained from heterogeneous sensors and pre-generated data for drawing as spatial data based on the observation data according to a predetermined coordinate system, for example, an absolute coordinate system. Spatial data is data generated from corresponding coordinates in a predetermined coordinate system, and includes observation data, internal geometry, external geometry, unique data, time information, acquisition environment information, separation amount due to positional error of sensor data between heterogeneous sensors, accuracy, and precision. It may include related probability information, point cloud data related information, image data related information, object information, and map related information. In this embodiment, spatial data is described as including all of the above data or information, but is not limited thereto, and may be set to include only some of the above data/information according to design specifications. The spatial information database unit 134 may be constructed as 3D dynamic data (XYZ, Time) by time-sequentially storing the same 3D spatial data.

공간 정보 갱신부(132)는 공간 정보 데이터베이스부(134)에 이미 저장된 기존 공간 정보가 존재하는 경우에, 동일 위치의 객체 정보에 있어서, 신규 공간 정보가 기존 공간 정보와 상이한지 여부를 판단하고, 판단 결과 상이한 객체 정보에 대하여, 기존 공간 정보를 신규 공간 정보로 갱신할 수 있다. When existing spatial information already stored in the spatial information database 134 exists, the spatial information updating unit 132 determines whether the new spatial information is different from the existing spatial information in the object information of the same location; As a result of the determination, with respect to different object information, existing spatial information may be updated with new spatial information.

본 실시예에 따르면, 디바이스(102)의 2차원 위치 데이터를 갖는 영상 데이터와 3차원 위치 데이터를 갖는 기준 영상 데이터 간의 정합을 서로 다른 차원 간의 정합 방식이 아닌, 2차원 영상 매칭 방식을 적용할 수 있어 낮은 복잡도로 신속하게 정합 프로세스를 수행할 수 있다. According to the present embodiment, a 2D image matching method can be applied to matching between image data having 2D location data of the device 102 and reference image data having 3D location data, rather than a matching method between different dimensions. Therefore, the matching process can be performed quickly with low complexity.

또한, 기준 영상 데이터에 포함된 정밀도 및 정확도가 높은 3차원 위치 데이터로 영상 데이터의 위치 데이터를 기하 변환하여 보정함으로써, 3차원 영상 정보를 생성할 수 있으며, 이에 따라 추후 높은 정밀도/정확도를 요구하는 후속 데이터 처리에서 유용하게 활용될 수 있다.In addition, it is possible to generate 3D image information by geometrically transforming and correcting the location data of the image data with 3D location data of high precision and accuracy included in the reference image data. It can be usefully utilized in subsequent data processing.

이에 더하여, 본 실시예에서는 정합 최적값 추정부(122)를 통해 동일 추정되는 특징 기하들 간의 상호 이격량이 최소인 특징 기하들로 최종 3차원 디바이스 기하 정보등을 생성하고 있으나, 제 2 외부 기하 데이터가 영상 데이터들 간의 정합을 양호하게 실현할 수 있는 데이터인 바, 특징 기하들 간의 상호 이격량이 임계치 이하로 되는 조건을 만족하면, 기하 변환부(120)는 생략될 수 있다. In addition, in this embodiment, final 3D device geometry information is generated with feature geometries having a minimum mutual distance between feature geometries estimated through the matching optimal value estimation unit 122, but the second external geometry data Since is data that can achieve good matching between image data, if the condition that the distance between feature geometries is less than or equal to a threshold value is satisfied, the geometry conversion unit 120 may be omitted.

이하, 도 2 내지 도 8을 참조하여, 3차원 영상 정보를 이용한 디바이스의 공간 정보 생성 과정에 대해 설명하기로 한다. 본 실시예에서는 기준 영상 데이터와 최고의 정합도를 갖는 영상 데이터를 선정하는 과정에서 제 1 및 제 2 자세 데이터를 활용하고, 기하 변환부(120)의 기능이 수행되는 점을 포함한다. 그러나 앞서 설명한 바와 같이, 이들은 생략될 수 있다. Hereinafter, with reference to FIGS. 2 to 8 , a process of generating spatial information of a device using 3D image information will be described. In this embodiment, the first and second posture data are used in the process of selecting the image data having the highest degree of matching with the reference image data, and the function of the geometric conversion unit 120 is performed. However, as explained above, they may be omitted.

도 2는 3차원 영상 정보를 이용한 디바이스의 공간 정보 생성 과정에 관한 순서도이다. 도 3은 기준 데이터베이스부에 저장된 3차원 영상 정보의 일례를 도시한 도면이다.2 is a flowchart illustrating a process of generating spatial information of a device using 3D image information. 3 is a diagram showing an example of 3D image information stored in a reference database unit.

먼저, 검색 선정부(116)는 디바이스(102)로부터의 취득한 영상 데이터에 관련된 2차원 위치 데이터와 제 2 자세 데이터를 갖는 제 2 외부 기하 데이터 및 제 2 내부 기하 데이터를 포함하는 디바이스 기하 정보를 획득한다(S105).First, the search selection unit 116 acquires device geometry information including second external geometry data and second internal geometry data having two-dimensional position data and second attitude data related to image data obtained from the device 102. Do (S105).

제 2 외부 기하 데이터는 이동 중인 디바이스(102)의 위치와 자세, 즉 영상 센서(104)의 위치와 자세로 인해, 영상 센서(104)의 영상 정보를 취득할 때마다 가변되는 파라미터 값에 기초하여 산출되는 관측 데이터의 오차이며, 이 경우에 소정의 수학식 내지 모델링을 통해 계산될 수 있다. 제 2 내부 기하 데이터는 센서(104~108) 자체의 고유값으로서, 디바이스(102)의 이동 여부에 관계없이 유지되는 파라미터에 기인하는 센서(104~108)마다의 관측 데이터의 오차이다. 센서(104~108) 마다의 기하 파라미터는 상술하여 생략한다. The second external geometry data is based on a parameter value that varies whenever image information of the image sensor 104 is acquired due to the position and posture of the moving device 102, that is, the position and posture of the image sensor 104. It is the error of the calculated observation data, and in this case, it can be calculated through a predetermined equation or modeling. The second internal geometric data is a unique value of the sensors 104 to 108 and is an error in observation data of each sensor 104 to 108 due to a parameter maintained regardless of whether the device 102 moves. Geometric parameters for each of the sensors 104 to 108 are omitted from the above description.

다음으로, 검색 선정부(116)는 3차원 위치 데이터와 제 1 자세 데이터를 갖는 제 1 외부 기하 데이터 및 제 1 내부 기하 데이터를 포함하는 기준 영상 데이터의 기준 기하 정보 중 적어도 3차원 위치 데이터와 영상 데이터의 2차원 위치 데이터에 기초하여 영상 데이터의 후보군을 검색한다(S110).Next, the search selection unit 116 includes at least three-dimensional position data and an image among reference geometry information of reference image data including first external geometry data having 3-dimensional position data and first posture data and first internal geometry data. A candidate group of image data is searched based on the 2D location data of the data (S110).

여기서, 영상 데이터는 색상 정보를 가진 행렬 형태의 데이터 뿐만 아니라 특정 객체를 대표할 수 있는 특징을 지닌 디스크립터(descriptor)로 사용될 수 있다. Here, the image data may be used as a descriptor having characteristics capable of representing a specific object as well as data in a matrix form having color information.

기준 영상 데이터는 기준 영상 데이터베이스부(114)에 저장되며, 기준 영상 데이터는 도 3과 같이, 짙은 색으로 표시된 픽셀에서 3차원 위치 데이터를 비롯한 상술의 데이터들을 저장한다. 3차원 위치 데이터는 2차원 위치 데이터, 즉 XY 좌표에서 고도값 Z을 추가한 XYZ 좌표일 수 있다. 제 1 외부 기하 데이터는 상술한 제 1 자세 데이터를 3차원 위치 데이터와 함께 포함하고, 제 1 내부 기하 데이터는 기준 영상을 생성하는데 설정된 센서에 정의된 기하 파라미터에 근거한다. The reference image data is stored in the reference image database unit 114, and as shown in FIG. 3, the reference image data stores the above-described data including 3D position data of pixels displayed in dark colors. The 3D location data may be 2D location data, that is, XYZ coordinates obtained by adding an altitude value Z from XY coordinates. The first external geometric data includes the above-described first attitude data together with the 3D position data, and the first internal geometric data is based on geometric parameters defined in a sensor set to generate a reference image.

기준 영상은 외부로부터 입수되며, 3차원 위치 데이터가 적어도 포함되는 영상이며, 디바이스(102)로부터 획득된 영상 데이터와 대비가능한 기준 영상 데이터로 가공된다. 기준 영상을 생성하는데 최초 이용되는 센서는 디바이스(102)보다 높은 측위 정확도, 영상 구현 성능을 갖는 영상 획득 기기 및 레이저 스캔닝 센서(예컨대, 라이다(Lidar)) 중 적어도 하나일 수 있다. 기준 영상과 연계된 기준 기하 정보는 각 픽셀 좌표마다, 3차원 위치 정보, RGB 데이터와 같은 색상 정보, 제 1 외부 기하 데이터 및 제 1 내부 기하 데이터를 포함하고, 기준 기하 정보와 결합되는 기준 영상은 기준 영상 데이터로 저장될 수 있다.The reference image is obtained from the outside, is an image that includes at least 3D location data, and is processed into reference image data that can be compared with image data obtained from the device 102 . The sensor initially used to generate the reference image may be at least one of an image acquisition device having higher positioning accuracy and image realization performance than the device 102 and a laser scanning sensor (eg, Lidar). The reference geometric information associated with the reference image includes, for each pixel coordinate, 3D location information, color information such as RGB data, first external geometric data, and first internal geometric data, and the reference image combined with the reference geometric information It may be stored as reference image data.

기준 영상을 생성하는데 최초 이용되는 센서가 영상 센서인 경우에, 제 1 내부 기하 데이터는 제 2 내부 기하 데이터에서 설명된 영상 센서(104)와 실질적으로 동일하다. 최초 이용되는 센서가 레이저 스캔닝 센서인 경우에 제 1 내부 기하 데이터는 예로 들면, 각 레이저의 입사각, 거리 스케일, 거리 방향 오프셋 및 축방향 오프셋 중어느 하나 이상을 포함할 수 있다. When the sensor initially used to generate the reference image is an image sensor, the first internal geometric data is substantially the same as the image sensor 104 described in the second internal geometric data. When the sensor used initially is a laser scanning sensor, the first internal geometric data may include, for example, any one or more of an incident angle of each laser, a distance scale, a distance direction offset, and an axial direction offset.

기준 영상이 왜곡 영상을 발생하는 광역 영상 센서로부터 기인하는 경우에, 기준 영상은 왜곡 영상을 평면 영상 데이터로 변환하여 생성되는 평면 영상 데이터를 이용하며, 3차원 위치 데이터는 평면 영상 데이터의 3차원 위치 데이터를 활용하고, 제 1 자세 데이터는 평면 영상 데이터의 시야 방향, 시야각 등으로 정의될 수 있다. When the reference image originates from a wide-area image sensor that generates a distorted image, the reference image uses planar image data generated by converting the distorted image into planar image data, and the 3D position data is the 3D location of the planar image data. Data is utilized, and the first attitude data may be defined as a viewing direction and a viewing angle of the planar image data.

기준 영상이 레이저 스캔닝 센서로부터 기인하는 경우에, 기준 영상은 레이저 스캔닝 센서로부터 획득되는 점군 데이터가 변환된 가상의 영상 데이터를 이용할 수 있다, 3차원 위치 데이터는 가상의 영상 데이터의 3차원 위치 데이터로 정의되며, 제 1 자세 데이터는 상기 가상의 영상 데이터의 시야 방향으로 정의될 수 있다. In the case where the reference image originates from the laser scanning sensor, the reference image may use virtual image data obtained by converting point cloud data obtained from the laser scanning sensor. The 3D location data is the 3D location of the virtual image data. data, and the first posture data may be defined as a viewing direction of the virtual image data.

점군 데이터의 변환은 도 4에서와 같이 도면의 아래에 위치된 점군 데이터의 반사 강도, 고도값 등을 감안하는 가상 카메라 모델링에 의해 수행될 수 있다. 도 4는 기준 영상 데이터베이스부가 레이저 스캔닝 센서로부터 획득되는 점군 데이터가 변환된 가상의 영상 데이터를 저장하는 형태이다. 그 결과, 가상의 영상 데이터는 도 4의 위의 예시와 같이 생성될 수 있다. 기준 영상 생성시에 영상 센서가 추가로 관여되는 경우에, 점군 데이터의 변환시에 영상 센서로 획득된 색상 데이터가 가상의 영상 데이터에 포함될 수 있다. As shown in FIG. 4 , the conversion of point cloud data may be performed by virtual camera modeling taking into consideration reflection intensity, altitude value, etc. of point cloud data located below the drawing. 4 is a form in which the reference image database unit stores virtual image data obtained by converting point cloud data obtained from a laser scanning sensor. As a result, virtual image data may be generated as in the above example of FIG. 4 . When an image sensor is additionally involved in generating the reference image, color data acquired by the image sensor when converting point cloud data may be included in the virtual image data.

앞서 설명한 바와 같이, 검색 선정부(116)에서 행해지는 기준 영상 데이터의 3차원 위치 데이터와 영상 데이터의 2차원 위치 데이터에 기초한 영상 데이터의 후보군 검색은 도 5의 아래 단계와 같은 검색 과정으로 실행될 수 있다. 도 5는 기준 영상 데이터와 정합 가능한 영상 데이터의 후보군을 검색하는 과정을 도시한 도면이다. As described above, the search for image data candidates based on the 3D location data of the reference image data and the 2D location data of the image data performed by the search selection unit 116 may be performed through the same search process as shown in the steps below in FIG. 5 . there is. 5 is a diagram illustrating a process of searching for a candidate group of video data that can be matched with reference video data.

다음으로, 검색 선정부(116)는 2차원 위치 데이터, 3차원 위치 데이터 및 제 1 및 2 자세 데이터를 참조하여 후보군 중 상기 기준 영상 데이터와 최고의 정합도를 갖는 영상 데이터를 선정한다(S115). Next, the search selection unit 116 selects the image data having the highest degree of matching with the reference image data from among the candidate groups by referring to the 2D location data, the 3D location data, and the first and second posture data (S115).

구체적으로, 기준 영상 데이터와 동일하거나 매우 유사한 2차원 위치 데이터를 갖는 영상 데이터의 시야방향 및 시야각에 따라 제 1 및 제 2 외부 기하 데이터의 제 1 및 제 2 자세 데이터가 상이하면, 영상 기하로 인해 동일한 특징 기하라도 서로 상이한 기하로 인식되어 기준 영상 데이터와 영상 데이터 간의 정합이 곤란하다. 따라서, 동일한 위치에서 제 1 및 제 2 자세 데이터가 소정 범위 내로 유사한 영상 데이터만을 후보군에서 선정함으로써, 이후 정합 단계의 정확도 및 처리 신속성이 향상될 수 있다. 이러한 예는 도 5에서와 같이 방향 정보 기반 검색까지 수행하고, 도 6에 도시된 바와 같이, 기준 영상 데이터의 위치 및 자세와 소정 범위로 인접한 영상 데이터를 최종 선정한다. 도 5는 기준 영상 데이터와 정합 가능한 영상 데이터의 후보군을 검색하는 과정을 도시한 도면이고, 도 6은 기준 영상 데이터와 최고의 정합도를 갖는 영상 데이터를 선정하는 과정을 도시한 도면이다. Specifically, if the first and second attitude data of the first and second external geometry data are different according to the viewing direction and viewing angle of the image data having the same or very similar two-dimensional position data as the reference image data, due to the image geometry Even the same feature geometries are recognized as different geometries, making it difficult to match the reference image data and image data. Accordingly, by selecting only image data having similar first and second posture data within a predetermined range at the same location from the candidate group, accuracy and processing speed of the subsequent matching step may be improved. In this example, as shown in FIG. 5, a search based on direction information is performed, and as shown in FIG. 6, image data adjacent to the location and posture of the reference image data and a predetermined range is finally selected. 5 is a diagram illustrating a process of searching for a candidate group of image data that can be matched with reference image data, and FIG. 6 is a diagram illustrating a process of selecting image data having the highest degree of matching with reference image data.

이어서, 정합부(118)는 선정된 영상 데이터와 기준 영상 데이터 간에 공통되는 소정 형태의 특징 기하들에 기반하여 기준 영상 데이터와 선정 영상 데이터의 정합한다(S120). Subsequently, the matching unit 118 matches the reference image data and the selected image data based on feature geometries of a predetermined shape common between the selected image data and the reference image data (S120).

정합부(118)는 특징 기하를 참고하여 공선조건식 등의 기하 모델을 통해 복수의 선정 영상 데이터를 결합할 수 있다. The matching unit 118 may combine a plurality of selected image data through a geometric model such as a collinear conditional expression with reference to feature geometries.

소정 형태의 특징 기하는 동일한 위치로 추정되는 선정 영상 데이터와 기준 영상 데이터에 표현된 객체의 특정 기하하적 형상에 기초하여 추출될 수 있다. 객체는 예컨대 도로 표지판, 특이 형상의 물체, 건물 경계선 등과 같이 영상 데이터 상에서 점, 선, 면, 기둥 등의 특징 기하가 용이하게 추출가능한 대상물로 랜덤으로 선정될 수 있다. 이러한 특징 기하는 선정 영상 데이터와 기준 영상 데이터 간의 자세 데이터가 다소 상이하더라도 동일한 객체로의 추정 가능성이 높은 소정 형태를 채용하고, 예를 들어 도로 노면에 표시된 차선, 도로 표지, 건물 윤곽 등일 수 있다. A feature geometry of a predetermined shape may be extracted based on a specific geometric shape of an object expressed in the selected image data and the reference image data estimated to have the same location. The object may be randomly selected as an object from which feature geometry such as a point, line, plane, column, etc. can be easily extracted from image data, such as a road sign, a uniquely shaped object, or a building boundary. This feature geometry adopts a predetermined shape that is highly likely to be estimated as the same object even if the attitude data between the selected image data and the reference image data are slightly different, and may be, for example, a lane marked on a road surface, a road sign, or a building outline.

이어서, 기하 변환부(120)는 공통된 특징 기하들에 있어서, 기하 변환 모델링에 의해 기준 영상 데이터에 대한 선정 영상 데이터의 디바이스의 기하 정보를 3차원 위치 데이터를 포함하도록 기하 변환하여 3차원 디바이스 기하 정보로 보정한다(S125). Subsequently, the geometric transformation unit 120 geometrically transforms the device geometry information of the selected image data for the reference image data to include 3D position data by geometric transformation modeling in common feature geometries, thereby performing 3D device geometry information. Corrected by (S125).

기하 변환 모델링은 상술의 수학식 1과 같은 공선조건식을 이용하거나, 영상 데이터의 기하를 행렬형태로 반영할 수 있는 perspective transformation, affine transformation, homography transformation 중 하나를 대체모델링을 사용할 수 있다.Geometric transformation modeling may use a collinear condition expression such as Equation 1 above, or alternative modeling may be used for one of perspective transformation, affine transformation, and homography transformation that can reflect the geometry of image data in a matrix form.

도 7은 영상 데이터의 2차원 위치 데이터와 대응하는 기준 영상 데이터의 3차원 위치 데이터를 산출하는 과정을 도시한 도면이다. 공선조건식을 이용한 경우로서, 동일 특징 기하에 있어서, 영상 데이터가 기준 영상 데이터의 3차원 위치 좌표로 기하 변환되어 보정된다. 도 8은 디바이스의 영상 데이터의 위치 및 시야 방향이 최종 3차원 디바이스 기하 정보로 보정된 일례를 도시한 도면이다. 점선은 디바이스(102)로부터 획득한 영상 데이터의 2차원 위치 데이터이며, 실선은 영상 데이터에 대한 기하 변환 보정에 의해 3차원 위치 데이터로 보정되면서 2차원 좌표가 보다 정확한 위치로 이동되면서 디바이스(102)의 측위 센서(106)의 정밀도보다 높은 정밀도로 변환됨을 나타낸다. 7 is a diagram illustrating a process of calculating 2D position data of image data and 3D position data of reference image data corresponding thereto. In the case of using the collinear condition expression, in the same feature geometry, the image data is geometrically transformed into the 3D coordinates of the reference image data and corrected. 8 is a diagram showing an example in which the location and viewing direction of image data of a device are corrected with final 3D device geometry information. The dotted line is the 2D location data of the image data acquired from the device 102, and the solid line is the device 102 as the 2D coordinates are moved to a more accurate location while being corrected with 3D location data by geometric transformation correction for the image data. It indicates that conversion is performed with higher precision than the precision of the positioning sensor 106 of .

다음으로, 정합 최적값 추정부(122)는 3차원 디바이스 기하 정보가 연계된 영상 데이터의 특징 기하들을 랜덤 샘플링하여, 샘플링된 특징 기하들 및 상응하는 기준 데이터의 특징 기하들의 상호 이격량이 최소가 되는 샘플링 영상 데이터의 특징 기하를 정합 최적값으로 추정한다(S130). 정합 최적값의 구체적인 과정은 상술하여 생략하기로 한다. Next, the matching optimal value estimator 122 randomly samples the feature geometries of the image data associated with the 3D device geometry information so that the distance between the sampled feature geometries and the corresponding feature geometries of the reference data is minimized. The feature geometry of the sampled image data is estimated as an optimal matching value (S130). A specific process of matching optimal values will be omitted in detail.

이어서, 디바이스 기하 정보 추정부(124)는 상술의 정합 최적값으로 추정된 특징 기하와 관련하여 기하 변환된 3차원 디바이스 기하 정보를 최종 3차원 디바이스 기하 정보로 추정한다(S135). Subsequently, the device geometric information estimator 124 estimates the geometrically transformed 3D device geometric information in relation to the feature geometry estimated to be the optimal matched value as the final 3D device geometric information (S135).

다음으로, 3차원 영상 정보 생성부(126)는 최종 3차원 디바이스 기하 정보 및 특징 기하에 대한 정합 정보에 기초하여, 디바이스(102)의 영상 데이터에 대해 3차원 영상 정보를 생성한다(S140). Next, the 3D image information generating unit 126 generates 3D image information for the image data of the device 102 based on the final 3D device geometry information and matching information on feature geometry (S140).

3차원 영상 정보는 기준 영상 데이터베이스부(114)의 기준 영상 데이터와 같이, 기하 변환에 의해 보정된 영상 데이터 및 이와 연계되어 3차원 위치 데이터, 보정된 제 2 자세 데이터를 포함하는 보정된 제 2 외부 기하 데이터, 보정된 제 2 내부 기하 데이터를 포함하는 최종 3차원 디바이스 기하 정보, 색상 데이터, 시간 데이터 등을 포함할 수 있다. The 3D image information is the corrected second external image data including the image data corrected by geometric transformation and the 3D position data and corrected second posture data in connection with the image data, such as the reference image data of the reference image database unit 114. It may include geometry data, final 3D device geometry information including corrected second internal geometry data, color data, time data, and the like.

본 실시예에 따르면, 디바이스(102)의 저성능 영상 센서(104), 측위 센서(106) 등으로 취득하는 2차원 위치 정보의 영상 데이터를 고성능의 센서들로 구성된 플랫폼으로부터 생성된 3차원 영상 정보와 정합하여 기하 변환 등을 수행함으로써, 저가의 디바이스로 취득한 영상 데이터를 편의성과 높은 정밀도의 3차원 영상 정보를 생성할 수 있다. According to this embodiment, image data of 2D location information acquired by the low-performance image sensor 104, positioning sensor 106, etc. of the device 102 is 3D image information generated from a platform composed of high-performance sensors. 3D image information of convenience and high precision can be generated from image data obtained with a low-cost device by performing geometric transformation by matching with .

이하, 도 9 내지 도 11을 참조하여, 본 개시의 다른 실시예에 따른 공간 정보 지도 갱신 시스템을 이용한 공간 정보의 갱신 방법에 대해 설명하기로 한다. Hereinafter, a method for updating spatial information using a spatial information map updating system according to another embodiment of the present disclosure will be described with reference to FIGS. 9 to 11 .

도 9는 본 개시의 다른 실시예에 따른 공간 정보 지도 갱신 시스템을 이용한 공간 정보의 갱신 과정에 관한 순서도이다. 도 10는 최종 3차원 디바이스 기하 정보 및 객체 정보를 3차원 영상 정보에 포함하는 신규 공간 정보를 생성하는 일례를 도시한 도면이다. 도 11은 공간 정보의 갱신 과정의 일례을 도시한 도면이다.9 is a flowchart illustrating a process of updating spatial information using a spatial information map updating system according to another embodiment of the present disclosure. 10 is a diagram illustrating an example of generating new space information including final 3D device geometry information and object information in 3D image information. 11 is a diagram showing an example of a process of updating spatial information.

먼저, 객체 정보 추출부(128)는 영상 데이터로부터 기인하는 3차원 영상 정보로부터 특정 형태의 객체를 추출한다(S205). First, the object information extractor 128 extracts a specific type of object from 3D image information derived from image data (S205).

구체적으로, 객체 정보 추출부(128)는 3차원 영상 정보에 포함된 데이터들에 기초하여 추출된 대상물의 속성과 관련된 객체 정보를 추출할 수 있다.Specifically, the object information extractor 128 may extract object information related to the attribute of the extracted object based on data included in the 3D image information.

객체 정보 추출부(128)는 3차원 영상 정보에 포함된 영상 데이터, 최종 3차원 디바이스 기하 정보, 색상 데이터, 시간 데이터 등으로부터 파악된 대상물과 관련된 후보군 데이터를 머신 러닝 기법으로 검출하고, 검출된 후보군 데이터에 순차적으로 추가 기계학습 모델을 적용하여 대상물의 정보를 인식할 수 있다. The object information extractor 128 detects candidate group data related to the object identified from the image data included in the 3D image information, final 3D device geometry information, color data, time data, etc. using a machine learning technique, and detects the detected candidate group It is possible to recognize the information of an object by sequentially applying additional machine learning models to the data.

다음으로, 공간 정보 생성부(130)는 추출된 객체와 동일한 기준 영상 데이터의 객체에 기초하여, 최종 3차원 디바이스 기하 정보 및 기준 영상 데이터에 저장된 객체와 관련된 객체 정보를 3차원 영상 정보에 포함하는 소정 좌표계, 예컨대 절대좌표계에 따른 신규 공간 정보를 생성한다(S210). Next, the spatial information generator 130 includes object information related to the object stored in the final 3D device geometry information and the reference image data in the 3D image information based on the object of the reference image data that is the same as the extracted object. New spatial information according to a predetermined coordinate system, for example, an absolute coordinate system, is generated (S210).

공간 정보 생성부(130)는 공간 정보 데이터베이스부(134)에 신규 공간 정보를 전송하여 저장할 수 있다. 공간 정보는 소정 좌표계의 해당 좌표 등에 생성된 데이터로서, 관측 데이터, 내부 기하, 외부 기하, 고유 데이터, 시간 정보, 취득 환경 정보, 이종 센서들 간의 센서 데이터들의 위치 오차로 인한 이격량, 정확도, 정밀도 관련한 확률 정보, 점군 데이터 관련 정보, 영상 데이터 관련 정보, 객체 정보 및 지도 관련 정보를 포함할 수 있다. 본 실시예에서는 공간 정보가 상술한 데이터들 내지 정보들을 전부 포함하는 것으로 기술하고 있으나, 이에 제한되지 않으며, 설계 사양에 따라 상술한 데이터/정보들 중 일부만을 포함하도록 설정될 수 있다. The spatial information generator 130 may transmit and store new spatial information in the spatial information database 134 . Spatial information is data generated from corresponding coordinates of a predetermined coordinate system, and includes observation data, internal geometry, external geometry, unique data, time information, acquisition environment information, separation amount due to positional error of sensor data between heterogeneous sensors, accuracy, and precision. It may include related probability information, point cloud data related information, image data related information, object information, and map related information. In this embodiment, spatial information is described as including all of the above-described data or information, but is not limited thereto, and may be set to include only some of the above-described data/information according to design specifications.

도 10에서와 같이, 최종 3차원 디바이스 기하 정보 및 객체 정보를 3차원 영상 정보에 포함하여 신규 공간 정보를 생성하고, 이를 기반으로 도화 과정을 거쳐 우측의 지도로 제작될 수 있다. As shown in FIG. 10, new space information is created by including final 3D device geometry information and object information in 3D image information, and based on this, a map on the right side can be created through a drawing process.

다음으로, 공간 정보 갱신부(132)는 공간 정보 데이터베이스부(134)에 이미 저장된 기존 공간 정보가 존재하는 경우에, 동일 위치의 객체 정보에 있어서, 신규 공간 정보가 기존 공간 정보와 상이한지 여부를 판단하고(S215), 판단 결과 상이한 객체 정보에 대해, 도 11에서와 같이 기존 공간 정보를 신규 공간 정보로 갱신한다(S225). 판단 결과, 객체 정보가 동일한 경우에 기존 공간 정보를 유지할 수 있다(S220).Next, if there is existing spatial information already stored in the spatial information database unit 134, the spatial information updating unit 132 determines whether the new spatial information is different from the existing spatial information in the object information of the same location. It is determined (S215), and as a result of the determination, for the different object information, as shown in FIG. 11, the existing spatial information is updated with new spatial information (S225). As a result of the determination, when object information is the same, existing spatial information may be maintained (S220).

본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Exemplary methods of this disclosure are presented as a series of operations for clarity of explanation, but this is not intended to limit the order in which steps are performed, and each step may be performed concurrently or in a different order, if desired. In order to implement the method according to the present disclosure, other steps may be included in addition to the exemplified steps, other steps may be included except for some steps, or additional other steps may be included except for some steps.

본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.Various embodiments of the present disclosure are intended to explain representative aspects of the present disclosure, rather than listing all possible combinations, and matters described in various embodiments may be applied independently or in combination of two or more.

또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. For hardware implementation, one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), It may be implemented by a processor (general processor), controller, microcontroller, microprocessor, or the like.

본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. The scope of the present disclosure is software or machine-executable instructions (eg, operating systems, applications, firmware, programs, etc.) that cause operations according to methods of various embodiments to be executed on a device or computer, and such software or It includes a non-transitory computer-readable medium in which instructions and the like are stored and executable on a device or computer.

Claims (6)

디바이스를 이용한 공간 정보 지도 갱신 시스템에 있어서,
3차원 위치 데이터 및 제 1 자세 데이터를 갖는 제 1 외부 기하 데이터가 포함된 기준 기하 정보와 연계하여 기준 영상 데이터를 저장하는 기준 영상 데이터베이스부;
디바이스로부터 취득한 영상 데이터에 관련되어 적어도 2차원 위치 데이터를 갖는 제 2 외부 기하 데이터를 포함하는 디바이스 기하 정보를 획득하고, 상기 2차원 위치 데이터 및 상기 3차원 위치 데이터를 참조하여 상기 기준 영상 데이터와 최고의 정합도를 갖는 상기 영상 데이터를 선정하는 검색 선정부;
상기 기준 영상 데이터와 상기 선정된 영상 데이터 간에 공통되는 소정 형태의 특징 기하들에 기반하여 상기 기준 영상 데이터와 선정 영상 데이터를 정합하는 정합부;
공통된 특징 기하들에 있어서, 상기 3차원 위치 데이터를 포함하도록, 상기 기준 영상 데이터에 대한 상기 선정 영상 데이터의 디바이스의 기하 정보를 기하 변환하여 3차원 디바이스 기하 정보로 보정하는 기하 변환부;
상기 3차원 디바이스 기하 정보 및 상기 특징 기하에 대한 정합 정보에 기초하여, 상기 디바이스의 영상 데이터에 대해 3차원 영상 정보를 생성하는 3차원 영상 정보 생성부;
상기 3차원 영상 정보로부터 특정 형태의 객체를 추출하는 객체 정보 추출부;
상기 추출된 객체와 동일한 기준 영상 데이터의 객체에 기초하여, 상기 3차원 디바이스 기하 정보 및 상기 기준 영상 데이터에 저장된 상기 객체와 관련된 객체 정보를 상기 3차원 영상 정보에 포함하는 신규 공간 정보를 생성하는 공간 정보 생성부; 및
상기 신규 공간 정보가 공간 정보 데이터베이스부에 저장되며, 상기 공간 정보 데이터베이스부에 이미 저장된 기존 공간 정보가 존재하는 경우에, 동일 위치의 객체 정보에 있어서, 상기 신규 공간 정보가 상기 기존 공간 정보와 상이한지 여부를 판단하고, 판단 결과 상이한 객체 정보에 대하여, 상기 기존 공간 정보를 상기 신규 공간 정보로 갱신하는 공간 정보 갱신부를 포함하는, 공간 정보 지도 갱신 시스템.
In the spatial information map updating system using a device,
a reference image database unit that stores reference image data in association with reference geometry information including first external geometry data having 3D position data and first attitude data;
Device geometry information including second external geometry data having at least two-dimensional positional data in relation to image data obtained from a device is acquired, and the reference image data and the best-in-class positional data are obtained by referring to the two-dimensional positional data and the three-dimensional positional data. a search selection unit that selects the image data having matching degree;
a matching unit matching the reference image data and the selected image data based on feature geometries of a predetermined shape common between the reference image data and the selected image data;
In the common feature geometries, a geometric conversion unit that performs geometric conversion of device geometry information of the selected image data with respect to the reference image data to include the 3D position data, and corrects the 3D device geometry information;
a 3D image information generating unit generating 3D image information for image data of the device based on the 3D device geometry information and matching information on the feature geometry;
an object information extractor extracting a specific type of object from the 3D image information;
A space for generating new spatial information including object information related to the object stored in the 3D device geometry information and the reference image data in the 3D image information based on the object of the reference image data that is the same as the extracted object. information generating unit; and
When the new spatial information is stored in the spatial information database unit and existing spatial information already stored in the spatial information database unit exists, whether the new spatial information is different from the existing spatial information in the object information of the same location. A spatial information map updating system comprising: a spatial information updating unit that determines whether object information is different as a result of the determination and updates the existing spatial information with the new spatial information.
제 1 항에 있어서,
상기 제 1 자세 데이터는 기준 영상을 생성하는데 설정된 시야 방향을 정의하는, 공간 정보 지도 갱신 시스템.
According to claim 1,
The spatial information map updating system of claim 1 , wherein the first attitude data defines a viewing direction set to generate a reference image.
제 2 항에 있어서,
상기 제 2 외부 기하 데이터는 상기 영상을 생성하는데 설정된 시야 방향을 정의하는 제 2 자세 데이터를 더 포함하고,
상기 검색 선정부는 상기 3차원 위치 데이터 및 상기 2차원 위치 데이터에 기초하여 상기 기준 영상 데이터와 대비가능한 상기 영상 데이터의 후보군을 검색하고, 상기 제 1 및 제 2 자세 데이터를 참조하여 상기 후보군 중 상기 기준 영상 데이터와 최고의 정합도를 갖는 상기 영상 데이터를 선정하는, 공간 정보 지도 갱신 시스템.
According to claim 2,
The second external geometry data further includes second attitude data defining a viewing direction set to generate the image,
The search selection unit searches for a candidate group of the image data that can be compared with the reference image data based on the 3D location data and the 2D location data, and selects the standard among the candidate groups with reference to the first and second posture data. A spatial information map updating system that selects the image data having the highest degree of matching with image data.
제 3 항에 있어서,
상기 기준 기하 정보는 상기 기준 영상을 생성하는데 설정된 센서에 정의된 기하 파라미터에 근거한 제 1 내부 기하 데이터를 더 포함하며, 상기 디바이스 기하 정보는 상기 영상을 생성하는데 설정된 영상 센서에 정의된 기하 파라미터에 근거한 제 2 내부 기하 데이터를 더 포함하고, 상기 검색 선정부에서의 상기 최고의 정합도를 갖는 상기 영상 데이터의 선정 및 상기 기하 변환부에서의 상기 3차원 디바이스 기하 정보로의 보정은 상기 제 1 및 제 2 내부 기하 데이터를 더 포함하여 참조하는, 공간 정보 지도 갱신 시스템.
According to claim 3,
The reference geometric information further includes first internal geometric data based on a geometric parameter defined in a sensor set to generate the reference image, and the device geometry information is based on a geometric parameter defined in an image sensor set to generate the image. Further including second internal geometry data, selection of the image data having the highest matching degree in the search selection unit and correction to the 3D device geometry information in the geometry conversion unit are performed by the first and second Spatial information map updating system, further including internal geometric data for reference.
제 1 항에 있어서,
상기 기준 영상이 레이저 스캔닝 센서로부터 기인하는 경우에, 상기 기준 영상은 상기 레이저 스캔닝 센서로부터 획득되는 점군 데이터가 변환된 가상의 영상 데이터를 이용하고, 상기 3차원 위치 데이터는 상기 가상의 영상 데이터의 3차원 위치 데이터로 정의되며, 상기 제 1 자세 데이터는 상기 가상의 영상 데이터의 시야 방향으로 정의되는, 공간 정보 지도 갱신 시스템.
According to claim 1,
When the reference image originates from a laser scanning sensor, the reference image uses virtual image data obtained by converting point cloud data acquired from the laser scanning sensor, and the 3D position data is the virtual image data. , and the first attitude data is defined as a viewing direction of the virtual image data.
제 1 항에 있어서,
상기 3차원 디바이스 기하 정보가 연계된 영상 데이터의 특징 기하들을 랜덤 샘플링하여, 상기 샘플링된 특징 기하들 및 상응하는 상기 기준 영상 데이터의 특징 기하들의 상호 이격량이 최소가 되는 샘플링 영상 데이터의 특징 기하를 정합 최적값으로 추정하는 정합 최적값 추정부; 및
상기 정합 최적값으로 추정된 특징 기하와 관련하여 기하 변환된 3차원 디바이스 기하 정보를 최종 3차원 디바이스 기하 정보로 추정하는 디바이스 기하 정보 추정부를 더 포함하고,
상기 3차원 영상 정보의 생성시에 기초되는 정보 중 상기 3차원 디바이스 기하 정보는 상기 최종 3차원 디바이스 기하 정보를 사용하는, 공간 정보 지도 갱신 시스템.

According to claim 1,
The feature geometries of the image data associated with the 3D device geometry information are randomly sampled, and the feature geometries of the sampled image data that minimize the distance between the sampled feature geometries and the corresponding feature geometries of the reference image data are matched. a matching optimum value estimator for estimating an optimum value; and
Further comprising a device geometric information estimator for estimating 3-dimensional device geometric information geometrically transformed in relation to the feature geometry estimated as the matched optimum value as final 3-dimensional device geometric information,
Among the information based on the generation of the 3D image information, the 3D device geometry information uses the final 3D device geometry information.

KR1020210158245A 2021-11-17 2021-11-17 System for updating spatial information using device KR20230072002A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210158245A KR20230072002A (en) 2021-11-17 2021-11-17 System for updating spatial information using device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210158245A KR20230072002A (en) 2021-11-17 2021-11-17 System for updating spatial information using device

Publications (1)

Publication Number Publication Date
KR20230072002A true KR20230072002A (en) 2023-05-24

Family

ID=86541140

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210158245A KR20230072002A (en) 2021-11-17 2021-11-17 System for updating spatial information using device

Country Status (1)

Country Link
KR (1) KR20230072002A (en)

Similar Documents

Publication Publication Date Title
CN111436216B (en) Method and system for color point cloud generation
CN110832275B (en) System and method for updating high-resolution map based on binocular image
CN112005079B (en) System and method for updating high-definition map
KR102200299B1 (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
US10996337B2 (en) Systems and methods for constructing a high-definition map based on landmarks
CN112556685B (en) Navigation route display method and device, storage medium and electronic equipment
JP4132068B2 (en) Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus
US20230138487A1 (en) An Environment Model Using Cross-Sensor Feature Point Referencing
EP3005238B1 (en) Method and system for coordinating between image sensors
KR102249381B1 (en) System for generating spatial information of mobile device using 3D image information and method therefor
CN111833443A (en) Landmark position reconstruction in autonomous machine applications
KR20230072002A (en) System for updating spatial information using device
JP5709261B2 (en) Information terminal, information providing system, and information providing method
KR20220062709A (en) System for detecting disaster situation by clustering of spatial information based an image of a mobile device and method therefor
CN114387532A (en) Boundary identification method and device, terminal, electronic equipment and unmanned equipment
AU2018102199A4 (en) Methods and systems for color point cloud generation
Zhou et al. Multi-Primitive Triangulation of Airborne and Terrestrial Mobile Mapping Image and LIDAR Data
CN113447032A (en) Positioning method, positioning device, electronic equipment and storage medium
KR20190070291A (en) Method and apparatus for 3D space information detection

Legal Events

Date Code Title Description
E902 Notification of reason for refusal