KR20220062709A - System for detecting disaster situation by clustering of spatial information based an image of a mobile device and method therefor - Google Patents

System for detecting disaster situation by clustering of spatial information based an image of a mobile device and method therefor Download PDF

Info

Publication number
KR20220062709A
KR20220062709A KR1020200148220A KR20200148220A KR20220062709A KR 20220062709 A KR20220062709 A KR 20220062709A KR 1020200148220 A KR1020200148220 A KR 1020200148220A KR 20200148220 A KR20200148220 A KR 20200148220A KR 20220062709 A KR20220062709 A KR 20220062709A
Authority
KR
South Korea
Prior art keywords
information
data
image data
disaster
image
Prior art date
Application number
KR1020200148220A
Other languages
Korean (ko)
Inventor
홍승환
최윤조
최윤영
Original Assignee
주식회사 카카오모빌리티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 카카오모빌리티 filed Critical 주식회사 카카오모빌리티
Priority to KR1020200148220A priority Critical patent/KR20220062709A/en
Publication of KR20220062709A publication Critical patent/KR20220062709A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/10Alarms for ensuring the safety of persons responsive to calamitous events, e.g. tornados or earthquakes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Emergency Management (AREA)
  • Geometry (AREA)
  • Geology (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computing Systems (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Provided are a disaster situation recognition system and method by spatial information clustering based on a mobile device image. The system comprises: a reference image database unit for storing reference image data in association with reference geometry information including three-dimensional positional data and first posture data; a search and selection unit for obtaining device geometry information including at least two-dimensional positional data in relation to image data obtained from a mobile device and selecting the image data having the highest degree of matching with the reference image data by referring to the two-dimensional positional data and the three-dimensional positional data; a matching unit for matching the reference image data and the selected image data; a geometric conversion unit for geometrically transforming the device geometric information of the selected image data matched with the reference image data by geometric conversion modeling and correcting the device geometric information into three-dimensional device geometric information; a three-dimensional image information generation unit for generating three-dimensional image information of the image data of the mobile device; a disaster type extraction unit for determining whether a disaster has occurred in the surrounding environment from the three-dimensional image information and classifying the disaster type for each disaster area; and a disaster information registration unit for registering location information related to the disaster area and the disaster type in association with the three-dimensional image information. Accordingly, disaster information with reliability can be generated from three-dimensional image information with high precision generated based on the image data of the mobile device.

Description

모바일 디바이스 영상에 기반한 공간 정보 클러스터링에 의한 재난 상황 인지 시스템 및 방법{System for detecting disaster situation by clustering of spatial information based an image of a mobile device and method therefor}System for detecting disaster situation by clustering of spatial information based an image of a mobile device and method therefor}

본 발명은 재난 상황 인지 시스템 및 방법에 관한 것으로서, 보다 구체적으로 모바일 디바이스 영상에 기반한 공간 정보 클러스터링에 의한 재난 상황 인지 시스템 및 방법에 관한 것이다. The present invention relates to a disaster situation recognition system and method, and more particularly, to a disaster situation recognition system and method by spatial information clustering based on a mobile device image.

스마트폰, HMD (Head Mount Display), 스마트안경 등 영상 카메라 센서, 측위 센서, 지자기 센서, 자이로 센서, 지자기 센서, 통신 모듈과 더불어 연산 컴퓨팅 시스템을 탑재한 스마트형 모바일 디바이스들이 다양한 용도로 사용되고 있다. Smart mobile devices equipped with computational computing systems as well as video camera sensors, positioning sensors, geomagnetic sensors, gyro sensors, geomagnetic sensors, and communication modules such as smartphones, HMD (Head Mount Display), and smart glasses are being used for various purposes.

예를 들어 네비게이션의 경우에는 기존의 도로네트워크 정보와 GPS 위치 데이터가 융합되어 차량의 위치정보가 추출되고, 도로네트워크 정보와 GPS 위치 데이터를 이용한 차량의 이동경로를 기반으로 출발지와 목적지에 주행정보가 사용자에게 전달된다. For example, in the case of navigation, vehicle location information is extracted by fusion of existing road network information and GPS location data, and driving information is provided to the starting point and destination based on the vehicle's movement route using road network information and GPS location data. delivered to the user.

이와 같이 공간 정보 구축에 있어서 관측 센서로부터 취득한 위치 정확도는 매우 중요한 요소로 작용한다. 그러나 스마트 디바이스는 크기, 전원, 가격 등의 문제로 저성능의 센서를 사용할 수 밖에 없는 한계를 가지고 있어 많은 오차가 유발된다. As such, in constructing spatial information, the positional accuracy obtained from the observation sensor acts as a very important factor. However, smart devices have limitations in that they have no choice but to use low-performance sensors due to problems such as size, power, and price, which causes many errors.

그리고 최근에는 스마트 시티, 자율 주행, 디지털 트윈이 산업에 중요한 기술로 강조되기 시작하면서 기존 2차원 측위 정보를 기반으로 하는 서비스의 형태로는 한계를 지니게 되었다. And recently, as smart city, autonomous driving, and digital twin have begun to be emphasized as important technologies in the industry, there are limitations as a form of service based on existing 2D positioning information.

따라서 3차원 영상 정보의 응용 분야가 증가되고 있으나, 저가의 측위 센서로는 정확한 차원 측위 정보를 얻는데는 한계가 있었다. Therefore, although the field of application of 3D image information is increasing, there is a limit to obtaining accurate dimensional positioning information with a low-cost positioning sensor.

종래의 도로네트워크, CAD 도면, 지도 등의 데이터는 기존의 네비게이션에서 사용가능하였으나, 머신러닝(machine learning) 적용에 있어서 정확한 주변 공간 정보를 인지하고 이에 대한 응답으로 충분한 정보를 제공하지 못하였다. Data such as conventional road networks, CAD drawings, and maps were available in the existing navigation, but in machine learning applications, accurate surrounding spatial information was not recognized and sufficient information was not provided in response.

또한 종래 도로네트워크, CAD 도면 등의 정확도 및 정밀도가 미터 수준으로 생성되었기 때문에 그 이상의 성능을 요구하는 자율주행, AR/VR 등의 서비스 제공에 있어서도 한계를 보였다. 이를 극복하기 위해서는 2차원의 기준 공간 정보가 아닌 3차원의 공간 정보로 확장시킬 필요성이 있다. In addition, since the accuracy and precision of conventional road networks and CAD drawings were generated at the metric level, there were limitations in providing services such as autonomous driving and AR/VR that require performance beyond that. In order to overcome this, there is a need to expand to three-dimensional spatial information rather than two-dimensional reference spatial information.

그러나, 일반적인 단일 카메라 기반의 스마트 디바이스의 영상 데이터로부터 취득된 정보가 3차원 공간 정보를 기반으로 하는 서비스로 연결하는데 곤란함이 존재하고 있다. 이를 위해, SLAM(Simultaneous Location And Mapping)을 비롯한 다양한 기법이 발전되고 있으나, 이러한 기법은 고성능의 연산 시스템을 요구한다. However, it is difficult to connect information obtained from image data of a general single camera-based smart device to a service based on 3D spatial information. To this end, various techniques including Simultaneous Location And Mapping (SLAM) have been developed, but these techniques require a high-performance computing system.

저성능의 측위 센서를 탑재한 모바일 디바이스에 상술한 시스템을 적용하여 지역의 다양한 상황, 특히 재난 상황을 인지하거나 모니터링한다면, 비용 및 자원 측면에서 대단히 부담될 뿐만 아니라, 지역의 재난 정보의 신뢰성이 저하될 수 밖에 없다. If the above-mentioned system is applied to a mobile device equipped with a low-performance positioning sensor to recognize or monitor various local situations, especially disaster situations, it will be very burdensome in terms of cost and resources, and the reliability of local disaster information will be lowered. it can only be

이에 따라, 저성능의 모바일 디바이스로부터 획득된 영상 데이터에 기초하여 정확한 측위 정보, 재난 정보를 획득하기 위한 다양한 방안이 시도되고 있는 실정이다. Accordingly, various methods for acquiring accurate positioning information and disaster information based on image data acquired from a low-performance mobile device are being attempted.

본 발명이 이루고자 하는 기술적 과제는 모바일 디바이스의 저성능 영상 센서, 측위 센서 등으로 취득하는 2차원 위치 정보의 영상 데이터를 고성능의 센서들로 구성된 플랫폼에서 생성된 3차원 영상 정보와 정합하고 기하 변환 등을 통한 보정을 수행하여, 모바일 디바이스로부터 높은 정밀도의 3차원 영상 정보를 생성함으로써, 3차원 영상 정보에 기반한 주변 환경의 재난 정보가 높은 신뢰도로 구축될 수 있는, 모바일 디바이스 영상에 기반한 공간 정보 클러스터링에 의한 재난 상황 인지 시스템 및 방법을 제공하는데 있다. The technical problem to be achieved by the present invention is to match image data of two-dimensional position information acquired by a low-performance image sensor of a mobile device, a positioning sensor, etc. with three-dimensional image information generated by a platform composed of high-performance sensors, and perform geometric transformation, etc. For spatial information clustering based on mobile device images, in which disaster information of the surrounding environment based on 3D image information can be built with high reliability by performing correction through It is to provide a disaster situation awareness system and method by

본 발명의 목적은 이상에서 언급된 목적으로 제한되지 않으며, 언급되지 않은 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다. Objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 이루기 위한 본 발명의 일 양태에 따르면, 모바일 디바이스 영상에 기반한 공간 정보 클러스터링에 의한 재난 상황 인지 시스템은, 3차원 위치 데이터와, 기준 영상을 생성하는데 설정된 시야 방향을 정의하는 제 1 자세 데이터를 갖는 제 1 외부 기하 데이터가 포함된 기준 기하 정보와 연계하여 기준 영상 데이터를 저장하는 기준 영상 데이터베이스부와, 모바일 디바이스로부터 취득한 영상 데이터에 관련되어 적어도 2차원 위치 데이터를 갖는 제 2 외부 기하 데이터를 포함하는 디바이스 기하 정보를 획득하고, 상기 2차원 위치 데이터 및 상기 3차원 위치 데이터를 참조하여 상기 기준 영상 데이터와 정합 가능한 상기 영상 데이터의 후보군을 검색하며, 상기 후보군 중 상기 기준 영상 데이터와 최고의 정합도를 갖는 상기 영상 데이터를 선정하는 검색 선정부와, 상기 기준 영상 데이터와 상기 선정된 영상 데이터 간에 공통되는 소정 형태의 특징 기하들에 기반하여 상기 기준 영상 데이터와 선정 영상 데이터를 정합하는 정합부와, 공통된 특징 기하들에 있어서, 상기 기준 영상 데이터와 정합된 상기 선정 영상 데이터의 디바이스의 기하 정보가 상기 3차원 위치 데이터를 포함하도록, 기하 변환 모델링에 의해 상기 디바이스의 기하 정보를 기하 변환하여 3차원 디바이스 기하 정보로 보정하는 기하 변환부와, 상기 3차원 디바이스 기하 정보 및 상기 특징 기하에 대한 정합 정보에 기초하여, 상기 모바일 디바이스의 영상 데이터에 대해 3차원 영상 정보를 생성하는 3차원 영상 정보 생성부와, 상기 모바일 디바이스로의 영상 데이터에 기반한 상기 3차원 영상 정보로부터, 상기 모바일 디바이스의 주변 환경에 대한 재난 발생 여부를 판별하며, 재난 발생 지역 별 재난 유형을 분류하는 재난 유형 추출부, 및 상기 재난 발생 지역과 관련된 위치 정보 및 상기 재난 유형을 상기 3차원 영상 정보와 연계하여 등록하는 재난 정보 등록부를 포함한다. According to one aspect of the present invention for achieving the above technical problem, a disaster situation recognition system by spatial information clustering based on a mobile device image is a first posture defining a viewing direction set to generate three-dimensional position data and a reference image A reference image database unit for storing reference image data in association with reference geometry information including first external geometric data having data, and second external geometric data having at least two-dimensional position data in relation to image data acquired from a mobile device Obtaining device geometry information including, and searching for a candidate group of the image data that can be matched with the reference image data with reference to the 2D position data and the 3D position data, and the best matching with the reference image data among the candidate group a search and selection unit for selecting the image data having a diagram; , in common feature geometries, the geometric information of the device of the selected image data matched with the reference image data includes the three-dimensional position data, by geometric transformation of the geometric information of the device by geometric transformation modeling A geometric transformation unit for correcting the device geometry information, and a 3D image information generating unit for generating 3D image information with respect to the image data of the mobile device based on the matching information for the 3D device geometry information and the feature geometry And, from the 3D image information based on the image data to the mobile device, a disaster type extractor for determining whether a disaster has occurred in the surrounding environment of the mobile device and classifying the disaster type for each disaster occurrence region, and the disaster and a disaster information registration unit for registering location information related to an occurrence area and the type of disaster in association with the 3D image information.

다른 실시예에서, 상기 재난 유형 추출부는 상기 3차원 영상 정보에 대한 기계학습을 통해 상기 재난 발생 여부를 판별함과 아울러서, 상기 재난 유형을 분류할 수 있다. In another embodiment, the disaster type extractor may classify the disaster type while determining whether the disaster has occurred through machine learning on the 3D image information.

또 다른 실시예에서, 상기 재난 정보 등록부는 상기 재난 발생 지역의 재난 유형 및 상기 재난 발생 지역 간의 지리적 근접도에 기초하여 클러스터링(clustering)을 수행하여 상기 3차원 영상 정보를 처리할 수 있다. In another embodiment, the disaster information registration unit may process the 3D image information by performing clustering based on a disaster type of the disaster occurrence area and geographic proximity between the disaster occurrence areas.

또 다른 실시예에서, 상기 제 2 외부 기하 데이터는 상기 영상을 생성하는데 설정된 시야 방향을 정의하는 제 2 자세 데이터를 더 포함하고, 상기 검색 선정부는 상기 3차원 위치 데이터 및 상기 2차원 위치 데이터에 기초하여 상기 기준 영상 데이터와 대비가능한 상기 영상 데이터의 후보군을 검색하고, 상기 제 1 및 제 2 자세 데이터를 참조하여 상기 후보군 중 상기 기준 영상 데이터와 최고의 정합도를 갖는 상기 영상 데이터를 선정할 수 있다. In another embodiment, the second external geometric data further includes second posture data defining a viewing direction set to generate the image, and the search selection unit is based on the 3D position data and the 2D position data Thus, a candidate group of the image data that can be contrasted with the reference image data may be searched, and the image data having the highest degree of matching with the reference image data may be selected from the candidate group with reference to the first and second posture data.

또한, 상기 기준 기하 정보는 상기 기준 영상을 생성하는데 설정된 센서에 정의된 기하 파라미터에 근거한 제 1 내부 기하 데이터를 더 포함하며, 상기 디바이스 기하 정보는 상기 영상을 생성하는데 설정된 영상 센서에 정의된 기하 파라미터에 근거한 제 2 내부 기하 데이터를 더 포함하고, 상기 검색 선정부에서의 상기 최고의 정합도를 갖는 상기 영상 데이터의 선정 및 상기 기하 변환부에서의 상기 3차원 디바이스 기하 정보로의 보정은 상기 제 1 및 제 2 내부 기하 데이터를 더 포함하여 참조할 수 있다. In addition, the reference geometric information further includes first internal geometric data based on a geometric parameter defined in a sensor configured to generate the reference image, wherein the device geometric information is a geometric parameter defined in an image sensor configured to generate the image Further comprising second internal geometric data based on The second internal geometric data may be further included for reference.

또 다른 실시예에서, 상기 기준 영상이 레이저 스캔닝 센서로부터 기인하는 경우에, 상기 기준 영상은 상기 레이저 스캔닝 센서로부터 획득되는 점군 데이터가 변환된 가상의 영상 데이터를 이용하고, 상기 3차원 위치 데이터는 상기 가상의 영상 데이터의 3차원 위치 데이터로 정의되며, 상기 제 1 자세 데이터는 상기 가상의 영상 데이터의 시야 방향으로 정의될 수 있다. In another embodiment, when the reference image originates from a laser scanning sensor, the reference image uses virtual image data obtained by converting point cloud data obtained from the laser scanning sensor, and the 3D position data may be defined as 3D position data of the virtual image data, and the first posture data may be defined as a viewing direction of the virtual image data.

또 다른 실시예에서, 상기 3차원 디바이스 기하 정보가 연계된 영상 데이터의 특징 기하들을 랜덤 샘플링하여, 상기 샘플링된 특징 기하들 및 상응하는 상기 기준 영상 데이터의 특징 기하들의 상호 이격량이 최소가 되는 샘플링 영상 데이터의 특징 기하를 정합 최적값으로 추정하는 정합 최적값 추정부, 및 상기 정합 최적값으로 추정된 특징 기하와 관련하여 기하 변환된 3차원 디바이스 기하 정보를 최종 3차원 디바이스 기하 정보로 추정하는 디바이스 기하 정보 추정부를 더 포함하고, 상기 3차원 영상 정보의 생성시에 기초되는 정보 중 상기 3차원 디바이스 기하 정보는 상기 최종 3차원 디바이스 기하 정보를 사용할 수 있다. In another embodiment, by randomly sampling feature geometries of image data to which the 3D device geometry information is linked, a sampling image in which an amount of mutual separation between the sampled feature geometries and the corresponding feature geometries of the reference image data is minimized A matching optimal value estimator for estimating the feature geometry of the data as a matching optimal value, and a device geometry for estimating the geometrically transformed three-dimensional device geometry information in relation to the feature geometry estimated as the matching optimal value as the final three-dimensional device geometry information The device may further include an information estimator, wherein the final 3D device geometry information may be used as the 3D device geometry information among information based on generation of the 3D image information.

상기 기술적 과제를 이루기 위한 본 발명의 일 양태에 따르면, 모바일 디바이스 영상에 기반한 공간 정보 클러스터링에 의한 재난 상황 인지 방법은, 모바일 디바이스로부터 취득한 영상 데이터에 관련되어 적어도 2차원 위치 데이터를 갖는 제 2 외부 기하 데이터가 포함된 디바이스 기하 정보를 획득하고, 기준 영상 데이터에 연계된 3차원 위치 데이터와 기준 영상을 생성하는데 설정된 시야 방향을 정의하는 제 1 외부 기하 데이터를 포함하는 기준 기하 정보 중 상기 3차원 위치 데이터 및 상기 2차원 위치 데이터를 참조하여 상기 기준 영상 데이터와 정합 가능한 상기 영상 데이터의 후보군을 검색하며, 상기 후보군 중 상기 기준 영상 데이터와 최고의 정합도를 갖는 상기 영상 데이터를 선정하는 검색 선정 단계와, 상기 기준 영상 데이터와 상기 선정된 영상 데이터 간에 공통되는 소정 형태의 특징 기하들에 기반하여 상기 기준 영상 데이터와 선정 영상 데이터를 정합하는 정합 단계와, 상기 기준 영상 데이터와 정합된 상기 선정 영상 데이터의 디바이스의 기하 정보가 상기 3차원 위치 데이터를 포함하도록, 기하 변환 모델링에 의해 상기 디바이스의 기하 정보를 기하 변환하여 3차원 디바이스 기하 정보로 보정하는 기하 변환 단계와, 상기 3차원 디바이스 기하 정보 및 상기 특징 기하에 대한 정합 정보에 기초하여, 상기 모바일 디바이스의 영상 데이터에 대해 3차원 영상 정보를 생성하는 3차원 영상 정보 생성 단계와, 상기 모바일 디바이스로의 영상 데이터에 기반한 상기 3차원 영상 정보로부터, 상기 모바일 디바이스의 주변 환경에 대한 재난 발생 여부를 판별하며, 재난 발생 지역 별 재난 유형을 분류하는 재난 유형 추출 단계, 및 상기 재난 발생 지역과 관련된 위치 정보 및 상기 재난 유형을 상기 3차원 영상 정보와 연계하여 등록하는 재난 정보 등록 단계를 포함한다. According to an aspect of the present invention for achieving the above technical problem, a disaster situation recognition method by spatial information clustering based on a mobile device image is a second external geometry having at least two-dimensional location data related to image data obtained from a mobile device. Obtaining device geometry information including data, and the three-dimensional position data among reference geometry information including three-dimensional position data linked to the reference image data and first external geometry data defining a viewing direction set to generate the reference image and a search selection step of searching for a candidate group of the image data that can be matched with the reference image data by referring to the two-dimensional position data, and selecting the image data having the highest degree of matching with the reference image data from among the candidate group; A matching step of matching the reference image data and the selected image data based on a predetermined type of feature geometry common between the reference image data and the selected image data, and the device of the selected image data matched with the reference image data A geometric transformation step of geometrically transforming the geometric information of the device by geometric transformation modeling so that the geometric information includes the three-dimensional position data and correcting it into three-dimensional device geometric information, and the three-dimensional device geometric information and the feature geometry 3D image information generating step of generating 3D image information with respect to the image data of the mobile device based on the matching information for the mobile device, and from the 3D image information based on the image data to the mobile device, Disaster type extraction step of determining whether a disaster has occurred in the surrounding environment and classifying disaster types for each disaster occurrence area, and a disaster of registering location information related to the disaster area and the disaster type in connection with the 3D image information information registration step.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. The details of other embodiments are included in the detailed description and drawings.

본 발명에 따르면, 모바일 디바이스의 저성능 영상 센서, 측위 센서 등으로 취득하는 2차원 위치 정보의 영상 데이터를 고성능의 센서들로 구성된 플랫폼으로부터 생성된 3차원 영상 정보와 정합하고 기하 변환 등을 통한 보정을 수행함으로써, 모바일 디바이스의 영상 데이터에 기반하여 생성된 높은 정밀도의 3차원 영상 정보로부터 신뢰도를 갖는 재난 정보를 생성할 수 있다. According to the present invention, image data of two-dimensional position information acquired by a low-performance image sensor or positioning sensor of a mobile device is matched with three-dimensional image information generated from a platform composed of high-performance sensors, and corrected through geometric transformation, etc. By performing , it is possible to generate reliable disaster information from high-precision 3D image information generated based on image data of a mobile device.

모바일 디바이스에 기반한 3차원 영상 정보에 기초하여 재난 발생 지역의 정확한 측위 정보 및 재난 유형을 정확하게 파악할 수 있으며, 재난 발생 지역을 재난 유형 별로 클러스터링하여 지도 등으로 시각화함으로써, 재난 상황을 체계적으로 확인하는데 기여할 수 있다. Based on the 3D image information based on the mobile device, it is possible to accurately identify the accurate positioning information and the disaster type of the disaster area, and by clustering the disaster area by type of disaster and visualizing it on a map, etc., it will contribute to systematically checking the disaster situation. can

이외에도 본 명세서를 통해 당업자라면 파악할 수 있는 구성을 통해 도출되는 효과를 배제하지 않는다. In addition, the effect derived through the configuration that can be understood by those skilled in the art through the present specification is not excluded.

도 1은 본 발명의 실시예에 따른 모바일 디바이스 영상에 기반한 공간 정보 클러스터링에 의한 재난 상황 인지 시스템 및 이와 통신하는 모바일 디바이스에 관한 구성도이다.
도 2는 본 발명의 다른 실시예에 따른 모바일 디바이스 영상에 기반한 공간 정보 클러스터링에 의한 재난 상황 인지 방법에 관한 순서도이다.
도 3은 기준 데이터베이스부에 저장된 3차원 영상 정보의 일례를 도시한 도면이다.
도 4는 광역 영상 센서로부터 취득한 영상 데이터의 왜곡을 제거하여 평면 영상 데이터로 변환하는 과정에 관한 순서도이다.
도 5는 영상 왜곡 제거 및 평면 영상 데이터 변환의 과정을 개략적으로 도시한 도면이다.
도 6은 기준 영상 데이터베이스부가 레이저 스캔닝 센서로부터 획득되는 점군 데이터가 변환된 가상의 영상 데이터를 저장하는 형태이다.
도 7은 기준 영상 데이터와 정합 가능한 영상 데이터의 후보군을 검색하는 과정을 도시한 도면이다.
도 8은 기준 영상 데이터와 최고의 정합도를 갖는 영상 데이터를 선정하는 과정을 도시한 도면이다.
도 9는 영상 데이터의 2차원 위치 데이터와 대응하는 기준 영상 데이터의 3차원 위치 데이터를 산출하는 과정을 도시한 도면이다.
도 10은 모바일 디바이스의 영상 데이터의 위치 및 시야 방향이 최종 3차원 디바이스 기하 정보로 보정된 일례를 도시한 도면이다.
도 11는 재난 유형 별로 분류하기 위한 기계 학습의 과정을 예시한 도면이다.
도 12는 재난 발생 지역에서 각 재난 위치 별로 재난 유형을 라벨링하는 일례를 도시한 도면이다.
도 13은 재난 발생 지역에서 재난 유형 별로 클러스터링(clustering)을 수행하는 일례를 도시한 도면이다.
1 is a configuration diagram of a system for recognizing a disaster situation by spatial information clustering based on a mobile device image and a mobile device communicating therewith according to an embodiment of the present invention.
2 is a flowchart illustrating a disaster situation recognition method by spatial information clustering based on a mobile device image according to another embodiment of the present invention.
3 is a diagram illustrating an example of 3D image information stored in a reference database unit.
4 is a flowchart illustrating a process of converting image data acquired from a wide area image sensor into flat image data by removing distortion.
5 is a diagram schematically illustrating a process of image distortion removal and flat image data conversion.
6 is a diagram in which the reference image database unit stores virtual image data obtained by converting point cloud data obtained from a laser scanning sensor.
7 is a diagram illustrating a process of searching for a candidate group of image data that can be matched with reference image data.
8 is a diagram illustrating a process of selecting image data having the highest degree of matching with reference image data.
9 is a diagram illustrating a process of calculating two-dimensional position data of image data and three-dimensional position data of reference image data corresponding to the two-dimensional position data of image data.
10 is a diagram illustrating an example in which a position and a viewing direction of image data of a mobile device are corrected with final 3D device geometry information.
11 is a diagram illustrating a process of machine learning for classification by disaster type.
12 is a diagram illustrating an example of labeling a disaster type for each disaster location in a disaster occurrence area.
13 is a diagram illustrating an example of performing clustering for each disaster type in a disaster occurrence area.

이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 통상의 기술자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily implement them. However, the present disclosure may be embodied in several different forms and is not limited to the embodiments described herein.

본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In describing an embodiment of the present disclosure, if it is determined that a detailed description of a well-known configuration or function may obscure the gist of the present disclosure, a detailed description thereof will be omitted. And, in the drawings, parts not related to the description of the present disclosure are omitted, and similar reference numerals are attached to similar parts.

본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결 관계 뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present disclosure, when a component is "connected", "coupled" or "connected" to another component, it is not only a direct connection relationship, but also an indirect connection relationship in which another component exists in the middle. may also include. In addition, when a component is said to "include" or "have" another component, it means that another component may be further included without excluding other components unless otherwise stated. .

본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들 간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다. In the present disclosure, terms such as first, second, etc. are used only for the purpose of distinguishing one component from other components, and do not limit the order or importance between the components unless otherwise specified. Accordingly, within the scope of the present disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly, a second component in one embodiment is referred to as a first component in another embodiment. can also be called

본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, the components that are distinguished from each other are for clearly explaining each characteristic, and the components do not necessarily mean that the components are separated. That is, a plurality of components may be integrated to form one hardware or software unit, or one component may be distributed to form a plurality of hardware or software units. Accordingly, even if not specifically mentioned, such integrated or distributed embodiments are also included in the scope of the present disclosure.

본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다.In the present disclosure, components described in various embodiments do not necessarily mean essential components, and some may be optional components. Accordingly, an embodiment composed of a subset of components described in an embodiment is also included in the scope of the present disclosure. In addition, embodiments including other components in addition to components described in various embodiments are also included in the scope of the present disclosure.

또한, 본 명세서에서 네트워크는 유무선 네트워크를 모두 포함하는 개념일 수 있다. 이때, 네트워크는 디바이스와 시스템 및 디바이스 상호 간의 데이터 교환이 수행될 수 있는 통신망을 의미할 수 있으며, 특정 네트워크로 한정되는 것은 아니다. Also, in the present specification, the network may be a concept including both wired and wireless networks. In this case, the network may mean a communication network in which data exchange between the device and the system and devices can be performed, and is not limited to a specific network.

또한, 본 명세서에서 디바이스는 스마트폰, 태블릿 PC, 웨어러블 디바이스, 랩탑(laptop) 및 HMD(Head Mounted Display)와 같이 모바일 디바이스 뿐만 아니라, PC나 디스플레이 기능을 구비한 가전처럼 고정된 디바이스일 수 있다. 또한, 일 예로, 디바이스는 서버로 동작 가능한 컴퓨팅 디바이스, 차량 또는 IoT (Internet of Things) 디바이스일 수 있다. 즉, 본 명세서에서 디바이스는 본 발명에 따른 방법을 수행할 수 있는 기기들을 지칭할 수 있으며, 특정 타입으로 한정되지 않는다. In addition, in the present specification, a device may be a mobile device such as a smart phone, a tablet PC, a wearable device, a laptop, and a head mounted display (HMD), as well as a fixed device such as a PC or a home appliance having a display function. Also, as an example, the device may be a computing device that can operate as a server, a vehicle, or an Internet of Things (IoT) device. That is, in the present specification, a device may refer to devices capable of performing the method according to the present invention, and is not limited to a specific type.

이하, 도 1을 참조하여, 본 발명의 실시예에 따른 모바일 디바이스로부터 취득한 2차원 위치 정보의 영상 데이터를 기준 영상 데이터베이스부의 3차원 영상 데이터와 정합하여 소정 처리를 수행함으로써, 3차원 영상 정보를 갖는 영상 데이터를 생성하고, 3차원 영상 정보로부터 주변 환경의 재난 정보를 추출 내지 생성하기 위한, 모바일 디바이스 영상에 기반한 공간 정보 클러스터링에 의한 재난 상황 인지 시스템에 대하여 설명하기로 한다. Hereinafter, with reference to FIG. 1, by performing a predetermined process by matching the image data of the two-dimensional position information acquired from the mobile device according to the embodiment of the present invention with the three-dimensional image data of the reference image database unit, having three-dimensional image information A disaster situation recognition system by spatial information clustering based on a mobile device image for generating image data and extracting or generating disaster information of the surrounding environment from 3D image information will be described.

도 1은 본 발명의 실시예에 따른 모바일 디바이스 영상에 기반한 공간 정보 클러스터링에 의한 재난 상황 인지 시스템 및 이와 통신하는 모바일 디바이스에 관한 구성도이다. 1 is a configuration diagram of a system for recognizing a disaster situation by spatial information clustering based on a mobile device image and a mobile device communicating therewith according to an embodiment of the present invention.

상기 시스템(100)은 모바일 디바이스(102)에서 촬영된 지형, 지물 등의 공간 객체를 촬영한 영상 데이터가 2차원 위치 데이터와 촬영 당시의 추정된 영상 센서(104)의 시야 방향 등과 결합된 정보를 수신한다. The system 100 collects information in which image data of spatial objects such as terrain and features captured by the mobile device 102 are combined with two-dimensional position data and the viewing direction of the image sensor 104 estimated at the time of shooting. receive

먼저 모바일 디바이스(102)를 설명하면, 모바일 디바이스(102)는 영상 센서(104), 측위 센서(106), IMU 센서(Inertial Measurement Unit; 106), 중앙 처리부(110) 및 통신부(112)를 포함할 수 있다. First, the mobile device 102 is described. The mobile device 102 includes an image sensor 104 , a positioning sensor 106 , an IMU sensor (Inertial Measurement Unit) 106 , a central processing unit 110 , and a communication unit 112 . can do.

모바일 디바이스(102)는 사람, 이동체 등을 통해 이동하면서 주변 환경을 촬영하는 디바이스로서, 2차원 위치 데이터와 결부된 영상 데이터를 생성하여 상기 시스템(100)에 유무선 네트워크를 통해 송수신하는 장치이다. 예를 들어, 모바일 디바이스(102)는 스마트폰, HMD (Head Mount Display), 스마트 안경, 차량 충돌 및 사고 등을 인지하는 차량용 블랙 박스 등일 수 있으나, 상술한 기능을 구현하는 장치라면 이에 제한되지 않는다. The mobile device 102 is a device that captures a surrounding environment while moving through a person, a moving object, etc., and is a device that generates image data associated with two-dimensional location data and transmits and receives image data to the system 100 through a wired/wireless network. For example, the mobile device 102 may be a smart phone, a Head Mount Display (HMD), smart glasses, a vehicle black box that recognizes vehicle collisions and accidents, etc., but is not limited thereto .

영상 센서(104)는 모바일 디바이스(102)에 탑재되어 그 주위의 주변 대상물, 예컨대 지형, 지물을 이미지로 촬영하여 영상 데이터 및 영상 데이터가 취득된 당시의 영상용 시간 정보를 취득하는 센서들을 복수 구비할 수 있다. 영상 센서(104)는 평면 영상용 센서, 평면 영상용 센서보다 넓은 화각을 갖는 광역 영상 센서, 측량용 또는 비측량용 카메라일 있으며, 이에 제한되지 않는다. 광역 영상 센서는 서로 다른 방향의 시야 방향을 갖는 영상이 조합된 스테레오 영상, 또는 소정 시야각 내에 배치된 카메라의 영상이 결합되는 파노라마 영상을 생성하며, 예컨대 어안 렌즈를 구비하여 어안 렌즈 영상을 생성하는 카메라 또는 다수개의 카메라를 용한 다중 카메라에 의해 전방위 영상을 출력하는 다중 카메라 시스템 등일 수 있다. The image sensor 104 is mounted on the mobile device 102 and includes a plurality of sensors that acquire image data and time information for an image at the time the image data was acquired by photographing a surrounding object, for example, a terrain or a feature, as an image. can do. The image sensor 104 may be a flat image sensor, a wide-area image sensor having a wider field of view than a flat image sensor, or a surveying or non-surveying camera, but is not limited thereto. The wide-area image sensor generates a stereo image in which images having different viewing directions are combined, or a panoramic image in which an image of a camera disposed within a predetermined viewing angle is combined, for example, a camera having a fisheye lens to generate a fisheye lens image Or it may be a multi-camera system that outputs an omnidirectional image by a multi-camera using a plurality of cameras.

영상 데이터가 왜곡 영상을 발생하는 광역 영상 센서로부터 기인하는 경우에, 영상 데이터는 후술할 검색 선정부(116)에 의해. 왜곡 영상을 평면 영상 데이터로 변환하여 생성되는 평면 영상 데이터를 이용할 수 있으며, 상세 변환 과정은 후술하기로 한다. In the case where the image data originates from a wide-area image sensor that generates a distorted image, the image data is retrieved by the search selection unit 116, which will be described later. Planar image data generated by converting a distorted image into planar image data may be used, and the detailed conversion process will be described later.

측위 센서(106)는 대상물의 측위 좌표, 모바일 디바이스(102)의 위치 등의 항법 정보를 검출하여 대상물 좌표와 관련된 2차원 측위 데이터 및 이 위치 데이터가 취득된 당시의 측위 시간 데이터를 포함하는 2차원 위치 데이터를 취득하는 센서이다. 측위 센서(106)는 예컨대, 국제 위성 항법 시스템(GNSS)이 이용되는 위성 항법 장치(GPS)를 통해 플랫폼의 이동 위치를 취득하는 위치 취득 장치 등으로 구성될 수 있다. The positioning sensor 106 detects navigation information such as the positioning coordinates of the object and the location of the mobile device 102, two-dimensional positioning data related to the object coordinates, and positioning time data at the time the position data was acquired. It is a sensor that acquires position data. The positioning sensor 106 may be constituted by, for example, a position acquiring device that acquires a moving position of the platform through a global positioning system (GPS) using the global global positioning system (GNSS).

측위 센서(106)가 GNSS를 이용할 경우, 위치 정보는 측위 데이터, 측위 시간 데이터를 기본적으로 포함함과 함께, 항법위성 정보의 상태 및 개수, 수신기의 고도 정보, 속도, 측위 정밀도, 진북 정보 등을 보조 데이터로 가질 수 있다. When the positioning sensor 106 uses GNSS, the location information basically includes positioning data and positioning time data, as well as the status and number of navigation satellite information, altitude information of the receiver, speed, positioning precision, true north information, etc. You can have it as auxiliary data.

IMU 센서(108)는 모바일 디바이스(102)의 자세 및 속도를 통해 검출하고, 이로부터 영상 센서(104)의 촬영 방향, 각도 등의 시야 방향, 시야각 등의 자세 데이터를 중앙 처리부(110)에 의해 추정할 수 있다. 영상 센서(104)의 시야 방향은 IMU 센서(108)에서 측정된 방위각 등으로 도 10에 도시된 방향 정보일 수 있으며, 소정 좌표계의 동서남북으로부 표현되는 방위이거나 이동 경로와 상대적으로 결정되는 방위각 등일 수 있다. 영상 센서(104)의 시야각은 IMU 센서(108)를 구성하는 가속도계, 각가속도계, 중력계 등이 영상 센서(104)의 지면에 대해 기울어지는 경사를 계측하여 생성될 수 있다. IMU 센서는 관성 항법 장치(Inertial Navigation System; INS)를 통해 모바일 디바이스(102) 및 영상 센서의 자세 데이터를 취득하거나 산출하는 자세 취득 장치 등으로 구성될 수 있다. The IMU sensor 108 detects through the posture and speed of the mobile device 102, and from this, the image sensor 104 transmits posture data such as a viewing direction such as a photographing direction and an angle, and a viewing angle by the central processing unit 110. can be estimated The viewing direction of the image sensor 104 may be the direction information shown in FIG. 10 as an azimuth measured by the IMU sensor 108, etc. can The viewing angle of the image sensor 104 may be generated by measuring the inclination of an accelerometer, an angular accelerometer, a gravimeter, etc. constituting the IMU sensor 108 with respect to the ground of the image sensor 104 . The IMU sensor may be configured as an attitude acquisition device that acquires or calculates attitude data of the mobile device 102 and the image sensor through an inertial navigation system (INS).

중앙 처리부(110)는 영상 센서(104)로부터 취득된 영상 데이터에 측위 센서(106) 및 IMU 센서(108)로부터 입수된 영상 센서(104)의 2차원 위치 데이터와 자세 데이터(이하, '제 2 자세 데이터' 라 함)를 갖는 외부 기하 데이터(이하, '제 2 외부 기하 데이터' 라 함)와 더불어 영상 센서(104), 측위 센서(106), IMU 센서(108)에 정의된 기하 파라미터에 근거한 내부 기하 데이터(이하, '제 2 내부 기하 데이터' 라 함)를 포함하는 디바이스 기하 정보를 생성할 수 있다. 중앙 처리부(110)는 상술한 데이터들을 통신부(112)를 통해 전송하도록 제어하거나, 상기 시스템(100)으로부터 특정 데이터들을 수신하여 필요한 처리를 수행할 수 있다. The central processing unit 110 includes the image data obtained from the image sensor 104, two-dimensional position data and posture data (hereinafter, 'second Based on the geometric parameters defined in the image sensor 104 , the positioning sensor 106 , and the IMU sensor 108 together with external geometric data (hereinafter, referred to as 'second external geometric data') having 'posture data') Device geometry information including internal geometric data (hereinafter, referred to as 'second internal geometric data') may be generated. The central processing unit 110 may control to transmit the above-described data through the communication unit 112 , or may receive specific data from the system 100 and perform necessary processing.

제 2 외부 기하 데이터는 이동 중인 모바일 디바이스(102)의 위치와 자세, 즉 영상 센서(104)의 위치와 자세로 인해, 영상 센서(104)의 영상 정보를 취득할 때마다 가변되는 파라미터 값에 기초하여 산출되는 관측 데이터의 오차이며, 이 경우에 소정의 수학식 내지 모델링을 통해 계산될 수 있다. 영상 데이터가 광역 영상 센서로부터 기인하는 경우에, 2차원 위치 데이터는 평면 영상 데이터의 2차원 위치 데이터를 활용하고, 제 2 자세 데이터는 평면 영상 데이터의 시야 방향 및 시야각 등으로 정의될 수 있다. The second external geometric data is based on a parameter value that is changed whenever image information of the image sensor 104 is acquired due to the position and posture of the mobile device 102 in motion, that is, the position and posture of the image sensor 104 . This is the error of the observed data calculated by doing this, and in this case, it may be calculated through a predetermined formula or modeling. When the image data originates from the wide-area image sensor, the 2D position data may use 2D position data of the planar image data, and the second posture data may be defined as a viewing direction and a viewing angle of the planar image data.

제 2 내부 기하 데이터는 센서(104~108) 자체의 고유값으로서, 모바일 디바이스(102)의 이동 여부에 관계없이 유지되는 파라미터에 기인하는 센서(104~108)마다의 관측 데이터의 오차이다. 영상 센서(104)의 기하 파라미터는 초점거리, 주점 위치, 렌즈왜곡 파라미터 및 센서 포맷 크기 중 어느 하나 이상을 포함할 수 있다. 측위 센서(106) 또는 IMU 센서(108)의 기하 파라미터는 축방향의 스케일 및 축방향의 오프셋 중 어느 하나 이상을 포함할 수 있다.The second internal geometric data is an eigenvalue of the sensors 104 to 108 itself, and is an error of observation data for each sensor 104 to 108 due to a parameter maintained regardless of whether the mobile device 102 moves. The geometric parameter of the image sensor 104 may include any one or more of a focal length, a principal point position, a lens distortion parameter, and a sensor format size. The geometric parameter of the positioning sensor 106 or the IMU sensor 108 may include any one or more of an axial scale and an axial offset.

상기 시스템(100)은 기준 영상 데이터베이스부(114), 검색 선정부(116), 정합부(118), 기하 변환부(120), 정합 최적값 추정부(122), 디바이스 기하 정보 추정부(124), 3차원 영상 정보 생성부(126), 객체 정보 추출부(128), 공간 정보 생성부(130), 공간 정보 갱신부(132) 및 공간 정보 데이터베이스부(134)를 포함할 수 있다. The system 100 includes a reference image database unit 114 , a search selection unit 116 , a matching unit 118 , a geometric transformation unit 120 , a matching optimal value estimation unit 122 , and a device geometry information estimation unit 124 . ), a 3D image information generation unit 126 , an object information extraction unit 128 , a spatial information generation unit 130 , a spatial information update unit 132 , and a spatial information database unit 134 .

기준 영상 데이터베이스부(114)는 기준 영상의 3차원 위치 데이터와, 기준 영상을 생성하는데 설정된 시야 방향, 시야각을 정의하는 제 1 자세 데이터를 갖는 제 1 외부 기하 데이터가 포함된 기준 기하 정보와 연계하여 기준 영상 데이터를 저장한다. 3차원 위치 데이터는 2차원 위치 데이터, 즉 XY 좌표에서 고도값 Z을 추가한 XYZ 좌표일 수 있다. 시야 방향 및 시야각은 영상 센서(104)에 설명된 점과 실질적으로 동일하다. 또한, 기준 기하 정보는 기준 영상을 생성하는데 설정된 센서에 정의된 기하 파라미터에 근거한 제 1 내부 기하 데이터를 더 포함할 수 있다. The reference image database unit 114 is linked with reference geometry information including three-dimensional position data of the reference image and first external geometric data having first posture data defining a viewing direction and viewing angle set to generate the reference image. Save the reference image data. The three-dimensional position data may be two-dimensional position data, ie, XYZ coordinates obtained by adding an altitude value Z to the XY coordinates. The viewing direction and viewing angle are substantially the same as those described for the image sensor 104 . Also, the reference geometric information may further include first internal geometric data based on a geometric parameter defined in a sensor configured to generate a reference image.

기준 영상은 외부로부터 입수되며, 3차원 위치 데이터가 적어도 포함되는 영상이며, 모바일 디바이스(102)로부터 획득된 영상 데이터와 대비가능한 기준 영상 데이터로 가공된다. 기준 영상을 생성하는데 최초 이용되는 센서는 모바일 디바이스(102)보다 높은 측위 정확도, 영상 구현 성능을 갖는 영상 획득 기기 및 레이저 스캔닝 센서(예컨대, 라이다(Lidar)) 중 적어도 하나일 수 있다. 기준 영상과 연계된 기준 기하 정보는 각 픽셀 좌표마다, 3차원 위치 정보, RGB 데이터와 같은 색상 정보, 제 1 외부 기하 데이터 및 제 1 내부 기하 데이터를 포함하고, 기준 기하 정보와 결합되는 기준 영상은 기준 영상 데이터로 저장될 수 있다.The reference image is an image obtained from the outside, including at least three-dimensional position data, and is processed into reference image data that can be contrasted with image data obtained from the mobile device 102 . The sensor initially used to generate the reference image may be at least one of an image acquisition device and a laser scanning sensor (eg, Lidar) having higher positioning accuracy and image realization performance than the mobile device 102 . The reference geometric information associated with the reference image includes, for each pixel coordinate, three-dimensional position information, color information such as RGB data, first external geometric data, and first internal geometric data, and the reference image combined with the reference geometric information includes: It may be stored as reference image data.

기준 영상을 생성하는데 최초 이용되는 센서가 영상 센서인 경우에, 제 1 내부 기하 데이터는 제 2 내부 기하 데이터에서 설명된 영상 센서(104)와 실질적으로 동일하다. 최초 이용되는 센서가 레이저 스캔닝 센서인 경우에 제 1 내부 기하 데이터는 예로 들면, 각 레이저의 입사각, 거리 스케일, 거리 방향 오프셋 및 축방향 오프셋 중 적어도 하나일 수 있다. When the sensor initially used to generate the reference image is an image sensor, the first internal geometric data is substantially the same as the image sensor 104 described in the second internal geometric data. When the first used sensor is a laser scanning sensor, the first internal geometric data may be, for example, at least one of an incident angle of each laser, a distance scale, a distance direction offset, and an axial direction offset.

기준 영상이 왜곡 영상을 발생하는 광역 영상 센서로부터 기인하는 경우에, 기준 영상은 왜곡 영상을 평면 영상 데이터로 변환하여 생성되는 평면 영상 데이터를 이용하며, 3차원 위치 데이터는 평면 영상 데이터의 3차원 위치 데이터를 활용하고, 제 1 자세 데이터는 평면 영상 데이터의 시야 방향, 시야각 등으로 정의될 수 있다. 상세 변환 과정은 후술하기로 한다. When the reference image originates from a wide-area image sensor that generates a distorted image, the reference image uses flat image data generated by converting the distorted image into flat image data, and the three-dimensional position data is the three-dimensional position of the flat image data. Data is used, and the first posture data may be defined as a viewing direction and a viewing angle of the planar image data. A detailed conversion process will be described later.

기준 영상이 레이저 스캔닝 센서로부터 기인하는 경우에, 기준 영상은 레이저 스캔닝 센서로부터 획득되는 점군 데이터가 변환된 가상의 영상 데이터를 이용할 수 있다, 3차원 위치 데이터는 가상의 영상 데이터의 3차원 위치 데이터로 정의되며, 상기 제 1 자세 데이터는 상기 가상의 영상 데이터의 시야 방향으로 정의될 수 있다. 점군 데이터의 변환은 점군 데이터의 반사 강도, 고도값 등을 감안하는 가상 카메라 모델링에 의해 수행될 수 있다. 기준 영상 생성시에 영상 센서가 추가로 관여되는 경우에, 점군 데이터의 변환시에 영상 센서로 획득된 색상 데이터가 가상의 영상 데이터에 포함될 수 있다. When the reference image originates from the laser scanning sensor, the reference image may use virtual image data obtained by converting the point cloud data obtained from the laser scanning sensor. The 3D position data is the 3D position of the virtual image data. data, and the first posture data may be defined in a viewing direction of the virtual image data. Transformation of the point cloud data may be performed by virtual camera modeling in consideration of reflection intensity, altitude, and the like of the point cloud data. When the image sensor is additionally involved in generating the reference image, color data obtained by the image sensor when the point cloud data is converted may be included in the virtual image data.

이에 더하여, 기준 영상 데이터베이스부(114)는 기준 영상 데이터에 특정 형태의 객체와 관련된 정보, 즉 객체 정보를 함께 연게하여 격납한다. 예를 들어, 객체는 지도 상에 표시될 필요가 있는 건축물, 자율주행을 위해 인식이 필요한 교통 표지판, 신호등, 차선 등이 해당될 수 있다. 이 경우에, 객체 정보는 대상물의 종류, 전체 모양, 대상물의 적어도 일부를 구성하는 선, 면, 원, 구 등과 같은 특정 기하학적 형상, 색상, 질감 관련 속성을 포함할 수 있다. In addition, the reference image database unit 114 opens and stores information related to a specific type of object, ie, object information, in the reference image data. For example, the object may correspond to a building that needs to be displayed on a map, a traffic sign that needs to be recognized for autonomous driving, a traffic light, a lane, and the like. In this case, the object information may include the type of the object, the overall shape, a specific geometric shape such as a line, a surface, a circle, or a sphere constituting at least a part of the object, a color, and a texture-related attribute.

한편, 검색 선정부(116)는 모바일 디바이스(102)로부터 취득한 영상 데이터에 관련되어 디바이스 기하 정보를 획득하고, 3차원, 2차원 위치 데이터와 자세 데이터를 포함하는 제 1 및 제 2 외부 기하 데이터, 제 1 및 제 2 내부 기하 데이터를 참조하여 기준 영상 데이터와 정합 가능한 영상 데이터의 후보군을 검색하며, 후보군 중 기준 영상 데이터와 최고의 정합도를 갖는 영상 데이터를 선정한다. On the other hand, the search selection unit 116 obtains device geometry information in relation to the image data acquired from the mobile device 102, and first and second external geometric data including three-dimensional and two-dimensional position data and posture data; A candidate group of image data that can be matched with the reference image data is searched for with reference to the first and second internal geometric data, and image data having the highest degree of matching with the reference image data is selected from the candidate group.

여기서, 영상 데이터는 색상 정보를 가진 행렬 형태의 데이터 뿐만 아니라 특정 객체를 대표할 수 있는 특징을 지닌 디스크립터(descriptor)로 사용될 수 있다. 특정 객체를 대표하는 특징을 지닌 디스크립터의 경우에, 영상 비교 알고리즘으로서 SIFT(Scale Invariant Feature Transform)을 활용할 수 있다. Here, the image data may be used not only as matrix-type data having color information, but also as a descriptor having a characteristic that can represent a specific object. In the case of a descriptor having a characteristic representing a specific object, SIFT (Scale Invariant Feature Transform) may be used as an image comparison algorithm.

SIFT에 따른 디스크립터를 산출하기 위해서는, 스케일-공간 익스트리마(Scale-space extrema), 키포인트 국소화 및 필터링(Key-point localization & Filtering), 방향성(Orientation) 할당 및 디스크립터 생성의 순서로 진행될 수 있다.In order to calculate the descriptor according to the SIFT, the order of Scale-space extrema, Key-point localization & Filtering, Orientation allocation, and descriptor generation may be performed.

구체적으로, 영상 데이터에서 단순하게 경계를 검출하면, 노이즈를 포함한 의미없는 에지도 많이 검출되므로, 먼저 Gaussian filter를 여러 레벨로 적용(σ 값을 조절)하여 영상 데이터를 흐림화 처리(blurring)하고, 영상 데이터와 기준 영상 데이터 간의 차를 산출하면, 노이즈에 강인한 특징이 획득된다(DoG: Difference of Gauassian). 현재 크기(scale)에 대한 작업을 마치면, 스케일 변화에 대응이 가능하도록 영상의 크기을 변경하면서 동일한 작업을 수행하여, 서로 다른 크기에서의 강인한 특징인 extrema를 구한다.Specifically, if a boundary is simply detected in the image data, a lot of meaningless edges including noise are also detected. First, the image data is blurred by applying a Gaussian filter at various levels (adjusting the σ value), When the difference between the image data and the reference image data is calculated, a characteristic robust to noise is obtained (DoG: Difference of Gaussian). When the work on the current scale is completed, the same work is performed while changing the image size to be able to respond to the scale change to obtain extrema, a robust feature at different sizes.

DoG를 통해 비교적 강인한 extrema를 추출했을지라도 여전히 불필요한 정보들도 많이 포함하고 있으므로, 이에 대해 키포인트 국소화 및 필터링을 통해 의미가 있는 정보들만 추출한다. 다음으로 구배(gradient)의 방향에 따른 히스토그램(histogram)을 산출한다.Even though relatively robust extrema is extracted through DoG, it still contains a lot of unnecessary information, so only meaningful information is extracted through keypoint localization and filtering. Next, a histogram according to the direction of the gradient is calculated.

NХN 구배 윈도우에서 m개의 방향으로 NХNХm 차원의 디스크립터를 생성하고, 이 디스크립터를 비교하는 방식으로 영상의 선정, 정합성 여부를 판단하게 된다.In the NХN gradient window, NХNХm dimension descriptors are generated in m directions, and the selection and consistency of images are determined by comparing these descriptors.

구체적으로, 검색 선정부(116)는 3차원 위치 데이터 및 2차원 위치 데이터에 기초하여 기준 영상 데이터와 대비가능한 영상 데이터의 후보군을 검색하고, 제 1 및 제 2 자세 데이터를 참조하여 후보군 중 기준 영상 데이터와 최고의 정합도를 갖는 영상 데이터를 선정할 수 있다. Specifically, the search selection unit 116 searches for a candidate group of image data that can be contrasted with the reference image data based on the 3D position data and the 2D position data, and refers to the first and second posture data for a reference image among the candidate group. It is possible to select the image data having the highest degree of matching with the data.

검색 선정부(116)는 모바일 디바이스(102)로부터 획득되는 영상 데이터가 광역 영상 센서로부터 기인하는 경우에, 광역 영상의 왜곡을 제거하고 평면 영상 데이터로 변환하는 프로세스를 상술한 최고의 정합도를 갖는 영상 데이터의 선정 과정 전에 실행할 수 있다. When the image data obtained from the mobile device 102 originates from the wide-area image sensor, the search selection unit 116 performs the process of removing distortion of the wide-area image and converting it into flat image data. This can be done before the data selection process.

이상의 실시예에서는 검색 선정부(116)가 자세 데이터를 포함하는 제 1 및 제 2 외부 기하 데이터, 제 1 및 제 2 내부 기하 데이터까지 분석하여 영상 데이터의 후보군을 선정하고 최고의 정합도를 갖는 영상 데이터를 선정하는 것으로 설명하고 있으나, 2차원 위치 데이터와 함께, 3차원 위치 데이터의 고도값을 제외한 다른 값들에 기반하여 후보군 선정과 영상 데이터의 선정 프로세스를 수행할 수 있다. In the above embodiment, the search selection unit 116 selects a candidate group of image data by analyzing the first and second external geometric data including the posture data, and even the first and second internal geometric data, and image data having the highest degree of matching is described as selecting a candidate group and image data selection process based on values other than the altitude value of the 3D location data together with the 2D location data.

정합부(118)는 기준 영상 데이터와 선정된 영상 데이터 간에 공통되는 소정 형태의 특징 기하들에 기반하여 기준 영상 데이터와 선정 영상 데이터를 정합하고, 특징 기하를 참고하여 공선조건식 등의 기하 모델을 통해 복수의 선정 영상 데이터를 결합할 수 있다. The matching unit 118 matches the reference image data and the selected image data based on a predetermined shape of feature geometry common between the reference image data and the selected image data, and through a geometric model such as a collinear conditional expression with reference to the feature geometry A plurality of selected image data may be combined.

소정 형태의 특징 기하는 동일한 위치로 추정되는 선정 영상 데이터와 기준 영상 데이터에 표현된 객체의 특정 기하적 형상에 기초하여 추출될 수 있다. 객체는 예컨대 도로 표지판, 특이 형상의 물체, 건물 경계선 등과 같이 영상 데이터 상에서 점, 선, 면, 기둥 등의 특징 기하가 용이하게 추출가능한 대상물로 랜덤으로 선정될 수 있다. 이러한 특징 기하는 선정 영상 데이터와 기준 영상 데이터 간의 자세 데이터가 다소 상이하더라도 동일한 객체로의 추정 가능성이 높은 소정 형태를 채용하고, 예를 들어 도로 노면에 표시된 차선, 도로 표지, 건물 윤곽 등일 수 있다. A predetermined type of feature geometry may be extracted based on a specific geometric shape of an object expressed in the selected image data and the reference image data, which are estimated to be at the same location. The object may be randomly selected as an object from which feature geometries such as points, lines, planes, and columns can be easily extracted from image data, such as road signs, objects of unusual shapes, building boundaries, and the like. Even if the posture data between the selected image data and the reference image data is slightly different, the characteristic geometry adopts a predetermined shape with a high probability of being estimated as the same object, and may be, for example, a lane marked on a road surface, a road sign, a building outline, and the like.

기하 변환부(120)는 3차원 위치 데이터를 포함하도록, 기하 변환 모델링을 이용하여, 공통된 특징 기하들에 있어서, 기준 영상 데이터와 연관되는 선정 영상 데이터의 디바이스의 기하 정보를 기하 변환하여 3차원 디바이스 기하 정보로 보정한다. The geometric transformation unit 120 geometrically transforms the geometry information of the device of the selected image data related to the reference image data in common feature geometries using geometric transformation modeling to include the three-dimensional position data to include the three-dimensional device. Calibrate with geometric information.

기하 변환 모델링은 수학식 1과 같은 공선조건식을 이용하거나, 영상 데이터의 기하를 행렬형태로 반영할 수 있는 perspective transformation, affine transformation, homography transformation 중 하나를 대체모델링을 사용할 수 있다.For geometric transformation modeling, one of perspective transformation, affine transformation, and homography transformation, which can reflect the geometry of image data in a matrix form, may be used, or alternative modeling may be used.

[수학식 1] [Equation 1]

Figure pat00001
Figure pat00001

영상 좌표는 동일 특징 기하와 관련된 영상 데이터의 2차원 위치 데이터이며, 대상물 좌표는 동일 특징 기하에 대한 기준 영상 데이터의 3차원 위치 데이터이다. 카메라 위치 및 자세는 기준 영상 데이터의 제 1 외부 기하 데이터이고, 주점 위치, 초점 거리, 렌즈 왜곡은 제 1 내부 기하 데이터이다. The image coordinates are two-dimensional position data of image data related to the same feature geometry, and the object coordinates are three-dimensional position data of reference image data for the same feature geometry. The camera position and posture are first external geometric data of the reference image data, and the main point position, focal length, and lens distortion are first internal geometric data.

정합 최적값 추정부(122)는 3차원 디바이스 기하 정보가 연계된 영상 데이터의 특징 기하들을 랜덤 샘플링하여, 샘플링된 특징 기하들 및 상응하는 기준 데이터의 특징 기하들의 상호 이격량이 최소가 되는 샘플링 영상 데이터의 특징 기하를 정합 최적값으로 추정할 수 있다. The matching optimal value estimator 122 randomly samples the feature geometries of the image data to which the 3D device geometry information is linked, and the sampling image data in which the amount of mutual separation between the sampled feature geometries and the feature geometries of the corresponding reference data is minimized. The feature geometry of can be estimated as the matching optimal value.

구체적으로, 동일 추정되는 특징 기하들마다 특징 기하를 공유하는 영상 데이터들을 복수로 샘플링함과 동시에, 특징 기하를 갖는 기준 영상 데이터를 연동하여 선별한다. 이어서, 동일 추정되는 특징 기하를 공유하는 영상 데이터들과 기준 영상 데이터를 3차원 디바이스 기하 정보에 따라 배열하는 경우에, 영상 데이터들과 기준 영상 데이터에 동일 추정의 특징 기하들 간에 이격량이 최소로 판단되는 영상 데이터들의 특징 기하를 정합 최적값으로 추정한다. Specifically, a plurality of image data sharing a feature geometry is sampled for each of the same estimated feature geometries, and reference image data having a feature geometry is linked and selected. Next, when image data and reference image data sharing the same estimated feature geometry are arranged according to the 3D device geometry information, the amount of separation between the image data and the reference image data and the feature geometries estimated to be the same is determined to be the minimum The feature geometry of the image data to be used is estimated as a matching optimal value.

디바이스 기하 정보 추정부(124)는 상술의 정합 최적값으로 추정된 특징 기하와 관련하여 기하 변환된 3차원 디바이스 기하 정보를 최종 3차원 디바이스 기하 정보로 추정할 수 있다. The device geometry information estimator 124 may estimate the geometrically transformed 3D device geometry information in relation to the feature geometry estimated as the above-described optimal matching value as the final 3D device geometry information.

3차원 영상 정보 생성부(126)는 최종 3차원 디바이스 기하 정보 및 특징 기하에 대한 정합 정보에 기초하여, 모바일 디바이스(102)의 영상 데이터에 대해 3차원 영상 정보를 생성한다. The 3D image information generating unit 126 generates 3D image information with respect to the image data of the mobile device 102 based on the final 3D device geometry information and matching information on the feature geometry.

3차원 영상 정보는 기준 영상 데이터베이스부(114)의 기준 영상 데이터와 같이, 기하 변환에 의해 보정된 영상 데이터 및 이와 연계되어 3차원 위치 데이터, 보정된 제 2 자세 데이터를 포함하는 보정된 제 2 외부 기하 데이터, 보정된 제 2 내부 기하 데이터를 포함하는 최종 3차원 디바이스 기하 정보, 색상 데이터, 시간 데이터 등을 포함할 수 있다. The three-dimensional image information, like the reference image data of the reference image database unit 114, includes image data corrected by geometric transformation, three-dimensional position data linked thereto, and corrected second external posture data including corrected second posture data. It may include geometric data, final 3D device geometry information including the corrected second internal geometric data, color data, time data, and the like.

객체 정보 추출부(128)는 영상 데이터로부터 기인하는 3차원 영상 정보로부터 특정 형태의 객체를 추출할 수 있다. The object information extractor 128 may extract an object of a specific shape from 3D image information resulting from image data.

구체적으로, 객체 정보 추출부(128)는 3차원 영상 정보에 포함된 데이터들에 기초하여 추출된 대상물의 속성과 관련된 객체 정보를 추출할 수 있다.Specifically, the object information extractor 128 may extract object information related to the extracted object attribute based on data included in the 3D image information.

객체 정보 추출부(128)는 3차원 영상 정보에 포함된 영상 데이터, 최종 3차원 디바이스 기하 정보, 색상 데이터, 시간 데이터 등으로부터 파악된 대상물과 관련된 후보군 데이터를 머신 러닝 기법으로 검출하고, 검출된 후보군 데이터에 순차적으로 추가 기계학습 모델을 적용하여 대상물의 정보를 인식할 수 있다. The object information extraction unit 128 detects the candidate group data related to the object identified from the image data included in the 3D image information, the final 3D device geometry information, the color data, the time data, etc. using a machine learning technique, and the detected candidate group By sequentially applying additional machine learning models to the data, the information of the object can be recognized.

기계학습은 대상물 객체 검출, 대상물 객체 인식 두 단계로 나누어져 수행되고, 대상물 객체 검출 단계에서는 대상물 객체의 모양, 색상, 질감 등의 벡터와 같은 속성을 기반으로 데이터 내에서 후보군을 기계학습을 통해 검출하고, 검출된 후보군에 순차적으로 추가 기계학습 모델을 적용하여 대상 사물이 나타내는 정보를 인식하여 분류한다.Machine learning is performed in two stages: target object detection and target object recognition. In the target object detection step, candidate groups are detected through machine learning based on properties such as vectors such as shape, color, and texture of the target object. Then, an additional machine learning model is sequentially applied to the detected candidate group to recognize and classify the information indicated by the target object.

객체 정보 추출부(128)는 3차원 영상 정보에 포함된 모바일 디바이스의 주변 환경에 대한 다양?h 객체를 인식하여, 후술할 재난 유형 추출부(132)에 관련 객체 정보들을 전송할 수 있다. 재난 유형 추출부(132)는 기계학습에 의해 관련 객체 정보들을 분석하여 재난 발생 여부를 판별하고, 재난 발생의 경우에 재난 발생 지역의 세부 위치 별로 재난 유형을 분류할 수 있다.The object information extraction unit 128 may recognize various ?h objects for the surrounding environment of the mobile device included in the 3D image information, and transmit related object information to the disaster type extraction unit 132, which will be described later. The disaster type extraction unit 132 may analyze related object information by machine learning to determine whether a disaster has occurred, and in the event of a disaster, classify the disaster type by detailed location of the disaster occurrence area.

공간 정보 생성부(130)는 추출된 객체와 동일한 기준 영상 데이터의 객체에 기초하여, 최종 3차원 디바이스 기하 정보 및 기준 영상 데이터에 저장된 객체와 관련된 객체 정보를 3차원 영상 정보에 포함하는 소정 좌표계, 예컨대 절대좌표계에 따른 신규 공간 정보를 생성하며, 공간 정보 데이터베이스부(134)에 전송하여 저장할 수 있다. 공간 정보는 후술한 공간 데이터로서 상세 정보에 대해서는 이후에 설명한다. The spatial information generating unit 130, based on the object of the same reference image data as the extracted object, a predetermined coordinate system including final three-dimensional device geometry information and object information related to an object stored in the reference image data in the three-dimensional image information; For example, new spatial information according to the absolute coordinate system may be generated and transmitted to and stored in the spatial information database unit 134 . Spatial information is spatial data to be described later, and detailed information will be described later.

재난 유형 추출부(132)는 모바일 디바이스로의 영상 데이터에 기반한 3차원 영상 정보로부터, 모바일 디바이스의 주변 환경에 대한 재난 발생 여부를 판별하며, 재난 발생 지역 별 재난 유형을 분류할 수 있다. 재난 유형 추출부(132)는 3차원 영상 정보에 대한 기계학습을 통해 재난 발생 여부를 판별함과 아울러서, 재난 유형을 분류할 수 있다. The disaster type extractor 132 may determine whether a disaster has occurred in the surrounding environment of the mobile device from 3D image information based on image data to the mobile device, and may classify the disaster type for each disaster occurrence region. The disaster type extraction unit 132 may classify disaster types while determining whether a disaster has occurred through machine learning on 3D image information.

재난 정보 등록부(136)는 재난 발생 지역과 관련된 위치 정보 및 재난 유형을 3차원 영상 정보와 연계하여 등록할 수 있다. 재난 발생 지역에 대한 위치 정보는 재난 유형 별로 식별된 재난 위치 정보 및 모바일 디바이스의 촬영 지점 등일 수 있다. 재난 위치 정보는 모바일 디바이스의 위치 데이터가 기준 영상 데이터의 3차원 위치 데이터에 의해 측위 보정된 3차원 위치 정보로 구성될 수 있다. 이러한 3차원 위치 정보는 공간 정보 데이터베이스부(134)에 매칭하기 위해, 예컨대 절대 좌표계로 표출될 수 있다. 재난 정보 등록부(136)는 절대 좌표계로 기술된 3차원 위치 정보에 기반하여, 재난 발생 지역의 위치 정보 및 각 세부 위치 별 재난 유형을 3차원 영상 정보 및 후술할 공간 데이터(공간 정보 데이터베이스부(134)의 공간 데이터)와 연계하여 공간 정보 데이터베이스부(134)에 등록할 수 있다. 이에 따라, 모바일 디바이스의 보정된 위치 데이터, 즉 보정된 3차원 측위 정보와 3차원 영상 정보로부터 취득한 재난 정보(재난 영상 정보)를 이용하여, 재난 발생 지역의 각 위치 별로 분류된 재난 유형을 지도에 표출할 수 있다. 또한, 지도를 통해 공간 데이터를 포함하는 재난 정보가 표출될 수 있다.The disaster information registration unit 136 may register location information and disaster types related to the disaster occurrence area in association with 3D image information. The location information on the disaster area may be disaster location information identified for each type of disaster, a shooting point of a mobile device, and the like. The disaster location information may be composed of 3D location information in which location data of the mobile device is corrected for positioning by 3D location data of reference image data. Such three-dimensional position information may be expressed in, for example, an absolute coordinate system in order to match the spatial information database unit 134 . The disaster information registration unit 136, based on the 3D location information described in the absolute coordinate system, provides the location information of the disaster occurrence area and the disaster type for each detailed location as 3D image information and spatial data (spatial information database unit 134 ) to be described later. ) can be registered in the spatial information database unit 134 in association with the spatial data of ). Accordingly, by using the calibrated location data of the mobile device, that is, the calibrated three-dimensional positioning information and the disaster information (disaster image information) obtained from the three-dimensional image information, the types of disasters classified for each location in the disaster occurrence area are displayed on the map. can express In addition, disaster information including spatial data may be displayed through the map.

이에 더하여, 재난 정보 등록부(136)는 재난 발생 지역의 재난 유형 및 재난 발생 지역 간의 지리적 근접도 등에 기초하여 클러스터링(clustering)을 수행하여 3차원 영상 정보를 처리할 수 있다. 3차원 영상 정보에서 클러스터링화된 데이터도 후술할 공간 데이터와 연계하여 공간 정보 데이터베이스부(134)에 등록할 수 있다. 이에 따라, 동일, 유사한 재난 유형 별로 군집화하여 제시된 지도가 생성될 수 있다. In addition, the disaster information registration unit 136 may process the 3D image information by performing clustering based on the type of disaster in the disaster occurrence area and geographic proximity between the disaster occurrence areas. Data clustered in 3D image information may also be registered in the spatial information database unit 134 in association with spatial data to be described later. Accordingly, a map presented by clustering by the same or similar disaster type may be generated.

공간 정보 데이터베이스부(134)는 소정 좌표계, 예컨대 절대 좌표계에 따라, 이종 센서들로부터 기 획득된 관측 데이터와 관측 데이터에 기초하여 도화를 위해 기 생성된 데이터를 공간 데이터로 구조화하여 저장한다. 공간 데이터는 소정 좌표계의 해당 좌표 등에 생성된 데이터로서, 관측 데이터, 내부 기하, 외부 기하, 고유 데이터, 시간 정보, 취득 환경 정보, 이종 센서들 간의 센서 데이터들의 위치 오차로 인한 이격량, 정확도, 정밀도 관련한 확률 정보, 점군 데이터 관련 정보, 영상 데이터 관련 정보, 객체 정보, 상술의 재난 정보 및 지도 관련 정보를 포함할 수 있다. 본 실시예에서는 공간 데이터가 상술한 데이터들 내지 정보들을 전부 포함하는 것으로 기술하고 있으나, 이에 제한되지 않으며, 설계 사양에 따라 상술한 데이터/정보들 중 일부만을 포함하도록 설정될 수 있다. The spatial information database unit 134 structures and stores observation data previously acquired from heterogeneous sensors and data previously generated for drawing as spatial data according to a predetermined coordinate system, for example, an absolute coordinate system. Spatial data is data generated in corresponding coordinates of a predetermined coordinate system, and is observed data, internal geometry, external geometry, intrinsic data, time information, acquisition environment information, separation amount due to position error of sensor data between heterogeneous sensors, accuracy, and precision It may include related probability information, point cloud data related information, image data related information, object information, the above-mentioned disaster information and map related information. In the present embodiment, it is described that spatial data includes all of the above-described data or information, but is not limited thereto, and may be set to include only some of the above-described data/information according to design specifications.

재난 정보는 재난 정보 등록부(136)를 통해 등록된 재난 발생 지역 관련 위치 정보, 세부 위치 별 재난 유형 및 클러스터링화된 데이터 등을 포함할 수 있다. The disaster information may include location information related to a disaster occurrence area registered through the disaster information register 136 , a disaster type for each detailed location, clustered data, and the like.

본 실시예에 따르면, 모바일 디바이스(102)의 2차원 위치 데이터를 갖는 영상 데이터와 3차원 위치 데이터를 갖는 기준 영상 데이터 간의 정합을 서로 다른 차원 간의 정합 방식이 아닌, 2차원 영상 매칭 방식을 적용할 수 있어 낮은 복잡도로 신속하게 정합 프로세스를 수행할 수 있다. According to this embodiment, the matching between the image data having the 2D position data of the mobile device 102 and the reference image data having the 3D position data of the mobile device 102 is not a matching method between different dimensions, but a 2D image matching method. Therefore, the matching process can be performed quickly with low complexity.

또한, 기준 영상 데이터에 포함된 정밀도 및 정확도가 높은 3차원 위치 데이터로 영상 데이터의 위치 데이터를 기하 변환하여 보정함으로써, 3차원 영상 정보를 생성할 수 있으며, 이에 따라 추후 높은 정밀도/정확도를 요구하는 후속 데이터 처리에서 유용하게 활용될 수 있다.In addition, 3D image information can be generated by geometrically transforming and correcting position data of image data with 3D position data with high precision and accuracy included in the reference image data, and accordingly, high precision/accuracy is required in the future. It can be usefully utilized in subsequent data processing.

이에 더하여, 본 실시예에서는 정합 최적값 추정부(122)를 통해 동일 추정되는 특징 기하들 간의 상호 이격량이 최소인 특징 기하들로 최종 3차원 디바이스 기하 정보등을 생성하고 있으나, 제 2 외부 기하 데이터가 영상 데이터들 간의 정합을 양호하게 실현할 수 있는 데이터인 바, 특징 기하들 간의 상호 이격량이 임계치 이하로 되는 조건을 만족하면, 기하 변환부(120)는 생략될 수 있다. In addition, in the present embodiment, the final 3D device geometry information, etc. is generated using the feature geometries with the minimum amount of mutual separation between the feature geometries that are estimated to be the same through the matching optimal value estimator 122, but the second external geometric data Since is data capable of achieving good matching between image data, the geometric transformation unit 120 may be omitted if the condition that the mutual spacing between the feature geometries is less than or equal to a threshold value is satisfied.

또한, 본 실시예에 따르면, 모바일 디바이스의 저성능 영상 센서, 측위 센서 등으로 취득하는 2차원 위치 정보의 영상 데이터를 고성능의 센서들로 구성된 플랫폼으로부터 생성된 3차원 영상 정보와 정합하고 기하 변환 등을 통한 보정을 수행함으로써, 모바일 디바이스의 영상 데이터에 기반하여 생성된 높은 정밀도의 3차원 영상 정보로부터 신뢰도를 갖는 재난 정보를 생성할 수 있다. In addition, according to the present embodiment, image data of two-dimensional position information acquired by a low-performance image sensor or a positioning sensor of a mobile device is matched with three-dimensional image information generated from a platform composed of high-performance sensors, and geometric transformation, etc. By performing correction through , it is possible to generate reliable disaster information from high-precision 3D image information generated based on image data of a mobile device.

아울러, 모바일 디바이스에 기반한 3차원 영상 정보에 기초하여 재난 발생 지역의 정확한 측위 정보 및 재난 유형을 정확하게 파악할 수 있으며, 재난 발생 지역을 재난 유형 별로 클러스터링하여 지도 등으로 시각화함으로써, 재난 상황을 체계적으로 확인하는데 기여할 수 있다. In addition, based on the 3D image information based on the mobile device, it is possible to accurately identify the accurate positioning information and the disaster type of the disaster-occurring area, and by clustering the disaster-occurring area by type of disaster and visualizing it on a map, etc., the disaster situation can be systematically checked can contribute to

이하, 도 2 내지 도 13을 참조하여, 본 발명의 다른 실시예에 따른 3차원 영상 정보를 이용한 모바일 디바이스의 공간 정보 생성 방법에 대해 설명하기로 한다. 본 실시예에서는 기준 영상 데이터와 최고의 정합도를 갖는 영상 데이터를 선정하는 과정에서 제 1 및 제 2 자세 데이터를 활용하고, 기하 변환부(120)의 기능이 수행되는 점을 포함한다. 그러나 앞서 설명한 바와 같이, 이들은 생략될 수 있다. Hereinafter, a method for generating spatial information of a mobile device using 3D image information according to another embodiment of the present invention will be described with reference to FIGS. 2 to 13 . In the present embodiment, the first and second posture data are used in the process of selecting the image data having the highest degree of matching with the reference image data, and the function of the geometric conversion unit 120 is performed. However, as described above, they may be omitted.

도 2는 본 발명의 다른 실시예에 따른 모바일 디바이스 영상에 기반한 공간 정보 클러스터링에 의한 재난 상황 인지 방법에 관한 순서도이다. 도 3은 기준 데이터베이스부에 저장된 3차원 영상 정보의 일례를 도시한 도면이다. 2 is a flowchart illustrating a disaster situation recognition method by spatial information clustering based on a mobile device image according to another embodiment of the present invention. 3 is a diagram illustrating an example of 3D image information stored in a reference database unit.

먼저, 검색 선정부(116)는 모바일 디바이스(102)로부터의 취득한 영상 데이터에 관련된 2차원 위치 데이터와 제 2 자세 데이터를 갖는 제 2 외부 기하 데이터 및 제 2 내부 기하 데이터를 포함하는 디바이스 기하 정보를 획득한다(S205).First, the search selection unit 116 obtains device geometry information including second external geometric data and second internal geometric data having two-dimensional position data and second posture data related to image data acquired from the mobile device 102 . Acquire (S205).

제 2 외부 기하 데이터는 이동 중인 모바일 디바이스(102)의 위치와 자세, 즉 영상 센서(104)의 위치와 자세로 인해, 영상 센서(104)의 영상 정보를 취득할 때마다 가변되는 파라미터 값에 기초하여 산출되는 관측 데이터의 오차이며, 이 경우에 소정의 수학식 내지 모델링을 통해 계산될 수 있다. 제 2 내부 기하 데이터는 센서(104~108) 자체의 고유값으로서, 모바일 디바이스(102)의 이동 여부에 관계없이 유지되는 파라미터에 기인하는 센서(104~108)마다의 관측 데이터의 오차이다. 센서(104~108) 마다의 기하 파라미터는 상술하여 생략한다. The second external geometric data is based on a parameter value that is changed whenever image information of the image sensor 104 is acquired due to the position and posture of the mobile device 102 in motion, that is, the position and posture of the image sensor 104 . This is the error of the observed data calculated by doing this, and in this case, it may be calculated through a predetermined formula or modeling. The second internal geometric data is an eigenvalue of the sensors 104 to 108 itself, and is an error of observation data for each sensor 104 to 108 due to a parameter maintained regardless of whether the mobile device 102 moves. The geometric parameters for each of the sensors 104 to 108 are omitted above.

다음으로, 검색 선정부(116)는 3차원 위치 데이터와 제 1 자세 데이터를 갖는 제 1 외부 기하 데이터 및 제 1 내부 기하 데이터를 포함하는 기준 영상 데이터의 기준 기하 정보 중 적어도 3차원 위치 데이터와 영상 데이터의 2차원 위치 데이터에 기초하여 영상 데이터의 후보군을 검색한다(S210).Next, the search selection unit 116 is configured to perform at least three-dimensional position data and an image among reference geometry information of reference image data including first external geometric data and first internal geometric data having three-dimensional position data and first posture data. A candidate group of image data is searched based on the two-dimensional position data of the data (S210).

여기서, 영상 데이터는 색상 정보를 가진 행렬 형태의 데이터 뿐만 아니라 특정 객체를 대표할 수 있는 특징을 지닌 디스크립터(descriptor)로 사용될 수 있다. 특정 객체를 대표하는 특징을 지닌 디스크립터의 경우에, 영상 비교 알고리즘으로서 SIFT(Scale Invariant Feature Transform)을 활용할 수 있다. 이에 대해서는 시스템(100)의 설명에서 상세히 기재하여 생략한다. Here, the image data may be used not only as matrix-type data having color information, but also as a descriptor having a characteristic that can represent a specific object. In the case of a descriptor having a characteristic representing a specific object, SIFT (Scale Invariant Feature Transform) may be used as an image comparison algorithm. This will be described in detail in the description of the system 100 and will be omitted.

기준 영상 데이터는 기준 영상 데이터베이스부(114)에 저장되며, 기준 영상 데이터는 도 3과 같이, 짙은 색으로 표시된 픽셀에서 3차원 위치 데이터를 비롯한 상술의 데이터들을 저장한다. 3차원 위치 데이터는 2차원 위치 데이터, 즉 XY 좌표에서 고도값 Z을 추가한 XYZ 좌표일 수 있다. 제 1 외부 기하 데이터는 상술한 제 1 자세 데이터를 3차원 위치 데이터와 함께 포함하고, 제 1 내부 기하 데이터는 기준 영상을 생성하는데 설정된 센서에 정의된 기하 파라미터에 근거한다. The reference image data is stored in the reference image database unit 114 , and the reference image data stores the above-mentioned data including 3D position data in a pixel displayed in a dark color as shown in FIG. 3 . The three-dimensional position data may be two-dimensional position data, ie, XYZ coordinates obtained by adding an altitude value Z to the XY coordinates. The first external geometric data includes the above-described first posture data together with the three-dimensional position data, and the first internal geometric data is based on a geometric parameter defined in a sensor configured to generate a reference image.

기준 영상은 외부로부터 입수되며, 3차원 위치 데이터가 적어도 포함되는 영상이며, 모바일 디바이스(102)로부터 획득된 영상 데이터와 대비가능한 기준 영상 데이터로 가공된다. 기준 영상을 생성하는데 최초 이용되는 센서는 모바일 디바이스(102)보다 높은 측위 정확도, 영상 구현 성능을 갖는 영상 획득 기기 및 레이저 스캔닝 센서(예컨대, 라이다(Lidar)) 중 적어도 하나일 수 있다. 기준 영상과 연계된 기준 기하 정보는 각 픽셀 좌표마다, 3차원 위치 정보, RGB 데이터와 같은 색상 정보, 제 1 외부 기하 데이터 및 제 1 내부 기하 데이터를 포함하고, 기준 기하 정보와 결합되는 기준 영상은 기준 영상 데이터로 저장될 수 있다.The reference image is an image obtained from the outside, including at least three-dimensional position data, and is processed into reference image data that can be contrasted with image data obtained from the mobile device 102 . The sensor initially used to generate the reference image may be at least one of an image acquisition device and a laser scanning sensor (eg, Lidar) having higher positioning accuracy and image realization performance than the mobile device 102 . The reference geometric information associated with the reference image includes, for each pixel coordinate, three-dimensional position information, color information such as RGB data, first external geometric data, and first internal geometric data, and the reference image combined with the reference geometric information includes: It may be stored as reference image data.

기준 영상을 생성하는데 최초 이용되는 센서가 영상 센서인 경우에, 제 1 내부 기하 데이터는 제 2 내부 기하 데이터에서 설명된 영상 센서(104)와 실질적으로 동일하다. 최초 이용되는 센서가 레이저 스캔닝 센서인 경우에 제 1 내부 기하 데이터는 예로 들면, 각 레이저의 입사각, 거리 스케일, 거리 방향 오프셋 및 축방향 오프셋 중어느 하나 이상을 포함할 수 있다. When the sensor initially used to generate the reference image is an image sensor, the first internal geometric data is substantially the same as the image sensor 104 described in the second internal geometric data. When a sensor initially used is a laser scanning sensor, the first internal geometric data may include, for example, any one or more of an incident angle, a distance scale, a distance direction offset, and an axial direction offset of each laser.

기준 영상이 왜곡 영상을 발생하는 광역 영상 센서로부터 기인하는 경우에, 기준 영상은 왜곡 영상을 평면 영상 데이터로 변환하여 생성되는 평면 영상 데이터를 이용하며, 3차원 위치 데이터는 평면 영상 데이터의 3차원 위치 데이터를 활용하고, 제 1 자세 데이터는 평면 영상 데이터의 시야 방향, 시야각 등으로 정의될 수 있다. When the reference image originates from a wide-area image sensor that generates a distorted image, the reference image uses flat image data generated by converting the distorted image into flat image data, and the three-dimensional position data is the three-dimensional position of the flat image data. Data is used, and the first posture data may be defined as a viewing direction and a viewing angle of the planar image data.

이와 관련하여 기준 영상 데이터베이스부(114)에서 이루어지는 왜곡 제거와 평면 영상 데이터 생성의 과정에 대해 형성하는 과정은 아래의 설명과 같이 수행될 수 있다. In this regard, the process of removing distortion and generating planar image data performed in the reference image database unit 114 may be performed as described below.

어안 렌즈를 구비한 광역 영상 센서로 인해 왜곡된 어안 렌즈용 영상 데이터가 입력되는 경우에, 기준 영상 데이터베이스부(114)는 영상 데이터로부터의 왜곡 영상 데이터와 참조용 평면 영상 데이터 간의 대응 관계를 정의하도록 각 픽셀에 인덱스를 부여할 수 있다. 다음으로, 기준 영상 데이터베이스부(114)는 인덱스가 부여된 왜곡 영상 데이터를 기 설정된 구간으로 분해할 수 있다. 이어서, 기준 영상 데이터베이스부(114)는 참조용 평면 영상 데이터를 참조하여, 분해된 구간의 왜곡 보정 모델을 기반으로 왜곡 영상 데이터의 왜곡을 제거함으로써 평면 영상 데이터를 생성할 수 있다. 왜곡 보정 모델은 분해된 구간의 수식 또는 인덱스에 기반한 모델링일 수 있다. When image data for a fisheye lens distorted due to a wide-area image sensor equipped with a fisheye lens is input, the reference image database 114 defines a correspondence between the distorted image data from the image data and the flat image data for reference. Each pixel can be assigned an index. Next, the reference image database unit 114 may decompose the indexed distortion image data into preset sections. Next, the reference image database unit 114 may generate the planar image data by removing the distortion of the distorted image data based on the distortion correction model of the decomposed section with reference to the planar image data for reference. The distortion correction model may be modeling based on a formula or an index of the decomposed section.

만약, 전방위 영상 데이터가 입력되면, 기준 영상 데이터베이스부(114)는 상술한 바와 마찬가지로, 전방위 영상 데이터를 기 설정된 구간으로 분해할 수 있다. 다음으로, 기준 영상 데이터베이스부(114)는 분해된 전방위 영상을 기 설정된 구간으로 재분해할 수 있다. 이어서, 기준 영상 데이터베이스부(114)는 재분해된 구간의 왜곡 보정 모델, 예컨대 수식 또는 인덱스 기반으로 왜곡을 제거하여, 평면 영상 데이터를 생성할 수 있다. If the omnidirectional image data is input, the reference image database unit 114 may decompose the omnidirectional image data into preset sections, as described above. Next, the reference image database unit 114 may re-decompose the decomposed omnidirectional image into a preset section. Next, the reference image database unit 114 may generate flat image data by removing distortion based on a distortion correction model of the re-decomposed section, for example, an equation or an index.

이는 모바일 디바이스(102)로부터 수신되는 영상 데이터가 광역 영상 센서로부터 기인하여 왜곡 영상을 포함하는 경우에도 실질적으로 동일한 과정을 실행하며, 이 과정은 영상 데이터를 입력하는 검색 선정부(116)에서 진행될 수 있다. This is substantially the same process even when the image data received from the mobile device 102 includes a distorted image due to the wide-area image sensor, and this process can be performed in the search selection unit 116 for inputting image data. there is.

한편, 도 4 및 도 5는 전술의 과정과 상이한 프로세스로서, 광영 영상 센서로 인한 왜곡 제거와 평면 영상 데이터로 변환하는 다른 과정을 설명하고 있다. 도 4는 광역 영상 센서로부터 취득한 영상 데이터의 왜곡을 제거하여 평면 영상 데이터로 변환하는 과정에 관한 순서도이다. 도 5는 영상 왜곡 제거 및 평면 영상 데이터 변환의 과정을 개략적으로 도시한 도면이다. Meanwhile, FIGS. 4 and 5 illustrate another process of removing distortion due to the optical image sensor and converting into planar image data, which is different from the process described above. 4 is a flowchart illustrating a process of converting image data acquired from a wide area image sensor into flat image data by removing distortion. 5 is a diagram schematically illustrating a process of image distortion removal and flat image data conversion.

도 4 및 도 5를 참조하면, 전방위 영상을 생성하는 광역 영상 센서로 인해 왜곡된 전방위 영상 데이터가 기준 영상 데이터베이스부(114)로 입력되는 경우에(S405), 기준 영상 데이터베이스부(114)는 영상 데이터로부터의 왜곡 영상 데이터에 기반한 카메라 기하식 기반 왜곡 영상 데이터로부터 가상의 3차원 형상을 복원한다(S410). 4 and 5 , when omniazimuth image data distorted due to a wide area image sensor generating an omnidirectional image is input to the reference image database unit 114 ( S405 ), the reference image database unit 114 displays the image A virtual three-dimensional shape is restored from the distorted image data based on the camera geometry based on the distorted image data from the data (S410).

다음으로, 기준 영상 데이터베이스부(114)는 가상의 카메라 기하식을 정의하고 기하식을 통해 가상의 평면 카메라에 투영함으로써 평면 영상 데이터를 생성한다(S415).Next, the reference image database unit 114 generates plane image data by defining a virtual camera geometry and projecting it to the virtual plane camera through the geometry ( S415 ).

이와는 달리, 기준 영상이 레이저 스캔닝 센서로부터 기인하는 경우에, 기준 영상은 레이저 스캔닝 센서로부터 획득되는 점군 데이터가 변환된 가상의 영상 데이터를 이용할 수 있다, 3차원 위치 데이터는 가상의 영상 데이터의 3차원 위치 데이터로 정의되며, 제 1 자세 데이터는 상기 가상의 영상 데이터의 시야 방향으로 정의될 수 있다. Alternatively, when the reference image originates from the laser scanning sensor, the reference image may use virtual image data obtained by converting point cloud data obtained from the laser scanning sensor. It is defined as 3D position data, and the first posture data may be defined as a viewing direction of the virtual image data.

점군 데이터의 변환은 도 6에서와 같이 도면의 아래에 위치된 점군 데이터의 반사 강도, 고도값 등을 감안하는 가상 카메라 모델링에 의해 수행될 수 있다. 도 9는 기준 영상 데이터베이스부가 레이저 스캔닝 센서로부터 획득되는 점군 데이터가 변환된 가상의 영상 데이터를 저장하는 형태이다. 그 결과, 가상의 영상 데이터는 도 6의 위의 예시와 같이 생성될 수 있다. 기준 영상 생성시에 영상 센서가 추가로 관여되는 경우에, 점군 데이터의 변환시에 영상 센서로 획득된 색상 데이터가 가상의 영상 데이터에 포함될 수 있다. Transformation of the point cloud data may be performed by virtual camera modeling in consideration of the reflection intensity and altitude value of the point cloud data located below the drawing as shown in FIG. 6 . 9 is a diagram in which the reference image database unit stores virtual image data obtained by converting point cloud data obtained from a laser scanning sensor. As a result, virtual image data may be generated as shown in the above example of FIG. 6 . When the image sensor is additionally involved in generating the reference image, color data obtained by the image sensor when the point cloud data is converted may be included in the virtual image data.

앞서 설명한 바와 같이, 검색 선정부(116)에서 행해지는 기준 영상 데이터의 3차원 위치 데이터와 영상 데이터의 2차원 위치 데이터에 기초한 영상 데이터의 후보군 검색은 도 7의 아래 단계와 같은 검색 과정으로 실행될 수 있다. 도 7은 기준 영상 데이터와 정합 가능한 영상 데이터의 후보군을 검색하는 과정을 도시한 도면이다. As described above, the search for the candidate group of the image data based on the 3D position data of the reference image data and the 2D position data of the image data performed by the search selection unit 116 may be performed in the same search process as the step below in FIG. 7 . there is. 7 is a diagram illustrating a process of searching for a candidate group of image data that can be matched with reference image data.

다음으로, 검색 선정부(116)는 2차원 위치 데이터, 3차원 위치 데이터 및 제 1 및 2 자세 데이터를 참조하여 후보군 중 상기 기준 영상 데이터와 최고의 정합도를 갖는 영상 데이터를 선정한다. Next, the search selection unit 116 selects image data having the highest degree of matching with the reference image data from the candidate group with reference to the two-dimensional position data, the three-dimensional position data, and the first and second posture data.

구체적으로, 기준 영상 데이터와 동일하거나 매우 유사한 2차원 위치 데이터를 갖는 영상 데이터의 시야방향 및 시야각에 따라 제 1 및 제 2 외부 기하 데이터의 제 1 및 제 2 자세 데이터가 상이하면, 영상 기하로 인해 동일한 특징 기하라도 서로 상이한 기하로 인식되어 기준 영상 데이터와 영상 데이터 간의 정합이 곤란하다. 따라서, 동일한 위치에서 제 1 및 제 2 자세 데이터가 소정 범위 내로 유사한 영상 데이터만을 후보군에서 선정함으로써, 이후 정합 단계의 정확도 및 처리 신속성이 향상될 수 있다. 이러한 예는 도 7에서와 같이 방향 정보 기반 검색까지 수행하고, 도 8에 도시된 바와 같이, 기준 영상 데이터의 위치 및 자세와 소정 범위로 인접한 영상 데이터를 최종 선정한다. 도 8은 기준 영상 데이터와 최고의 정합도를 갖는 영상 데이터를 선정하는 과정을 도시한 도면이다. Specifically, if the first and second posture data of the first and second external geometric data are different according to the viewing direction and viewing angle of the image data having the same or very similar two-dimensional position data as the reference image data, the image geometry Even the same feature geometry is recognized as different geometry, so it is difficult to match the reference image data and the image data. Accordingly, by selecting only image data similar to the first and second posture data within a predetermined range at the same position from the candidate group, the accuracy and processing speed of the subsequent matching step may be improved. In this example, a search based on direction information is performed as shown in FIG. 7 , and as shown in FIG. 8 , image data adjacent to the position and posture of the reference image data within a predetermined range is finally selected. 8 is a diagram illustrating a process of selecting image data having the highest degree of matching with reference image data.

이어서, 정합부(118)는 선정된 영상 데이터와 기준 영상 데이터 간에 공통되는 소정 형태의 특징 기하들에 기반하여 기준 영상 데이터와 선정 영상 데이터를 정합한다(S220). Next, the matching unit 118 matches the reference image data and the selected image data based on a predetermined type of feature geometry common between the selected image data and the reference image data ( S220 ).

정합부(118)는 특징 기하를 참고하여 공선조건식 등의 기하 모델을 통해 복수의 선정 영상 데이터를 결합할 수 있다. The matching unit 118 may combine a plurality of selected image data through a geometric model such as a collinear conditional expression with reference to the feature geometry.

소정 형태의 특징 기하는 동일한 위치로 추정되는 선정 영상 데이터와 기준 영상 데이터에 표현된 객체의 특정 기하하적 형상에 기초하여 추출될 수 있다. 객체는 예컨대 도로 표지판, 특이 형상의 물체, 건물 경계선 등과 같이 영상 데이터 상에서 점, 선, 면, 기둥 등의 특징 기하가 용이하게 추출가능한 대상물로 랜덤으로 선정될 수 있다. 이러한 특징 기하는 선정 영상 데이터와 기준 영상 데이터 간의 자세 데이터가 다소 상이하더라도 동일한 객체로의 추정 가능성이 높은 소정 형태를 채용하고, 예를 들어 도로 노면에 표시된 차선, 도로 표지, 건물 윤곽 등일 수 있다. The feature geometry of a predetermined shape may be extracted based on a specific geometric shape of the object expressed in the selected image data and the reference image data estimated to be the same location. The object may be randomly selected as an object from which feature geometries such as points, lines, planes, and columns can be easily extracted from image data, such as road signs, objects of unusual shapes, building boundaries, and the like. Even if the posture data between the selected image data and the reference image data is slightly different, the characteristic geometry adopts a predetermined shape with a high probability of being estimated as the same object, and may be, for example, a lane marked on a road surface, a road sign, a building outline, and the like.

기하 변환부(120)는 공통된 특징 기하들에 있어서, 기하 변환 모델링에 의해 기준 영상 데이터에 대한 선정 영상 데이터의 디바이스의 기하 정보를 3차원 위치 데이터를 포함하도록 기하 변환하여 3차원 디바이스 기하 정보로 보정한다. In the common feature geometries, the geometric transformation unit 120 geometrically transforms the geometry information of the device of the selected image data for the reference image data by geometric transformation modeling to include the three-dimensional position data, and corrects it to the three-dimensional device geometry information. do.

기하 변환 모델링은 상술의 수학식 1과 같은 공선조건식을 이용하거나, 영상 데이터의 기하를 행렬형태로 반영할 수 있는 perspective transformation, affine transformation, homography transformation 중 하나를 대체모델링을 사용할 수 있다.For the geometric transformation modeling, one of perspective transformation, affine transformation, and homography transformation that can reflect the geometry of image data in a matrix form may be used, or alternative modeling may be used.

도 9는 영상 데이터의 2차원 위치 데이터와 대응하는 기준 영상 데이터의 3차원 위치 데이터를 산출하는 과정을 도시한 도면이다. 공선조건식을 이용한 경우로서, 동일 특징 기하에 있어서, 영상 데이터가 기준 영상 데이터의 3차원 위치 좌표로 기하 변환되어 보정된다. 도 10은 모바일 디바이스의 영상 데이터의 위치 및 시야 방향이 최종 3차원 디바이스 기하 정보로 보정된 일례를 도시한 도면이다. 점선은 모바일 디바이스(102)로부터 획득한 영상 데이터의 2차원 위치 데이터이며, 실선은 영상 데이터에 대한 기하 변환 보정에 의해 3차원 위치 데이터로 보정되면서 2차원 좌표가 보다 정확한 위치로 이동되면서 모바일 디바이스(102)의 측위 센서(106)의 정밀도보다 높은 정밀도로 변환됨을 나타낸다. 9 is a diagram illustrating a process of calculating two-dimensional position data of image data and three-dimensional position data of reference image data corresponding to the two-dimensional position data of image data. In the case of using the collinear conditional expression, image data is geometrically transformed into three-dimensional position coordinates of the reference image data and corrected in the same feature geometry. 10 is a diagram illustrating an example in which a position and a viewing direction of image data of a mobile device are corrected with final 3D device geometry information. The dotted line is the two-dimensional position data of the image data obtained from the mobile device 102, and the solid line is the mobile device ( 102), indicating that it is converted to a higher precision than that of the positioning sensor 106.

다음으로, 정합 최적값 추정부(122)는 3차원 디바이스 기하 정보가 연계된 영상 데이터의 특징 기하들을 랜덤 샘플링하여, 샘플링된 특징 기하들 및 상응하는 기준 데이터의 특징 기하들의 상호 이격량이 최소가 되는 샘플링 영상 데이터의 특징 기하를 정합 최적값으로 추정한다(S230). 정합 최적값의 구체적인 과정은 상술하여 생략하기로 한다. Next, the matching optimal value estimator 122 randomly samples the feature geometries of the image data to which the 3D device geometry information is linked, so that the amount of mutual separation between the sampled feature geometries and the feature geometries of the corresponding reference data is minimized. The feature geometry of the sampled image data is estimated as a matching optimal value (S230). The detailed process of the matching optimal value will be omitted as described above.

이어서, 디바이스 기하 정보 추정부(124)는 상술의 정합 최적값으로 추정된 특징 기하와 관련하여 기하 변환된 3차원 디바이스 기하 정보를 최종 3차원 디바이스 기하 정보로 추정한다(S235). Next, the device geometry information estimator 124 estimates the geometrically transformed 3D device geometry information in relation to the feature geometry estimated as the above-described optimal matching value as the final 3D device geometry information (S235).

다음으로, 3차원 영상 정보 생성부(126)는 최종 3차원 디바이스 기하 정보 및 특징 기하에 대한 정합 정보에 기초하여, 모바일 디바이스(102)의 영상 데이터에 대해 3차원 영상 정보를 생성한다(S240). Next, the 3D image information generating unit 126 generates 3D image information with respect to the image data of the mobile device 102 based on the final 3D device geometry information and matching information on the feature geometry ( S240 ). .

3차원 영상 정보는 기준 영상 데이터베이스부(114)의 기준 영상 데이터와 같이, 기하 변환에 의해 보정된 영상 데이터 및 이와 연계되어 3차원 위치 데이터, 보정된 제 2 자세 데이터를 포함하는 보정된 제 2 외부 기하 데이터, 보정된 제 2 내부 기하 데이터를 포함하는 최종 3차원 디바이스 기하 정보, 색상 데이터, 시간 데이터 등을 포함할 수 있다. The three-dimensional image information, like the reference image data of the reference image database unit 114, includes image data corrected by geometric transformation, three-dimensional position data linked thereto, and corrected second external posture data including corrected second posture data. It may include geometric data, final 3D device geometry information including the corrected second internal geometric data, color data, time data, and the like.

다음으로, 재난 유형 추출부(132)는 모바일 디바이스로의 영상 데이터에 기반한 3차원 영상 정보로부터, 모바일 디바이스의 주변 환경에 대한 재난 발생 여부를 판별하며, 재난 발생 지역 별 재난 유형을 분류한다(S245). Next, the disaster type extraction unit 132 determines whether a disaster has occurred in the surrounding environment of the mobile device from 3D image information based on image data to the mobile device, and classifies the disaster type for each disaster occurrence region (S245) ).

재난 유형 추출부(132)는 3차원 영상 정보에 대한 기계학습을 통해 재난 발생 여부를 판별함과 아울러서, 재난 유형을 분류할 수 있다. The disaster type extraction unit 132 may classify disaster types while determining whether a disaster has occurred through machine learning on 3D image information.

객체 정보 추출부(128)는 3차원 영상 정보에 포함된 모바일 디바이스의 주변 환경에 대한 다양?h 객체를 인식하여, 후술할 재난 유형 추출부(132)에 관련 객체 정보들을 전송할 수 있다. The object information extraction unit 128 may recognize various ?h objects for the surrounding environment of the mobile device included in the 3D image information, and transmit related object information to the disaster type extraction unit 132, which will be described later.

객체 정보 추출부(128)가 3차원 영상 정보로부터 객체를 인식하는 과정은 아래와 같다. A process by which the object information extraction unit 128 recognizes an object from 3D image information is as follows.

객체 정보 추출부(128)는 영상 데이터로부터 기인하는 3차원 영상 정보로부터 특정 형태의 객체를 추출할 수 있다. 구체적으로, 객체 정보 추출부(128)는 3차원 영상 정보에 포함된 데이터들에 기초하여 추출된 대상물의 속성과 관련된 객체 정보를 추출할 수 있다. The object information extractor 128 may extract an object of a specific shape from 3D image information resulting from image data. Specifically, the object information extractor 128 may extract object information related to the extracted object attribute based on data included in the 3D image information.

객체 정보 추출부(128)는 3차원 영상 정보에 포함된 영상 데이터, 최종 3차원 디바이스 기하 정보, 색상 데이터, 시간 데이터 등으로부터 파악된 대상물과 관련된 후보군 데이터를 머신 러닝 기법으로 검출하고, 검출된 후보군 데이터에 순차적으로 추가 기계학습 모델을 적용하여 대상물의 정보를 인식할 수 있다. The object information extraction unit 128 detects the candidate group data related to the object identified from the image data included in the 3D image information, the final 3D device geometry information, the color data, the time data, etc. using a machine learning technique, and the detected candidate group By sequentially applying additional machine learning models to the data, the information of the object can be recognized.

다음으로, 공간 정보 생성부(130)는 추출된 객체와 동일한 기준 영상 데이터의 객체에 기초하여, 최종 3차원 디바이스 기하 정보 및 기준 영상 데이터에 저장된 객체와 관련된 객체 정보를 3차원 영상 정보에 포함하는 소정 좌표계, 예컨대 절대좌표계에 따른 신규 공간 정보를 생성할 수 있다 Next, the spatial information generator 130 includes, in the 3D image information, the final 3D device geometry information and object information related to the object stored in the reference image data, based on the object of the same reference image data as the extracted object. New spatial information can be generated according to a predetermined coordinate system, for example, an absolute coordinate system.

공간 정보 생성부(130)는 공간 정보 데이터베이스부(134)에 신규 공간 정보를 전송하여 저장할 수 있다. 공간 정보는 소정 좌표계의 해당 좌표 등에 생성된 데이터로서, 관측 데이터, 내부 기하, 외부 기하, 고유 데이터, 시간 정보, 취득 환경 정보, 이종 센서들 간의 센서 데이터들의 위치 오차로 인한 이격량, 정확도, 정밀도 관련한 확률 정보, 점군 데이터 관련 정보, 영상 데이터 관련 정보, 객체 정보, 재난 정보 및 지도 관련 정보를 포함할 수도 있다. The spatial information generating unit 130 may transmit and store new spatial information to the spatial information database unit 134 . Spatial information is data generated in corresponding coordinates of a predetermined coordinate system, and is observed data, internal geometry, external geometry, intrinsic data, time information, acquisition environment information, separation amount due to position error of sensor data between heterogeneous sensors, accuracy, and precision It may include related probability information, point cloud data related information, image data related information, object information, disaster information, and map related information.

최종 3차원 디바이스 기하 정보 및 객체 정보를 3차원 영상 정보에 포함하여 공간 정보를 생성하고, 이를 기반으로 도화 과정을 거쳐 우측의 지도로 제작될 수 있다. The final three-dimensional device geometry information and object information are included in the three-dimensional image information to generate spatial information, and based on this, the map on the right can be produced through a drawing process.

재난 유형 추출부(132)는 기계학습에 의해 관련 객체 정보들을 분석하여 재난 발생 여부를 판별하고, 재난 발생의 경우에 재난 발생 지역의 세부 위치 별로 재난 유형을 분류할 수 있다. The disaster type extraction unit 132 may analyze related object information by machine learning to determine whether a disaster has occurred, and in the event of a disaster, classify the disaster type by detailed location of the disaster occurrence area.

도 11는 재난 유형 별로 분류하기 위한 기계 학습의 과정을 예시한 도면이다.11 is a diagram illustrating a process of machine learning for classifying by disaster type.

재난 유형 추출부(132)는 단독으로 또는 객체 정보 추출부(128)와 연계하여, 소정 기간 동안의 다양한 유형 별 재난을 학습데이터로 활용하여 재난 인식/유형 판별 모델을 기계학습할 수 있다. 재난 유형 추출부(132)는 재난 인식/유형 판별 모델을 이용하여 재난 이미지에 다양한 재난 유형 중 적어도 하나가 포함된지 여부를 판단할 수 있다. 예컨대, 재난 유형은 도 11과 같이, 산사태, 복구작업, 풍수해로 인한 구조물, 토사로 인한 오염, 토사 등일 수 있다. 재난 유형 추출부(132)는 판단 결과를 재난 정보 등록부(136)에 전송할 수 있다. 예를 들어, 판단 결과는 주변 환경의 이미지에 포함된 객체에 재해가 발생한지 여부, 재해 유형 및 판별된 재해 유형에 대한 확률 값 등을 포함할 수 있다.The disaster type extraction unit 132 may machine learning a disaster recognition/type determination model by using various types of disasters for a predetermined period as learning data, either alone or in connection with the object information extraction unit 128 . The disaster type extractor 132 may determine whether at least one of various disaster types is included in the disaster image using the disaster recognition/type determination model. For example, the disaster type may be a landslide, a restoration work, a structure due to wind and flood damage, pollution due to soil, soil, etc. as shown in FIG. 11 . The disaster type extraction unit 132 may transmit the determination result to the disaster information registration unit 136 . For example, the determination result may include whether a disaster has occurred in an object included in an image of the surrounding environment, a disaster type, and a probability value for the determined disaster type.

다음으로, 재난 정보 등록부(136)는 재난 발생 지역과 관련된 위치 정보 및 재난 유형을 3차원 영상 정보와 연계하여 등록한다(S250). Next, the disaster information registration unit 136 registers the location information and the disaster type related to the disaster occurrence area in association with the 3D image information (S250).

재난 발생 지역에 대한 위치 정보는 재난 유형 별로 식별된 재난 위치 정보 및 모바일 디바이스의 촬영 지점 등일 수 있다. 재난 위치 정보는 모바일 디바이스의 위치 데이터가 기준 영상 데이터의 3차원 위치 데이터에 의해 측위 보정된 3차원 위치 정보로 구성될 수 있다. 이러한 3차원 위치 정보는 공간 정보 데이터베이스부(134)에 매칭하기 위해, 예컨대 절대 좌표계로 표출될 수 있다. 재난 정보 등록부(136)는 절대 좌표계로 기술된 3차원 위치 정보에 기반하여, 재난 발생 지역의 위치 정보 및 각 세부 위치 별 재난 유형을 3차원 영상 정보 및 후술할 공간 데이터(공간 정보 데이터베이스부(134)의 공간 데이터)와 연계하여 공간 정보 데이터베이스부(134)에 등록할 수 있다. 이에 따라, 모바일 디바이스의 보정된 위치 데이터, 즉 보정된 3차원 측위 정보와 3차원 영상 정보로부터 취득한 재난 정보(재난 영상 정보)를 이용하여, 도 12와 같이, 재난 발생 지역의 각 위치 별로 분류된 재난 유형을 지도에 표출할 수 있다. 또한, 지도를 통해 공간 데이터를 포함하는 재난 정보가 표출될 수 있다. 도 12는 재난 발생 지역에서 각 재난 위치 별로 재난 유형을 라벨링하는 일례를 도시한 도면이다. The location information on the disaster area may be disaster location information identified for each type of disaster, a shooting point of a mobile device, and the like. The disaster location information may be composed of 3D location information in which location data of the mobile device is corrected for positioning by 3D location data of reference image data. Such three-dimensional position information may be expressed in, for example, an absolute coordinate system in order to match the spatial information database unit 134 . The disaster information registration unit 136, based on the 3D location information described in the absolute coordinate system, provides the location information of the disaster occurrence area and the disaster type for each detailed location as 3D image information and spatial data (spatial information database unit 134 ) to be described later. ) can be registered in the spatial information database unit 134 in association with the spatial data of ). Accordingly, using the calibrated location data of the mobile device, that is, the calibrated three-dimensional positioning information and the disaster information (disaster image information) acquired from the three-dimensional image information, as shown in FIG. 12, the Disaster types can be displayed on the map. In addition, disaster information including spatial data may be displayed through the map. 12 is a diagram illustrating an example of labeling a disaster type for each disaster location in a disaster occurrence area.

이어서, 재난 정보 등록부(136)는 재난 발생 지역의 재난 유형 및 재난 발생 지역 간의 지리적 근접도 등에 기초하여 클러스터링(clustering)을 수행하여 3차원 영상 정보를 처리한다(S255). Next, the disaster information registration unit 136 processes the 3D image information by performing clustering based on the type of disaster in the disaster occurrence area and geographic proximity between the disaster occurrence areas (S255).

3차원 영상 정보에서 클러스터링화된 데이터도 후술할 공간 데이터와 연계하여 공간 정보 데이터베이스부(134)에 등록할 수 있다. 공간 정보 데이터베이스부(134)에 등록되는 재난 정보는 재난 발생 지역 관련 위치 정보, 세부 위치 별 재난 유형 및 클러스터링화된 데이터 등을 포함할 수 있다. 이에 따라, 도 13과 같이 동일, 유사한 재난 유형 별로 군집화하여 제시된 지도가 생성될 수 있다. 도 13은 재난 발생 지역에서 재난 유형 별로 클러스터링을 수행하는 일례를 도시한 도면이다. Data clustered in 3D image information may also be registered in the spatial information database unit 134 in association with spatial data to be described later. The disaster information registered in the spatial information database unit 134 may include location information related to a disaster occurrence area, a disaster type for each detailed location, clustered data, and the like. Accordingly, as shown in FIG. 13 , a map presented by clustering according to the same and similar disaster types may be generated. 13 is a diagram illustrating an example of performing clustering for each disaster type in a disaster occurrence area.

또한, 본 실시예에 따르면, 모바일 디바이스의 저성능 영상 센서, 측위 센서 등으로 취득하는 2차원 위치 정보의 영상 데이터를 고성능의 센서들로 구성된 플랫폼으로부터 생성된 3차원 영상 정보와 정합하고 기하 변환 등을 통한 보정을 수행함으로써, 모바일 디바이스의 영상 데이터에 기반하여 생성된 높은 정밀도의 3차원 영상 정보로부터 신뢰도를 갖는 재난 정보를 생성할 수 있다. In addition, according to the present embodiment, image data of two-dimensional position information acquired by a low-performance image sensor or a positioning sensor of a mobile device is matched with three-dimensional image information generated from a platform composed of high-performance sensors, and geometric transformation, etc. By performing correction through , it is possible to generate reliable disaster information from high-precision 3D image information generated based on image data of a mobile device.

아울러, 모바일 디바이스에 기반한 3차원 영상 정보에 기초하여 재난 발생 지역의 정확한 측위 정보 및 재난 유형을 정확하게 파악할 수 있으며, 재난 발생 지역을 재난 유형 별로 클러스터링하여 지도 등으로 시각화함으로써, 재난 상황을 체계적으로 확인하는데 기여할 수 있다. In addition, based on the 3D image information based on the mobile device, it is possible to accurately identify the accurate positioning information and the disaster type of the disaster-occurring area, and by clustering the disaster-occurring area by type of disaster and visualizing it on a map, etc., the disaster situation can be systematically checked can contribute to

도 1에 도시된 장치를 구성하는 구성요소 또는 도 2에 도시된 실시예들에 따른 단계는 그 기능을 실현시키는 프로그램의 형태로 컴퓨터 판독가능한 기록 매체에 기록될 수 있다. 여기에서, 컴퓨터 판독 가능한 기록 매체란, 데이터나 프로그램 등의 정보를 전기적, 자기적, 광학적, 기계적, 또는 화학적 작용에 의해 축적하고, 컴퓨터에서 판독할 수 있는 기록 매체를 말한다. 이러한 기록 매체 중 컴퓨터로부터 분리 가능한 것으로서는, 예를 들면, 휴대용 스토리지(portalbe storage), 플렉시블 디스크, 광자기 디스크, CD-ROM, CD-R/W, DVD, DAT, 메모리 카드 등이 있다. 또한, 모바일 디바이스 및 컴퓨터에 고정된 기록 매체로서 SSD(Solid State Disk), 하드디스크나 ROM 등이 있다.The components constituting the apparatus shown in FIG. 1 or the steps according to the embodiments shown in FIG. 2 may be recorded in a computer-readable recording medium in the form of a program realizing the function. Here, the computer-readable recording medium refers to a computer-readable recording medium in which information such as data or a program is stored by electrical, magnetic, optical, mechanical, or chemical action. Among these recording media, for example, portable storage, flexible disk, magneto-optical disk, CD-ROM, CD-R/W, DVD, DAT, memory card, etc. are available as those that can be separated from the computer. In addition, as a recording medium fixed to a mobile device and a computer, there is a solid state disk (SSD), a hard disk, a ROM, and the like.

본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Example methods of the present disclosure are expressed as a series of operations for clarity of description, but this is not intended to limit the order in which the steps are performed, and if necessary, each step may be performed simultaneously or in a different order. In order to implement the method according to the present disclosure, other steps may be included in addition to the illustrated steps, other steps may be excluded from some steps, or additional other steps may be included except some steps.

본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.Various embodiments of the present disclosure do not list all possible combinations, but are intended to describe representative aspects of the present disclosure, and matters described in various embodiments may be applied independently or in combination of two or more.

또한, 본 발명의 일실시예에 따른 방법은 다양한 컴퓨터 장치에 의해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, the method according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed by various computer devices and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

또한, 본 개시의 다양한 실시예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. For implementation by hardware, one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs), Field Programmable Gate Arrays (FPGAs), general purpose It may be implemented by a processor (general processor), a controller, a microcontroller, a microprocessor, and the like.

본 개시의 범위는 다양한 실시예의 방법에 따른 동작이 장치 또는 컴퓨터 장치 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.The scope of the present disclosure is software or machine-executable instructions (eg, operating system, application, firmware, program, etc.) that cause operation according to the method of various embodiments to be executed on a device or computer device, and such software or a non-transitory computer-readable medium in which instructions and the like are stored and executed on an apparatus or computer.

Claims (10)

3차원 위치 데이터와, 기준 영상을 생성하는데 설정된 시야 방향을 정의하는 제 1 자세 데이터를 갖는 제 1 외부 기하 데이터가 포함된 기준 기하 정보와 연계하여 기준 영상 데이터를 저장하는 기준 영상 데이터베이스부;
모바일 디바이스로부터 취득한 영상 데이터에 관련되어 적어도 2차원 위치 데이터를 갖는 제 2 외부 기하 데이터를 포함하는 디바이스 기하 정보를 획득하고, 상기 2차원 위치 데이터 및 상기 3차원 위치 데이터를 참조하여 상기 기준 영상 데이터와 정합 가능한 상기 영상 데이터의 후보군을 검색하며, 상기 후보군 중 상기 기준 영상 데이터와 최고의 정합도를 갖는 상기 영상 데이터를 선정하는 검색 선정부;
상기 기준 영상 데이터와 상기 선정된 영상 데이터 간에 공통되는 소정 형태의 특징 기하들에 기반하여 상기 기준 영상 데이터와 선정 영상 데이터를 정합하는 정합부;
공통된 특징 기하들에 있어서, 상기 기준 영상 데이터와 정합된 상기 선정 영상 데이터의 디바이스의 기하 정보가 상기 3차원 위치 데이터를 포함하도록, 기하 변환 모델링에 의해 상기 디바이스의 기하 정보를 기하 변환하여 3차원 디바이스 기하 정보로 보정하는 기하 변환부;
상기 3차원 디바이스 기하 정보 및 상기 특징 기하에 대한 정합 정보에 기초하여, 상기 모바일 디바이스의 영상 데이터에 대해 3차원 영상 정보를 생성하는 3차원 영상 정보 생성부;
상기 모바일 디바이스로의 영상 데이터에 기반한 상기 3차원 영상 정보로부터, 상기 모바일 디바이스의 주변 환경에 대한 재난 발생 여부를 판별하며, 재난 발생 지역 별 재난 유형을 분류하는 재난 유형 추출부; 및
상기 재난 발생 지역과 관련된 위치 정보 및 상기 재난 유형을 상기 3차원 영상 정보와 연계하여 등록하는 재난 정보 등록부를 포함하는, 모바일 디바이스 영상에 기반한 공간 정보 클러스터링에 의한 재난 상황 인지 시스템.
a reference image database unit for storing reference image data in association with three-dimensional position data and reference geometry information including first external geometry data having first posture data defining a viewing direction set to generate a reference image;
Obtaining device geometry information including second external geometric data having at least two-dimensional position data in relation to the image data acquired from the mobile device, and referring to the two-dimensional position data and the three-dimensional position data, the reference image data and a search selection unit that searches for a candidate group of the image data that can be matched, and selects the image data having the highest degree of matching with the reference image data from among the candidate group;
a matching unit configured to match the reference image data and the selected image data based on a predetermined shape of feature geometries that are common between the reference image data and the selected image data;
In common feature geometries, the geometric information of the device of the selected image data matched with the reference image data is geometrically transformed by geometric transformation modeling so as to include the three-dimensional position data to a three-dimensional device. a geometrical conversion unit that corrects the geometrical information;
a 3D image information generator configured to generate 3D image information with respect to the image data of the mobile device based on the 3D device geometry information and the matching information for the feature geometry;
a disaster type extraction unit for determining whether a disaster has occurred in the surrounding environment of the mobile device from the 3D image information based on the image data to the mobile device, and classifying disaster types for each disaster occurrence region; and
A disaster situation recognition system by spatial information clustering based on a mobile device image, comprising a disaster information registration unit that registers the location information related to the disaster area and the disaster type in association with the 3D image information.
제 1 항에 있어서,
상기 재난 유형 추출부는 상기 3차원 영상 정보에 대한 기계학습을 통해 상기 재난 발생 여부를 판별함과 아울러서, 상기 재난 유형을 분류하는, 재난 상황 인지 시스템.
The method of claim 1,
The disaster type extraction unit determines whether the disaster has occurred through machine learning on the 3D image information and classifies the disaster type.
제 1 항에 있어서,
상기 재난 정보 등록부는 상기 재난 발생 지역의 재난 유형 및 상기 재난 발생 지역 간의 지리적 근접도에 기초하여 클러스터링(clustering)을 수행하여 상기 3차원 영상 정보를 처리하는, 재난 상황 인지 시스템.
The method of claim 1,
The disaster information registration unit processes the 3D image information by performing clustering based on a disaster type of the disaster occurrence area and geographic proximity between the disaster occurrence areas.
제 1 항에 있어서,
상기 제 2 외부 기하 데이터는 상기 영상을 생성하는데 설정된 시야 방향을 정의하는 제 2 자세 데이터를 더 포함하고,
상기 검색 선정부는 상기 3차원 위치 데이터 및 상기 2차원 위치 데이터에 기초하여 상기 기준 영상 데이터와 대비가능한 상기 영상 데이터의 후보군을 검색하고, 상기 제 1 및 제 2 자세 데이터를 참조하여 상기 후보군 중 상기 기준 영상 데이터와 최고의 정합도를 갖는 상기 영상 데이터를 선정하는, 재난 상황 인지 시스템.
The method of claim 1,
The second external geometric data further includes second posture data defining a viewing direction set to generate the image,
The search selection unit searches for a candidate group of the image data that can be contrasted with the reference image data based on the 3D position data and the 2D position data, and refers to the first and second posture data of the candidate group. A disaster situation recognition system that selects the image data having the highest degree of matching with the image data.
제 4 항에 있어서,
상기 기준 기하 정보는 상기 기준 영상을 생성하는데 설정된 센서에 정의된 기하 파라미터에 근거한 제 1 내부 기하 데이터를 더 포함하며, 상기 디바이스 기하 정보는 상기 영상을 생성하는데 설정된 영상 센서에 정의된 기하 파라미터에 근거한 제 2 내부 기하 데이터를 더 포함하고, 상기 검색 선정부에서의 상기 최고의 정합도를 갖는 상기 영상 데이터의 선정 및 상기 기하 변환부에서의 상기 3차원 디바이스 기하 정보로의 보정은 상기 제 1 및 제 2 내부 기하 데이터를 더 포함하여 참조하는, 재난 상황 인지 시스템.
5. The method of claim 4,
The reference geometric information further includes first internal geometric data based on a geometric parameter defined in a sensor configured to generate the reference image, wherein the device geometric information is based on a geometric parameter defined in an image sensor configured to generate the image Further comprising second internal geometric data, the selection of the image data having the highest degree of matching in the search selection unit and the correction to the 3D device geometry information in the geometric transformation unit are performed in the first and second A disaster situation awareness system, further including referenced internal geometric data.
제 1 항에 있어서,
상기 기준 영상이 레이저 스캔닝 센서로부터 기인하는 경우에, 상기 기준 영상은 상기 레이저 스캔닝 센서로부터 획득되는 점군 데이터가 변환된 가상의 영상 데이터를 이용하고, 상기 3차원 위치 데이터는 상기 가상의 영상 데이터의 3차원 위치 데이터로 정의되며, 상기 제 1 자세 데이터는 상기 가상의 영상 데이터의 시야 방향으로 정의되는, 재난 상황 인지 시스템.
The method of claim 1,
When the reference image originates from the laser scanning sensor, the reference image uses virtual image data obtained by converting the point cloud data obtained from the laser scanning sensor, and the 3D position data is the virtual image data is defined as three-dimensional position data of, and the first posture data is defined as a viewing direction of the virtual image data.
제 1 항에 있어서,
상기 3차원 디바이스 기하 정보가 연계된 영상 데이터의 특징 기하들을 랜덤 샘플링하여, 상기 샘플링된 특징 기하들 및 상응하는 상기 기준 영상 데이터의 특징 기하들의 상호 이격량이 최소가 되는 샘플링 영상 데이터의 특징 기하를 정합 최적값으로 추정하는 정합 최적값 추정부; 및
상기 정합 최적값으로 추정된 특징 기하와 관련하여 기하 변환된 3차원 디바이스 기하 정보를 최종 3차원 디바이스 기하 정보로 추정하는 디바이스 기하 정보 추정부를 더 포함하고,
상기 3차원 영상 정보의 생성시에 기초되는 정보 중 상기 3차원 디바이스 기하 정보는 상기 최종 3차원 디바이스 기하 정보를 사용하는, 재난 상황 인지 시스템.
The method of claim 1,
By randomly sampling the feature geometries of the image data to which the 3D device geometry information is linked, the sampled feature geometries and the corresponding feature geometries of the reference image data are matched with the feature geometries of the sampled image data in which the mutual separation amount is minimized a matched optimal value estimator for estimating an optimal value; and
Further comprising a device geometry information estimator for estimating the geometrically transformed 3D device geometry information as final 3D device geometry information in relation to the feature geometry estimated as the matching optimal value,
The 3D device geometric information among the information based on the generation of the 3D image information uses the final 3D device geometric information, a disaster situation recognition system.
모바일 디바이스로부터 취득한 영상 데이터에 관련되어 적어도 2차원 위치 데이터를 갖는 제 2 외부 기하 데이터가 포함된 디바이스 기하 정보를 획득하고, 기준 영상 데이터에 연계된 3차원 위치 데이터와 기준 영상을 생성하는데 설정된 시야 방향을 정의하는 제 1 외부 기하 데이터를 포함하는 기준 기하 정보 중 상기 3차원 위치 데이터 및 상기 2차원 위치 데이터를 참조하여 상기 기준 영상 데이터와 정합 가능한 상기 영상 데이터의 후보군을 검색하며, 상기 후보군 중 상기 기준 영상 데이터와 최고의 정합도를 갖는 상기 영상 데이터를 선정하는 검색 선정 단계;
상기 기준 영상 데이터와 상기 선정된 영상 데이터 간에 공통되는 소정 형태의 특징 기하들에 기반하여 상기 기준 영상 데이터와 선정 영상 데이터를 정합하는 정합 단계;
상기 기준 영상 데이터와 정합된 상기 선정 영상 데이터의 디바이스의 기하 정보가 상기 3차원 위치 데이터를 포함하도록, 기하 변환 모델링에 의해 상기 디바이스의 기하 정보를 기하 변환하여 3차원 디바이스 기하 정보로 보정하는 기하 변환 단계;
상기 3차원 디바이스 기하 정보 및 상기 특징 기하에 대한 정합 정보에 기초하여, 상기 모바일 디바이스의 영상 데이터에 대해 3차원 영상 정보를 생성하는 3차원 영상 정보 생성 단계;
상기 모바일 디바이스로의 영상 데이터에 기반한 상기 3차원 영상 정보로부터, 상기 모바일 디바이스의 주변 환경에 대한 재난 발생 여부를 판별하며, 재난 발생 지역 별 재난 유형을 분류하는 재난 유형 추출 단계; 및
상기 재난 발생 지역과 관련된 위치 정보 및 상기 재난 유형을 상기 3차원 영상 정보와 연계하여 등록하는 재난 정보 등록 단계를 포함하는, 모바일 디바이스 영상에 기반한 공간 정보 클러스터링에 의한 재난 상황 인지 방법.
A viewing direction set to obtain device geometry information including second external geometric data having at least two-dimensional position data in relation to image data acquired from a mobile device, and to generate three-dimensional position data and a reference image linked to the reference image data A candidate group of the image data that can be matched with the reference image data is searched for by referring to the three-dimensional position data and the two-dimensional position data among reference geometric information including first external geometric data defining a search selection step of selecting the image data having the highest degree of matching with the image data;
a matching step of matching the reference image data and the selected image data based on common features of predetermined shapes between the reference image data and the selected image data;
Geometric transformation for correcting the geometric information of the device into three-dimensional device geometric information by geometric transformation by geometric transformation modeling so that the geometric information of the device of the selected image data matched with the reference image data includes the three-dimensional position data step;
a 3D image information generating step of generating 3D image information with respect to the image data of the mobile device based on the 3D device geometry information and matching information for the feature geometry;
a disaster type extraction step of determining whether a disaster has occurred in the surrounding environment of the mobile device from the 3D image information based on the image data to the mobile device, and classifying the disaster type for each disaster occurrence region; and
A disaster situation recognition method by spatial information clustering based on a mobile device image, comprising a disaster information registration step of registering the location information related to the disaster area and the disaster type in association with the 3D image information.
제 8 항에 있어서,
상기 재난 유형 추출부는 상기 3차원 영상 정보에 대한 기계학습을 통해 상기 재난 발생 여부를 판별함과 아울러서, 상기 재난 유형을 분류하는, 재난 상황 인지 방법.
9. The method of claim 8,
A disaster situation recognition method, wherein the disaster type extraction unit determines whether the disaster occurs through machine learning on the 3D image information and classifies the disaster type.
제 8 항에 있어서,
상기 재난 정보 등록 단계는 상기 재난 발생 지역의 재난 유형 및 상기 재난 발생 지역 간의 지리적 근접도에 기초하여 클러스터링을 수행하여 상기 3차원 영상 정보를 처리하는, 재난 상황 인지 방법.
9. The method of claim 8,
The disaster information registration step is a disaster situation recognition method of processing the 3D image information by performing clustering based on a disaster type of the disaster occurrence area and geographic proximity between the disaster occurrence areas.
KR1020200148220A 2020-11-09 2020-11-09 System for detecting disaster situation by clustering of spatial information based an image of a mobile device and method therefor KR20220062709A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200148220A KR20220062709A (en) 2020-11-09 2020-11-09 System for detecting disaster situation by clustering of spatial information based an image of a mobile device and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200148220A KR20220062709A (en) 2020-11-09 2020-11-09 System for detecting disaster situation by clustering of spatial information based an image of a mobile device and method therefor

Publications (1)

Publication Number Publication Date
KR20220062709A true KR20220062709A (en) 2022-05-17

Family

ID=81799601

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200148220A KR20220062709A (en) 2020-11-09 2020-11-09 System for detecting disaster situation by clustering of spatial information based an image of a mobile device and method therefor

Country Status (1)

Country Link
KR (1) KR20220062709A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102582736B1 (en) * 2022-08-26 2023-09-25 주식회사 에너자이 A training method of a resolution enhancement model and an alignment model for a barcode image
CN118365079A (en) * 2024-05-06 2024-07-19 吉林化工学院 Industrial park risk early warning system based on image recognition

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102582736B1 (en) * 2022-08-26 2023-09-25 주식회사 에너자이 A training method of a resolution enhancement model and an alignment model for a barcode image
WO2024043717A1 (en) * 2022-08-26 2024-02-29 주식회사 에너자이 Method for training resolution enhancement model and arrangement model for barcode image
CN118365079A (en) * 2024-05-06 2024-07-19 吉林化工学院 Industrial park risk early warning system based on image recognition

Similar Documents

Publication Publication Date Title
US9400941B2 (en) Method of matching image features with reference features
EP3008694B1 (en) Interactive and automatic 3-d object scanning method for the purpose of database creation
WO2018142900A1 (en) Information processing device, data management device, data management system, method, and program
KR102200299B1 (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
CN112667837A (en) Automatic image data labeling method and device
CN112419374B (en) Unmanned aerial vehicle positioning method based on image registration
US10872246B2 (en) Vehicle lane detection system
KR102130687B1 (en) System for information fusion among multiple sensor platforms
JP6479296B2 (en) Position / orientation estimation apparatus and position / orientation estimation method
KR102127679B1 (en) System for correcting geometry of mobile platform with sensor based on an orthophoto
WO2021017211A1 (en) Vehicle positioning method and device employing visual sensing, and vehicle-mounted terminal
WO2018207426A1 (en) Information processing device, information processing method, and program
CN112750203A (en) Model reconstruction method, device, equipment and storage medium
US20230236038A1 (en) Position estimation method, position estimation device, and position estimation program
JP2022042146A (en) Data processor, data processing method, and data processing program
JP2006119591A (en) Map information generation method, map information generation program and map information collection apparatus
Liao et al. SE-Calib: Semantic Edge-Based LiDAR–Camera Boresight Online Calibration in Urban Scenes
KR20220062709A (en) System for detecting disaster situation by clustering of spatial information based an image of a mobile device and method therefor
CN113838129B (en) Method, device and system for obtaining pose information
KR102249381B1 (en) System for generating spatial information of mobile device using 3D image information and method therefor
Zhang et al. Integrating smartphone images and airborne lidar data for complete urban building modelling
Chen et al. Amobile system combining laser scanners and cameras for urban spatial objects extraction
CN114429515A (en) Point cloud map construction method, device and equipment
KR102249380B1 (en) System for generating spatial information of CCTV device using reference image information
CN110617800A (en) Emergency remote sensing monitoring method, system and storage medium based on civil aircraft

Legal Events

Date Code Title Description
N231 Notification of change of applicant