KR102170745B1 - Method of estimating a location by fusing indoor spatial information data - Google Patents

Method of estimating a location by fusing indoor spatial information data Download PDF

Info

Publication number
KR102170745B1
KR102170745B1 KR1020180171737A KR20180171737A KR102170745B1 KR 102170745 B1 KR102170745 B1 KR 102170745B1 KR 1020180171737 A KR1020180171737 A KR 1020180171737A KR 20180171737 A KR20180171737 A KR 20180171737A KR 102170745 B1 KR102170745 B1 KR 102170745B1
Authority
KR
South Korea
Prior art keywords
information
building
location
image information
location information
Prior art date
Application number
KR1020180171737A
Other languages
Korean (ko)
Other versions
KR20200087305A (en
Inventor
조국
함성일
강상구
Original Assignee
한국국토정보공사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국국토정보공사 filed Critical 한국국토정보공사
Priority to KR1020180171737A priority Critical patent/KR102170745B1/en
Publication of KR20200087305A publication Critical patent/KR20200087305A/en
Application granted granted Critical
Publication of KR102170745B1 publication Critical patent/KR102170745B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means

Abstract

본 발명은 실내 공간정보 데이터 융합을 통한 위치추정 방법에 관한 것으로, 모바일 매핑 시스템(Mobile Mapping System, MMS)을 이용하여, 건물 내로 진입하는 차량의 자율주행을 위한 상기 건물 내 3차원의 영상정보 및 위치정보를 획득하는 제1 단계; 외부서버로부터 상기 건물의 건축도면 정보인 2차원의 영상정보 및 위치정보를 수신하는 제2 단계; 상기 제1 단계에서 획득된 상기 3차원의 영상정보 및 위치정보와 상기 제2 단계에서 수신된 2차원의 영상정보 및 위치정보를 정합하여, 상기 자율주행 차량의 주차를 위한 상기 건물 내 공간정보를 생성하는 제3 단계;를 포함하여, 자율주행을 위한 차량이 GPS 신호를 수신할 수 없는 건물 내로 진입하였을 경우에도 차량의 위치 정보를 획득할 수 있으며, 건물 내 영상정보 및 위치정보의 획득이 어려운 경계 영역에 대한 공간 정보를 보완할 수 있는 기술을 제공할 수 있다.
본 발명에 의하면, 위치 정보가 포함된 건물 건축도면을 자율주행 차량의 모바일 매핑 시스템(Mobile Mapping System, MMS)을 통해 획득된 영상정보 및 위치정보에 융합시킴으로써, 건물 내로 진입한 자율주행 차량의 자동주차를 가능하게 할 수 있고, 가공된 2차원의 건물 건축도면을 3차원의 미가공 데이터에 융합시킴으로써, 건물 내 부착설치물에 의해 부정확하게 획득된 영상정보 및 위치정보를 보완할 수 있게 됨으로써, 보다 정확한 실내 공간정보를 생성할 수 있는 효과를 포함하며, 건축도면을 3차원 포인트 클라우드 데이터와 융합시킴으로써, 대부분 수작업으로 이루어지는 3차원의 공간정보를 구축하는 과정을 자동화하여 건물 내 공간정보의 업데이트를 보다 빠르게 실시할 수 있는 효과를 포함한다.
The present invention relates to a method for estimating a location through fusion of indoor spatial information data, and using a mobile mapping system (MMS), three-dimensional image information in the building for autonomous driving of a vehicle entering the building, and A first step of obtaining location information; A second step of receiving two-dimensional image information and location information, which are architectural drawing information of the building, from an external server; By matching the three-dimensional image information and location information obtained in the first step with the two-dimensional image information and location information received in the second step, the spatial information in the building for parking the autonomous vehicle is obtained. Including a third step of generating; Including, it is possible to obtain the location information of the vehicle even when a vehicle for autonomous driving enters a building where GPS signals cannot be received, and it is difficult to obtain image information and location information inside the building. It is possible to provide a technology that can supplement spatial information on the boundary area.
According to the present invention, by fusing the building construction drawing including the location information with the image information and location information obtained through the mobile mapping system (MMS) of the autonomous vehicle, the autonomous vehicle entering the building is automatically Parking can be enabled, and by fusing the processed two-dimensional building construction drawings with three-dimensional raw data, it is possible to supplement the image information and location information incorrectly obtained by the attached installations in the building. It includes the effect of generating indoor spatial information, and by fusing architectural drawings with 3D point cloud data, it automates the process of constructing 3D spatial information, which is mostly manual, so that the update of spatial information in the building is faster. Includes the possible effects.

Description

실내 공간정보 데이터 융합을 통한 위치추정 방법{METHOD OF ESTIMATING A LOCATION BY FUSING INDOOR SPATIAL INFORMATION DATA}Location estimation method through fusion of indoor spatial information data {METHOD OF ESTIMATING A LOCATION BY FUSING INDOOR SPATIAL INFORMATION DATA}

본 발명은 실내 공간정보 데이터를 융합하여 차량의 위치를 추정하는 방법에 관한 것이다.The present invention relates to a method of estimating the position of a vehicle by fusing indoor spatial information data.

최근 자동차 관련 기술이 차량의 안정성을 개선하거나 단순 운전자의 편익을 위한 개발 방향에서 보행자 및 운전자의 안전을 우선시하는 기술에 집중되기 시작했다. 이를 위해, 운전 중 발생할 수 있는 수많은 상황 가운데 일부를 차량 스스로 인지하고 그 상황을 판단하여 차량의 기계장치를 제어하는 기술인 첨단 운전자 지원 시스템(ADAS: Advanced Driver Assistance System)이 제안되었으며, 이러한 ADAS를 통해 복잡한 차량 제어 프로세스에서 운전자를 돕는 것은 물론, 궁극적으로는 차량의 자율주행을 가능하게 할 수 있게 되었다.Recently, automobile-related technologies have begun to focus on technologies that prioritize the safety of pedestrians and drivers in the development direction for improving vehicle stability or for simple driver's convenience. To this end, the Advanced Driver Assistance System (ADAS), a technology that controls the vehicle's mechanical devices by recognizing some of the numerous situations that can occur while driving by itself and judging the situation has been proposed. In addition to helping the driver in the complex vehicle control process, it is ultimately possible to enable the vehicle to run autonomously.

차량의 주행은 주차 상태에서 시작하여 다시 주차 상태로 끝이난다. 이러한 주행 과정 중의 주차 편의 및 안전을 위해 고안된 것이 자동주차 시스템으로 ADAS의 초창기 기술 중 하나이며, 엄밀하게는 주차조향 보조 시스템이라 할 수 있다.The driving of the vehicle starts in the parked state and ends again in the parked state. The automatic parking system designed for parking convenience and safety during the driving process is one of the early technologies of ADAS, and it can be strictly referred to as a parking steering assistance system.

상술한 자동주차는 노약자 및 운전미숙자에게 유용하며, 상대적으로 공간감각능력이 낮은 운전자들에게 있어서 주차 시에 보이지 않는 사각지대는 주차에 대한 어려움을 더욱 증가 시킨다. 실제로 초보 운전자가 느끼는 도로주행의 스트레스보다 주차 할 때에 느끼는 스트레스가 더 크다고 한다.The above-described automatic parking is useful for the elderly and the inexperienced driving, and for drivers with relatively low spatial sense ability, a blind spot that is not visible during parking further increases the difficulty of parking. In fact, it is said that the stress felt when parking is greater than the stress of driving on the road that a novice driver feels.

그러나, 자동주차 시스템은 기계장치의 정확성을 이용하여 주차의 어려움을 덜어줄 수 있는 장점이 있으나, 자율주행하는 차량의 자동주차를 위한 위치 추정 방법에는 많은 어려움이 따른다. However, the automatic parking system has the advantage of reducing the difficulty of parking by using the accuracy of a mechanical device, but there are many difficulties in a method of estimating a location for automatic parking of an autonomous vehicle.

일반적으로, 자율주행을 위한 차량은 구비된 위성항법장치(Global Positioning System, GPS)를 기반으로 차량의 현재 위치를 측위하고, 현재 위치를 기반으로 주행 및 주차를 자동으로 수행할 수 있는 기술이 제안된 바 있다. 그러나, 차량이 건물 내 또는 건물의 지하에 마련된 주차장에 진입하여 주행 및 주차를 수행하는 경우, 차량에 구비된 GPS 수신 모듈은 GPS 위성으로부터 신호를 수신 받을 수 없다. In general, a technology that enables vehicles for autonomous driving to locate the current position of the vehicle based on the equipped global positioning system (GPS) and to automatically drive and park based on the current position is proposed. Has been done. However, when a vehicle enters a parking lot provided in a building or under the building to drive and park, the GPS receiving module provided in the vehicle cannot receive signals from GPS satellites.

이에, 자율주행 차량에 GPS 신호가 수신되지 않더라도 자율주행 차량의 현재 위치를 산출하고, 산출된 현재 위치로부터 빈 주차 공간까지 자동으로 주행 및 주차 동작을 수행할 수 있는 기술 개발이 요구된다.Accordingly, there is a need to develop a technology capable of calculating the current position of the autonomous vehicle even if a GPS signal is not received from the autonomous vehicle, and automatically driving and parking operations from the calculated current position to an empty parking space.

『대한민국 등록특허공보 제10-1560984호, 발명의 명칭: 자동주차 시스템, (공고일: 2015년10월27일, 특허권자: 성균관대학교산학협력단)』에는 위치 정보가 파악된 랜드마크를 기준으로 진입하는 차량의 주차 가능 구역까지의 주행 정보를 생성하여, 자율주행 차량의 주행 및 주차를 제어하는 자동주차 시스템의 기술적 구성을 개시하고 있다.『Republic of Korea Patent Publication No. 10-1560984, Title of Invention: Automatic Parking System, (Notification: Oct. 27, 2015, Patent Holder: Sungkyunkwan University Industry-Academic Cooperation Foundation)』, the location information is entered based on the landmark A technical configuration of an automatic parking system for controlling driving and parking of an autonomous vehicle by generating driving information to an available parking area of a vehicle is disclosed.

그러나, 상술한 종래기술은 랜드마크를 기준으로 기설정된 주행 경로를 따라 자율주행 차량이 주차 구역까지 고정된 경로로 안내되는 구성으로, 건물에 3차원의 공간정보가 포함된 자동주차 시스템이 별도로 설치되어야 하는 번거로움은 물론, 안내되는 경로 상에 있는 장애물 또는 보행자 등의 예기치 못한 변수에 의한 경로의 변경이 어려울 것으로 보인다. However, the above-described prior art is a configuration in which an autonomous vehicle is guided to a parking area along a preset driving path based on a landmark, and an automatic parking system including three-dimensional spatial information is separately installed in the building. It seems difficult to change the route due to unexpected variables such as obstacles or pedestrians on the guided route as well as the hassle.

아울러, 건물 내에는 안내 표지판 등의 부착 설치물에 의해 획득되는 영상정보 또는 위치정보가 정확하지 않을 수 있어 보다 정확한 공간정보를 생성하기 어려운 문제 또한 안고 있다.In addition, there is also a problem in that it is difficult to generate more accurate spatial information in the building because image information or location information acquired by installations such as guide signs may not be accurate.

특허문헌 (0001) 『대한민국 등록특허공보 제10-1560984호, 발명의 명칭: 자동주차 시스템, (공고일: 2015년10월27일, 특허권자: 성균관대학교산학협력단)』Patent Document (0001) 『Korean Registered Patent Publication No. 10-1560984, Title of Invention: Automatic Parking System, (Notice Date: October 27, 2015, Patent Holder: Sungkyunkwan University Industry-Academic Cooperation Foundation)』

본 발명은 상술한 문제를 해결하기 위한 것으로, 자율주행을 위한 차량이 GPS 신호를 수신할 수 없는 건물 내로 진입하였을 경우에도 차량의 위치 정보를 획득할 수 있는 기술을 제공하는데 그 목적이 있다.The present invention has been made to solve the above-described problem, and an object of the present invention is to provide a technology capable of obtaining location information of a vehicle even when a vehicle for autonomous driving enters a building where GPS signals cannot be received.

또한, 건물 내 영상정보 및 위치정보의 획득이 어려운 경계 영역에 대한 공간 정보를 보완할 수 있는 기술을 제공하는데 다른 목적이 있다In addition, there is another purpose to provide a technology that can supplement spatial information on a boundary area where it is difficult to obtain image information and location information within a building.

본 발명이 해결하려는 과제는 전술한 과제로 제한되지 아니하며, 언급되지 아니한 또 다른 기술적 과제들은 후술할 내용으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the above-described problem, and other technical problems that are not mentioned will be clearly understood by those of ordinary skill in the technical field to which the present invention belongs from the following description.

이러한 목적을 달성하기 위하여 본 발명의 일 태양으로 자동주차를 위해 자율주행 차량의 위치를 추정하는 방법에 있어서, 모바일 매핑 시스템(Mobile Mapping System, MMS)을 이용하여, 건물 내로 진입하는 차량의 자율주행을 위한 상기 건물 내 3차원의 영상정보 및 위치정보를 획득하는 제1 단계; 외부서버로부터 상기 건물의 건축도면 정보인 2차원의 영상정보 및 위치정보를 수신하는 제2 단계; 상기 제1 단계에서 획득된 상기 3차원의 영상정보 및 위치정보와 상기 제2 단계에서 수신된 2차원의 영상정보 및 위치정보를 정합하여, 상기 자율주행 차량의 주차를 위한 상기 건물 내 공간정보를 생성하는 제3 단계;를 포함한다.In order to achieve this object, in a method for estimating the location of an autonomous vehicle for automatic parking according to an aspect of the present invention, autonomous driving of a vehicle entering a building using a mobile mapping system (MMS) A first step of obtaining three-dimensional image information and location information in the building for; A second step of receiving two-dimensional image information and location information, which are architectural drawing information of the building, from an external server; By matching the three-dimensional image information and location information obtained in the first step with the two-dimensional image information and location information received in the second step, the spatial information in the building for parking the autonomous vehicle is obtained. It includes; a third step of generating.

그리고, LiDAR(Light Detection And Ranging) 및 CCD 카메라(Charge-Couple device Camera, CCD Camera)로부터 3차원의 영상정보를 획득하는 단계; 및 위성항법장치(Global Positioning System, GPS) 및 관성항법장치(Inertial Navigation System, INS)로부터 3차원의 위치정보를 획득하는 단계;를 포함할 수 있다.And, acquiring 3D image information from LiDAR (Light Detection And Ranging) and CCD camera (Charge-Couple Device Camera, CCD Camera); And obtaining three-dimensional location information from a global positioning system (GPS) and an inertial navigation system (INS).

또한, 건물에 설치된 건물정보 송신단말로부터 건물 내 2차원의 영상정보 및 위치정보를 수신하는 단계; 또는 GIS(Geographic Information System) 서버로부터 근거리 통신 또는 원거리통신을 통해 건물 내 2차원의 영상정보 및 위치정보를 수신하는 단계;를 포함할 수 있다.In addition, receiving two-dimensional image information and location information in the building from a building information transmission terminal installed in the building; Or receiving two-dimensional image information and location information in a building through short-distance communication or long-distance communication from a GIS (Geographic Information System) server.

그리고, 영역기반방법(Aerial Based Matching), 형상기반방법(Feature Based Matching), 또는 관계기반방법(Relational Matching)을 이용하여 상기 3차원 영상정보 및 위치정보와 상기 2차원의 영상정보 및 위치정보를 정합하여 건물 내 공간정보를 생성하는 단계;를 포함할 수 있다.In addition, the 3D image information and location information and the 2D image information and location information are combined using an area-based method (Aerial Based Matching), a feature-based method (Feature Based Matching), or a relational method (Relational Matching). It may include; generating spatial information in the building by matching.

또한, 상기 제3 단계에서 생성된 건물 내 공간정보를 기반으로 상기 자율주행 차량의 위치를 추정하여 주차 경로를 생성하는 단계;를 더 포함할 수 있다.In addition, the step of generating a parking path by estimating the position of the autonomous vehicle based on the spatial information in the building generated in the third step; may further include.

이러한 목적을 달성하기 위하여 본 발명의 다른 태양으로 자동주차를 위해 자율주행 차량의 위치를 추정하는 시스템에 있어서, 모바일 매핑 시스템을 이용하여 건물 내 3차원 영상정보 및 위치 정보를 획득하는 3D정보 수집단말; 외부서버로부터 건물의 건축도면인 2차원 영상정보 및 영상정보를 수신하는 2D정보 수집단말; 및 상기 3D정보 수집단말로부터 수집된 영상정보 및 위치정보와, 2D정보 수집단말로부터 수집된 영상정보 및 위치정보를 정합하여 2차원 좌표값으로 생성하며, 상기 3차원 영상정보 및 위치정보와 상기 2차원 영상정보 및 위치정보의 높이차에 따른 높이값을 산출하여 3차원 좌표값의 공간정보를 생성하는 데이터 융합서버;를 포함한다. In order to achieve this object, in another aspect of the present invention, in a system for estimating the location of an autonomous vehicle for automatic parking, a 3D information collection terminal that acquires 3D image information and location information in a building using a mobile mapping system ; A 2D information collection terminal for receiving 2D image information and image information, which are architectural drawings of a building from an external server; And the image information and location information collected from the 3D information collection terminal, and the image information and location information collected from the 2D information collection terminal to generate a 2D coordinate value, and the 3D image information and location information and the 2 And a data fusion server for generating spatial information of 3D coordinate values by calculating a height value according to a height difference between dimensional image information and location information.

그리고, 상기 3D정보 수집단말은, 3차원의 영상정보를 획득하는 LiDAR 및 CCD 카메라의 구성을 포함하고, 3차원의 위치정보를 획득하는 위성항법장치 및 관성항법장치의 구성을 포함할 수 있다.In addition, the 3D information collection terminal may include a configuration of a LiDAR and a CCD camera for acquiring 3D image information, and a configuration of a satellite navigation device and an inertial navigation device acquiring 3D location information.

또한, 상기 2D정보 수집단말은, 건물에 설치된 건물정보 송신단말로부터 건물 내 2차원의 영상정보 및 위치정보를 수신하거나, GIS(Geographic Information System) 서버로부터 근거리 통신 또는 원거리통신을 통해 건물 내 2차원의 영상정보 및 위치정보를 수신할 수 있다.In addition, the 2D information collection terminal receives two-dimensional image information and location information in the building from a building information transmission terminal installed in the building, or through short-distance communication or long-distance communication from a GIS (Geographic Information System) server. It is possible to receive the image information and location information of.

그리고, 상기 데이터 융합서버는, 영역기반방법, 형상기반방법, 또는 관계기반방법을 이용하여 상기 3차원 영상정보 및 위치정보와 상기 2차원의 영상정보 및 위치정보를 정합하여 건물 내 공간정보를 생성할 수 있다.In addition, the data fusion server generates spatial information in the building by matching the 3D image information and location information with the 2D image information and location information using an area-based method, a shape-based method, or a relationship-based method. can do.

또한, 상기 데이터 융합서버에서 생성된 건물 내 공간정보를 기반으로 상기 자율주행 차량의 위치를 추정하여 자동주차 경로를 생성하는 위치 추정서버;를 더 포함할 수 있다.In addition, a location estimation server for generating an automatic parking route by estimating the location of the autonomous vehicle based on spatial information in the building generated by the data fusion server may further include.

상술한 과제의 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.The means for solving the above-described problems are merely exemplary and should not be construed as limiting the present invention. In addition to the above-described exemplary embodiments, there may be additional embodiments described in the drawings and detailed description of the invention.

이상에서 설명한 바와 같이 본 발명에 의하면, 다음과 같은 효과가 있다.As described above, according to the present invention, the following effects are obtained.

첫째, 위치 정보가 포함된 건물 건축도면을 자율주행 차량의 모바일 매핑 시스템(Mobile Mapping System, MMS)을 통해 획득된 영상정보 및 위치정보에 융합시킴으로써, 건물 내로 진입한 자율주행 차량의 자동주차를 가능하게 할 수 있다.First, by fusing the building construction drawing including location information with the image information and location information acquired through the Mobile Mapping System (MMS) of the autonomous vehicle, automatic parking of the autonomous vehicle entering the building is possible. I can do it.

둘째, 가공된 2차원의 건물 건축도면을 3차원의 미가공 데이터에 융합시킴으로써, 건물 내 부착설치물에 의해 부정확하게 획득된 영상정보 및 위치정보를 보완할 수 있게 됨으로써, 보다 정확한 실내 공간정보를 생성할 수 있는 효과를 포함한다.Second, by fusing the processed two-dimensional building construction drawings with three-dimensional raw data, it is possible to supplement the image information and location information incorrectly acquired by the attached installation in the building, thereby generating more accurate indoor spatial information. Includes possible effects.

셋째, 건축도면을 3차원 포인트 클라우드 데이터와 융합시킴으로써, 대부분 수작업으로 이루어지는 3차원의 공간정보를 구축하는 과정을 자동화하여 건물 내 공간정보의 업데이트를 보다 빠르게 실시할 수 있는 효과를 포함한다.Third, by fusing architectural drawings with 3D point cloud data, the process of constructing 3D spatial information, which is mostly manually performed, is automated, so that the spatial information in the building can be updated more quickly.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects that are not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 일 실시예에 따른 실내 공간정보 데이터 융합을 통한 위치추정 시스템의 구성을 나타내는 구성도이다.
도 2는 본 발명의 일 실시예에 따른 데이터 융합서버의 세부 구성을 나타내는 블럭도이다.
도 3은 본 발명의 일 실시예에 따른 위치 추정서버의 세부 구성을 나타내는 블럭도이다.
도 4는 본 발명의 일 실시예에 따른 실내 공간정보 데이터 융합을 통한 위치추정 방법을 나타내는 흐름도이다.
1 is a block diagram showing the configuration of a location estimation system through fusion of indoor spatial information data according to an embodiment of the present invention.
2 is a block diagram showing a detailed configuration of a data fusion server according to an embodiment of the present invention.
3 is a block diagram showing a detailed configuration of a location estimation server according to an embodiment of the present invention.
4 is a flowchart illustrating a method of estimating a location through fusion of indoor spatial information data according to an embodiment of the present invention.

본 발명의 바람직한 실시예에 대하여 첨부된 도면을 참조하여 더 구체적으로 설명하되, 이미 주지되어진 기술적 부분에 대해서는 설명의 간결함을 위해 생략하거나 압축하기로 한다.Preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings, but technical parts that are already well-known will be omitted or compressed for conciseness of description.

본 발명은 차량의 자율주차를 위해 실내 공간정보 데이터를 융합시키는 기술과, 상기 융합된 실내 공간정보를 데이터를 통해 자율주행 차량의 위치를 추정하는 기술로 대별된다.The present invention is roughly divided into a technology for fusing indoor spatial information data for autonomous parking of a vehicle and a technology for estimating the location of an autonomous vehicle through the fused indoor spatial information data.

우선, 실내 공간정보 데이터를 융합하여 자율주행 차량의 위치 추정 시스템의 전체적인 구성에 대해 설명한다.First, the overall configuration of a system for estimating the location of an autonomous vehicle by fusion of indoor spatial information data will be described.

도 1은 본 발명의 일 실시예에 따른 실내 공간정보 데이터 융합을 통한 위치추정 시스템의 구성을 나타내는 구성도이다.1 is a block diagram showing the configuration of a location estimation system through fusion of indoor spatial information data according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 실내 공간정보 데이터 융합을 통한 위치추정 시스템(100)(이하, '위치추정 시스템'이라 함)은 자율주행 차량에 설치된 MMS(Mobile Mapping System)를 통해 건물 내부의 영상 및 위치 정보를 포함하는 3차원의 미가공 데이터를 획득하며, 획득된 3차원의 미가공 데이터에 건축도면의 2차원 영상정보 및 위치정보를 융합하여, 미가공된 3차원 데이터의 객체 또는 지형 특징을 용이하게 구별함으로써, 건물 내의 3차원 공간정보를 보다 신속하고 정확하게 구축할 수 있다.As shown in Fig. 1, a location estimation system 100 (hereinafter referred to as a'location estimation system') through fusion of indoor spatial information data according to an embodiment of the present invention is an MMS (Mobile Mapping System) installed in an autonomous vehicle. System) to acquire three-dimensional raw data including image and location information inside the building, and fusion of two-dimensional image information and location information of architectural drawings to the obtained three-dimensional raw data, and unprocessed three-dimensional data By easily distinguishing the object or topographic features of the building, it is possible to more quickly and accurately construct 3D spatial information within the building.

이를 통해, GPS 신호가 수신되지 않는 건물 내부의 3차원 공간정보를 용이하게 생성함으로써, 건물 내로 진입한 자율주행 차량의 자동주차를 용이하게 할 수 있다.Through this, it is possible to easily generate 3D spatial information inside a building where GPS signals are not received, thereby facilitating automatic parking of an autonomous vehicle entering the building.

본 발명의 위치추정 시스템(100)은 상술한 기능을 수행하기 위해, 3D정보 수집단말(110), 2D정보 수집단말(120), 데이터 융합서버(130) 및 위치 추정서버(140)의 구성을 포함한다.The location estimation system 100 of the present invention comprises a 3D information collection terminal 110, a 2D information collection terminal 120, a data fusion server 130, and a location estimation server 140 in order to perform the above-described functions. Include.

3D정보 수집단말(110)은 자율주행 차량에 설치되어 주행 경로를 따라 이동하며, 주행 경로 내 지형지물의 영상정보와 그 영상의 위치정보를 획득하는 것으로, 영상 정보의 획득을 위한 LiDAR(111)(Light Detection And Ranging) 또는 CCD 카메라(112)(Charge-Couple device Camera, CCD Camera) 장치로 구성된 영상정보 수집모듈과, 위치 정보의 획득을 위한 위성항법장치(113)(Global Positioning System, GPS) 및 관성항법장치(114)(Inertial Navigation System, INS)로 구성된 위치정보 수집모듈을 통해 획득된 영상정보 및 그 위치정보를 다시 수집정보 발신모듈을 통해 데이터 융합서버(130)로 전송한다.The 3D information collection terminal 110 is installed in an autonomous vehicle to move along a driving path, and acquires image information of a terrain feature in the driving path and location information of the image. LiDAR 111 for obtaining image information ( Light Detection And Ranging) or an image information collection module composed of a CCD camera 112 (Charge-Couple device Camera, CCD Camera) device, and a satellite navigation device 113 (Global Positioning System, GPS) for obtaining location information, and The image information acquired through the location information collection module composed of the inertial navigation system 114 (Inertial Navigation System, INS) and the location information are transmitted to the data fusion server 130 through the collection information transmission module again.

여기서, LiDAR(111) 및 CCD 카메라(112)를 포함하는 영상정보 수집모듈과, 위성항법장치(113) 및 관성항법장치(114)를 포함하는 위치정보 수집모듈의 구성은 종래에 익히 알려진 모바일 매핑 시스템에 사용되는 공지된 필수 구성요소들로, 이에 그 상세한 설명은 생략하기로 한다.Here, the configuration of the image information collection module including the LiDAR 111 and the CCD camera 112, and the location information collection module including the satellite navigation device 113 and the inertial navigation device 114 is well known in the prior art. These are well-known essential components used in the system, so a detailed description thereof will be omitted.

또한, 본 발명의 기술적 사상 역시 상술한 영상 및 위치정보의 획득 수단에 한정되는 것은 아니며, 영상 및 위치정보를 획득하는 과정에 공지된 여타의 다른 구성요소들이 사용되는 것 역시 본 발명의 기술적 사상에 포함된다 할 것이다.In addition, the technical idea of the present invention is not limited to the above-described means for acquiring the image and location information, and other known components are used in the process of acquiring the image and location information. Will be included.

2D정보 수집단말(120)은 건물의 건축도면 정보를 수신하여 주차공간의 2D 영상정보 및 위치정보를 획득하는 것으로, 건물 내 도면 송신용 단말 또는 외부 서버와 유·무선 통신으로 연결된다. 이때, 건물에는 건축도면 정보를 송신하는 건물정보 송신단말(미도시)이 비치될 수 있으며, 2D정보 수집단말(120)은 NFC(Near Field Communication) 통신, RFID(Radio Frequency Identification) 통신, 지그비(Zigbee) 통신, Wi-Fi(Wireless-Fidelity) 등의 근거리 통신을 이용하여 2D 영상정보인 건축도면 정보를 수신함은 물론, LAN 또는 WAN 통신 등의 원거리 통신을 통해 GIS(Geographic Information System) 서버에 접속하여 건축도면 정보를 수신한다.The 2D information collection terminal 120 receives architectural drawing information of a building to acquire 2D image information and location information of a parking space, and is connected to a terminal for transmitting drawings in the building or external servers through wired/wireless communication. At this time, the building may be provided with a building information transmission terminal (not shown) that transmits architectural drawing information, and the 2D information collection terminal 120 is NFC (Near Field Communication) communication, RFID (Radio Frequency Identification) communication, Zigbee ( Zigbee) communication and short-range communication such as Wi-Fi (Wireless-Fidelity) are used to receive architectural drawing information, which is 2D image information, and connect to a GIS (Geographic Information System) server through long-distance communication such as LAN or WAN communication. To receive architectural drawing information.

여기서, 2D정보 수집단말(120)에서 수집되는 건축도면은 자율주행 차량이 건물 내로 진입할 경우 수집할 수 없는 위성항법장치(113)의 위치 정보를 보완하여 건물 내 주차 공간의 3차원 공간정보를 용이하게 구축할 수 있게 한다.Here, the architectural drawings collected by the 2D information collection terminal 120 supplement the location information of the satellite navigation device 113 that cannot be collected when the autonomous vehicle enters the building, thereby providing 3D spatial information of the parking space in the building. Makes it easy to build.

데이터 융합서버(130)는 상술한 3D정보 수집단말(110)과 2D정보 수집단말(120)에서 전송되는 3차원 및 2차원 공간정보 데이터의 영상과 위치 정보를 융합하여 자율주행 차량이 주차를 위해 주행 되는 건물 내 3차원 공간정보를 생성한다.The data fusion server 130 combines the image and location information of the 3D and 2D spatial information transmitted from the 3D information collection terminal 110 and the 2D information collection terminal 120 described above, so that the autonomous vehicle can park. It generates 3D spatial information in the driving building.

LiDAR(111) 데이터는 모든 데이터가 x,y,z 값을 가지는 점으로 이루어져 있으며, 모든 점 데이터는 지상의 지형지물 위치를 3차원 지상좌표계에서의 위치 좌표로 제공한다. 이하에서, 모바일 매핑 시스템의 영상정보 획득수단을 LiDAR(111)로 통칭하여 설명한다.LiDAR 111 data consists of points in which all data have x, y, and z values, and all point data provides the position of a feature on the ground as a position coordinate in a three-dimensional ground coordinate system. Hereinafter, the means for obtaining image information of the mobile mapping system will be collectively referred to as LiDAR 111.

LiDAR(111) 데이터를 이용하면 대상지를 일정한 격자로 나누어 정규화 하는 DSM(Digital Surface Model)을 만들거나 평면 패치를 추출하는 등의 지상의 모습을 재현할 수 있다. 그러나, DSM과 평면패치는 개략적인 지상의 모습을 구현하는데에는 용이하지만 데이터 밀도가 상대적으로 낮고 명시성이 떨어지며, 결정적으로 센서의 데이터 취득 방식의 특성 상 건물 등의 경계선에는 정확한 포인트 데이터를 획득하기 어렵기 때문에 다른 데이터와의 융합이 필요하다.Using LiDAR(111) data, it is possible to reproduce the appearance of the ground, such as creating a digital surface model (DSM) that normalizes the target area by dividing it into a certain grid or extracting a flat patch. However, the DSM and the flat patch are easy to implement a rough ground appearance, but the data density is relatively low and the clarity is low, and it is crucial to acquire accurate point data at the boundary of buildings, etc. Because it is difficult, it requires fusion with other data.

이에, 건축도면의 2차원 영상정보 및 위치정보를 정합 또는 융합시켜 LiDAR(111) 데이터의 단점을 보완하여 건물 내의 공간정보를 생성한다.Accordingly, the two-dimensional image information and the location information of the architectural drawing are matched or fused to compensate for the shortcomings of the LiDAR 111 data to generate spatial information in the building.

상술한 데이터 융합서버(130)에서 수행되는 3차원 공간정보와 2차원 공간정보의 융합 과정은 후술될 도 2에서 다시 설명하기로 한다.The fusion process of 3D spatial information and 2D spatial information performed by the above-described data fusion server 130 will be described again in FIG. 2 to be described later.

위치 추정서버(140)는 데이터 융합서버(130)를 통해 생성된 건물 내 3차원 공간정보를 기반으로 차량의 위치와 주차 위치, 주차 경로 또는 공간 상의 장애물의 위치를 파악하고 차량의 크기 및 형태를 모델링하여, 자율주행 차량이 장애물을 피하여 정확한 주차 위치에 도달할 수 있는 차량의 이동 경로를 산출함은 물론, 생성된 주차 경로를 따라 차량이 이동할 수 있도록 조향을 제어하는 기능을 수행한다.The location estimation server 140 determines the location of the vehicle and the parking location, the parking path or the location of obstacles in the space based on the 3D spatial information in the building generated through the data fusion server 130, and determines the size and shape of the vehicle. By modeling, the autonomous vehicle calculates a moving path of the vehicle that can reach the correct parking position by avoiding obstacles, as well as controlling the steering so that the vehicle can move along the generated parking path.

상술한 위치 추정서버(140)의 주차 경로 생성 과정은 후술될 도 3에서 다시 상세히 설명하기로 한다.The above-described process of generating a parking route by the location estimation server 140 will be described in detail again in FIG. 3 to be described later.

사용자 단말(150)은 자율주행 차량에 설치되어, 자동주차를 위한 공간정보 및 차량의 추정된 위치와 주차 경로를 사용자에게 제공하거나, 별도의 단말, 예를 들어, 사용자의 스마트 폰(Smart Phone)의 앱(App)을 통해 사용자에게 제공될 수 있도록 한다. The user terminal 150 is installed in an autonomous vehicle to provide spatial information for automatic parking and the estimated location and parking route of the vehicle to the user, or a separate terminal, for example, a user's smart phone. It can be provided to users through the App of

여기서, 사용자 단말(150)은 데이터 융합서버(130)에 수신되는 3차원 및 2차원의 영상정보 및 위치정보를 사용자가 그래픽적으로 확인하게 할 수 있으며, 두 영상정보와 위치정보가 정합되어 생성되는 건물 내의 공간정보를 사용자가 수정 및 보완하게 할 수 있는 툴(tool)을 제공할 수 있다.Here, the user terminal 150 allows the user to graphically check the 3D and 2D image information and location information received by the data fusion server 130, and the two image information and the location information are created by matching. It is possible to provide a tool that allows a user to modify and supplement spatial information in a building that is being created.

또한, 위치 추정서버(140)에서 제공되는 차량의 주차 경로를 도시화하는 것은 물론, 그 경로를 수정하게 할 수 있는 별도의 툴을 제공할 수 있다.In addition, it is possible to provide a separate tool capable of not only showing the parking route of the vehicle provided by the location estimation server 140 but also correcting the route.

아래에서는, 데이터 융합서버를 통해 실내 공간정보 데이터를 융합시키는 기술에 대해 설명하기로 한다.In the following, a technology for fusion of indoor spatial information data through a data fusion server will be described.

도 2는 본 발명의 일 실시예에 따른 데이터 융합서버의 세부 구성을 나타내는 블럭도이다.2 is a block diagram showing a detailed configuration of a data fusion server according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 본 발명의 데이터 융합서버(130)는 전술한대로 자율주행 차량에 설치된 3D정보 수집단말(110)을 통해 획득된 미가공된 3차원 공간정보에 2D정보 수집단말(120)을 통해 수집된 건축도면 정보인 2차원 공간정보를 융합함으로써, 보다 정확한 건물 내 3차원 공간정보를 생성함은 물론, 위성항법 장치에 의한 위치 정보를 수신할 수 없는 건물 내의 위치 정보를 건축도면을 통해 제공할 수 있다.As shown in Figure 2, the data fusion server 130 of the present invention is a 2D information collection terminal 120 to the unprocessed three-dimensional spatial information obtained through the 3D information collection terminal 110 installed in the autonomous vehicle as described above. By fusing the two-dimensional spatial information, which is the architectural drawing information collected through the system, more accurate three-dimensional spatial information in the building is generated, as well as the location information in the building that cannot receive the location information by the satellite navigation system. Can be provided through.

3D정보 수집단말(110)을 통해 획득되는 LiDAR(111) 데이터는 앞서 설명한 바와 같이, 개략적인 건물의 모습을 구현하는데에는 용이하지만 데이터 밀도가 상대적으로 낮고 명시성이 떨어지며, 결정적으로 센서의 데이터 취득 방식의 특성 상 건물 등의 경계선에는 정확한 포인트 데이터를 획득하기 어려운 단점이 있다.LiDAR 111 data acquired through the 3D information collection terminal 110 is easy to implement a schematic building shape, as described above, but the data density is relatively low and the clarity is low, and the data from the sensor is definitively acquired. Due to the nature of the method, it is difficult to obtain accurate point data at the boundary line of a building.

2D정보 수집단말(120)을 통해 획득되는 건축도면은 건물의 주요 경계선을 벡터화 한 것이므로, LiDAR(111) 데이터와의 융합을 통해 건물 내 공간정보를 생성하는데 매우 용이하게 사용될 수 있다.Since the architectural drawing obtained through the 2D information collection terminal 120 is a vectorized main boundary line of the building, it can be very easily used to generate spatial information in the building through fusion with the LiDAR 111 data.

특히, 건축도면은 건물 내부의 경계를 뚜렷하게 표현하기 때문에 앞서 언급한 바와 같이, GPS 신호를 수신하는데 어려움이 있는 실내의 공간정보 생성 시, 위치 정보를 제공할 수 있음은 물론, LiDAR(111) 데이터 획득이 어려운 경계 영역에 대한 공간정보를 보완하게 할 수 있다.In particular, since the architectural drawing clearly expresses the boundary inside the building, as mentioned above, when generating spatial information indoors where it is difficult to receive GPS signals, it is possible to provide location information as well as LiDAR (111) data. It is possible to supplement the spatial information on the boundary area that is difficult to obtain.

다만, 건축도면 내의 해당 경계면들은 동일한 하나의 레이어로 재구성되어야 하며, 건축도면과 LiDAR(111) 데이터의 축척 역시 유사하게 재구성되어야 하는 것이 바람직하다.However, it is preferable that the corresponding boundary surfaces in the architectural drawing should be reconstructed into the same single layer, and the scale of the architectural drawing and the LiDAR 111 data should be similarly reconstructed.

재구성된 건축도면의 레이어는 실제 수평좌표를 가지고 있으므로, 이를 통해 건물 내 사람 또는 차량의 이동 공간의 모든 경계점을 손쉽게 획득할 수 있다.Since the reconstructed architectural drawing layer has actual horizontal coordinates, it is possible to easily obtain all boundary points of the moving space of people or vehicles in the building.

이와 같이, LiDAR(111) 데이터의 3D 영상정보 및 위치정보와 건축도면의 2D 영상정보 및 위치정보를 융합하여 3차원 평면을 생성함으로써, 천장면, 벽면, 바닥면으로 이루어지는 건물 내 3D 공간정보를 보다 정확하고 용이하게 구축할 수 있다.In this way, by fusing 3D image information and location information of LiDAR (111) data with 2D image information and location information of architectural drawings to create a 3D plane, 3D spatial information in the building consisting of a ceiling surface, a wall surface, and a floor surface It can be built more accurately and easily.

이를 위해, 데이터 융합서버(130)는 데이터 전처리부(131), 데이터 정합부(132), 정합도 평가부(133), 모델링 전처리부(134), 높이 모델링부(135), 필터링부(136), 2차원 모델링부(137), 및 3차원 모델링부(138)의 구성을 포함한다.To this end, the data fusion server 130 includes a data preprocessing unit 131, a data matching unit 132, a matching degree evaluation unit 133, a modeling preprocessing unit 134, a height modeling unit 135, and a filtering unit 136. ), the 2D modeling unit 137, and the 3D modeling unit 138.

데이터 전처리부(131)는 3D정보 수집단말(110)로부터 전송되는 3차원 영상정보 및 그에 따른 위치정보와 2D정보 수집단말(120)로부터 전송되는 2차원 영상정보 및 그에 따른 위치정보를 가공하기 위해 그 각각을 전처리한다.The data preprocessing unit 131 is to process the 3D image information transmitted from the 3D information collection terminal 110 and the corresponding position information, and the 2D image information transmitted from the 2D information collection terminal 120 and the corresponding position information. Each of them is pretreated.

LiDAR(111) 데이터인 3차원 영상정보의 전처리 과정은 이상점을 제거하는 과정이며, 건축도면인 2차원 영상정보의 전처리 과정은 전체 도면에서 사람 또는 차량의 이동공간을 형성하는 부분의 공간레이어를 추출하는 과정이다.The preprocessing process of 3D image information, which is LiDAR(111) data, is a process of removing outliers, and the preprocessing process of 2D image information, which is an architectural drawing, is a spatial layer of the part that forms the moving space of a person or vehicle in the entire drawing It is a process of extraction.

우선, LiDAR(111) 데이터의 전처리 과정을 설명하면, 이상점 검출을 위해 기준이 되는 점밀도는 절대적 점밀도와 상대적 점밀도로 구분할 수 있다. 절대적 점밀도는 데이터 범위 전체의 밀도에 비하여 국부 영역의 밀도가 기준보다 작을 경우 이상점을 판별할 수 있으며, 상대적 점밀도는 이와 유사하게 국부 영역의 밀도를 기준과 비교하는 것이지만 이때의 기준은 전체 데이터의 밀도가 아닌 이웃하는 영역의 밀도를 의미한다. 상대적 점밀도를 이용하면 이상점이 아니지만 구조물의 형태에 따라 데이터 획득이 적어서 이상점으로 판단되는 오류를 방지할 수 있으나 모든 점에 대해 개별적으로 주변 점들의 개수를 확인하여 밀도를 계산하기 때문에 실용적이지 못하다. 따라서, 절대적 점밀도와 상대적 점밀도를 복합적으로 고려한 이상점 검출 알고리즘을 사용하는 것이 바람직하다.First, the preprocessing process of the LiDAR 111 data will be described, and the point density used as a reference for detecting an outlier can be classified into an absolute point density and a relative point density. Absolute point density can determine outliers when the density of the local area is less than the standard compared to the density of the entire data range, and the relative point density is similarly compared to the density of the local area with the standard, but the standard at this time is It means the density of neighboring areas, not the density of data. Relative point density is not an outlier, but data acquisition is small depending on the shape of the structure, so it can prevent errors that are judged as outliers, but it is not practical because the density is calculated by individually checking the number of surrounding points for all points. . Therefore, it is desirable to use an outlier detection algorithm in which the absolute point density and the relative point density are considered in combination.

한편, 건축도면의 전처리 과정을 설명하면, 건축도면은 사람 또는 차량이 이동할 수 있는 공간정보 뿐만 아니라 하중을 지지하는 보(기둥), 공간을 구분짓는 벽체, 배선 등의 설치물을 수용하는 공간과 같이 사람이나 차량이 이동할 수 없는 공간의 정보가 포함되어 있기 때문에 모델링 과정에 직접 적용시키기에는 적절치 않다. 이를 통해, 추출된 사람 또는 차량의 이동을 위한 공간정보들은 2차원 다각형의 형태인데 이들의 경계점들을 GIS 상용 소프트웨어를 사용하여 좌표를 추출함으로써 건축도면의 위치 좌표를 획득하도록 한다.On the other hand, when explaining the preprocessing process of architectural drawings, architectural drawings are spaces that accommodate installations such as beams (columns) that support loads, walls that divide space, wiring, as well as spatial information that people or vehicles can move. Since it contains information on spaces where people or vehicles cannot move, it is not suitable for direct application to the modeling process. Through this, the extracted spatial information for the movement of a person or vehicle is in the form of a two-dimensional polygon, and the coordinates of the boundary points are extracted using GIS commercial software to obtain the location coordinates of the architectural drawing.

데이터 정합부(132)는 전처리된 3D 영상정보와 2D 영상정보를 정합하는 것으로, LiDAR(111) 데이터가 가지고 있는 객체 인식 및 모델링 정보를 건축도면을 이용하여 객체의 경계정보를 명확하게 하여 정교화되도록 한다. 이러한 두 가지의 데이터 정합은 좌표계를 통일시키는 것을 선행하여야 한다. 그러나, 좌표계가 통일되더라도 미세한 오차가 발생할 수 있고 건물 모델링 과정에서는 그 미세한 오차가 크게 작용할 수 있으므로, 복수의 변환 과정을 거쳐 두 데이터가 완전히 중첩될 수 있도록 한다. 이를 위해, 두 데이터의 공액점을 선택하여 좌표변환을 수행한다.The data matching unit 132 matches the pre-processed 3D image information and 2D image information, so that the object recognition and modeling information contained in the LiDAR 111 data can be elaborated by clarifying the boundary information of the object using architectural drawings. do. These two data matching must precede the unification of the coordinate system. However, even if the coordinate system is unified, a minute error may occur, and the minute error may be large in the building modeling process, so that the two data can be completely overlapped through a plurality of transformation processes. To this end, coordinate transformation is performed by selecting the conjugated point of the two data.

구체적으로, 정합이란 동등하거나 유사한 것을 만들거나 찾아내는 것, 대응(correspondence)을 설정하는 것으로 정의할 수 있다. 다양한 분야에서 적용되는 정합기법은 크게 영역기반 정합, 형상기반 정합, 심볼릭(Symbolic) 정합 등으로 구별할 수 있으며, 각각의 방법은 유사도(similarity) 측정과 사용되는 정합원자(primitive)로 비교될 수 있다. 형상기반 정합에서 사용되는 객체는 특징점(interest point)과 엣지(Edge)이다. 일반적인 정합 순서는 객체를 추출하고, 가능한 정합 개체쌍을 선택하며, 변환 인자나 최종 개체 대응쌍을 추정하는 것이다. 객체 추정의 경우, 생성된 3D 선분의 2D와 3D에서의 그룹핑 작업이 이루어진다. 최종 3D 위치는 선분이 아니라 원래의 엣지화소를 이용할 수도 있다.Specifically, matching can be defined as making or finding something that is equal or similar, and establishing a correspondence. Matching techniques applied in various fields can be largely classified into area-based matching, shape-based matching, and symbolic matching, and each method can be compared with a similarity measurement and a primitive used. have. Objects used in shape-based registration are interest points and edges. A typical matching sequence is to extract objects, select possible matching pairs of entities, and estimate transform factors or final matching pairs. In the case of object estimation, the generated 3D segment is grouped in 2D and 3D. The final 3D position may use the original edge pixels rather than a line segment.

정합에 사용되는 제약조건으로 공액기하(epipolar geometry)가 있다. 두 데이터에서 추출된 선분은 대게 전체적으로 다른 형태로 나타나고 두 선분의 공통부분이 부분적으로 존재하므로, 선분 정합은 점 정합에 비해 다소 어렵다. 하지만 한 영상에서 나타난 선분은 공액기하와 건물의 높이 조건에 의해 정의되는 다른 데이터의 사변형 안에 적어도 부분적으로 대응선분이 존재해야 한다. 객체의 높이범위를 알면, 탐색공간은 최소·최대 높이에 의해 사변형 안에 존재해야 한다. 이 사변형에 일부분이라도 존재하는 모든 선분은 대응 선분이 될 수 있다. 매칭할 엣지(Edge)선분은 공액기하선과 어느 정도 큰(수직에 가까운) 교각을 가져야 한다. 그렇지 않으면, 영상 표정정보 오차는 추정된 디스패리티(disparity)에서 바이어스(bias)를 크게 할 수 있다.As a constraint used for matching, there is an epipolar geometry. Line segments extracted from the two data generally appear in different shapes as a whole, and since the common part of the two segments exists partially, line segment matching is somewhat more difficult than point matching. However, the line segment shown in one image must have a corresponding line segment at least partially within the quadrilateral of the other data defined by the conjugated geometry and the height condition of the building. Knowing the height range of the object, the search space must exist in the quadrilateral by the minimum and maximum heights. Any line segment that is partially present in this quadrilateral can be a corresponding line segment. The edge segment to be matched must have a conjugate geometry and a somewhat large (close to vertical) pier. Otherwise, the image expression information error may increase a bias in the estimated disparity.

입체영상을 이용한 엣지(Edge)정합은 두 가지로 구분할 수 있다. 첫 번째 접근법에서는 한 영상의 엣지와 다른 영상의 엣지집합을 직접 비교하고, 유사도함수에 따라 최선의 후보를 선택하는 것이다. 유사도는 방향, 길이, 엣지와 관련된 영역 정보 등의 엣지 속성을 비교한다. 두 번째 접근법에서는 구조적 정합(structural matching)에 의해 대응 엣지(Edge)를 찾는다. 구조적 정합에서는 두 구조기술(structural descriptions)의 변환식을 찾는다. 구조기술은 개체와 개체 사이의 기하학·위상학적 정보로 이루어진다.Edge registration using a 3D image can be classified into two types. In the first approach, an edge of one image and an edge set of another image are directly compared, and the best candidate is selected according to the similarity function. The similarity compares edge properties such as direction, length, and area information related to the edge. In the second approach, the corresponding edge is found by structural matching. In structural matching, we find the transformation equation of two structural descriptions. Structural technology consists of geometrical and topological information between objects and objects.

첨언하면, 영상정합 방법은 국부영역에 대한 밝기값의 유사성에 기반하는 영역기반방법(Aerial Based Matching), 추출된 선행 객체들 간의 모양의 유사성에 기반하는 형상기반방법(Feature Based Matching), 추출된 객체들 사이의 관계까지 고려하는 관계기반방법(Relational Matching) 등의 방법이 존재한다. 그러나, 3D 영상정보와 2D 영상정보의 정합은 동일한 부분에 대해 획득된 영상정보라 하더라도 관측지점의 차이, 경사나 기복에 의해 획득된 영상의 형상이 상당히 달라지기 때문에, 영상만으로는 동일지점을 정확히 찾아내기 어렵다. 특히 형상기반방법이나 관계기반방법은 경사나 기복에 따라 영상이 왜곡되어 투영되는 문제에 비교적 강인하게 동작하지만, 객체 추출에 시간이 많이 소요되고 또한 추출된 객체의 신뢰성이 낮은 문제점이 있으며, 영역기반방법은 알고리즘이 단순하고 비교적 신속하게 동작하지만 왜곡에 많은 영향을 받게 된다.Incidentally, the image matching method is an area-based method based on the similarity of brightness values to a local area (Aerial Based Matching), a feature-based method based on the similarity of shapes between the extracted preceding objects (Feature Based Matching), and the extracted There are methods such as relational matching that considers the relationship between objects. However, the matching of the 3D image information and the 2D image information is because the shape of the image acquired by the difference of the observation point, slope or undulation is considerably different even if the image information is acquired for the same part. It's hard to bet. In particular, the shape-based method or the relationship-based method is relatively robust against the problem of distorting and projecting images according to slopes or undulations, but it takes a lot of time to extract objects and has a problem of low reliability of the extracted objects. Although the algorithm is simple and operates relatively quickly, the method is highly affected by distortion.

본 발명의 실시예에서는 형상기반방법을 중심으로 3D 영상정보와 2D 영상정보를 정합과는 과정을 상정하여 도시하고 설명하였으나, 이에, 한정되는 것은 아니며, 영역기반방법 또는 관계기반방법을 비롯한 여타의 영상 정합방법을 사용하는 것 역시 본 발명의 기술적 사상에 포함되는 것은 자명하다 할 것이다.In the embodiment of the present invention, the process of matching 3D image information and 2D image information is assumed and described, centering on the shape-based method, but is not limited thereto, and other methods including the area-based method or the relationship-based method. It will be apparent that the use of the image matching method is also included in the technical idea of the present invention.

정합도 평가부(133)는 LiDAR(111) 데이터와 건축도면의 정합 결과를 평가하여 자율주행 차량의 이동 경로에 대한 모델링 정확도를 높일 수 있다. 데이터의 정합을 수행한 결과는 여러 가지 원인으로 인해 항상 성공적이지는 않다. 그러므로, 정합결과의 품질을 검증하여 정합을 통해 생성된 각각의 정합대상점에 대응하는 공액점이 올바르게 선택되었는지를 확인해야 한다. The consistency evaluation unit 133 may increase modeling accuracy for a moving path of an autonomous vehicle by evaluating the result of matching the LiDAR 111 data and the architectural drawing. The result of performing data matching is not always successful due to various reasons. Therefore, it is necessary to verify the quality of the matching result to confirm whether the conjugated point corresponding to each matching target point generated through matching is correctly selected.

정합품질을 평가하는 대표적인 방법은 영역기반방법을 이용하여 대상점과 대응하는 공액점 주변의 국부영역의 밝기값의 유사성을 나타내는 예를 들어 밝기값의 상관계수를 계산하는 것이다.A typical method of evaluating the matching quality is to calculate the correlation coefficient of the brightness value, for example, indicating the similarity of the brightness value of the local area around the target point and the corresponding conjugated point using a region-based method.

예를 들어, 관측값과 계산값의 차이인 잔차로부터 계산되는 분산요소의 추정값과 공액위치 추정값의 표준편차를 계산한다. 분산요소의 추정값은 기준영상의 정합대상점과 이에 대응되어 최종적으로 결정된 공액점 주변의 밝기값의 평균적인 차이를 나타낸다. 분산요소의 추정값이 작을수록 밝기값의 차이가 작다는 것으로 결정된 공액점이 참값에 근접할 확률이 크다.For example, the standard deviation of the estimated value of the variance factor and the estimated value of the conjugate position calculated from the residual, which is the difference between the observed value and the calculated value, is calculated. The estimated value of the variance factor represents the average difference between the matching target point of the reference image and the brightness value around the conjugated point finally determined corresponding thereto. The smaller the estimated value of the variance factor is, the greater the probability that the conjugated point, which is determined to have a smaller difference in brightness, approaches the true value.

이와 같이, 3D 영상정보 및 위치정보와 2D 영상정보 및 그에 따른 위치정보가 정합되면, 정합된 두 영상정보를 이용하여 건물 내 공간정보를 생성하기 위한 모델링 과정을 수행한다.In this way, when 3D image information and location information, 2D image information, and location information corresponding thereto are matched, a modeling process for generating spatial information in the building is performed using the matched two image information.

모델링 전처리부(134)는 정합된 두 데이터를 이용하여 3차원 모델링 과정을 하기 위한 전처리 과정을 수행하는 것으로, 3D 영상정보와 2D 영상정보가 정합된 차량의 자율주행 공간을 나타내는 경로의 점군 데이터는 경로의 공간을 감싸는 천장, 벽, 바닥 등의 외부구조물로 인해 실내 시설물 및 노이즈를 시각적으로 확인하기 어려우며, 제거를 위해서는 비효율적인 수작업이 필요하다.The modeling preprocessing unit 134 performs a preprocessing process for performing a 3D modeling process using the matched two data, and the point cloud data of a path representing the autonomous driving space of a vehicle in which 3D image information and 2D image information are matched is It is difficult to visually check indoor facilities and noise due to external structures such as ceilings, walls, and floors surrounding the space of the path, and inefficient manual work is required to remove them.

따라서, 주행 경로의 도면을 생성하기 위해 실내공간의 높이를 측정하고 노이즈를 제거하여야 한다. 이에, 주차 공간을 일정한 간격으로 분할하고, 분할된 공간 내의 포인트 데이터들의 3차원 좌표값들을 저장한다.Therefore, it is necessary to measure the height of the indoor space and remove noise in order to generate a drawing of the driving route. Accordingly, the parking space is divided at regular intervals, and 3D coordinate values of point data in the divided space are stored.

LiDAR(111) 측량을 통하여 획득된 후, 2D 영상정보와의 정합 과정을 거친 점군데이터들은 주로 직교 좌표계로 생성된다. 이러한 직교 좌표값을 3차원 좌표값 형태로 저장하며, 정의된 점 간격으로 생성된 포인트는 가까운 포인트 데이터들의 3차원 좌표를 저장하므로, 주차 공간을 동일한 폭을 가지는 박스모양의 단위 공간(box threshold)으로 분할하는 효과가 있다.Point cloud data obtained through LiDAR 111 surveying and then matched with 2D image information are mainly generated in a Cartesian coordinate system. Since these orthogonal coordinate values are stored in the form of 3D coordinate values, and points generated at defined point intervals store 3D coordinates of nearby point data, the parking space is a box-shaped unit space having the same width. It has the effect of dividing into.

높이 모델링부(135)는 높이 값을 갖지 못한 2차원의 정합된 두 데이터의 높이 값을 생성하는 것으로, 주차 공간에서 바닥과 천장은 주로 평면체이며 동일한 위치에서 각각 최소, 최대 높이 값을 가지는 포인트 데이터로 구성된다. 실내 공간의 높이는 천장과 바닥 모델의 높이 차로 정의된다. 실내 높이를 측정하기 위해 평면의 포인트로부터 최대 높이 값과 최소 높이 값을 가지는 포인트 데이터들을 추출하고 RANSAC(RANdom and SAmpling Consensus) 알고리즘을 이용하여 천장과 바닥의 평면 모델을 구축한다. The height modeling unit 135 generates height values of two two-dimensional matched data that do not have a height value, and the floor and ceiling are mainly planar bodies in the parking space, and points having minimum and maximum height values respectively at the same location. It consists of data. The height of the interior space is defined by the difference between the height of the ceiling and the floor model. In order to measure the indoor height, point data having the maximum height value and the minimum height value are extracted from the point of the plane, and a floor plan model is constructed using the RANSAC (RANdom and SAmpling Consensus) algorithm.

잠시 RANSAC 알고리즘에 대해 약술하면, RANSAC은 노이즈를 포함하는 점군데이터로부터 정의된 모델을 구축하기 위한 정상치(inlier)를 찾는 알고리즘으로, 천장의 평면모델을 구축하기 위해서 각각의 평면 포인트로부터 최대 높이값을 가지는 포인트 데이터를 추출하며, 바닥의 평면모델을 생성하기 위해서는 최소 높이 값을 가지는 포인트 데이터들을 추출한다. RANSAC은 가설과 검정단계를 반복하여 평면 모델을 생성한다. 가설단계에서는 추출된 포인트 데이터로부터 일정 크기의 샘플을 구성하고, 평면 모델을 생성하기 위해 3개의 포인트를 무작위로 선택한다. 평면모델은 함수와 변수에 의하여 결정되며, 검정단계에서는 평면모델을 기준으로 포인트 데이터들의 오차를 계산하여 모델의 적정성을 평가한다.Briefly about the RANSAC algorithm, RANSAC is an algorithm that finds an inlier to build a model defined from point cloud data including noise. In order to construct a plan model of the ceiling, the maximum height value is calculated from each plane point. Branch point data is extracted, and point data having a minimum height value is extracted to create a floor plan model. RANSAC creates a flat model by repeating the hypothesis and test steps. In the hypothesis stage, a sample of a certain size is constructed from the extracted point data, and three points are randomly selected to generate a planar model. The plane model is determined by functions and variables, and in the test step, the adequacy of the model is evaluated by calculating the error of point data based on the plane model.

포인트 데이터들은 생성된 모델로부터 일정한 경계값 이내에 존재할 때, 정상치로 분류되며 Consensus Set(CS)으로 표현된다.When point data exist within a certain boundary value from the created model, it is classified as a normal value and is expressed as a Consensus Set (CS).

주차 공간은 다양한 크기와 형태의 노이즈를 포함하므로 천장 또는 바닥의 평면모델을 생성할 때, 여러 개의 CS를 가질 수 있다. 높이 모델링에서는 최대 크기를 가지는 CS가 천장 또는 바닥을 표현한다고 가정한다. 생성된 천장과 바닥 평면 모델은 평면 좌표를 입력변수로 해당 지점의 바닥과 천장의 높이를 계산하며, 해당 지점의 높이는 두 값의 차이 값(Difference value)이다.Since parking spaces contain noise of various sizes and shapes, it is possible to have multiple CSs when creating a plan model of a ceiling or floor. In height modeling, it is assumed that the CS with the maximum size represents the ceiling or the floor. The generated ceiling and floor plan model calculates the height of the floor and the ceiling of the corresponding point using the plan coordinates as input variables, and the height of the corresponding point is the difference value between the two values.

필터링부(136)는 생성되는 주차 공간 내의 노이즈를 제거하는 것으로, 주차 공간에서 벽면은 주로 수직 평면체로 최소 높이 값과 최대 높이 값 사이의 포인트 데이터들로 이루어진다. 반면, 주행 경로의 과속 방지턱, 주차 블럭 등을 비롯한 장애물 등은 노이즈로 분류되며, 이러한 노이즈는 대부분 바닥위에 존재하여 최대 높이 값을 가지는 포인트 데이터를 포함하지 않는다. 따라서, 천장 평면 모델로부터 일정한 거리를 가지는 오프셋 공간(Offset space)을 생성하여 노이즈 식별의 기준으로 설정한다.The filtering unit 136 removes noise in the generated parking space, and the wall surface in the parking space is mainly a vertical plane and is composed of point data between the minimum height value and the maximum height value. On the other hand, obstacles such as speed bumps and parking blocks of the driving path are classified as noise, and most of these noises exist on the floor and do not include point data having a maximum height value. Accordingly, an offset space having a certain distance from the ceiling plane model is created and set as a reference for noise identification.

노이즈 제거 과정에서는 각각의 평면 포인트들로부터 바닥과 천장 평면모델 사이의 포인트 데이터들을 추출하고, 오프셋 공간 내에 포인트 데이터들의 존재 유무를 확인한다. 포인트 데이터들이 오프셋 공간 내에 존재할 경우 벽으로 간주되며, 반대로 포인트 데이터가 존재하지 않은 경우 노이즈로 간주하여 바닥과 천장 평면모델 사이의 포인트 데이터들을 제거함으로써 노이즈를 제거한다.In the noise removal process, point data between the floor and ceiling plan models are extracted from each plane point, and the presence or absence of point data in the offset space is checked. If point data exists in the offset space, it is regarded as a wall, and if point data does not exist, it is regarded as noise, and noise is removed by removing point data between the floor and ceiling plan models.

2차원 모델링부(137)는 2차원 평면에 투영된 점군데이터에 외곽선을 추출격자를 이용하여 평면도를 생성한다. 그러나, 격자를 이용해 추출된 평면도의 외곽선은 다수의 선분(Line segments)으로 구성되며 톱니모양의 형상을 가지므로 도면의 정형화를 위한 정제과정이 필요하다.The 2D modeling unit 137 generates a plan view using an outline of the point group data projected on the 2D plane using an extraction grid. However, since the outline of the plan, extracted using the grid, is composed of a number of line segments and has a serrated shape, a refinement process is required for standardization of the drawing.

정제과정은 분류 과정과 정규화 과정으로 구성되며, 분류는 초기 평면도의 선분들을 동일 평면에 속하는 선분들로 분류하는 과정이다. 정규화는 분류과정에서 재구성된 평면도의 선분들이 평행성, 직교성, 교차성 등의 제약 조건을 만족하도록 조정(Adjustment)하는 과정이다.The refining process consists of a classification process and a normalization process, and the classification is a process of classifying the segments of the initial plan into segments belonging to the same plane. Normalization is a process of adjusting the segments of the plan view reconstructed in the classification process to satisfy the constraints such as parallelism, orthogonality, and intersection.

3차원 모델링부(138)는 2차원 모델링부(137)를 통해 구축된 평면도와 모델링 전처리부(134)를 통해 측정된 높이 값과 노이즈 데이터를 이용하여 생성된다. 전처리 과정에서는 높이 값 측정을 위해 천장과 바닥의 평면모델을 생성한다. 평면모델들의 입력 변수는 평면도 코너의 평면좌표 값으로 해당 지점의 천장과 바닥의 높이를 계산한다. 3차원 프레임 모델은 2차원 평면도의 코너에서 계산된 높이를 이용하여 생성될 수 있다.The 3D modeling unit 138 is generated using the floor plan built through the 2D modeling unit 137 and the height value and noise data measured by the modeling preprocessor 134. In the pretreatment process, plan models of the ceiling and floor are created to measure the height values. The input variables of the plan models are the plane coordinate values of the floor plan corners, and the heights of the ceiling and the floor of the corresponding point are calculated. The 3D frame model may be generated using the height calculated at the corner of the 2D plan view.

하지만, 3차원 와이어프레임 모델은 주차 내부공간의 외부면만을 표현한다. 전처리 과정에서 식별된 노이즈 데이터는 주차공간을 묘사함은 물론, 공간 내 객체의 형상과 위치를 표현하므로 와이어 프레임 모델과 결합되어 세부 모델링에 이용된다.However, the 3D wireframe model represents only the outer surface of the parking space. The noise data identified in the preprocessing process not only describe the parking space, but also represent the shape and position of objects in the space, so it is combined with the wire frame model and used for detailed modeling.

아래에서는, 위치추정 서버를 통해 자율주행 차량의 위치를 추정하는 기술에 대해 설명하기로 한다.In the following, a technology for estimating the location of an autonomous vehicle through a location estimation server will be described.

도 3은 본 발명의 일 실시예에 따른 위치 추정서버의 세부 구성을 나타내는 블럭도이다.3 is a block diagram showing a detailed configuration of a location estimation server according to an embodiment of the present invention.

위치 추정서버(140)는 LiDAR(111) 데이터를 통해 획득된 3D 영상정보에 기구축된 건축도면의 2D 영상정보를 융합하여 GPS 신호를 수신할 수 없는 건물 내 공간정보를 보다 정확하게 구축함으로써, 건물 내 자율주행 차량의 위치정보를 명확히 추정하여 주행 차량의 자율 주차를 가능하게 한다.The location estimation server 140 more accurately constructs spatial information in buildings that cannot receive GPS signals by fusing 3D image information obtained through LiDAR 111 data with 2D image information of the structured architectural drawings. By clearly estimating the location information of my self-driving vehicle, it enables autonomous parking of the driving vehicle.

보통 초보 운전자뿐만 아니라 일반 운전자에게도 주차는 많은 주의를 요한다. 차량의 위치와 근처 지형지물까지의 거리, 조향 각도와 차량의 예상 진로의 관계 등을 운전자의 감각에 의존하여 판단해야 하기 때문이다. 좁은 공간에서의 주차는 운전자의 순간적인 위치 판단 실수나 핸들 조작의 실수로 인해 다른 차량이나 장애물과 충돌을 일으킬 수 있다. 이로 인한 경제적 손실이나 운전자들의 주차에 대한 중압감을 해소하기 위해서는 주차 시에 정확한 차량의 위치와 근처 지형지물까지의 거리 판단을 통해 주차 위치까지의 가능 경로를 판단하고, 핸들의 정확한 제어를 도울 수 있어야 한다.Parking is a lot of attention to general drivers as well as beginner drivers. This is because the relationship between the position of the vehicle and the distance to nearby landmarks, the steering angle and the expected course of the vehicle must be determined based on the driver's senses. Parking in a narrow space may cause a collision with other vehicles or obstacles due to a driver's instantaneous position determination error or steering wheel manipulation error. In order to relieve the economic loss caused by this and the pressure on the driver's parking, it is necessary to determine the possible path to the parking position by determining the exact vehicle location and the distance to nearby landmarks when parking, and to help the precise control of the steering wheel. do.

상술한 바와 같이, 주행 차량이 자동으로 주차하기 위해서는 첫째, 차량의 위치와 주차위치, 장애물의 위치를 파악하고 둘째, 장애물을 피하여 정확한 주차 위치에 도달할 수 있는 차량의 이동 경로를 산출하고, 셋째, 생성된 경로를 따라 차량이 이동할 수 있도록 핸들을 제어해야 한다.As described above, in order for the driving vehicle to park automatically, first, identify the position of the vehicle, the parking position, and the position of the obstacle, and second, calculate the movement path of the vehicle to reach the correct parking position by avoiding the obstacle, and third. In this case, the steering wheel must be controlled so that the vehicle can move along the generated path.

상술한 기능을 수행하기 위하여, 본 발명의 위치 추정서버(140)는 평면지도 생성부(141), 장애물 감지부(142), 차량 모델링부(143) 및 경로 생성부(144)의 구성을 포함한다.In order to perform the above-described function, the location estimation server 140 of the present invention includes a flat map generation unit 141, an obstacle detection unit 142, a vehicle modeling unit 143, and a path generation unit 144. do.

평면지도 생성부(141)는 2차원 모델링부(137) 또는 3차원 모델링부(138)에서 생성된 정합된 영상정보를 이용하여 건물 내 차량의 이동 경로를 비롯한 주차 공간을 평면지도화 하는 것으로, 차량에 설치된 LiDAR(111), CCD 카메라(112) 등의 위치를 기준으로 한 평면 좌표계 상에 주차선의 위치를 표현한다. 이를 통해, 차량의 정확한 주차 위치와 현재 차량의 위치 관계를 쉽게 표현할 수 있다. The flat map generation unit 141 maps a parking space including a moving route of a vehicle in a building using the matched image information generated by the 2D modeling unit 137 or the 3D modeling unit 138, The position of the parking line is expressed on a plane coordinate system based on the positions of the LiDAR 111 and the CCD camera 112 installed in the vehicle. Through this, it is possible to easily express the relationship between the exact parking position of the vehicle and the current vehicle position.

이와 같은 표현기법은 순차적인 영상의 입력에 있어서도 큰 강점을 가지고 있다. 차량이 이동할 때, 카메라를 통해 입력되는 1차적인 영상은 계속해서 변화한다. 그러나, 3차원의 세계를 2차원적인 영상으로 받아들이게 될 때, 현재 차량의 위치를 계산하거나 이전 영상정보와 현재의 영상정보를 비교하는데 많은 연산이 필요하다. 한편, 본 발명의 평면지도 생성부(141)는 평면 좌표계로 변환한 후에 이전 영상 정보의 업데이트를 코릴레이션(Correlation) 비교를 통해 변환된 영상을 이동된 위치에 덧씌움으로써, 평면화된 영상정보를 손쉽게 업데이트 할 수 있다.This expression technique has a great advantage in sequential image input. As the vehicle moves, the primary image input through the camera continuously changes. However, when a three-dimensional world is received as a two-dimensional image, a lot of calculations are required to calculate the position of the current vehicle or to compare the previous image information with the current image information. On the other hand, the planar map generator 141 of the present invention converts the image information into a plane coordinate system and then updates the previous image information by overlaying the transformed image on the moved position. It can be easily updated.

장애물 감지부(142)는 자율주행 차량의 이동 경로 및 주차 공간의 장애물을 감지하여 이동 가능 지역 및 주차 가능 지역을 판별한다.The obstacle detection unit 142 detects a moving path of an autonomous vehicle and an obstacle in a parking space to determine a movable area and an available parking area.

영상을 이용하여 장애물을 감지하기 위해서는 장애물의 종류를 우선 정의해야 한다. 주차시 주요한 장애물 요소는 다른 주차 공간에 주차되어 있는 차량이 될 것이다. 차량 외에도 사람 및 기타 물건들이 존재할 수 있으나, 이동중인 차량 또는 주차중인 차량을 주요한 장애물로 보고 장애물을 감지한다.In order to detect an obstacle using an image, the type of the obstacle must first be defined. The main obstacle when parking will be a vehicle parked in another parking space. In addition to the vehicle, there may be people and other objects, but the vehicle in motion or the vehicle being parked is regarded as a major obstacle and the obstacle is detected.

차량의 밑부분에는 그림자가 발생하여 도로면과는 다른 성질을 가지는 점을 이용하여 엣지(Edge)를 추출하고 엣지(Edge)에 의해 도로 위의 차량을 탐지할 수 있다. 이와 같은 방법으로 주차선 내에 존재하는 차량의 유무를 판단하여 한 주차선 내부 전체를 장애물로 인식하도록 한다. A shadow is generated at the bottom of the vehicle, and an edge can be extracted using a point having a property different from that of the road surface, and a vehicle on the road can be detected by the edge. In this way, the presence or absence of a vehicle in the parking line is determined to recognize the entire interior of a parking line as an obstacle.

우선, 주차선을 감지하기 위하여 원 영상으로부터 주차선의 후보를 나타내는 이진 영상을 색상의 임계값(color threshold)을 통해 만들어 낸다. 산발적인 잡음을 효과적으로 제거하기 위해, 모폴로지(Morphology) 기법인 Erosion(침식연산)과 Dilation(팽창연산)을 연속적으로 수행하여 잡음이 없는 깨끗한 영상을 구한다.First, in order to detect the parking line, a binary image representing the candidate of the parking line is created from the original image through a color threshold. In order to effectively remove sporadic noise, a clean image without noise is obtained by successively performing Erosion and Dilation, which are Morphology techniques.

영상 중 직선 성분을 찾아내기 위해 체인 코드(Chain code)를 이용, 직선성분을 찾아 내고 직선성분을 이용해 사각형의 영역인 주차 구획을 이진 영상으로 만든다.In order to find the linear component in the image, a chain code is used to find the linear component, and the parking section, which is a rectangular area, is made into a binary image using the linear component.

장애물인 차량을 감지하기 위해 각 주차 구획 내의 영역에 대해 엣지(Edge)를 추출한다. 추출된 엣지(Edge)를 임계값을 적용하여 영역 내의 엣지(Edge)의 개수를 구하고, 엣지(Edge)의 개수가 일정 개수 이상인 주차 구획을 장애물이 존재하는 주차 구획으로 판단한다.In order to detect a vehicle that is an obstacle, an edge is extracted for an area within each parking segment. The number of edges in the area is calculated by applying a threshold value to the extracted edges, and a parking section in which the number of edges is greater than a certain number is determined as a parking section in which an obstacle exists.

차량 모델링부(143)는 차량의 위치를 계산할 수 있는 움직임 모델을 산출하는 것으로, 평면지도 상에서 차량의 위치를 정확히 파악하기 위해서는 차량의 조향각과 속도를 통해 차량의 위치를 계산할 수 있는 모델이 필요하다. 차량의 회전 반경의 중심은 두 뒷바퀴의 중심이므로, 기본적으로 앞바퀴의 조향각과 차량의 길이만 고려한 2륜 차량의 모델을 이용하여 4륜 차량의 회전궤적을 구하는 것과 동일하게 산출할 수 있다.The vehicle modeling unit 143 calculates a motion model capable of calculating the location of the vehicle, and in order to accurately identify the location of the vehicle on a flat map, a model capable of calculating the location of the vehicle through the steering angle and speed of the vehicle is required. . Since the center of the vehicle's turning radius is the center of the two rear wheels, it can be calculated in the same way as calculating the rotation trajectory of a four-wheel vehicle using a model of a two-wheeled vehicle that considers only the steering angle of the front wheel and the length of the vehicle.

경로 생성부(144)는 장애물이 인식된 평면지도 상에 자율주행 차량의 주차 경로를 생성하는 것으로, 장애물, 거리, 거리에 따른 조향각의 변화를 기준으로 경로가 생성되는 것이 바람직하다. 구체적으로, 각 경로상의 장애물과는 거리가 멀어야 하고, 경로를 따라 주행시에 조향각의 변화는 작아야 하며, 최종 위치까지의 거리는 가까운 경로가 생성되도록 하는 것이 바람직하다.The path generator 144 generates a parking path of the autonomous vehicle on a flat map in which an obstacle is recognized, and it is preferable that the path is generated based on a change in steering angle according to an obstacle, a distance, and a distance. Specifically, it is desirable to have a distance from obstacles on each path, a change in a steering angle when traveling along a path, and a distance to a final position to generate a close path.

본 실시예에서는 주행 차량의 자동주차 경로를 생성하는 방법을 차량이 일정한 회전 중심을 기준으로 선회하는 점을 이용하여 설명하였으나, 이는 하나의 실시예에 불과하며 익히 공지된 여타의 다른 경로 생성 방법이 적용되어 선별적으로 사용되는 것 역시 본 발명의 기술적 사상에 포함되는 것은 물론이다.In this embodiment, a method of generating an automatic parking path of a driving vehicle has been described using the point that the vehicle turns based on a certain rotational center, but this is only one embodiment, and other well-known path generation methods are It goes without saying that what is applied and used selectively is also included in the technical idea of the present invention.

한편, 본 발명의 핵심적인 기술사상은 3D 영상정보와 2D 영상정보를 융합하여 건물 내부의 공간정보를 생성함으로써, 그 공간정보 내 차량의 정확한 위치와 주차위치를 비롯한 자동주차 경로 내의 차량의 위치를 추정하는데 그 목적이 있으므로, 앞서 설명한 주행 차량이 자동으로 주차하기 위해 필요한 요건들 중, 셋째, 생성된 경로를 따라 차량이 이동할 수 있도록 핸들을 제어하는 조향 과정에 대해서는 그 상세한 설명을 생략하기로 한다.On the other hand, the core technical idea of the present invention is to create spatial information inside the building by fusing 3D image information and 2D image information, so that the location of the vehicle in the automatic parking route including the exact position and parking position of the vehicle in the spatial information For the purpose of estimating, the detailed description of the steering process of controlling the steering wheel so that the vehicle can move along the generated path among the requirements required for the vehicle to park automatically as described above will be omitted. .

이하에서는, 본 발명의 실내 공간정보 데이터를 융합하여 자율주행 차량의 위치를 추정하는 방법에 대해 설명하기로 한다.Hereinafter, a method of estimating the position of an autonomous vehicle by fusing indoor spatial information data according to the present invention will be described.

도 4는 본 발명의 일 실시예에 따른 실내 공간정보 데이터 융합을 통한 위치추정 방법을 나타내는 흐름도이다.4 is a flowchart illustrating a method of estimating a location through fusion of indoor spatial information data according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 본 발명의 실내 공간정보 데이터 융합을 통한 위치추정 방법은, 실내 공간정보 데이터를 융합시키는 방법과 자율주행 차량의 위치를 추정하는 방법으로 크게 구별된다.As shown in FIG. 4, the method of estimating a location through fusion of indoor spatial information data of the present invention is largely divided into a method of fusion of indoor spatial information data and a method of estimating the position of an autonomous vehicle.

우선, 실내 공간정보 데이터를 융합시키는 방법(S1000)에 대해 설명하면 아래와 같다.First, a method of fusing indoor spatial information data (S1000) will be described below.

자율주행 차량에 설치된 3D정보 수집단말(110)을 통해 건물 내 차량의 이동경로와 주차공간의 영상정보 및 그 위치정보가 포함된 3D 영상정보를 수집하여 데이터 융합서버(130)로 전송한다.(S1100)Through the 3D information collection terminal 110 installed in the autonomous vehicle, 3D image information including image information of the moving path and parking space of the vehicle in the building and the location information is collected and transmitted to the data fusion server 130. S1100)

이때, 3D정보 수집단말(110)은 LiDAR(111) 또는 CCD 카메라(112)를 포함하는 영상정보 수집모듈과, 위성항법장치(113)(GPS) 및 관성항법장치(114)(INS)를 포함하는 위치정보 수집모듈의 구성을 포함한다.At this time, the 3D information collection terminal 110 includes an image information collection module including a LiDAR 111 or a CCD camera 112, a satellite navigation device 113 (GPS) and an inertial navigation device 114 (INS). It includes the configuration of the location information collection module.

또한, 자율주행 차량에 설치된 2D정보 수집단말(120)은 건물 내 건물정보 송신단말 또는 GIS 외부서버와 유·무선 통신하여 건물의 건축도면 정보를 수집하여 역시 데이터 융합서버(130)로 전송한다.(S1200)In addition, the 2D information collection terminal 120 installed in the autonomous vehicle collects architectural drawing information of the building through wired/wireless communication with a building information transmission terminal or a GIS external server in the building, and transmits it to the data fusion server 130. (S1200)

이때, 2D정보 수집단말(120)은 NFC 통신, RFID 통신, 지그비 통신, Wi-Fi 통신 등의 근거리 통신을 이용하여 건물 내 정보 송신용 단말로부터 건축도면 정보를 수집함은 물론, LAN 또는 WAN 통신 등의 원거리 통신을 이용하여 외부서버로부터 건축도면 정보를 수집한다.At this time, the 2D information collection terminal 120 collects architectural drawing information from the terminal for transmitting information in the building using short-range communication such as NFC communication, RFID communication, Zigbee communication, and Wi-Fi communication, as well as LAN or WAN communication. It collects architectural drawing information from an external server using remote communication such as.

한편, 3D정보 수집단말(110)과 2D정보 수집단말(120)로부터 3D 영상정보와 2D 영상정보를 수신한 데이터 융합서버(130)는 3D 영상정보에 2D 영상정보를 융합시켜 자율주행 차량의 이동경로 및 주차공간의 공간정보를 생성한다.(S1300)Meanwhile, the data fusion server 130 receiving 3D image information and 2D image information from the 3D information collection terminal 110 and the 2D information collection terminal 120 combines the 2D image information with the 3D image information to move the autonomous vehicle. Generate spatial information of the route and parking space (S1300)

3D 영상정보와 2D 영상정보를 정합하기 위해, 데이터 전처리부(131)는 수신된 3D 영상정보는 이상점을 제거하고, 2D 영상정보는 건축도면 내 자율주행 차량의 이동경로 및 주차공간을 구획하는 공간레이어를 추출하여, 수신된 두 영상정보를 전처리한다.(S1310)In order to match 3D image information and 2D image information, the data preprocessing unit 131 removes outliers from the received 3D image information, and divides the moving path and parking space of the autonomous vehicle in the architectural drawing. The spatial layer is extracted, and the received two image information is preprocessed (S1310).

여기서, 3D 영상정보의 전처리 과정은 절대적 점밀도와 상대적 점밀도를 복합적으로 고려하여 이상점을 검출하는 것이 바람직하며, 2D 영상정보의 전처리 과정은 사람 또는 차량의 이동 여부에 따른 공간을 구획하여 차량의 이동 또는 주차를 위한 공간레이어를 추출한다.Here, in the preprocessing process of 3D image information, it is preferable to detect outliers by considering the absolute point density and relative point density in combination, and the preprocessing process of 2D image information is to divide a space according to whether a person or a vehicle is moving. The spatial layer for moving or parking is extracted.

전처리된 3D 영상정보와 2D 영상정보는 좌표계를 통일시키는 것은 물론, 공액점을 선택하여 좌표변환을 수행함으로써, 3D 영상정보와 2D 영상정보가 완전히 중첩될 수 있도록 한다.(S1320)The preprocessed 3D image information and 2D image information not only unify the coordinate system, but also perform coordinate transformation by selecting a conjugated point, so that the 3D image information and the 2D image information can be completely overlapped (S1320).

예를 들어, 형상기반 정합법을 이용하여 두 영상정보를 정합할 때에는, 우선 객체를 추출하고, 가능한 정합 개체쌍을 선택하며, 변환 인자나 최종 개체 대응쌍을 추정한다.For example, when matching two image information using a shape-based matching method, an object is first extracted, a possible matching entity pair is selected, and a transformation factor or a final entity correspondence pair is estimated.

두 영상정보가 정합되면 정합도를 높이기 위해, 공액점이 올바르게 선택되었는지를 확인하여 정합 결과를 평가한다.(S1330)When the two image information are matched, the matching result is evaluated by checking whether the conjugate point is correctly selected in order to increase the degree of matching. (S1330)

구체적으로, 영역기반방법을 이용하여 대상점과 대응하는 공액점 주변의 국부영역의 밝기값의 유사성을 나타내는 예를 들어 밝기값의 상관계수를 계산한다.Specifically, a correlation coefficient of, for example, a brightness value indicating the similarity of the brightness value of the local region around the target point and the corresponding conjugated point is calculated using the region-based method.

3D 영상정보와 2D 영상정보가 하나의 좌표계 상에 위치하는 정합과정을 거치면, 정합된 두 영상정보를 이용하여 모델링 과정을 수행한다.(S1400)When 3D image information and 2D image information go through a matching process in which the coordinate system is located, a modeling process is performed using the matched two image information (S1400).

모델링 과정을 수행하기 위해 정합된 두 영상에 포함된 노이즈를 제거하며, 직교 좌표값을 이용하여 주차 공간을 동일한 폭을 가지는 박스모양의 단위 공간(box threshold)으로 분할한다.(S1410)In order to perform the modeling process, noise included in the two matched images is removed, and the parking space is divided into box-shaped unit spaces (box thresholds) having the same width by using orthogonal coordinate values (S1410).

정합된 두 영상정보에서 최대 높이값과 최소 높이값을 가지는 포인트 데이터들을 추출하여 그 높이 차를 이용, 공간의 높이 값을 산출하며, RANSAC 알고리즘을 이용하여 천장과 바닥의 평면 모델을 구축한다.(S1420)Point data having the maximum height value and the minimum height value are extracted from the matched two image information, the height difference is used to calculate the height value of the space, and a plan model of the ceiling and the floor is constructed using the RANSAC algorithm. S1420)

여기서, RANSAC 알고리즘은 가설과 검정단계를 반복하여 평면 모델을 생성하며, 가설단계에서는 추출된 포인트 데이터로부터 일정 크기의 샘플을 구성하고, 평면 모델을 생성하기 위해 3개의 포인트를 선택한다. 평면모델은 함수와 변수에 의하여 결정되며, 검정단계에서는 평면모델을 기준으로 포인트 데이터들의 오차를 계산하여 모델의 적정성을 평가한다.Here, the RANSAC algorithm creates a plane model by repeating the hypothesis and test steps, and in the hypothesis step, a sample of a certain size is constructed from the extracted point data, and three points are selected to generate the plane model. The plane model is determined by functions and variables, and in the test step, the adequacy of the model is evaluated by calculating the error of point data based on the plane model.

주행 경로 또는 주차 경로 상의 과속 방지턱, 주차 블럭 등을 비롯한 장애물을 노이즈로 식별하여 제거한다. (S1430)Obstacles including speed bumps and parking blocks on the driving path or parking path are identified as noise and removed. (S1430)

여기서, 장애물은 최대 높이값 또는 최소 높이값을 갖지 않는 상태이며, 최대 높이값과 최소 높이값을 갖는 포인트 데이터들은 벽면으로 간주하고, 최대 또는 최소 높이값을 갖지 않은 데이터들은 장애물로 분류한다.Here, the obstacle does not have a maximum height value or a minimum height value, point data having a maximum height value and a minimum height value are regarded as a wall surface, and data not having a maximum or minimum height value are classified as obstacles.

두 영상정보가 정합되어 형성된 2차원 평면에 투영된 점군데이터의 외곽선을 추출하여 평면도를 생성한다.(S1440)A plan view is generated by extracting the outline of the point cloud data projected on the two-dimensional plane formed by matching the two image information (S1440).

여기서, 생성된 평면도는 정형화를 위한 정제과정을 필요로 하며, 정제과정은 분류 과정과 정규화 과정으로 구성되며, 분류는 초기 평면도의 선분들을 동일 평면에 속하는 선분들로 분류하는 과정이다. 정규화는 분류과정에서 재구성된 평면도의 선분들이 평행성, 직교성, 교차성 등의 제약 조건을 만족하도록 조정(Adjustment)하는 과정이다.Here, the generated plan view requires a refinement process for formalization, the refinement process consists of a classification process and a normalization process, and the classification is a process of classifying line segments of the initial plan into line segments belonging to the same plane. Normalization is a process of adjusting the segments of the plan view reconstructed in the classification process to satisfy the constraints such as parallelism, orthogonality, and intersection.

2차원 모델링 과정에서 구축된 평면도와 최대 높이값과 최소 높이값의 차이를 이용하여 산출된 공간의 높이값 및 노이즈 데이터를 이용하여 3차원 프레임 모델을 생성한다.(S1450)A 3D frame model is generated using the floor plan constructed in the 2D modeling process, the height value of the space, and noise data calculated using the difference between the maximum height value and the minimum height value (S1450).

여기서, 상술한 평면도와 공간 상의 높이값을 이용하여 주차 내부공간의 외부면을 표현하고, 노이즈 데이터를 이용하여 공간 내 객체의 형상과 위치를 표현하므로써 공간의 세부 모델링을 실시할 수 있다.Here, the detailed modeling of the space can be performed by expressing the outer surface of the parking interior space using the above-described plan view and the height value on the space, and expressing the shape and position of the object in the space using noise data.

다음으로, 자율주행 차량의 위치를 추정하는 방법(S2000)에 대해 설명하면 아래와 같다.Next, a method of estimating the position of the autonomous vehicle (S2000) will be described below.

3D 영상정보와 2D 영상정보가 정합되어 차량의 주행 경로 및 주차 공간의 3차원 공간정보가 생성되면, 자율주행 차량은 위성항법 장치의 위치 정보를 대신하여 자율주행 차량의 위치 정보를 추정하며, 산출된 위치 정보를 통해 자율주행 차량의 주차를 위한 경로를 생성한다.When 3D image information and 2D image information are matched to generate 3D spatial information of the vehicle's driving path and parking space, the autonomous vehicle estimates and calculates the position information of the autonomous vehicle instead of the position information of the satellite navigation device. A route for parking of an autonomous vehicle is created through the location information.

이를 위해, 정합된 영상정보를 이용하여 건물 내 차량의 이동 경로를 비롯한 주차 공간을 평면지도화 한다.(S2100)To this end, using the matched image information, a parking space including a moving route of a vehicle in a building is mapped onto a flat surface (S2100).

여기서, 차량에 설치된 LiDAR(111), CCD 카메라(112) 등의 위치를 기준으로 한 평면 좌표계 상에 주차선의 위치를 표현한다. 이를 통해, 차량의 현재 위치와 주차 위치와의 관계를 명확하고 쉽게 표현할 수 있다. 구체적으로, 카메라를 통해 입력되는 1차적인 영상은 계속해서 변화한다. 그러나, 3차원의 세계를 2차원적인 영상으로 받아들이게 될 때, 현재 차량의 위치를 계산하거나 이전 영상정보와 현재의 영상정보를 비교하는데 많은 연산이 필요하다. 이러한 번거로움을 이전 영상정보의 업데이트를 코릴레이션(Correlation) 비교를 통해 변환된 영상을 이동된 위치에 덧씌움으로써, 평면화된 영상정보를 손쉽게 업데이트 할 수 있다.Here, the position of the parking line is expressed on a plane coordinate system based on the positions of the LiDAR 111 and the CCD camera 112 installed in the vehicle. Through this, the relationship between the current position of the vehicle and the parking position can be clearly and easily expressed. Specifically, the primary image input through the camera continuously changes. However, when a three-dimensional world is received as a two-dimensional image, a lot of calculations are required to calculate the position of the current vehicle or to compare the previous image information with the current image information. This hassle can be easily updated flattened image information by overwriting the converted image to the moved position through correlation comparison with the update of previous image information.

주차를 위한 평면지도가 생성되면, 자율주행 차량의 이동 경로 및 주차 공간의 장애물을 감지하여 이동 가능 지역 및 주차 가능 지역을 판별하는 과정을 수행한다.(S2200)When a flat map for parking is generated, a process of determining a movable area and an available parking area is performed by detecting the moving path of the autonomous vehicle and obstacles in the parking space (S2200).

여기서, 장애물의 밑부분에 발생하는 그림자를 이용하여 엣지(Edge)를 추출하고, 그 엣지(Edge)에 의해 도로 위의 차량을 탐지할 수 있다. 이와 같은 방법으로 주차선 내에 존재하는 차량의 유무를 판단하여 한 주차선 내부 전체를 장애물로 인식하도록 한다.Here, an edge may be extracted using a shadow generated at the bottom of an obstacle, and a vehicle on the road may be detected by the edge. In this way, the presence or absence of a vehicle in the parking line is determined to recognize the entire interior of a parking line as an obstacle.

한편, 차량의 위치를 계산할 수 있는 움직임 모델을 산출하기 위해, 차량의 조향각과 속도를 통해 차량의 위치를 계산할 수 있는 모델을 생성한다.(S2300) 구체적으로, 앞바퀴의 조향각과 차량의 길이만 고려한 2륜 차량의 모델을 이용하여 4륜 차량의 회전궤적을 구한다.Meanwhile, in order to calculate a motion model capable of calculating the position of the vehicle, a model capable of calculating the position of the vehicle through the steering angle and speed of the vehicle is generated (S2300). Specifically, only the steering angle of the front wheel and the length of the vehicle are considered. Using the model of a two-wheeled vehicle, the rotation trajectory of a four-wheeled vehicle is obtained.

장애물 정보를 포함하는 평면지도가 생성되고, 차량의 움직임 모델이 산출되면, 자율주행 차량의 주차 경로를 생성한다.(S2400)When a flat map including obstacle information is generated and a vehicle motion model is calculated, a parking path for an autonomous vehicle is generated (S2400).

여기서, 주차 경로는 장애물, 거리, 거리에 따른 조향각의 변화를 기준으로 경로가 생성되도록 하며, 구체적으로 장애물과는 거리가 멀어야 하고, 조향각의 변화는 작아야 하며, 최종 위치까지의 거리는 가까운 경로가 생성되도록 한다.Here, the parking path is to create a path based on the change of the steering angle according to the obstacle, distance, and distance. Specifically, the distance from the obstacle must be far, the change of the steering angle must be small, and the distance to the final position must be a close path. Let it be created.

위에서 설명한 바와 같이 본 발명에 대한 구체적인 설명은 첨부된 도면을 참조한 실시예에 의해서 이루어졌지만, 상술한 실시예는 본 발명의 바람직한 예를 들어 설명하였을 뿐이기 때문에, 본 발명이 상기의 실시예에만 국한되는 것으로 이해되어져서는 아니 되며, 본 발명의 권리범위는 후술하는 청구범위 및 그 균등개념으로 이해되어져야 할 것이다.As described above, a detailed description of the present invention has been made by an embodiment with reference to the accompanying drawings, but since the above-described embodiment has been described with reference to a preferred example of the present invention, the present invention is limited to the above embodiment. It should not be understood as being, and the scope of the present invention should be understood as the following claims and the concept of equality.

100 : 실내 공간정보 데이터 융합을 통한 위치추정 시스템
110 : 3D정보 수집단말
111 : LiDAR
112 : CCD 카메라
113 : 위성항법장치
114 : 관성항법장치
120 : 2D정보 수집단말
130 : 데이터 융합서버
131 : 데이터 전처리부
132 : 데이터 정합부
133 : 정합도 평가부
134 : 모델링 전처리부
135 : 높이 모델링부
136 : 필터링부
137 : 2차원 모델링부
138 : 3차원 모델링부
140 : 위치 추정서버
141 : 평면지도 생성부
142 : 장애물 감지부
143 : 차량 모델링부
144 : 경로 생성부
150 : 사용자 단말
100: Location estimation system through indoor spatial information data fusion
110: 3D information collection terminal
111: LiDAR
112: CCD camera
113: satellite navigation system
114: inertial navigation system
120: 2D information collection terminal
130: data fusion server
131: data preprocessor
132: data matching unit
133: Matching degree evaluation unit
134: modeling preprocessor
135: height modeling unit
136: filtering unit
137: 2D modeling unit
138: 3D modeling unit
140: location estimation server
141: flat map generator
142: obstacle detection unit
143: vehicle modeling unit
144: path generation unit
150: user terminal

Claims (10)

자동주차를 위해 자율주행 차량의 위치를 추정하는 방법에 있어서,
모바일 매핑 시스템(Mobile Mapping System, MMS)을 이용하여, 건물 내로 진입하는 차량의 자율주행을 위한 상기 건물 내 3차원의 영상정보 및 위치정보를 획득하는 제1 단계;
외부서버로부터 상기 건물의 건축도면 정보인 2차원의 영상정보 및 위치정보를 수신하는 제2 단계;
상기 제1 단계에서 획득된 상기 3차원의 영상정보 및 위치정보와 상기 제2 단계에서 수신된 2차원의 영상정보 및 위치정보를 정합하여, 상기 자율주행 차량의 주차를 위한 상기 건물 내 공간정보를 생성하는 제3 단계;를 포함하고,
상기 제3 단계는,
영역기반방법(Aerial Based Matching), 형상기반방법(Feature Based Matching), 또는 관계기반방법(Relational Matching)을 이용하여 상기 3차원의 영상정보 및 위치정보와 상기 2차원의 영상정보 및 위치정보를 정합하여 건물 내 공간정보를 생성하는 단계;를 포함하고,
상기 제3 단계에서는 천장 평면 모델과 바닥 평면 모델을 구축하고, 상기 천장 평면 모델로부터 일정한 거리를 갖는 오프셋 공간을 생성하여 노이즈 식별 기준으로 설정하되, 상기 오프셋 공간 내 포인트 데이터의 존재 유무를 확인하고, 상기 오프셋 공간 내에 상기 포인트 데이터가 존재하지 않는 경우에는 노이즈로 간주하여 상기 천장 평면 모델과 바닥 평면 모델 사이의 포인트 데이터를 제거함으로써 노이즈를 제거하는 것을 특징으로 하는
실내 공간정보 데이터 융합을 통한 위치추정 방법.
In the method of estimating the location of an autonomous vehicle for automatic parking,
A first step of acquiring 3D image information and location information in the building for autonomous driving of a vehicle entering the building using a mobile mapping system (MMS);
A second step of receiving two-dimensional image information and location information, which are architectural drawing information of the building, from an external server;
By matching the three-dimensional image information and location information obtained in the first step with the two-dimensional image information and location information received in the second step, the spatial information in the building for parking the autonomous vehicle is obtained. Including; a third step of generating;
The third step,
The three-dimensional image information and location information and the two-dimensional image information and location information are matched using an area-based method (Aerial Based Matching), a feature-based method (Feature Based Matching), or a relational method (Relational Matching). Including; to generate spatial information in the building by,
In the third step, a ceiling plane model and a floor plane model are constructed, an offset space having a certain distance from the ceiling plane model is created and set as a noise identification criterion, but the presence or absence of point data in the offset space is checked, If the point data does not exist in the offset space, it is regarded as noise, and noise is removed by removing point data between the ceiling plane model and the floor plane model.
Location estimation method through indoor spatial information data fusion.
제 1항에 있어서,
상기 제1 단계는,
LiDAR(Light Detection And Ranging) 및 CCD 카메라(Charge-Couple device Camera, CCD Camera)로부터 3차원의 영상정보를 획득하는 단계; 및
위성항법장치(Global Positioning System, GPS) 및 관성항법장치(Inertial Navigation System, INS)로부터 3차원의 위치정보를 획득하는 단계;를 포함하는
실내 공간정보 데이터 융합을 통한 위치추정 방법.
The method of claim 1,
The first step,
Acquiring 3D image information from LiDAR (Light Detection And Ranging) and a CCD camera (Charge-Couple Device Camera, CCD Camera); And
Obtaining three-dimensional location information from a global positioning system (GPS) and an inertial navigation system (INS); including
Location estimation method through indoor spatial information data fusion.
제 1항에 있어서,
상기 제 2단계는,
건물에 설치된 건물정보 송신단말로부터 건물 내 2차원의 영상정보 및 위치정보를 수신하는 단계; 또는
GIS(Geographic Information System) 서버로부터 근거리 통신 또는 원거리통신을 통해 건물 내 2차원의 영상정보 및 위치정보를 수신하는 단계;를 포함하는
실내 공간정보 데이터 융합을 통한 위치추정 방법.
The method of claim 1,
The second step,
Receiving two-dimensional image information and location information in the building from a building information transmission terminal installed in the building; or
Receiving two-dimensional image information and location information in a building through short-distance communication or long-distance communication from a GIS (Geographic Information System) server; including
Location estimation method through indoor spatial information data fusion.
삭제delete 제 1항에 있어서,
상기 제3 단계에서 생성된 건물 내 공간정보를 기반으로 상기 자율주행 차량의 위치를 추정하여 주차 경로를 생성하는 단계;를 더 포함하는
실내 공간정보 데이터 융합을 통한 위치추정 방법.
The method of claim 1,
Generating a parking route by estimating the location of the autonomous vehicle based on the spatial information in the building generated in the third step; further comprising
Location estimation method through indoor spatial information data fusion.
자동주차를 위해 자율주행 차량의 위치를 추정하는 시스템에 있어서,
모바일 매핑 시스템을 이용하여 건물 내 3차원 영상정보 및 위치정보를 획득하는 3D정보 수집단말;
외부서버로부터 건물의 건축도면인 2차원 영상정보 및 위치정보를 수신하는 2D정보 수집단말; 및
상기 3D정보 수집단말로부터 수집된 영상정보 및 위치정보와, 2D정보 수집단말로부터 수집된 영상정보 및 위치정보를 정합하여 2차원 좌표값으로 생성하며, 상기 3차원 영상정보 및 위치정보와 상기 2차원 영상정보 및 위치정보의 높이차에 따른 높이값을 산출하여 3차원 좌표값의 공간정보를 생성하는 데이터 융합서버;를 포함하고,
상기 데이터 융합서버는,
영역기반방법, 형상기반방법, 또는 관계기반방법을 이용하여 상기 3차원 영상정보 및 위치정보와 상기 2차원 영상정보 및 위치정보를 정합하여 건물 내 공간정보를 생성하고,
상기 데이터 융합서버는 천장 평면 모델과 바닥 평면 모델을 구축하고, 상기 천장 평면 모델로부터 일정한 거리를 갖는 오프셋 공간을 생성하여 노이즈 식별 기준으로 설정하되, 상기 오프셋 공간 내 포인트 데이터의 존재 유무를 확인하고, 상기 오프셋 공간 내에 상기 포인트 데이터가 존재하지 않는 경우에는 노이즈로 간주하여 상기 천장 평면 모델과 바닥 평면 모델 사이의 포인트 데이터를 제거함으로써 노이즈를 제거하는 것을 특징으로 하는
실내 공간정보 데이터 융합을 통한 위치추정 시스템.
In the system for estimating the position of an autonomous vehicle for automatic parking,
A 3D information collection terminal that acquires 3D image information and location information in a building using a mobile mapping system;
A 2D information collection terminal for receiving 2D image information and location information, which are architectural drawings of the building, from an external server; And
The image information and location information collected from the 3D information collection terminal and the image information and location information collected from the 2D information collection terminal are matched to generate a 2D coordinate value, and the 3D image information and location information and the 2D Includes; a data fusion server for generating spatial information of 3D coordinate values by calculating a height value according to the height difference between image information and location information,
The data fusion server,
By using an area-based method, a shape-based method, or a relationship-based method, the 3D image information and location information and the 2D image information and location information are matched to generate spatial information in the building,
The data fusion server constructs a ceiling plane model and a floor plane model, creates an offset space having a certain distance from the ceiling plane model and sets it as a noise identification criterion, but checks the presence or absence of point data in the offset space, If the point data does not exist in the offset space, it is regarded as noise, and noise is removed by removing point data between the ceiling plane model and the floor plane model.
Location estimation system through indoor spatial information data fusion.
제 6항에 있어서,
상기 3D정보 수집단말은,
3차원의 영상정보를 획득하는 LiDAR 및 CCD 카메라를 포함하고,
3차원의 위치정보를 획득하는 위성항법장치 및 관성항법장치를 포함하는 것을 특징으로 하는
실내 공간정보 데이터 융합을 통한 위치추정 시스템.
The method of claim 6,
The 3D information collection terminal,
Including LiDAR and CCD cameras that acquire three-dimensional image information,
Characterized in that it comprises a satellite navigation device and inertial navigation device for acquiring three-dimensional position information
Location estimation system through indoor spatial information data fusion.
제 6항에 있어서,
상기 2D정보 수집단말은,
건물에 설치된 건물정보 송신단말로부터 건물 내 2차원의 영상정보 및 위치정보를 수신하거나,
GIS(Geographic Information System) 서버로부터 근거리 통신 또는 원거리통신을 통해 건물 내 2차원의 영상정보 및 위치정보를 수신하는 것을 특징으로 하는
실내 공간정보 데이터 융합을 통한 위치추정 시스템.
The method of claim 6,
The 2D information collection terminal,
Receives two-dimensional image information and location information in the building from the building information transmission terminal installed in the building, or
Characterized in that it receives two-dimensional image information and location information in a building through short-distance communication or long-distance communication from a GIS (Geographic Information System) server.
Location estimation system through indoor spatial information data fusion.
삭제delete 제 6항에 있어서,
상기 데이터 융합서버에서 생성된 건물 내 공간정보를 기반으로 상기 자율주행 차량의 위치를 추정하여 자동주차 경로를 생성하는 위치 추정서버;를 더 포함하는
실내 공간정보 데이터 융합을 통한 위치추정 시스템.





The method of claim 6,
A location estimation server for generating an automatic parking route by estimating the location of the autonomous vehicle based on spatial information in the building generated by the data fusion server; further comprising
Location estimation system through indoor spatial information data fusion.





KR1020180171737A 2018-12-28 2018-12-28 Method of estimating a location by fusing indoor spatial information data KR102170745B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180171737A KR102170745B1 (en) 2018-12-28 2018-12-28 Method of estimating a location by fusing indoor spatial information data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180171737A KR102170745B1 (en) 2018-12-28 2018-12-28 Method of estimating a location by fusing indoor spatial information data

Publications (2)

Publication Number Publication Date
KR20200087305A KR20200087305A (en) 2020-07-21
KR102170745B1 true KR102170745B1 (en) 2020-10-27

Family

ID=71832593

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180171737A KR102170745B1 (en) 2018-12-28 2018-12-28 Method of estimating a location by fusing indoor spatial information data

Country Status (1)

Country Link
KR (1) KR102170745B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102421360B1 (en) * 2022-03-02 2022-07-14 한양대학교 산학협력단 System for generating 3d lidar scanning position

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102438112B1 (en) 2021-02-01 2022-08-29 연세대학교 산학협력단 System of Spatial Information Construction Using Mobile Robots
CN117218743B (en) * 2023-11-07 2024-02-09 诺比侃人工智能科技(成都)股份有限公司 Intelligent inspection control method and system based on machine vision

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014173356A (en) 2013-03-11 2014-09-22 Sumitomo Heavy Ind Ltd Mechanical parking facility

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101179108B1 (en) * 2010-04-27 2012-09-07 서울시립대학교 산학협력단 System for determining 3-dimensional coordinates of objects using overlapping omni-directional images and method thereof
KR20150058679A (en) * 2013-11-20 2015-05-29 한국전자통신연구원 Apparatus and method for localization of autonomous vehicle in a complex
KR20170104907A (en) * 2016-03-08 2017-09-18 한양대학교 산학협력단 Method for estimating indoor position and method for providing parking path using the same
KR102056147B1 (en) * 2016-12-09 2019-12-17 (주)엠아이테크 Registration method of distance data and 3D scan data for autonomous vehicle and method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014173356A (en) 2013-03-11 2014-09-22 Sumitomo Heavy Ind Ltd Mechanical parking facility

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102421360B1 (en) * 2022-03-02 2022-07-14 한양대학교 산학협력단 System for generating 3d lidar scanning position

Also Published As

Publication number Publication date
KR20200087305A (en) 2020-07-21

Similar Documents

Publication Publication Date Title
US11852729B2 (en) Ground intensity LIDAR localizer
CN111551958B (en) Mining area unmanned high-precision map manufacturing method
CN109791052B (en) Method and system for classifying data points of point cloud by using digital map
US11790668B2 (en) Automated road edge boundary detection
CN107850450B (en) Method and system for generating and using positioning reference data
Schreiber et al. Laneloc: Lane marking based localization using highly accurate maps
CN100494900C (en) Environment sensing one-eye visual navigating method adapted to self-aid moving vehicle
Rodriguez-Cuenca et al. An approach to detect and delineate street curbs from MLS 3D point cloud data
KR102170745B1 (en) Method of estimating a location by fusing indoor spatial information data
Hervieu et al. Road side detection and reconstruction using LIDAR sensor
KR101858902B1 (en) System for extracting position information of object in point cloud data by using component
Chen et al. Building reconstruction from LIDAR data and aerial imagery
Hervieu et al. Semi-automatic road/pavement modeling using mobile laser scanning
Aldibaja et al. LIDAR-data accumulation strategy to generate high definition maps for autonomous vehicles
Zhao et al. Reconstruction of textured urban 3D model by fusing ground-based laser range and CCD images
Jende et al. A fully automatic approach to register mobile mapping and airborne imagery to support the correction of platform trajectories in GNSS-denied urban areas
CN112488037A (en) Method for identifying dangerous area in image recognition
CN112805766A (en) Apparatus and method for updating detailed map
Zhang et al. 3D highway curve reconstruction from mobile laser scanning point clouds
CN114659513B (en) Unstructured road-oriented point cloud map construction and maintenance method
Monnier et al. Registration of terrestrial mobile laser data on 2D or 3D geographic database by use of a non-rigid ICP approach.
Belaroussi et al. Vehicle attitude estimation in adverse weather conditions using a camera, a GPS and a 3D road map
Missaoui et al. Map-aided annotation for pole base detection
Choi et al. Automatic Construction of Road Lane Markings Using Mobile Mapping System Data.
JP6837626B1 (en) Feature data generation system, feature database update system, and feature data generation method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant