KR102118357B1 - 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템 - Google Patents

모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템 Download PDF

Info

Publication number
KR102118357B1
KR102118357B1 KR1020180106612A KR20180106612A KR102118357B1 KR 102118357 B1 KR102118357 B1 KR 102118357B1 KR 1020180106612 A KR1020180106612 A KR 1020180106612A KR 20180106612 A KR20180106612 A KR 20180106612A KR 102118357 B1 KR102118357 B1 KR 102118357B1
Authority
KR
South Korea
Prior art keywords
data
information
sensor
related information
spatial
Prior art date
Application number
KR1020180106612A
Other languages
English (en)
Other versions
KR20200028210A (ko
Inventor
박일석
홍승환
임광용
백인식
이지상
송승관
Original Assignee
주식회사 스트리스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 스트리스 filed Critical 주식회사 스트리스
Priority to KR1020180106612A priority Critical patent/KR102118357B1/ko
Publication of KR20200028210A publication Critical patent/KR20200028210A/ko
Application granted granted Critical
Publication of KR102118357B1 publication Critical patent/KR102118357B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)

Abstract

모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템 이 제공된다.
상기 시스템은 영상 센서, 항법 센서 및 3차원 지리 데이터를 획득하는 3차원 측량 센서로부터 각각 수집된 관측 데이터, 각 센서마다 정의된 기하 파라미터를 기초로 산출된 내부 기하, 상기 센서들 중 적어도 어느 하나가 탑재된 플랫폼의 위치와 자세에 따른 각 센서 간의 기하 관계를 정의하는 외부 기하, 점군 데이터 관련 정보 및 지오코딩(geocoding) 영상 데이터 관련 정보, 점군 및 지오 코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 기초하여, 지도를 작성하기 위해 생성된 지도 관련 정보 중 적어도 어느 하나를 취합하고, 소정 좌표계를 참조하여 설정된 3차원 공간 정보의 가상 격자점마다 상기 좌표계에 기반하여 인덱스를 부여하며, 상기 적어도 어느 하나의 정보를 상기 인덱스와 연관하여 구조화 저장하는 데이터베이스부, 및 상기 지도에 대한 상기 사용자의 지정 영역의 정보에 대한 요청에 따라, 상기 지정 영역에 대응하는 상기 인덱스를 참조하여 상기 가상 격자점마다 접근하여, 상기 지정 영역의 가상 격자점에 저장된 상기 공간 데이터의 정보를 출력받는 액세스부를 를 포함한다.

Description

모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템 {System for structuring observation data and platform for mobile mapping or autonomous vehicle}
본 발명은 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템에 관한 것으로, 보다 상세하게는 사용자가 모바일 맵핑 또는 자율 주행용 맵과 관련된 정보 이용시에, 생산자가 작성 보관한 맵 포맷 그 자체 또는 맵 전체가 아닌, 인덱스로 구분된 공간 정보의 가상 격자점에 대응하는 저용량의 데이터 단위로 접근가능함으로써, 데이터 액세스, 관리, 갱신, 시스템 부하 측면 등에서 부담을 현저히 경감시키는 시스템에 관한 것이다.
최근 개발 중에 있는 모바일 매핑 및 자율주행 시스템에는 라이다, 카메라, GPS/항법센서들이 탑재되어 상황인지, HD map 생성 등에 활용되고 있다. 이러한 센서들은 지도 제작을 위한 모바일 매핑용 플랫폼 또는 자율주행시에 주변 지리적 상황 인식을 위한 자율주행 이동체용 플랫폼에 탑재될 수 있다.
종래 모바일 매핑 및 자율주행 시스템에서 취득된 라이다, 카메라, GPS/항법센서 센서 데이터는 플랫폼에서 데이터 취득 후 일괄 후처리작업을 통해 포인트클라우드, 지오코딩된 영상 데이터로 생산되며, 생산된 데이터를 프로젝트 단위로 저장하고 잇다.
종래 시스템에서 관측된 데이터는 영상정보, 스캐너정보, GPS/항법센서들이 각각 기록되어 있고, 각 데이터 셋마다의 메타데이터에 정보 간 상관관계가 텍스트의 형태로 기록되어 관리되어진다.
정밀도로지도, HD map, 3차원 공간모델 제작을 위해 벡터화되는 지도 데이터 역시 점, 선, 면의 형태로 단일 프로젝트 단위로 관리되며, 공공기관이 운영하는 지리정보 DB에서 데이터 제공 시에도 도로 구간 별로 나누어져 제공될 뿐, 명확한 작업 방식과 데이터 포맷에 대한 표준화 규정이 수립되지 않은 실정이다.
종래에 제공되는 지도 관련 데이터는 구간별로 수십 기가바이트에서 수 테라바이트에 이르는 고용량의 데이터이며, 데이터 내부의 영상, 레이저스캐닝, GPS/항법 정보들이 종속이기 때문에 데이터 활용을 위해서는 전체 데이터 셋을 센서를 통해 관측하거나 해당 기관으로부터 제공받아야하기 때문에 매우 비효율적이다. 이에 따라, 구축된 지도를 실제 활용하는데 매우 곤란한 점이 있다.
차량 또는 무인비행체와 같은 이동체 플랫폼에서 취득된 영상, 라이다, GPS/항법센서 데이터들을 융합 활용하기 위해서는 시간 정보를 수치화하여 기록하여 센싱 데이터 간 연결성을 확보해야 하지만, 종래에는 단순 메타데이터의 텍스트 정보에서 폴더와 파일 이름만을 공유하는 형태로 공유되고 있을 뿐이다.
이는 단순 연구용이나 프로젝트 시범 적용을 위한 목적에는 종래 시스템이 활용가능하지만, 실제 자율시스템 활용과 고정밀 지도의 주기적/비주기적 갱신을 위해서는 데이터 경량화가 필요하다.
종래에 따르면, 센서 간 기하적, 확률적 정보까지 포함하여 데이터 접근, 관리, 갱신하는데 막대한 처리 시간과, 시스템의 현저한 부담이 유발된다.
한국등록특허공보 제10-179483호(2017.1.09.)
본 발명이 이루고자 하는 기술적 과제는 모바일 맵핑 또는 자율 주행용 맵과 관련된 정보 이용시에, 생산자가 작성 보관한 맵 포맷 그 자체 또는 맵 전체가 아닌, 인덱스로 구분된 공간 정보의 가상 격자점에 대응하는 저용량의 데이터 단위로 접근가능함으로써, 데이터 액세스, 관리, 갱신, 시스템 부하 측면 등에서 부담을 현저히 경감시키는 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템을 제공하는데 있다.
본 발명의 목적은 이상에서 언급된 목적으로 제한되지 않으며, 언급되지 않은 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 이루기 위한 본 발명의 일 양태에 따르면, 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템은 영상 센서, 항법 센서 및 3차원 지리 데이터를 획득하는 3차원 측량 센서로부터 각각 관측 데이터를 수집하는 센서 관련 데이터 수집부와, 각 센서마다 정의된 기하 파라미터를 기초로 산출된 내부 기하 및 상기 센서들 중 적어도 하나가 탑재된 플랫폼의 위치와 자세에 따른 각 센서 간의 기하 관계를 정의하는 외부 기하로 구성된 기하 구조 정보에 근거하여 기하 모델에 대한 데이터 융합을 수행하는 데이터 융합부와, 상기 관측 데이터 및 상기 융합된 데이터에 기초하여, 상기 3차원 측량 센서에 기반한 점군 데이터 관련 정보 및 상기 영상 센서에 기반한 지오코딩(geocoding) 영상 데이터 관련 정보 중 적어도 어느 하나를 생성하는 생성부와, 상기 점군 데이터 관련 정보 및 상기 지오 코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 기초하여, 지도를 작성하기 위한 지도 관련 정보를 생성하는 지도 작성부와, 상기 관측 데이터, 상기 내부 기하, 상기 외부 기하, 상기 점군 데이터 관련 정보, 상기 지오코딩 영상 데이터 관련 정보 및 상기 지도 관련 정보 중 적어도 하나를 공간 데이터로 선택하여 취합하고, 소정 좌표계를 참조하여 설정된 3차원 공간 정보의 가상 격자점마다 상기 좌표계에 기반하여 인덱스를 부여하며, 상기 공간 데이터를 상기 인덱스와 연관하여 구조화 저장하는 데이터베이스부,및 상기 지도에 대한 상기 사용자의 지정 영역의 정보에 대한 요청에 따라, 상기 지정 영역에 대응하는 상기 인덱스를 참조하여 상기 가상 격자점마다 접근하여, 상기 지정 영역의 가상 격자점에 저장된 상기 공간 데이터의 정보를 출력받는 액세스부를 포함한다.
다른 실시예에서, 상기 점군 데이터 관련 정보는 점군용 3차원 좌표 데이터, 점군용 색상 정보, 상기 점군용 3차원 좌표 데이터로부터 추출된 대상물에서 종류가 추정된 점군용 클래스 정보 및 상기 3차원 측량 센서가 레이저 센서인 경우의 레이저 강도 정보 중 적어도 어느 하나를 포함하고, 상기 지오코딩 영상 데이터 관련 정보는 각 픽셀마다의 지오코딩용 좌표 데이터, 지오코딩용 색상 정보 및 상기 지오코딩용 좌표 데이터로부터 추출된 대상물에서 종류가 추정된 지오코딩용 클래스 정보 중 적어도 어느 하나를 포함하며, 상기 지도 관련 정보는 상기 점군용 3차원 좌표 데이터 및 상기 지오코딩용 좌표 데이터 중 적어도 어느 하나에 기초한 지도용 좌표 데이터, 상기 대상물로부터 추정된 객체 정보 중 적어도 어느 하나를 포함할 수 있다.
또 다른 실시예에서, 상기 센서 관련 데이터 수집부는 각 센서마다 장치 고유 속성과 관련된 고유 데이터, 각 센서의 취득 시간에 대한 시간 정보, 각 센서 혹은 상기 플랫폼에서의 관측 데이터 취득시에 나타난 날씨, 풍속, 상기 센서 또는 상기 플랫폼이 위치된 기온, 습도를 포함하는 취득 환경 정보를 더 수집하고, 상기 공간 데이터로 선택가능한 정보는 상기 고유 데이터, 상기 시간 정보, 상기 취득 환경 정보를 더 포함할 수 있다.
여기서, 상기 시간 정보가 상기 공간 데이터로 선택되는 경우에 , 서로 상이한 시간에 발생한 공간 데이터의 정보를 상기 시간 정보 별로 구조화하여 저장될 수 있다.
또 다른 실시예에서, 상기 관측 데이터, 상기 시간 정보, 각 센서의 오측정으로 인한 대상물의 위치 오류도에 근거하여 상기 대상물 위치에 대한 오류 확률을 제 1 확률 정보로 산출하며, 상기 제 1 확률 정보를 상기 생성부에 제공하여, 상기 점군 데이터 관련 정보 및 상기 지오코딩 영상 데이터 관련 정보 중 적어도 어느 하나를 생성하는데 상기 제 1 확률 정보를 근거 데이터로 더 포함하는 제 1 확률 분석부를 더 포함하고, 상기 공간 데이터로 선택가능한 정보는 상기 제 1 확률 정보를 더 포함할 수 있다.
또 다른 실시예에서, 상기 점군 데이터 관련 정보 및 상기 지오코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 근거하여 추출한 대상물의 속성이 추정된 객체 정보를 추출하는 객체 정보를 추출하는 객체 추출부를 더 포함하고, 상기 객체 정보는 상기 대상물의 종류, 모양, 색상, 질감 관련 속성을 포함하고, 상기 공간 데이터로 선택가능한 정보는 상기 객체 정보를 더 포함할 수 있다.
여기서, 상기 객체 추출부는 상기 대상물과 관련된 후보군 데이터를 머신 러닝 기법으로 검출하고, 검출된 후보군 데이터에 순차적으로 추가 기계학습 모델을 적용하여 상기 대상물의 정보를 인식할 수 있다.
또한, 상기 후보군 데이터의 검출, 인식에 대한 오류도, 상기 지도에서의 오류도 및 상기 제 1 확률 정보에 근거하여 상기 대상물의 객체 정보에 대한 오류 확률을 제 2 확률 정보로 산출하는 제 2 확률 분석부를 더 포함하되, 상기 공간 데이터로 선택가능한 정보는 상기 제 2 확률 정보를 더 포함할 수 있다.
또 다른 실시예에서, 상기 공간 데이터가 구조화되어 저장된 후에, 상기 센서들 중 적어도 하나로부터 추가 수신하여 생성된 관측 데이터, 내부 기하, 외부 기하, 점군 데이터 관련 정보, 지오코딩 영상 데이터 관련 정보 및 지도 관련 정보관측 데이터 중 적어도 어느 하나와 상기 인덱스로 참조된 공간 데이터의 정보가 중복된 경우에, 추가 수신된 관측 데이터를 공간 데이터로 획득하며, 기존 공간 데이터와 신규 공간 데이터 간의 중복도를 판정한 결과, 양 공간 데이터 간의 이격량이 임계치 이하인 경우, 정확도가 높은 공간 데이터로 선정하는 갱신 보정부를 더 포함할 수 있다.
상기 기술적 과제를 이루기 위한 본 발명의 다른 양태에 따르면, 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템은 영상 센서, 항법 센서 및 3차원 지리 데이터를 획득하는 3차원 측량 센서로부터 각각 수집된 관측 데이터, 각 센서마다 정의된 기하 파라미터를 기초로 산출된 내부 기하, 상기 센서들 중 적어도 어느 하나가 탑재된 플랫폼의 위치와 자세에 따른 각 센서 간의 기하 관계를 정의하는 외부 기하, 상기 3차원 측량 센서에 기반한 점군 데이터 관련 정보 및 상기 영상 센서에 기반한 지오코딩 영상 데이터 관련 정보, 상기 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 기초하여, 지도를 작성하기 위해 생성된 지도 관련 정보 중 적어도 어느 하나를 취합하고, 소정 좌표계를 참조하여 설정된 3차원 공간 정보의 가상 격자점마다 상기 좌표계에 기반하여 인덱스를 부여하며, 상기 적어도 어느 하나의 정보를 상기 인덱스와 연관하여 구조화 저장하는 데이터베이스부, 및 상기 지도에 대한 상기 사용자의 지정 영역의 정보에 대한 요청에 따라, 상기 지정 영역에 대응하는 상기 인덱스를 참조하여 상기 가상 격자점마다 접근하여, 상기 지정 영역의 가상 격자점에 저장된 상기 공간 데이터의 정보를 출력받는 액세스부를 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명에 따르면, 모바일 맵핑 또는 자율 주행용 맵과 관련된 정보 이용시에, 생산자가 작성 보관한 맵 포맷 그 자체 또는 맵 전체가 아닌, 인덱스로 구분된 공간 정보의 가상 격자점에 대응하는 저용량의 데이터 단위로 접근가능함으로써, 데이터 액세스, 관리, 갱신, 시스템 부하 측면 등에서 부담을 현저히 경감할 수 있다.
또한, 자율주행시 주변 상황 인지 및 관측 데이터의 갱신 자동화에 있어 데이터 구조화에 기하-확률적 이론을 반영을 통해 데이터 우선순위를 결정할 수 있어 상황인지 정확도를 높일 수 있으며 관측 데이터를 통해 지도 정보를 결정할 때에도 기하-확률 정보가 활용될 수 있다
도 1은 본 발명의 일 실시예에 따른 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템에 관한 구성도이다.
도 2는 데이터베이스부의 구성도이다.
도 3은 공간 정보 구조화 저장부의 공간 정보 형태를 나타내는 구성도이다.
도 4a 및 도 4b는 본 발명의 실시예에 따른 시스템에서 구현되는 데이터베이스부에서의 공간 데이터 구축에 관한 순서도이다.
도 5는 기하 구조 정보를 생성하기 위한 기하 모델의 개념을 나타내는 도면이다.
도 6은 3차원 측량 센서에 기반한 3차원 점군 데이터 관련 정보 및 영상 센서에 기반한 지오코딩 영상 데이터 관련 정보를 시각적으로 나타낸 도면이다.
도 7은 지상 플랫폼인 스테레오 카메라를 구비한 영상 센서에 기반한 지오코딩 영상 데이터 관련 정보를 획득하여 나타낸 도면이다.
도 8은 공중 플랫폼에 의한 지오코딩 영상 데이터가 시각적으로 구현된 도면이다.
도 9는 객체 검출부에서 추출된 대상물과 이의 객체 정보를 나타내는 도면이다.
도 10은 지도 관련 정보를 시각적으로 구현한 도면이다.
도 11은 본 발명의 다른 실시예에 따른 시스템에서 구현되는 공간 데이터의 갱신 보정에 관한 순서도이다.
이하, 첨부한 도면들 및 후술되어 있는 내용을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 그러나, 본 발명은 여기서 설명되어지는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되어지는 것이다. 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급되지 않는 한 복수형도 포함된다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자가 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
또한, "부"내지 모듈 이란, 일반적으로 논리적으로 분리 가능한 소프트웨어(컴퓨터 프로그램), 하드웨어 등의 부품을 가리킨다. 따라서, 본 실시형태에 있어서의 모듈은 컴퓨터 프로그램에 있어서의 모듈뿐만 아니라, 하드웨어 구성에 있어서의 모듈도 가리킨다. 그 때문에, 본 실시형태는, 그것들을 모듈로서 기능시키기 위한 컴퓨터 프로그램(컴퓨터에 각각의 단계를 실행시키기 위한 프로그램, 컴퓨터를 각각의 수단으로서 기능시키기 위한 프로그램, 컴퓨터에 각각의 기능을 실현시키기 위한 프로그램), 시스템 및 방법의 설명도 겸하고 있다. 다만, 설명의 형편상, 「저장한다」, 「저장시킨다」, 이것들과 동등한 문언을 이용하지만, 이들 문언은, 실시형태가 컴퓨터 프로그램일 경우에는, 기억 장치에 기억시키는, 또는 기억 장치에 기억시키는 것과 같이 제어하는 것을 의미한다. 또한, "부" 내지 모듈은 기능에 일대일로 대응하고 있어도 되지만, 실장에 있어서는, 1모듈을 1프로그램으로 구성해도 되고, 복수 모듈을 1프로그램으로 구성해도 되고, 반대로 1모듈을 복수 프로그램으로 구성해도 된다. 또한, 복수 모듈은 1컴퓨터에 의해 실행되어도 되고, 분산 또는 병렬 환경에 있어서의 컴퓨터에 의해 1모듈이 복수 컴퓨터로 실행되어도 된다. 또한, 1개의 모듈에 다른 모듈이 포함되어 있어도 된다. 또한, 이하, 「접속」이란 물리적인 접속 외에, 논리적인 접속(데이터의 주고받기, 지시, 데이터간의 참조 관계 등)일 경우에도 채용한다. 「미리 정해진」이란, 대상으로 하고 있는 처리 전에 정해져 있음을 말하고, 본 실시형태에 의한 처리가 개시되기 전은 물론이고, 본 실시형태에 의한 처리가 개시된 후에도, 대상으로 하고 있는 처리 전이면, 그 때의 상황, 상태에 따라, 또는 그때까지의 상황, 상태에 따라 정해지는 것의 의미를 포함해서 이용한다.
또한, 시스템 또는 장치란, 복수의 컴퓨터, 하드웨어, 장치 등이 네트워크(일대 일 대응의 통신 접속을 포함함) 등의 통신 수단에 의해 접속되어 구성되는 것 외에, 1개의 컴퓨터, 하드웨어, 장치 등에 의해 실현될 경우도 포함된다. 「장치」와 「시스템」이란, 서로 동의(同意)의 용어로서 이용한다. 물론이지만, 「시스템」에는, 인위적인 결정인 사회적인 「기구」(사회 시스템)에 지나지 않는 것은 포함하지 않는다.
또한, 각 부 내지 각 모듈에 의한 처리마다 또는 각 부 내지 모듈 내에서 복수의 처리를 행할 경우는 그 처리마다, 대상이 되는 정보를 기억 장치로부터 판독 입력하고, 그 처리를 행한 후에, 처리 결과를 기억 장치에 기입하는 것이다. 따라서, 처리 전의 기억 장치로부터의 판독 입력, 처리 후의 기억 장치에의 기입에 관해서는, 설명을 생략할 경우가 있다. 또한, 여기에서의 기억 장치로서는, 하드디스크, RAM(Random Access Memory), 외부 기억 매체, 통신 회선을 통한 기억 장치, CPU(Central Processing Unit) 내의 레지스터 등을 포함하고 있어도 된다.
이하, 도 1 내지 도 3을 참조하여, 본 발명의 일 실시예에 따른 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템에 대하여 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템에 관한 구성도이며, 도 2는 데이터베이스부의 구성도이고, 도 3은 공간 정보 구조화 저장부의 공간 정보 형태를 나타내는 구성도이다.
모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템(100)은 지상 및/또는 공중 이동체와 같은 플랫폼에 탑재되어, 용도에 따라 모바일 맵핑 시스템(Mobile Mapping System) 또는 자율주행용 시스템으로 활용될 수 있다.
시스템(100)은 도 1에서와 같이, 영상 센서(102), 3차원 측량 센서(104), 항법 센서(106), 센서 관련 데이터 수집부(108), 내부 기하 모델링부(110~114),데이터 융합부(116), 제 1 확률 분석부(118)를 포함할 수 있다. 또한, 시스템(100)은 점군 데이터/지오코딩 영상 데이터 생성부(120), 제 2 확률 분석부(122), 객체 추출/지도 작성부(124), 데이터베이스부(126), 액세스부(128) 및 갱신 보정부(130)를 포함할 수 있다.
영상 센서(102)는 이동 중인 지상 또는 공중 플랫폼에 탑재되어 그 주위의 주변 대상물, 예컨대 지형, 지물을 이미지로 촬영하여 영상용 관측 데이터를 취득하는 센서이며, 측량용 또는 비측량용 카메라, 스테레오 카메라일 있으며, 이에 제한되지 않는다.
3차원 측량 센서(104)는 플랫폼에 탑재되어 그 주위의 대상물과 관련된 3차원 지리 데이터, 예컨대 지형, 지물 관련 데이터를 획득하여 3차원 측량용 관측 데이터를 취득하는 센서로서, 능동형 원격 탐사용 센서이다. 예를 들어, 3차원 측량 센서(104)는 레이저 또는 초음파 센서 등일 수 있으며, 레이저 센서의 경우, 라이다(Light Detection and Ranging; LiDAR) 센서일 수 있다. 이러한 라이다 센서는 데이터를 취득하고자 하는 대상물에 레이저를 주사하며 대상물로부터 반사되어 복귀하는 전자파의 시차와 에너지 변화를 감지하여 대상물에 대한 거리와 반사 강도를 산출한다.
항법 센서(106)는 측위 정보, 플랫폼의 위치, 자세 및 속도 등의 항법 정보를 검출하여 항법용 관측 데이터를 취득하는 센서로서, 위성 항법 장치(GPS)를 통해 플랫폼의 이동 위치를 취득하는 위치 취득 장치와 관성 측정 장치(Inertial Measurement Unit; IMU), 관성 항법 장치(Inertial Navigation System; INS)를 통해 차량의 자세를 취득하는 자세 취득 장치 등으로 구성될 수 있다.
각 센서는 동일 플랫폼에 탑재될 수 있으나, 지상 플랫폼과 위성, 항공, 드론 등과 같은 공중 플랫폼에 분산되어 탑재될 수도 있다.
센서 관련 데이터 수집부(108)는 각 센서(102~106)로부터 획득한 관측 데이터와 함께, 각 센서(102~106)마다 장치 고유 속성과 관련된 고유 데이터, 각 센서(102~106)의 취득 시간에 대한 시간 정보, 각 센서(102~106) 혹은 플랫폼에서의 관측 데이터 취득시에 나타난 날씨, 풍속, 센서(102~106) 또는 플랫폼이 위치된 기온, 습도를 포함하는 취득 환경 정보를 수집할 수 있다.
영상 센서(102)의 고유 데이터는 센서의 조도, ISO, 셔터속도, 촬영날짜/시간, 시간 동기화정보, 센서 모델, 렌즈 모델, 센서 시리얼번호, 영상파일 이름, 파일 저장 위치 중 적어도 어느 하나를 포함할 수 있다.
3차원 측량 센서(104)의 고유 데이터는 라이다 정보를 예로 들면, 센서의 촬영날짜와 시간, 센서모델, 센서 시리얼 번호, 레이저파장, 레이저강도, 레이저송수신 시간, 레이저 관측 각/거리, 레이저 펄스, 전자적 시간지연, 대기 지연, 센서 온도 중 적어도 하나를 포함할 수 있다.
항법 센서(106)의 고유 데이터는 GNSS/IMU/INS의 센서 모델 정보, GNSS 수신정보, GNSS 위성 정보, GNSS 신호 정보, GNSS 네비게이션 정보, GNSS 신호의 전리층/대류층 신호지연 정보, DOP 정보, 지구 거동정보, 이중/다중 GNSS 장비 정보, GNSS Base Station 정보, Wheel 센서정보, 자이로 센서 Scale/Bias 정보, 가속도계 Scale/Bias 정보, 위치/자세/ 속도/가속도/각속도/각가속도 정보 및 예상오차량, 항법정보 필터링 모델 및 소거 오차 정보, 촬영날짜/시간, 시간동기화 정보 전부 또는 일부 중 적어도 하나를 포함할 수 있다.
시간 정보는 각 센서(102~106)의 관측 데이터가 생성되는 시간일 수 있다.
영상 센서용 내부 기하 모델링부(110), 3차원 측량 센서용 내부 기하 모델링부(112) 및 항법 센서용 내부 기하 모델링부(114)는 대응하는 각 센서(102~106)마다 정의된 기하 파라미터를 기초로 내부 기하를 산출하며, 이 경우에 소정의 수학식을 통해 계산될 수 있다.
내부 기하는 센서 자체의 고유값으로서, 플랫폼 등의 이동 여부에 관계없이 유지되는 파라미터에 기인하는 각 센서(102~106)마다의 관측 데이터의 오차이다.
영상 센서용 내부 기하 모델링부(110)에 적용되는 영상 센서 기하 파라미터는 초점거리, 주점 위치, 렌즈왜곡 파라미터 및 센서 포맷 크기 중 적어도 어느 하나일 수 있다.
3차원 측량 센서용 내부 기하 모델링부(112)에 적용되는 3차원 측량 센서 기하 파라미터는 라이다 센서를 예로 들면, 각 레이저의 입사각, 거리 스케일, 거리 방향 오프셋 및 축방향 오프셋 중 적어도 어느 하나일 수 있다.
또한, 항법 센서용 내부 기하 모델링부(114)에 적용되는 항법 센서의 기하 파라미터는 축방향의 스케일 및 축방향의 오프셋 중 적어도 어느 하나일 수 있다.
각 내부 기하 모델링부(110~114)에서 수행되는 상세한 산출 과정은 후술하기로 한다.
데이터 융합부(116)는 각 센서(102~106)마다의 내부 기하 및 센서들(102~106) 중 적어도 하나가 탑재된 플랫폼의 위치와 자세에 따른 각 센서 간의 기하 관계를 정의하는 외부 기하로 구성된 기하 구조 정보에 근거하여 기하 모델에 대한 데이터 융합을 수행한다.
외부 기하는 이동 중인 플랫폼의 위치와 자세, 즉 각 센서(102~106)의 위치와 자세로 인해, 각 센서(102~106)의 관측 데이터를 취득할 때마다 가변되는 파라미터 값에 기초하여 산출되는 관측 데이터의 오차이며, 이 경우에 소정의 수학식을 통해 계산될 수 있다.
데이터 융합부(116)에서 수행되는 상세한 산출 과정은 후술하기로 한다.
제 1 확률 분석부(118)는 관측 데이터, 시간 정보, 각 센서(102~106)의 오측정으로 인한 대상물의 위치 오류도에 근거하여 대상물 위치에 대한 오류 확률을 제 1 확률 정보로 산출할 수 있다.
점군 데이터/지오코딩 영상 데이터 생성부(120)는 관측 데이터, 데이터 융합된 기하 모델, 제 1 확률 정보에 기초하여, 3차원 측량 센서(104)에 기반한 3차원 점군 데이터 관련 정보 및 영상 센서(102)에 기반한 지오코딩(geocoding) 영상 데이터 관련 정보를 생성할 수 있다. 본 실시예에서는 점군 데이터 및 지오코딩 영상 데이터 관련 정보의 전부를 생성하는 예를 들고 있으나, 경우에 따라 이들 중 일부만 생성할 수도 있다.
3차원 점군 데이터 관련 정보는 점군용 3차원 좌표 데이터, 점군용 색상 정보, 점군용 3차원 좌표 데이터로부터 추출된 대상물에서 종류가 추정된 점군용 클래스 정보 및 3차원 측량 센서가 레이저 센서인 경우의 레이저 강도 정보 중 적어도 어느 하나를 포함할 수 있다.
지오코딩 영상 데이터 관련 정보는 각 픽셀마다의 지오코딩용 좌표 데이터, 지오코딩용 색상 정보 및 지오코딩용 좌표 데이터로부터 추출된 대상물에서 종류가 추정된 지오코딩용 클래스 정보 중 적어도 어느 하나를 포함할 수 있다.
객체 추출/지도 작성부(124)는 3차원 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 기초하여 추출된 대상물의 속성과 관련된 객체 정보를 추출함과 아울러서, 지도를 작성하기 위한 지도 관련 정보를 생성하여 도화 과정을 통해 지도를 작성할 수 있다.
객체 추출/지도 작성부(124)는 3차원 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 어느 하나로부터 파악된 대상물과 관련된 후보군 데이터를 머신 러닝 기법으로 검출하고, 검출된 후보군 데이터에 순차적으로 추가 기계학습 모델을 적용하여 대상물의 정보를 인식할 수 있다. 이 경우에, 객체 정보는 대상물의 종류, 모양, 색상, 질감 관련 속성을 포함할 수 있다.
지도 관련 정보는 점군용 3차원 좌표 데이터 및 지오코딩용 좌표 데이터 중 적어도 어느 하나에 기초한 지도용 좌표 데이터, 대상물로부터 추정된 객체 정보 중 적어도 어느 하나를 포함할 수 있다.
제 2 확률 분석부(122)는 후보군 데이터의 검출, 인식에 대한 오류도, 지도에서의 오류도 및 제 1 확률 정보에 근거하여 대상물의 객체 정보에 대한 오류 확률을 제 2 확률 정보로 산출할 수 있다.
한편, 도 2 를 참조하면, 데이터베이스부(126)는 각 부로부터 취합된 데이터와 정보를 소정 좌표계에 따라 격자화된 공간 정보로 저장하고 격자 단위로 데이터를 접근하도록 설정된다. 구체적으로, 데이터베이스부(126)는 관측 데이터 취합부(132), 센서 고유 데이터 취합부(134), 시간 정보 취합부(136), 취득 환경 정보 취합부(138), 기하 구조 정보 취합부(140), 확률 정보 취합부(142), 점군 데이터/지오코딩 영상 데이터 관련 정보 취합부(144), 객체/지도 관련 정보 취합부(146), 인덱스 생성부(148) 및 공간 정보 구조화 저장부(150)를 포함할 수 있다.
관측 데이터 취합부(132), 센서 고유 데이터 취합부(134), 시간 정보 취합부(136) 및 취득 환경 정보 취합부(138)는 센서 관련 데이터 수집부(108)로부터 획득된 각 센서(102~106)의 관측 데이터, 고유 데이터, 시간 정보, 취득 환경 정보를 수신할 수 있다.
기하 구조 정보 취합부(140)는 데이터 융합부(116)로부터 각 센서(102~106)의 내부 및 외부 기하를 포함하는 기하 구조 정보를 수신하고, 확률 정보 취합부(142)는 제 1 및 제 2 확률 분석부(118, 122)에서 산출된 제 1 및 제 2 확률 정보를 수신할 수 있다.
점군 데이터/지오코딩 영상 데이터 관련 정보 취합부(144)는 점군 데이터/지오코딩 영상 데이터 생성부(120)에서 출력된 3차원 점군 데이터 관련 정보 및 지오코딩 영상 데이터 관련 정보를 수신하며, 객체/지도 관련 정보 취합부(146)는 객체 추출/지도 작성부(124)에서 생성된 객체 정보와 지도 관련 정보를 수신할 수 있다.
인덱스 생성부(148)는 소정 좌표계를 참조하여 설정된 3차원 공간 정보의 가상 격자점마다 소정 좌표계에 기반하여 인덱스를 부여한다. 이 경우에, 가상 격자점은 소정 좌표계에 따라 일정 간격으로 구분되도록, 도 3에 도시된 참조부호 146에 해당할 수 있으며, 소정 좌표계는 객체 추출/지도 작성부(124)에서 작성되어 있는 지도에 적용된 지도 좌표계 또는 별도의 좌표계일 수 있으나, 이에 제한되지 않는다.
공간 정보 구조화 저장부(150)는 도 2 및 도 3에 도시된 바와 같이, 가상 격자점에 상응하는 좌표 또는 좌표군에 속하는 공간 데이터를 인덱스와 연관하여 구조화 저장한다.
공간 데이터는 가상 격자점마다의 해당 좌표 등에 생성된 데이터로서, 관측 데이터, 내부 기하, 외부 기하, 고유 데이터, 시간 정보, 취득 환경 정보, 제 1 및 제 2 확률 정보, 점군 데이터 관련 정보, 지오코딩 영상 데이터 관련 정보, 객체 정보 및 지도 관련 정보를 포함할 수 있다.
공간 데이터로서 시간 정보가 포함되는 경우에, 인덱스 생성부(148)는 도 3에서와 같이, 서로 상이한 시간에 발생한 공간 데이터에 대한 서브 인덱스를 생성하고, 공간 정보 구조화 저장부(150)는 소정 좌표계에 따른 메인 인덱스에 해당하는 가상 격자점 내에 상이한 시간에 발생한 공간 데이터마다 서브 인덱스를 태그(tag)하여 공간 데이터를 시간 정보 별로 구조화하여 저장시킬 수 있다.
액세스부(128)는 지도에 대한 사용자의 지정 영역의 정보에 대한 요청에 따라, 지정 영역에 대응하는 인덱스를 참조하여 가상 격자점마다 공간 정보 구조화 저장부(150)에 접근하며, 지정 영역의 가상 격자점에 저장된 공간 데이터의 정보에 접근하여 출력받을 수 있다.
한편, 갱신 보정부(130)는 공간 데이터기 구조화되어 저장된 후에, 센서들(102~106) 중 적어도 하나로부터 관측 데이터를 추가 수신하여, 생성된 관측 데이터, 내부 기하, 외부 기하, 점군 데이터 관련 정보, 지오코딩 영상 데이터 관련 정보 및 지도 관련 정보 중 적어도 어느 하나와 인덱스로 참조된 공간 데이터의 정보가 중복된 경우에, 추가 수신된 관측 데이터를 공간 데이터로 획득할 수 있다.
갱신 보정부(130)는 기존 공간 데이터와 신규 공간 데이터 간의 중복도를 판정한 결과, 양 공간 데이터 간의 이격량이 임계치 이하인 경우, 정확도가 높은 공간 데이터로 선정할 수 있다. 정확도가 높은 공간 데이터는 센서 정확도가 높은 데이터 또는 상당 시간이 경과하여 주변 지형, 지물이 변경될 확률이 높다고 판단되는 경우에 신규 공간 데이터 등으로 지정될 수 있다.
본 실시예에 따르면, 모바일 맵핑 또는 자율 주행용 맵과 관련된 정보 이용시에, 생산자가 작성 보관한 맵 포맷 그 자체 또는 맵 전체가 아닌, 인덱스로 구분된 공간 정보의 가상 격자점에 대응하는 저용량의 데이터 단위로 접근가능함으로써, 데이터 액세스, 관리, 갱신, 시스템 부하 측면 등에서 부담을 현저히 경감하여 처리 속도를 현저히 향상시킬 수 있다.
또한, 자율주행시 주변 상황 인지 및 관측 데이터의 갱신 자동화에 있어 데이터 구조화에 기하-확률적 이론을 반영을 통해 데이터 우선순위를 결정할 수 있어 상황인지 정확도를 높일 수 있으며 관측 데이터를 통해 지도 정보를 결정할 때에도 기하-확률 정보가 활용될 수 있다.
이에 더하여, 본 실시예에 따르면, 가상 격자점마다 분할되어 공간 데이터가 구조화되어 저장됨으로써, 각 센서(102~106)로부터 획득된 관측 데이터, 도 1의 각 부로부터 생성된 정보, 데이터과 기존 공간 데이터의 비교 처리시에, 양자간의 동일 또는 유사한 좌표에 상응하는 가상 격자점 단위로만 대비할 수 있다. 또한, 사용자가 지도에서 원하는 지정 영역의 공간 데이터와 관련 정보를 요청시에도 지정 영역에 상응하는 가상 격자점으로만 접근하여 추출할 수 있다. 이에 따라, 비교 처리 및 지정 영역에 대한 소정 처리는 비교 대상 및 지정 영역을 포함하여 모든 지도 관련 정보를 탐색한 후에 처리하는 경우에 비해, 현저한 처리 속도를 가짐과 아울러서, 높은 정확도로 수행될 수 있다. 특히, 객체 정보는 지형, 지물 중에 인식도가 높은 대상물과 관련되며, 시간이 경과하더라도 변경 가능성이 낮으므로, 객체 정보와 관련된 대상물에 상응하는 가상 격자점만 추출하여 소정의 처리를 진행하면, 객체 인식률, 프로세스 속도 향상 및 높은 정확도를 발휘할 수 있다.
본 실시예에서는 공간 데이터가 각 부에서 수신된 모든 데이터와 정보를 포함하는 것을 위주로 설명하였으나, 관측 데이터, 내부 기하, 외부 기하, 고유 데이터, 시간 정보, 취득 환경 정보, 제 1 및 제 2 확률 정보, 점군 데이터 관련 정보, 지오코딩 영상 데이터 관련 정보, 객체 정보 및 지도 관련 정보 중 적어도 어느 하나로 구성될 수 있다.
이에 더하여, 본 실시예에서는 센서(102~106)가 탑재된 플랫폼에 데이터베이스부(126)가 내장되어 있으나, 데이터베이스부(126)만이 별도의 장치에 구축되거나, 데이터베이스부(126), 액세스부(128), 갱신 보정부(130)의 모듈이 별도의 장치에 설치될 수도 있다.
이하, 도 1 내지 도 10을 참조하여, 본 발명의 실시예에 따른 시스템에서 구현되는 데이터베이스부에서의 공간 데이터 구축과정에 대해 설명하기로 한다.
도 4a 및 도 4b는 본 발명의 실시예에 따른 시스템에서 구현되는 데이터베이스부에서의 공간 데이터 구축에 관한 순서도이다. 도 5는 기하 구조 정보를 생성하기 위한 기하 모델의 개념을 나타내는 도면이며, 도 6은 3차원 측량 센서에 기반한 3차원 점군 데이터 관련 정보 및 영상 센서에 기반한 지오코딩 영상 데이터 관련 정보를 시각적으로 나타낸 도면이다. 도 7은 지상 플랫폼인 스테레오 카메라를 구비한 영상 센서에 기반한 지오코딩 영상 데이터 관련 정보를 획득하여 나타낸 도면이며, 도 8은 공중 플랫폼에 의한 지오코딩 영상 데이터가 시각적으로 구현된 도면이다. 도 9는 객체 검출부에서 추출된 대상물과 이의 객체 정보를 나타내는 도면이며, 도 10은 지도 관련 정보를 시각적으로 구현한 도면이다.
우선 도 4a에 있어서, 센서 관련 데이터 수집부(108)는 영상 센서(102), 3차원 측량 센서(104) 및 항법 센서(106)로부터 획득한 관측 데이터와 함께, 각 센서(102~106)마다 장치 고유 속성과 관련된 고유 데이터, 각 센서(102~106)에서의 관측 데이터의 취득 시간에 대한 시간 정보, 각 센서(102~106) 혹은 플랫폼에서의 관측 데이터 취득시에 나타난 날씨, 풍속, 센서(102~106) 또는 플랫폼이 위치된 기온, 습도를 포함하는 취득 환경 정보를 수집한다(S405). 여기서, 각 센서(102~106)의 상세 내용은 도 1 내지 도 3을 통해 설명되어 생략하기로 한다.
영상 센서(102)의 고유 데이터는 센서의 조도, ISO, 셔터속도, 촬영날짜/시간, 시간 동기화정보, 센서 모델, 렌즈 모델, 센서 시리얼번호, 영상파일 이름, 파일 저장 위치 중 적어도 어느 하나를 포함할 수 있다.
3차원 측량 센서(104)의 고유 데이터는 라이다 정보를 예로 들면, 센서의 촬영날짜와 시간, 센서모델, 센서 시리얼 번호, 레이저파장, 레이저강도, 레이저송수신 시간, 레이저 관측 각/거리, 레이저 펄스, 전자적 시간지연, 대기 지연, 센서 온도 중 적어도 하나를 포함할 수 있다.
항법 센서(106)의 고유 데이터는 GNSS/IMU/INS의 센서 모델 정보, GNSS 수신정보, GNSS 위성 정보, GNSS 신호 정보, GNSS 네비게이션 정보, GNSS 신호의 전리층/대류층 신호지연 정보, DOP 정보, 지구 거동정보, 이중/다중 GNSS 장비 정보, GNSS Base Station 정보, Wheel 센서정보, 자이로 센서 Scale/Bias 정보, 가속도계 Scale/Bias 정보, 위치/자세/ 속도/가속도/각속도/각가속도 정보 및 예상오차량, 항법정보 필터링 모델 및 소거 오차 정보, 촬영날짜/시간, 시간동기화 정보 전부 또는 일부 중 적어도 하나를 포함할 수 있다.
이어서, 영상 센서용 내부 기하 모델링부(110), 3차원 측량 센서용 내부 기하 모델링부(112) 및 항법 센서용 내부 기하 모델링부(114)는 대응하는 각 센서(102~106)마다 정의된 기하 파라미터를 기초로 내부 기하를 산출하며, 데이터 융합부(116)는 내부 기하 및 센서들(102~106) 중 적어도 하나가 탑재된 플랫폼의 위치와 자세에 따른 각 센서 간의 기하 관계를 정의하는 외부 기하로 구성된 기하 구조 정보에 근거하여 기하 모델에 대한 데이터 융합을 수행한다(S410).
영상 센서용 내부 기하 모델링부(110)에 적용되는 영상 센서 기하 파라미터는 초점거리, 주점 위치, 렌즈왜곡 파라미터 및 센서 포맷 크기 중 적어도 어느 하나일 수 있다.
3차원 측량 센서용 내부 기하 모델링부(112)에 적용되는 3차원 측량 센서 기하 파라미터는 라이다 센서를 예로 들면, 각 레이저의 입사각, 거리 스케일, 거리 방향 오프셋 및 축방향 오프셋 중 적어도 어느 하나일 수 있다.
또한, 항법 센서용 내부 기하 모델링부(114)에 적용되는 항법 센서의 기하 파라미터는 축방향의 스케일 및 축방향의 오프셋 중 적어도 어느 하나일 수 있다.
구체적으로, 각 센서(102~106)마다내부 기하를 산출하는 상세 과정은 이하에서 예시하기로 한다.
도 5의 기하 모델에서 3차원 측량 센서(104)의 내부 기하 모델은 [수학식 1]과 같이 정의될 수 있다.
[수학식 1]
Figure 112018088805271-pat00001
또한, 도 5의 기하 모델에서 영상 센서(102)의 내부 기하 모델은 [수학식 2]와 같이 정의될 수 있다.
[수학식 2]
Figure 112018088805271-pat00002
이에 더하여, 정의된 3차원 측량 센서(104)의 내부 기하 모델 및 정의된 영상 센서(102)의 내부 기하 모델을 적용하여 데이터 융합을 하기 위한, 3차원 측량 센서(104)의 외부 기하모델은 도 5의 기하모델 있어서, [수학식 3]에서와 같이 정의되고, 영상 센서(102)의 외부 기하 모델은 [수학식 4]에서와 같이 정의될 수 있다.
[수학식 3]
Figure 112018088805271-pat00003
[수학식 4]
Figure 112018088805271-pat00004
계속해서, 제 1 확률 분석부(118)는 관측 데이터, 시간 정보, 각 센서(102~106)의 오측정으로 인한 대상물의 위치 오류도에 근거하여 대상물 위치에 대한 오류 확률을 제 1 확률 정보로 산출한다(S415).
대상물의 위치 오류도는 내부 기하, 외부 기하로 인한 오차에 기인하는 분산, 공분산일 수 있다.
다음으로, 점군 데이터/지오코딩 영상 데이터 생성부(120)는 관측 데이터, 데이터 융합된 기하 모델, 제 1 확률 정보에 기초하여, 3차원 점군 데이터 관련 정보 및 지오코딩 영상 데이터 관련 정보를 생성한다(S420).
3차원 점군 데이터 관련 정보는 점군용 3차원 좌표 데이터, 점군용 색상 정보, 점군용 3차원 좌표 데이터로부터 추출된 대상물에서 종류가 추정된 점군용 클래스 정보 및 3차원 측량 센서가 레이저 센서인 경우의 레이저 강도 정보 중 적어도 어느 하나를 포함할 수 있다. 3차원 점군 데이터 관련 정보에 속한 데이터 등에 의해 생성된 3차원 점군 데이터는 라이다 센서를 통해 생성된 것으로서, 예를 들어 도 6의 상부에 배치된 2개의 이미지로 생성될 수 있다.
지오코딩 영상 데이터 관련 정보는 각 픽셀마다의 지오코딩용 좌표 데이터, 지오코딩용 색상 정보 및 지오코딩용 좌표 데이터로부터 추출된 대상물에서 종류가 추정된 지오코딩용 클래스 정보 중 적어도 어느 하나를 포함할 수 있다.
지오코딩 영상 데이터 관련 정보에 속한 데이터 등에 의해 생성된 지오코딩 영상 데이터는 예컨대 도 6의 하부에 배치된 2개의 이미지로 생성되거나, 지상 플랫폼인 스테레오 카메라를 구비한 영상 센서에 의하면, 도 7의 이미지와 같이 생성되거나, 혹은, 공중 플랫폼의 영상 센서에 의하면, 도 8의 이미지와 같이 생성될 수 있다.
본 실시예에서는 점군 데이터 및 지오코딩 영상 데이터 관련 정보의 전부를 생성하는 예를 들고 있으나, 경우에 따라 이들 중 일부만 생성할 수도 있다.
객체 추출/지도 작성부(124)는 3차원 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 기초하여 추출된 대상물의 속성과 관련된 객체 정보를 추출한다(S425).
객체 추출/지도 작성부(124)는 3차원 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 어느 하나로부터 파악된 대상물과 관련된 후보군 데이터를 머신 러닝 기법으로 검출하고, 검출된 후보군 데이터에 순차적으로 추가 기계학습 모델을 적용하여 대상물의 정보를 인식할 수 있다. 이 경우에, 객체 정보는 대상물의 종류, 모양, 색상, 질감 관련 속성을 포함할 수 있다.
기계학습은 도 9에서와 같이, 대상물 객체 검출, 대상물 객체 인식 두 단계로 나누어져 수행되고, 대상물 객체 검출 단계에서는 대상물 객체의 모양, 색상, 질감 등의 벡터와 같은 속성을 기반으로 데이터 내에서 후보군을 기계학습을 통해 검출하고, 검출된 후보군에 순차적으로 추가 기계학습 모델을 적용하여 대상 사물이 나타내는 정보를 인식하여 분류한다.
객체 추출/지도 작성부(124)는 3차원 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 어느 하나와 함께, 객체 정보에 근거하여, 지도를 작성하기 위한 지도 관련 정보를 생성하여 도화 과정을 통해 지도를 작성한다(S430).
본 실시예에서는 기하 모델의 개념을 나타낸 도 5에서와 같은 수학적으로 정의된 기하모델로 센서로부터 관측된 대상점을 표준화된 절대좌표계로 변환하여 지도화시키는 구성을 포함한다.
여기서, 절대 좌표계(absolute coordinate system)는 다음과 같이 정의될 수 있다.
공간 상에서 임의 한 지점의 위치를 정의하기 위해서는 기준이 되는 좌표계가 있어야 한다. 그리고 3차원 공간 상에서 위치를 정의하기 위한 좌표계는 좌표축의 원점과 세 개의 직교하는 좌표축으로 구성된다.
좌표계는 목적에 따라 자유로이 설정할 수 있는데, 크게 설정되면 원점의 위치나 좌표축의 방향이 절대 변하지 않는 고정 좌표계인 절대 좌표계와, 이동 그리고 회전이 가능한 좌표계인 변동 좌표계로 구분할 수 있다.
본 발명은 형상 모델링이나 수치해석의 기준이 되는 절대 좌표계를 이용하는 것으로, 관측된 대상점을 표준화된 절대좌표계로 변환하여 지도화시키는 것이다.
이에 따라 생성된 지도 관련 정보는 점군용 3차원 좌표 데이터 및 지오코딩용 좌표 데이터 중 적어도 어느 하나에 기초한 지도용 좌표 데이터, 대상물로부터 추정된 객체 정보 중 적어도 어느 하나를 포함할 수 있다. 객체 추출/지도 작성부(124)는 지도 관련 정보에 속한 데이터를 이용하여 도 10에서와 같이 점, 선, 원, 다각형 등의 형상 등을 특징 개소로 지정하면서 지도를 생성할 수 있다.
다음으로 도 4b를 참조하면, 제 2 확률 분석부(122)는 후보군 데이터의 검출, 인식에 대한 오류도, 지도에서의 오류도 및 제 1 확률 정보에 근거하여 대상물의 객체 정보에 대한 오류 확률을 제 2 확률 정보로 산출한다(S435).
이어서, 데이터베이스부(126)는 각 부로부터 생성된 관측 데이터, 고유 데이터, 시간 정보, 취득 환경 정보, 기하 구조 정보, 제 1 및 제 2 확률 정보, 점군 데이터 관련 정보, 지오코딩 영상 데이터 관련 정보, 객체 정보, 지도 관련 정보를 포함하는 공간 데이터를 취합한다(S440).
상술한 데이터들은 관측 데이터 취합부(132), 센서 고유 데이터 취합부(134), 시간 정보 취합부(136), 취득 환경 정보 취합부(138), 기하 구조 정보 취합부(140), 확률 정보 취합부(142), 점군 데이터/지오코딩 영상 데이터 관련 정보 취합부(144), 객체/지도 관련 정보 취합부(146)에 의해 수신된다.
계속해서, 인덱스 생성부(148)는 소정 좌표계를 참조하여 설정된 3차원 공간 정보의 가상 격자점(152)마다 좌표계에 기반하여 인덱스를 부여하고, 공간 정보 구조화 저장부(150)는 인덱스와 연관된 공간 데이터를 구조화하여 저장한다(S445).
소정 좌표계는 객체 추출/지도 작성부(124)에서 작성되어 있는 지도에 적용된 지도 좌표계로서 전술한 절대 좌표계 또는 별도의 좌표계일 수 있으나, 이에 제한되지 않는다.
아울러, 공간 정보 구조화 저장부(150)는 도 2 및 도 3에 도시된 바와 같이, 가상 격자점에 상응하는 좌표 또는 좌표군에 속하는 공간 데이터를 인덱스와 연관하여 구조화 저장한다.
공간 데이터는 가상 격자점마다의 해당 좌표 등에 생성된 데이터로서, 관측 데이터, 내부 기하, 외부 기하, 고유 데이터, 시간 정보, 취득 환경 정보, 제 1 및 제 2 확률 정보, 점군 데이터 관련 정보, 지오코딩 영상 데이터 관련 정보, 객체 정보 및 지도 관련 정보를 포함할 수 있다.
공간 데이터로서 시간 정보가 포함되는 경우에, 인덱스 생성부(148)는 도 3에서와 같이, 서로 상이한 시간에 발생한 공간 데이터에 대한 서브 인덱스를 생성하고, 공간 정보 구조화 저장부(150)는 소정 좌표계에 따른 메인 인덱스에 해당하는 가상 격자점 내에 상이한 시간에 발생한 공간 데이터마다 서브 인덱스를 태그(tag)하여 공간 데이터를 시간 정보 별로 구조화하여 저장시킬 수 있다.
다음으로, 액세스부(128)는 지도에 대한 사용자의 지정 영역의 정보에 대한 요청에 따라, 지정 영역에 대응하는 인덱스를 참조하여 가상 격자점마다 공간 정보 구조화 저장부(150)에 접근하며, 지정 영역의 가상 격자점에 저장된 공간 데이터의 정보에 접근하여 출력받는다(S450).
본 실시예에서는 공간 데이터가 각 부에서 수신된 모든 데이터와 정보를 포함하는 것을 위주로 설명하였으나, 관측 데이터, 내부 기하, 외부 기하, 고유 데이터, 시간 정보, 취득 환경 정보, 제 1 및 제 2 확률 정보, 점군 데이터 관련 정보, 지오코딩 영상 데이터 관련 정보, 객체 정보 및 지도 관련 정보 중 적어도 어느 하나로 선택되도록 취합될 수 있다.
또한, 본 실시예에서는 센서(102~106)가 탑재된 플랫폼에 데이터베이스부(126)가 내장되어 있으나, 데이터베이스부(126)만이 별도의 장치에 구축되거나, 데이터베이스부(126), 액세스부(128), 갱신 보정부(130)의 모듈이 별도의 장치에 설치될 수도 있다. 만약 데이터베이스부(126) 등이 별도의 장치에 설치되는 실시예인 경우, 도 4b의 S445 및 S450 단계의 과정이 주로 적용된다.
이하, 도 1 내지 도 3 및 도 11을 참조하여, 본 발명의 다른 실시예에 따른 시스템에서 구현되는 공간 데이터의 갱신 보정 과정에 대해 설명하기로 한다. 도 11은 본 발명의 다른 실시예에 따른 시스템에서 구현되는 공간 데이터의 갱신 보정에 관한 순서도이다.
도 11을 참조하면, 갱신 보정부(130)는 공간 데이터기 구조화되어 저장된 후에, 센서들(102~106) 중 적어도 하나로부터 관측 데이터를 추가 수신하고, 공간 데이터와 관련된 정보로서 관측 데이터, 내부 기하, 외부 기하, 점군 데이터 관련 정보, 지오코딩 영상 데이터 관련 정보 및 지도 관련 정보 중 적어도 어느 하나를 생성한다(S1105).
이어서, 갱신 보정부(130)는 공간 정보의 메인 인덱스를 참조하여, 메인 인덱스에 속한 공간 데이터와 추가 생성된 적어도 어느 하나의 정보 간의 유사성으로 양 데이터의 중복 여부를 판별한다(S1110).
다음으로, 갱신 보정부(130)는 기존 및 신규 공간 데이터가 중복된다고 판단된 경우에, 추가 수신된 데이터에 대해, 해당 가상 격자점(152)에 공간 데이터로 등록함으로써, 해당 격자점의 공간 데이터를 갱신 내지 보정한다(S1115).
공간 데이터는 관측 데이터, 내부 기하, 외부 기하, 제 1 및 제 2 확률 정보, 점군 데이터 관련 정보, 지오코딩 영상 데이터 관련 정보, 객체 정보 및 지도 관련 정보를 신규 공간 데이터 중 기존 공간 데이터에 속한 데이터와 동일한 데이터로 설정된다. 이에 따라, 동일 가상 격자점에서 시간 정보가 상이한 신규 공간 데이터가 생성됨에 따라, 신규 서브 인덱스가 부여되면서 신규 공간 데이터가 추가하여 데이터 보정이 이루어질 수 있다.
계속해서, 갱신 보정부(130)는 기존 공간 데이터와 신규 공간 데이터 간의 중복도를 판정한 결과(S1120), 양 공간 데이터 간의 이격량이 임계치 이하인 경우, 정확도가 높은 공간 데이터로 선정함으로써, 공간 데이터를 갱신, 보정한다(S1125).
정확도가 높은 공간 데이터는 센서 정확도가 높은 데이터 또는 상당 시간이 경과하여 주변 지형, 지물이 변경될 확률이 높다고 판단되는 경우에 신규 공간 데이터 등일 수 있다.
도 1 내지 도 3에 도시된 GPS 단말 장치(100) 및 클라이언트(300)를 구성하는 구성요소 또는 도 4a, 도 4b 및 도 11에 도시된 실시예들에 따른 단계는 그 기능을 실현시키는 프로그램의 형태로 컴퓨터 판독가능한 기록 매체에 기록될 수 있다. 여기에서, 컴퓨터 판독 가능한 기록 매체란, 데이터나 프로그램 등의 정보를 전기적, 자기적, 광학적, 기계적, 또는 화학적 작용에 의해 축적하고, 컴퓨터에서 판독할 수 있는 기록 매체를 말한다. 이러한 기록 매체 중 컴퓨터로부터 분리 가능한 것으로서는, 예를 들면, 휴대용 스토리지(portalbe storage), 플렉시블 디스크, 광자기 디스크, CD-ROM, CD-R/W, DVD, DAT, 메모리 카드 등이 있다. 또한, 모바일 디바이스 및 컴퓨터에 고정된 기록 매체로서 SSD(Solid State Disk), 하드디스크나 ROM 등이 있다.
또한, 이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다.
이상에서 대표적인 실시예를 통하여 본 발명에 대하여 상세하게 설명하였으나, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리 범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태에 의하여 정해져야 한다.
100: 시스템 102: 영상 센서
104: 3차원 측량 센서 106: 항법 센서
108: 센서 관련 데이터 수집부
110~114: 영상센서용, 3차원 측량 센서용 및 항법 센서용 내부기하 모델링부
116: 데이터 융합부 118: 제 1 확률 분석부
120: 점군 데이터/지오코딩 영상 생성부
122: 제 2 확률 분석부 124: 객체 추출/지도 작성부
126: 데이터베이스부 128: 액세스부
130: 갱신 보정부

Claims (10)

  1. 영상 센서, 항법 센서 및 3차원 지리 데이터를 획득하는 3차원 측량 센서로부터 각각 관측 데이터를 수집하는 센서 관련 데이터 수집부;
    각 센서마다 정의된 기하 파라미터를 기초로 산출된 내부 기하 및 상기 센서들 중 적어도 하나가 탑재된 플랫폼의 위치와 자세에 따른 각 센서 간의 기하 관계를 정의하는 외부 기하로 구성된 기하 구조 정보에 근거하여 기하 모델에 대한 데이터 융합을 수행하는 데이터 융합부;
    상기 관측 데이터 및 상기 융합된 데이터에 기초하여, 상기 3차원 측량 센서에 기반한 점군 데이터 관련 정보 및 상기 영상 센서에 기반한 지오코딩(geocoding) 영상 데이터 관련 정보 중 적어도 어느 하나를 생성하는 생성부;
    상기 점군 데이터 관련 정보 및 상기 지오 코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 기초하여, 지도를 작성하기 위한 지도 관련 정보를 생성하는 지도 작성부;
    상기 관측 데이터, 상기 내부 기하, 상기 외부 기하, 상기 점군 데이터 관련 정보, 상기 지오코딩 영상 데이터 관련 정보 및 상기 지도 관련 정보 중 적어도 하나를 공간 데이터로 선택하여 취합하고, 소정 좌표계를 참조하여 설정된 3차원 공간 정보의 가상 격자점마다 상기 좌표계에 기반하여 인덱스를 부여하며, 상기 공간 데이터를 상기 인덱스와 연관하여 구조화 저장하는 데이터베이스부; 및
    상기 지도에 대한 사용자의 지정 영역의 정보에 대한 요청에 따라, 상기 지정 영역에 대응하는 상기 인덱스를 참조하여 상기 가상 격자점마다 접근하여, 상기 지정 영역의 가상 격자점에 저장된 상기 공간 데이터의 정보를 출력받는 액세스부를 포함하고,
    상기 관측 데이터, 각 센서의 취득 시간에 대한 시간 정보, 각 센서의 오측정으로 인한 대상물의 위치 오류도에 근거하여 상기 대상물 위치에 대한 오류 확률을 제 1 확률 정보로 산출하며, 상기 제 1 확률 정보를 상기 생성부에 제공하여, 상기 점군 데이터 관련 정보 및 상기 지오코딩 영상 데이터 관련 정보 중 적어도 어느 하나를 생성하는데 상기 제 1 확률 정보를 근거 데이터로 더 포함하는 제 1 확률 분석부를 더 포함하고,
    상기 공간 데이터로 선택가능한 정보는 상기 제 1 확률 정보를 더 포함하는 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템.
  2. 제 1 항에 있어서,
    상기 점군 데이터 관련 정보는 점군용 3차원 좌표 데이터, 점군용 색상 정보, 상기 점군용 3차원 좌표 데이터로부터 추출된 대상물에서 종류가 추정된 점군용 클래스 정보 및 상기 3차원 측량 센서가 레이저 센서인 경우의 레이저 강도 정보 중 적어도 어느 하나를 포함하고,
    상기 지오코딩 영상 데이터 관련 정보는 각 픽셀마다의 지오코딩용 좌표 데이터, 지오코딩용 색상 정보 및 상기 지오코딩용 좌표 데이터로부터 추출된 대상물에서 종류가 추정된 지오코딩용 클래스 정보 중 적어도 어느 하나를 포함하며,
    상기 지도 관련 정보는 상기 점군용 3차원 좌표 데이터 및 상기 지오코딩용 좌표 데이터 중 적어도 어느 하나에 기초한 지도용 좌표 데이터, 상기 대상물로부터 추정된 객체 정보 중 적어도 어느 하나를 포함하는 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템.
  3. 제 1 항에 있어서,
    상기 센서 관련 데이터 수집부는 각 센서마다 장치 고유 속성과 관련된 고유 데이터, 상기 시간 정보, 각 센서 혹은 상기 플랫폼에서의 관측 데이터 취득시에 나타난 날씨, 풍속, 상기 센서 또는 상기 플랫폼이 위치된 기온, 습도를 포함하는 취득 환경 정보를 더 수집하고, 상기 공간 데이터로 선택가능한 정보는 상기 고유 데이터, 상기 시간 정보, 상기 취득 환경 정보를 더 포함하는 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템.
  4. 제 3 항에 있어서,
    상기 시간 정보가 상기 공간 데이터로 선택되는 경우에 , 서로 상이한 시간에 발생한 공간 데이터의 정보를 상기 시간 정보 별로 구조화하여 저장되는 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템.
  5. 삭제
  6. 제 1 항에 있어서,
    상기 점군 데이터 관련 정보 및 상기 지오코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 근거하여 추출한 대상물의 속성이 추정된 객체 정보를 추출하는 객체 추출부를 더 포함하고,
    상기 객체 정보는 상기 대상물의 종류, 모양, 색상, 질감 관련 속성을 포함하고, 상기 공간 데이터로 선택가능한 정보는 상기 객체 정보를 더 포함하는 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템.
  7. 제 6 항에 있어서,
    상기 객체 추출부는 상기 대상물과 관련된 후보군 데이터를 머신 러닝 기법으로 검출하고, 검출된 후보군 데이터에 순차적으로 추가 기계학습 모델을 적용하여 상기 대상물의 정보를 인식하는 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템.
  8. 제 7 항에 있어서,
    상기 후보군 데이터의 검출, 인식에 대한 오류도, 상기 지도에서의 오류도 및 상기 제 1 확률 정보에 근거하여 상기 대상물의 객체 정보에 대한 오류 확률을 제 2 확률 정보로 산출하는 제 2 확률 분석부를 더 포함하고,
    상기 공간 데이터로 선택가능한 정보는 상기 제 2 확률 정보를 더 포함하는 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템.
  9. 제 1 항에 있어서,
    상기 공간 데이터가 구조화되어 저장된 후에, 상기 센서들 중 적어도 하나로부터 추가 수신하여 생성된 관측 데이터, 내부 기하, 외부 기하, 점군 데이터 관련 정보, 지오코딩 영상 데이터 관련 정보 및 지도 관련 정보관측 데이터 중 적어도 어느 하나와 상기 인덱스로 참조된 공간 데이터의 정보가 중복된 경우에, 추가 수신된 관측 데이터를 공간 데이터로 획득하며, 기존 공간 데이터와 신규 공간 데이터 간의 중복도를 판정한 결과, 양 공간 데이터 간의 이격량이 임계치 이하인 경우, 상기 기존 공간 데이터와 상기 신규 공간 데이터 중 정확도가 높다고 판정되는공간 데이터로 선정하는 갱신 보정부를 더 포함하는 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템.
  10. 영상 센서, 항법 센서 및 3차원 지리 데이터를 획득하는 3차원 측량 센서로부터 각각 수집된 관측 데이터, 각 센서마다 정의된 기하 파라미터를 기초로 산출된 내부 기하, 상기 센서들 중 적어도 어느 하나가 탑재된 플랫폼의 위치와 자세에 따른 각 센서 간의 기하 관계를 정의하는 외부 기하, 상기 3차원 측량 센서에 기반한 점군 데이터 관련 정보, 상기 영상 센서에 기반한 지오코딩 영상 데이터 관련 정보, 제 1 확률 정보, 및 지도 관련 정보 중 적어도 어느 하나를 공간 데이터로 취합하고, 소정 좌표계를 참조하여 설정된 3차원 공간 정보의 가상 격자점마다 상기 좌표계에 기반하여 인덱스를 부여하며, 상기 공간 데이터를 상기 인덱스와 연관하여 구조화 저장하는 데이터베이스부; 및
    상기 지도에 대한 사용자의 지정 영역의 정보에 대한 요청에 따라, 상기 지정 영역에 대응하는 상기 인덱스를 참조하여 상기 가상 격자점마다 접근하여, 상기 지정 영역의 가상 격자점에 저장된 상기 공간 데이터의 정보를 출력받는 액세스부를 포함하고,
    상기 지도 정보는 상기 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 기초하여, 지도를 작성하기 위해 생성되며,
    상기 제 1 확률 정보는 상기 관측 데이터, 각 센서의 취득 시간에 대한 시간 정보, 각 센서의 오측정으로 인한 대상물의 위치 오류도에 근거하여 산출되는 상기 대상물 위치에 대한 오류 확률을 나타내고,
    상기 점군 데이터 관련 정보 및 상기 지오코딩 영상 데이터 관련 정보 중 적어도 어느 하나는 상기 제 1 확률 정보에 근거하여 생성되는 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템.
KR1020180106612A 2018-09-06 2018-09-06 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템 KR102118357B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180106612A KR102118357B1 (ko) 2018-09-06 2018-09-06 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180106612A KR102118357B1 (ko) 2018-09-06 2018-09-06 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템

Publications (2)

Publication Number Publication Date
KR20200028210A KR20200028210A (ko) 2020-03-16
KR102118357B1 true KR102118357B1 (ko) 2020-06-03

Family

ID=69948670

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180106612A KR102118357B1 (ko) 2018-09-06 2018-09-06 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템

Country Status (1)

Country Link
KR (1) KR102118357B1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112965076A (zh) * 2021-01-28 2021-06-15 上海思岚科技有限公司 一种用于机器人的多雷达定位系统及方法
KR102381678B1 (ko) * 2021-03-31 2022-04-01 주식회사 클로버스튜디오 포인트 클라우드를 이용한 무인이동체의 4차원 경로 표출 방법
KR102599649B1 (ko) * 2021-06-09 2023-11-07 주식회사 포스웨이브 다수의 무인 비행체를 이용한 공간분할 방식의 위치정보제공 시스템 및 방법
CN113901168B (zh) * 2021-12-10 2022-04-12 中冶智诚(武汉)工程技术有限公司 一种基于互联网地图平台的自有数据扩展融合方法
KR102514725B1 (ko) * 2022-03-18 2023-03-29 주식회사 클로버스튜디오 포인트 클라우드를 이용한 무인 이동체용 코리도 및 경로의 표시 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100728377B1 (ko) 2006-11-09 2007-06-13 주식회사 유삼씨앤씨 레이저 스캐너 및 무선인터넷을 이용한 변경된 지역시설물의 gis 실시간 업데이트 방법
KR100948101B1 (ko) 2009-06-24 2010-03-16 한진정보통신(주) 시계열 영상의 스테레오 뷰어 다중 연동을 이용한 변화지역 공간정보 추출 시스템
KR101180415B1 (ko) 2011-09-29 2012-09-07 신명유아이주식회사 모바일 매핑 시스템을 이용한 도로대장 구축 시스템
KR101794883B1 (ko) * 2016-12-23 2017-11-09 주식회사 포스웨이브 분산 파일 시스템에서의 대용량 공간 데이터의 고속 분산 색인 생성 및 저장 방법
KR101849946B1 (ko) 2017-11-08 2018-04-19 주식회사 이엔지소프트 Gps를 이용한 재난지역 대피 경로 생성 시스템

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0179483B1 (ko) 1996-09-13 1999-04-01 기아자동차주식회사 차량용 정지신호출력 제어장치
KR20140049361A (ko) * 2012-10-17 2014-04-25 한국과학기술원 다중 센서 시스템, 이를 이용하는 3차원 월드 모델링 장치 및 방법
KR20160099336A (ko) * 2015-02-12 2016-08-22 재단법인대구경북과학기술원 모바일 매핑 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100728377B1 (ko) 2006-11-09 2007-06-13 주식회사 유삼씨앤씨 레이저 스캐너 및 무선인터넷을 이용한 변경된 지역시설물의 gis 실시간 업데이트 방법
KR100948101B1 (ko) 2009-06-24 2010-03-16 한진정보통신(주) 시계열 영상의 스테레오 뷰어 다중 연동을 이용한 변화지역 공간정보 추출 시스템
KR101180415B1 (ko) 2011-09-29 2012-09-07 신명유아이주식회사 모바일 매핑 시스템을 이용한 도로대장 구축 시스템
KR101794883B1 (ko) * 2016-12-23 2017-11-09 주식회사 포스웨이브 분산 파일 시스템에서의 대용량 공간 데이터의 고속 분산 색인 생성 및 저장 방법
KR101849946B1 (ko) 2017-11-08 2018-04-19 주식회사 이엔지소프트 Gps를 이용한 재난지역 대피 경로 생성 시스템

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
이지상 외4명, 다차원 도로정보 구축을 위한 MMS 노이즈 자동제거 알고리즘,2017 대한토목학회 정기학술대회,19-20 페이지 참조
홍승환 외4명, 레이저, 영상 기술 기반 도로시설정보지도 3차원 맵핑 시스템 설계 및 활용에 대한 연구, 2016 대한토목학회 정기학술대회, 27-28페이지 참조

Also Published As

Publication number Publication date
KR20200028210A (ko) 2020-03-16

Similar Documents

Publication Publication Date Title
KR102118357B1 (ko) 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템
CN107677279B (zh) 一种定位建图的方法及系统
JP6745328B2 (ja) 点群データを復旧するための方法及び装置
CN109084746B (zh) 用于具有辅助传感器的自主平台引导系统的单目模式
KR102548282B1 (ko) 고정밀도 맵 작성 방법 및 장치
US11313684B2 (en) Collaborative navigation and mapping
US11328521B2 (en) Map construction method, electronic device and readable storage medium
CN108763287B (zh) 大规模可通行区域驾驶地图的构建方法及其无人驾驶应用方法
CN109270545B (zh) 一种定位真值校验方法、装置、设备及存储介质
JP2021152662A (ja) リアルタイムのマッピングと位置確認のための方法及び装置
KR102127679B1 (ko) 정사영상에 기반한 센서 탑재 이동형 플랫폼의 기하 보정 시스템
KR102200299B1 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
KR102239562B1 (ko) 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템
AU2020375559B2 (en) Systems and methods for generating annotations of structured, static objects in aerial imagery using geometric transfer learning and probabilistic localization
KR102130687B1 (ko) 다중 센서 플랫폼 간 정보 융합을 위한 시스템
US20190197029A1 (en) Methods, systems and apparatus to improve spatial-temporal data management
KR102408981B1 (ko) Nd 맵 생성방법 및 그를 활용한 맵 업데이트 방법
KR102249381B1 (ko) 3차원 영상 정보를 이용한 모바일 디바이스의 공간 정보 생성 시스템 및 방법
Tse et al. 3D city modelling from LIDAR data
CN113960614A (zh) 一种基于帧-地图匹配的高程图构建方法
Pang et al. FLAME: Feature-likelihood based mapping and localization for autonomous vehicles
Venable Improving Real-World Performance of Vision Aided Navigation in a Flight Environment
Venable Improving Real World Performance for Vision Navigation in a Flight Environment
KR102624644B1 (ko) 벡터 맵을 이용한 이동체의 맵 매칭 위치 추정 방법
KR102249380B1 (ko) 기준 영상 정보를 이용한 cctv 장치의 공간 정보 생성 시스템

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant