KR102557606B1 - 자율주행 및 관제를 위한 컨텍스트 맵 구축 방법 - Google Patents

자율주행 및 관제를 위한 컨텍스트 맵 구축 방법 Download PDF

Info

Publication number
KR102557606B1
KR102557606B1 KR1020220136440A KR20220136440A KR102557606B1 KR 102557606 B1 KR102557606 B1 KR 102557606B1 KR 1020220136440 A KR1020220136440 A KR 1020220136440A KR 20220136440 A KR20220136440 A KR 20220136440A KR 102557606 B1 KR102557606 B1 KR 102557606B1
Authority
KR
South Korea
Prior art keywords
information
context
map
area
awareness
Prior art date
Application number
KR1020220136440A
Other languages
English (en)
Inventor
최충재
성낙명
이석준
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Priority to PCT/KR2022/016158 priority Critical patent/WO2024085287A1/ko
Priority to KR1020220136440A priority patent/KR102557606B1/ko
Application granted granted Critical
Publication of KR102557606B1 publication Critical patent/KR102557606B1/ko

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3885Transmission of map data to client devices; Reception of map data by client devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/0031
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

자율주행 및 관제를 위한 컨텍스트 맵 구축 방법이 제공된다. 본 발명의 실시예에 따른 컨텍스트 맵 구축 방법은, 대상 지역의 2D 맵을 생성하고, 대상 지역의 해당 구역들에서 상황인지 정보들을 획득하며, 획득된 상황인지 정보들을 2D 맵의 해당 구역들에 각각 매칭하여 컨텍스트 맵을 생성한다. 이에 의해, 모빌리티 플랫폼들로부터 획득/수집되는 구체적인 상황인지 정보를 그리드로 구획된 영역들에 각각 매칭되어 있는 컨텍스트 맵을 구축함으로써, 대상 지역 내의 상황을 구역별로 정확하게 모니터링하고, 자율주행을 위한 최적의 경로 계획과 위험 상황의 관제 등에 유용하게 활용할 수 있게 된다.

Description

자율주행 및 관제를 위한 컨텍스트 맵 구축 방법{Context map build method for autonomous driving and control}
본 발명은 맵 제작 기술에 관한 것으로, 더욱 상세하게는 구체적인 상황인지 정보가 융합되어 있고 해당 정보가 업데이트 되는 컨텍스트 맵을 구축하는 방법에 관한 것이다.
맵(Map)은 모빌리티 플랫폼의 자율주행 및 관제를 위한 필수 정보로, 다양한 센서들을 통해 획득한 데이터들을 활용하여 구축한다. SLAM(Simultaneous Localization and Mapping)은 대표적인 맵 구축 기술이며, 이에 의해 구축된 맵을 도 1에 예시하였다.
이와 같은 방식에 의해 구축된 맵은 구체적인 지리적인 정보 이외에 다른 정보, 이를 테면 상황인지 정보가 없다. 시맨틱 기술을 통해 대략적인 환경 정보가 부가되어 있는 맵이 있기는 하지만, 자율주행을 위한 경로 계획(path planning)이나 위험 상황의 관제 등을 위해 활용하기에는 매우 미흡하다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 모빌리티 플랫폼들로부터 획득/수집되는 구체적인 상황인지 정보가 융합되어 있고 해당 정보가 업데이트 되는 컨텍스트 맵을 구축하는 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 컨텍스트 맵 구축 방법은, 대상 지역의 2D 맵을 생성하는 단계; 대상 지역의 해당 구역들에서 상황인지 정보들을 획득하는 제1 획득단계; 제1 획득단계를 통해 획득된 상황인지 정보들을 2D 맵의 해당 구역들에 각각 매칭하여, 컨텍스트 맵을 생성하는 단계;를 포함한다.
생성 단계는, 대상 지역의 3D 맵을 생성하는 단계; 생성된 3D 맵을 2D 맵으로 사상하는 단계; 생성된 2D 맵을 그리드 형태로 구획하여 해당 구역들을 구분하는 단계;를 포함할 수 있다.
획득 단계는, 다수의 모빌리티 플랫폼들로부터 상황인지 정보들을 획득할 수 있다.
모빌리티 플랫폼들은, 공중 이동체와 지상 이동체 중 적어도 하나를 포함할 수 있다.
상황인지 정보들은, 해당 구역의 장소에 대한 정보, 해당 구역에 있는 객체들에 대한 정보, 해당 구역의 상태에 대한 정보를 포함할 수 있다.
객체들에 대한 정보는, 해당 구역에 있는 객체들의 종류와 수에 대한 정보를 포함할 수 있다.
상태에 대한 정보는, 해당 구역의 혼잡도, 위험 요소에 대한 정보를 포함할 수 있다.
본 발명의 실시예에 따른 컨텍스트 맵 구축 방법은, 대상 지역의 해당 구역들에서 상황인지 정보들을 획득하는 제2 획득단계; 제2 획득단계를 통해 획득된 상황인지 정보들을 이용하여, 2D 맵의 해당 구역들에 각각 매칭된 상황인지 정보들을 추가하거나 업데이트하는 단계;를 더 포함할 수 있다.
본 발명의 실시예에 따른 컨텍스트 맵 구축 방법은, 생성된 컨텍스트 맵을 모빌리티 플랫폼에 제공하는 단계;를 더 포함할 수 있다.
본 발명의 다른 실시예에 따른 컨텍스트 맵 구축 시스템은, 외부 기기들로부터 상황인지 정보들을 획득하는 통신부; 및 대상 지역의 2D 맵을 생성하고, 통신부를 통해 대상 지역의 해당 구역들에서 상황인지 정보들을 획득하며, 획득된 상황인지 정보들을 2D 맵의 해당 구역들에 각각 매칭하여 컨텍스트 맵을 생성하는 프로세서;를 포함한다.
본 발명의 또 다른 실시예에 따른 컨텍스트 맵 구축 방법은, 대상 지역의 해당 구역들에서 상황인지 정보들을 획득하는 제1 획득단계; 제1 획득단계를 통해 획득된 상황인지 정보들을 2D 맵의 해당 구역들에 각각 매칭하여, 컨텍스트 맵을 생성하는 단계; 및 생성된 컨텍스트 맵을 모빌리티 플랫폼에 제공하는 단계;를 포함한다.
본 발명의 또 다른 실시예에 따른 컨텍스트 맵 구축 시스템은, 외부 기기들로부터 상황인지 정보들을 획득하는 통신부; 및 통신부를 통해 대상 지역의 해당 구역들에서 상황인지 정보들을 획득하고, 획득된 상황인지 정보들을 2D 맵의 해당 구역들에 각각 매칭하여 컨텍스트 맵을 생성하며, 생성된 컨텍스트 맵을 통신부를 통해 외부기기들에 제공하는 프로세서;를 포함한다.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 모빌리티 플랫폼들로부터 획득/수집되는 구체적인 상황인지 정보를 그리드로 구획된 영역들에 각각 매칭되어 있는 컨텍스트 맵을 구축함으로써, 대상 지역 내의 상황을 구역별로 정확하게 모니터링하고, 자율주행을 위한 최적의 경로 계획과 위험 상황의 관제 등에 유용하게 활용할 수 있게 된다.
도 1은 종래의 맵을 예시한 도면,
도 2는 본 발명의 일 실시예에 따른 컨텍스트 맵 구축 방법의 설명에 제공되는 흐름도,
도 3은 3D 맵을 사상하여 2D 맵을 생성한 결과를 예시한 도면,
도 4는 2D 맵을 2D 그리드 형태에 따라 다수의 구역들로 구분한 결과를 나타낸 도면,
도 5는 이동 로봇과 드론에 의해 두 구역들에 대한 상황인지 정보들을 획득된 상황을 예시한 도면,
도 6은, 도 5에서 획득된 상황인지 정보들을 해당 구역들에 각각 매칭하여 컨텍스트 맵을 생성한 결과를 나타낸 도면,
도 7은 컨텍스트 맵의 업데이트 결과를 예시한 도면,
도 8은 본 발명의 다른 실시예에 따른 컨텍스트 맵 구축 시스템의 블럭도이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
본 발명의 실시예에서는 자율주행 및 관제를 위한 컨텍스트 맵 구축 방법을 제시한다. 대상 지역을 이동하고 있는 다수의 모빌리티 플랫폼들이 획득한 상황인지 정보를 활용&융합하여 컨텍스트 맵을 구축함으로써, 자율주행이나 관제에 활용하는 기술이다.
컨텍스트 맵에 융합되는 상황인지 정보는 대략적인 환경 정보가 아닌 구체적인 상황을 인지한 내용에 대한 정보이며, 이 정보는 컨텍스트 맵을 그리드 형태로 구획한 각 구역들에 매칭되어 저장된다.
도 2는 본 발명의 일 실시예에 따른 컨텍스트 맵 구축 방법의 설명에 제공되는 흐름도이다.
컨텍스트 맵 구축을 위해 먼저 대상 지역의 3D 맵을 생성한다(S110). S110단계에서의 3D 맵 생성은 SLAM(Simultaneous Localization and Mapping) 기법, 이를 테면 3D LiDAR SLAM을 이용할 수 있다.
다음 S110단계에서 생성된 3D 맵을 2D 평면으로 사상(projection) 하여, 2D 맵으로 변환한다(S120). 자율주행이나 관제에는 3D 맵 보다는 2D 맵이 유용하기 때문에, S120단계가 필요하다. 도 3에는 3D 맵을 사상하여 2D 맵을 생성한 결과를 예시하였다.
이후 S120단계에서 생성된 2D 맵을 2D 그리드 형태로 구획하여 대상 지역을 다수의 구역들로 구분한다(S130). 도 4에는 2D 맵을 2D 그리드 형태에 따라 다수의 구역들로 구분한 결과를 나타내었다.
S110단계 내지 S130단계를 통해 컨텍스트 맵 구축에 필요한 2D 그리드 맵이 확보되었다. 이하에서는 상황인지 정보(컨텍스트)를 획득하여 2D 그리드 맵과 융합시키는 과정에 대해 설명한다.
이를 위해, 대상 지역의 해당 구역들에서 상황인지 정보들을 획득/수집한다(S140). 상황인지 정보는 대상 지역을 이동하고 있는 모빌리티 플랫폼으로부터 제공받을 수 있다. 한 대가 아닌 여러 대의 모빌리티 플랫폼들로부터 상황인지 정보들을 제공받는 것도 가능하다. 모빌리티 플랫폼들이 다수라 할지라도 컨텍스트 맵은 하나만 구축된다.
모빌리티 플랫폼은 보유하고 있는 센서들(이미지 센서, 라이다, 레이더, 환경 센서 등)을 기반으로 다양한 상황들을 인지하여 상황인지 정보를 생성할 수 있다.
나아가 모빌리티 플랫폼은 다양한 이동체에 탑재될 수 있다. 이를 테면, 드론, 이동로봇, 자율 주행차 등에 탑재된 모빌리티 플랫폼들을 이용하여 상황인지 정보 수집이 가능하다.
상황인지 정보는 해당 구역에 대한 1) 장소 정보, 2) 객체 정보, 3) 상태 정보를 포함한다. 1) 장소 정보는 해당 구역이 어떠한 장소(도로, 건물, 공원, 인도 등) 인지 설명하여 주는 정보이다. 2) 객체 정보는 해당 구역에 있는 객체들(사람, 차량 등)을 설명하여 주는 정보로, 객체의 종류와 수에 대한 정보를 포함한다. 3) 상태 정보는 해당 구역의 상태를 설명하여 주는 정보로, 혼잡도(도로 정체 여부, 이동 가능 속도, 사람들의 응집도 등)와 위험 요소(장애물, 방해물, 화재, 침수, 사고발생, 범죄 등)에 대한 정보를 포함한다.
한편 S140단계에서 상황인지 정보는 모빌리티 플랫폼의 위치정보, 즉, 모빌리티 플랫폼이 상황인지 정보를 획득한 위치의 좌표정보와 함께 제공된다. 위치정보는 상황인지 정보를 컨텍스트 맵에서 해당 구역에 매칭시키는데 필요하기 때문이다.
도 5에는 이동 로봇과 드론에 의해 두 구역들에 대한 상황인지 정보들을 획득된 상황을 예시하였다.
상황인지 정보들이 획득되면, 획득된 상황인지 정보들을 2D 그리드 맵의 해당 구역들에 각각 매칭하여 컨텍스트 맵을 생성한다(S150). S150단계에서 상황인지 정보와 2D 그리드 맵 구역의 매칭은 상황인지 정보와 함께 전송되는 위치정보를 참고로 이루어진다.
도 6에는 도 5에서 획득된 상황인지 정보들을 위치정보(상황인지 정보를 획득한 좌표)를 참고하여, 2D 그리드 맵의 해당 구역들에 각각 매칭하여 컨텍스트 맵을 생성한 결과를 나타내었다.
이후 S150단계에서 생성된 컨텍스트 맵을 업데이트한다(S160). 업데이트는 모빌리티 플랫폼으로부터 1) 새롭게 획득되는 상황인지 정보를 기구축된 컨텍스트 맵에 추가하거나, 2) 새롭게 획득되는 상황인지 정보로 기구축된 컨텍스트 맵을 수정하는 것이다.
'1)'은 새롭게 획득되는 상황인지 정보의 해당 구역에 아직 상황인지 정보가 매칭되어 있지 않은 경우에 수행하는 것이고, '2)'는 새롭게 획득되는 상황인지 정보의 해당 구역에 상황인지 정보가 이미 매칭되어 있는 경우에 매칭된 과거의 상황인지 정보를 새로운 상황인지 정보로 수정하는 것이다.
도 7에는 '1)'에 해당하는 업데이트, 즉 새롭게 획득되는 상황인지 정보를 컨텍스트 맵에 추가하는 업데이트를 예시하였다. S160단계의 업데이트는 모빌리티 플랫폼에 의해 상황인지 정보가 획득될 때마다 수행된다.
S150단계에서 생성되어 S160단계를 통해 업데이트 되는 컨텍스트 맵은 모빌리티 플랫폼의 자율 주행을 위한 경로 생성 및 지역 관제 등에 활용될 수 있다(S170).
S170단계에서 컨텍스트 맵을 활용하는 모빌리티 플랫폼은 S140단계에서 상황인지 정보를 획득하여 제공하여 주는 모빌리티 플랫폼, 즉 컨텍스트 맵의 구축/업데이트에 기여하는 모빌리티 플랫폼일 수도 있고, 그렇지 않은 모빌리티 플랫폼, 즉 컨텍스트 맵의 구축/업데이트에 기여하지 않는 모빌리티 플랫폼일 수도 있다.
도 8은 본 발명의 다른 실시예에 따른 컨텍스트 맵 구축 시스템의 블럭도이다. 본 발명의 실시예에 따른 컨텍스트 맵 구축 시스템은 도시된 바와 같이, 통신부(210), 프로세서(220) 및 저장부(230)를 포함하여 구축된다.
통신부(210)는 대상 지역에서 이동하는 이동체에 탑재되어 있는 모빌리티 플랫폼과 상호 통신을 위한 수단이다.
프로세서(220)는 대상 지역에 대한 2D 그리드 맵을 생성하고, 통신부(210)를 통해 모빌리티 플랫폼들로부터 획득되는 상황인지 정보들을 2D 그리드 맵에 매칭하여 컨텍스트 맵을 생성한다.
또한 프로세서(220)는 모빌리티 플랫폼들로부터 상황인지 정보들을 계속 제공받아 컨텍스트 맵을 업데이트하며, 컨텍스트 맵을 필요로 하는 모빌리티 플랫폼에 대해서는 통신부(210)를 통해 컨텍스트 맵을 제공한다.
저장부(230)는 프로세서(220)가 컨텍스트 맵을 구축하고 업데이트 함에 있어 필요로 하는 저장 공간을 제공한다.
지금까지 자율주행 및 관제를 위한 컨텍스트 맵 구축 방법에 대해 바람직한 실시 실시예를 들어 상세히 설명하였다.
본 발명의 실시예에서는 구체적인 상황인지 정보를 포함하는 컨텍스트 맵을 구축/업데이트하여, 기존의 맵들 보다 더 구체적인 상황인지 정보를 제공하여 다양한 모빌리티 플랫폼의 자율주행 및 원격관제에 활용할 수 있도록 하였다.
컨텍스트 맵은 그리드 형태로써 대상 지역의 각 구역들을 구분함으로써, 상황인지 정보에 대한 매칭의 편의와 위치 정확도를 향상시켰다.
또한 이종의 다중 모빌리티 플랫폼들(드론, 로봇, 자율주행차 등)의 어떠한 조합에 관계없이 컨텍스트 맵 구축/업데이트를 협업할 수 있도록 하였으며, 컨텍스트 맵 구축에 기여하지 않은 모빌리티 플랫폼의 경우도 컨텍스트 맵을 활용할 수 있도록 하였다.
컨텍스트 맵의 상황인지 정보를 활용하면, 위험 발생가능성이 높은 상황에 대해 선제 대응이 가능하게 되고, 자율주행 모빌리티 플랫폼의 최적화된 경로 생성이 가능해지며, 사람 친화적인 주행(Social Navigation)이 가능해질 수 있다.
한편 동일 구역에 대해 동일 시점에 다수의 모빌리티 플랫폼들로부터 상황인지 정보가 획득되는 경우가 있을 수 있다. 이 경우 획득된 상황인지 정보들을 해당 구역에 매칭시켜야 하는데, 문제는 상황인지 정보의 내용이 다른 경우이다.
이 경우에는 상황인지 정보를 해당 구역에 매칭함에 있어, 이동체의 종류에 따라 우선순위를 두어 운용하는 것이 가능하다. 이동로봇과 드론에 의해 상황인지 정보들이 획득된 경우를 상정하면, 우선순위는 다음과 같이 부여할 수 있다.
1) 장소 정보(도로, 건물, 공원, 인도 등)에 대해서는, 공중 이동체인 드론에 의해 획득된 상황인지 정보를 신뢰하여, 해당 구역의 장소 정보는 드론에 의해 획득된 정보를 매칭
2) 객체 정보(사람, 차량 등)에 대해서는, 지상 이동체인 이동로봇에 의해 획득된 상황인지 정보를 신뢰하여, 해당 구역의 객체 정보는 이동로봇에 의해 획득된 정보를 매칭
3) 상태 정보 중 혼잡도(도로 정체 여부, 이동 가능 속도, 사람들의 응집도 등)에 대해서는, 공중 이동체인 드론에 의해 획득된 상황인지 정보를 신뢰하여, 해당 구역의 혼잡도 정보는 드론에 의해 획득된 정보를 매칭
4) 상태 정보 중 위험 요소(장애물, 방해물, 화재, 침수, 사고발생, 범죄 등)에 대해서는, 지상 이동체인 이동로봇에 의해 획득된 상황인지 정보를 신뢰하여, 해당 구역의 위험 요소 정보는 이동로봇에 의해 획득된 정보를 매칭
한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
210 : 통신부
220 : 프로세서
230 : 저장부

Claims (12)

  1. 대상 지역의 2D 맵을 생성하는 단계;
    대상 지역의 해당 구역들에서 상황인지 정보들을 획득하는 제1 획득단계;
    제1 획득단계를 통해 획득된 상황인지 정보들을 2D 맵의 해당 구역들에 각각 매칭하여, 컨텍스트 맵을 생성하는 단계;
    대상 지역의 해당 구역들에서 상황인지 정보들을 획득하는 제2 획득단계;
    제2 획득단계를 통해 획득된 상황인지 정보들을 이용하여, 2D 맵의 해당 구역들에 각각 매칭된 상황인지 정보들을 추가하거나 업데이트하는 단계;를 포함하고,
    상황인지 정보들은,
    해당 구역이 어떠한 장소인지 설명하여 주는 정보, 해당 구역에 있는 객체들에 대한 정보, 해당 구역의 상태에 대한 정보를 포함하며,
    상태에 대한 정보는,
    해당 구역의 혼잡도, 위험 요소에 대한 정보를 포함하고,
    해당 구역의 혼잡도는,
    도로 정체 여부, 이동 가능 속도, 사람들의 응집도에 대한 정보를 포함하며,
    위험 요소에 대한 정보는,
    장애물이나 방해물의 존재 여부, 화재, 침수, 사고, 범죄의 발생 여부에 대한 정보를 포함하고,
    제1 획득 단계와 제2 획득 단계는,
    다수의 모빌리티 플랫폼들로부터 상황인지 정보들을 획득하며,
    모빌리티 플랫폼들은,
    공중 이동체와 지상 이동체를 포함하고,
    업데이트 단계는,
    동일 구역에 대해 동일 시점에 다수의 모빌리티 플랫폼들로부터 상황인지 정보가 획득된 경우, 획득된 상황인지 정보들의 내용이 다르면 상황인지 정보의 종류에 따라 모빌리티 플랫폼들의 종류에 각기 다른 우선순위를 부여하여 상황인지 정보를 업데이트하는 것을 특징으로 하는 컨텍스트 맵 구축 방법.
  2. 청구항 1에 있어서,
    생성 단계는,
    대상 지역의 3D 맵을 생성하는 단계;
    생성된 3D 맵을 2D 맵으로 사상하는 단계;
    생성된 2D 맵을 그리드 형태로 구획하여 해당 구역들을 구분하는 단계;를 포함하는 것을 특징으로 하는 컨텍스트 맵 구축 방법.
  3. 삭제
  4. 삭제
  5. 삭제
  6. 청구항 1에 있어서,
    객체들에 대한 정보는,
    해당 구역에 있는 객체들의 종류와 수에 대한 정보를 포함하는 것을 특징으로 하는 컨텍스트 맵 구축 방법.
  7. 삭제
  8. 삭제
  9. 청구항 1에 있어서,
    생성된 컨텍스트 맵을 모빌리티 플랫폼에 제공하는 단계;를 더 포함하는 것을 특징으로 하는 컨텍스트 맵 구축 방법.
  10. 외부 기기들로부터 상황인지 정보들을 획득하는 통신부; 및
    대상 지역의 2D 맵을 생성하고, 통신부를 통해 대상 지역의 해당 구역들에서 상황인지 정보들을 획득하며, 획득된 상황인지 정보들을 2D 맵의 해당 구역들에 각각 매칭하여 컨텍스트 맵을 생성하는 프로세서;를 포함하고,
    상황인지 정보들은,
    해당 구역이 어떠한 장소인지 설명하여 주는 정보, 해당 구역에 있는 객체들에 대한 정보, 해당 구역의 상태에 대한 정보를 포함하며,
    상태에 대한 정보는,
    해당 구역의 혼잡도, 위험 요소에 대한 정보를 포함하고,
    해당 구역의 혼잡도는,
    도로 정체 여부, 이동 가능 속도, 사람들의 응집도에 대한 정보를 포함하며,
    위험 요소에 대한 정보는,
    장애물이나 방해물의 존재 여부, 화재, 침수, 사고, 범죄의 발생 여부에 대한 정보를 포함하고,
    프로세서는,
    통신부를 통해 대상 지역의 해당 구역들에서 상황인지 정보들을 획득하며, 획득된 상황인지 정보들을 이용하여 2D 맵의 해당 구역들에 각각 매칭된 상황인지 정보들을 추가하거나 업데이트하며,
    외부 기기들은,
    다수의 모빌리티 플랫폼들이고,
    모빌리티 플랫폼들은,
    공중 이동체와 지상 이동체를 포함하며,
    프로세서는,
    동일 구역에 대해 동일 시점에 다수의 모빌리티 플랫폼들로부터 상황인지 정보가 획득된 경우, 획득된 상황인지 정보들의 내용이 다르면 상황인지 정보의 종류에 따라 모빌리티 플랫폼들의 종류에 각기 다른 우선순위를 부여하여 상황인지 정보를 업데이트하는 것을 특징으로 하는 컨텍스트 맵 구축 시스템.
  11. 대상 지역의 해당 구역들에서 상황인지 정보들을 획득하는 제1 획득단계;
    제1 획득단계를 통해 획득된 상황인지 정보들을 2D 맵의 해당 구역들에 각각 매칭하여, 컨텍스트 맵을 생성하는 단계;
    생성된 컨텍스트 맵을 모빌리티 플랫폼에 제공하는 단계;
    대상 지역의 해당 구역들에서 상황인지 정보들을 획득하는 제2 획득단계; 및
    제2 획득단계를 통해 획득된 상황인지 정보들을 이용하여, 2D 맵의 해당 구역들에 각각 매칭된 상황인지 정보들을 추가하거나 업데이트하는 단계;를 포함하고,
    상황인지 정보들은,
    해당 구역이 어떠한 장소인지 설명하여 주는 정보, 해당 구역에 있는 객체들에 대한 정보, 해당 구역의 상태에 대한 정보를 포함하며,
    상태에 대한 정보는,
    해당 구역의 혼잡도, 위험 요소에 대한 정보를 포함하고,
    해당 구역의 혼잡도는,
    도로 정체 여부, 이동 가능 속도, 사람들의 응집도에 대한 정보를 포함하며,
    위험 요소에 대한 정보는,
    장애물이나 방해물의 존재 여부, 화재, 침수, 사고, 범죄의 발생 여부에 대한 정보를 포함하고,
    제1 획득 단계와 제2 획득 단계는,
    다수의 모빌리티 플랫폼들로부터 상황인지 정보들을 획득하며,
    모빌리티 플랫폼들은,
    공중 이동체와 지상 이동체를 포함하고,
    업데이트 단계는,
    동일 구역에 대해 동일 시점에 다수의 모빌리티 플랫폼들로부터 상황인지 정보가 획득된 경우, 획득된 상황인지 정보들의 내용이 다르면 상황인지 정보의 종류에 따라 모빌리티 플랫폼들의 종류에 각기 다른 우선순위를 부여하여 상황인지 정보를 업데이트하는 것을 특징으로 하는 컨텍스트 맵 구축 방법.
  12. 외부 기기들로부터 상황인지 정보들을 획득하는 통신부; 및
    통신부를 통해 대상 지역의 해당 구역들에서 상황인지 정보들을 획득하고, 획득된 상황인지 정보들을 2D 맵의 해당 구역들에 각각 매칭하여 컨텍스트 맵을 생성하며, 생성된 컨텍스트 맵을 통신부를 통해 외부기기들에 제공하는 프로세서;를 포함하고,
    상황인지 정보들은,
    해당 구역이 어떠한 장소인지 설명하여 주는 정보, 해당 구역에 있는 객체들에 대한 정보, 해당 구역의 상태에 대한 정보를 포함하며,
    상태에 대한 정보는,
    해당 구역의 혼잡도, 위험 요소에 대한 정보를 포함하고,
    해당 구역의 혼잡도는,
    도로 정체 여부, 이동 가능 속도, 사람들의 응집도에 대한 정보를 포함하며,
    위험 요소에 대한 정보는,
    장애물이나 방해물의 존재 여부, 화재, 침수, 사고, 범죄의 발생 여부에 대한 정보를 포함하고,
    프로세서는,
    통신부를 통해 대상 지역의 해당 구역들에서 상황인지 정보들을 획득하며, 획득된 상황인지 정보들을 이용하여 2D 맵의 해당 구역들에 각각 매칭된 상황인지 정보들을 추가하거나 업데이트하며,
    외부 기기들은,
    다수의 모빌리티 플랫폼들이고,
    모빌리티 플랫폼들은,
    공중 이동체와 지상 이동체를 포함하며,
    프로세서는,
    동일 구역에 대해 동일 시점에 다수의 모빌리티 플랫폼들로부터 상황인지 정보가 획득된 경우, 획득된 상황인지 정보들의 내용이 다르면 상황인지 정보의 종류에 따라 모빌리티 플랫폼들의 종류에 각기 다른 우선순위를 부여하여 상황인지 정보를 업데이트하는 것을 특징으로 하는 컨텍스트 맵 구축 시스템.
KR1020220136440A 2022-10-21 2022-10-21 자율주행 및 관제를 위한 컨텍스트 맵 구축 방법 KR102557606B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2022/016158 WO2024085287A1 (ko) 2022-10-21 2022-10-21 자율주행 및 관제를 위한 컨텍스트 맵 구축 방법
KR1020220136440A KR102557606B1 (ko) 2022-10-21 2022-10-21 자율주행 및 관제를 위한 컨텍스트 맵 구축 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220136440A KR102557606B1 (ko) 2022-10-21 2022-10-21 자율주행 및 관제를 위한 컨텍스트 맵 구축 방법

Publications (1)

Publication Number Publication Date
KR102557606B1 true KR102557606B1 (ko) 2023-07-21

Family

ID=87429836

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220136440A KR102557606B1 (ko) 2022-10-21 2022-10-21 자율주행 및 관제를 위한 컨텍스트 맵 구축 방법

Country Status (2)

Country Link
KR (1) KR102557606B1 (ko)
WO (1) WO2024085287A1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140044199A (ko) * 2012-10-04 2014-04-14 (주)휴빌론 도로 소통 상황에 따라 안전운행 정보를 제공하는 방법 및 이를 위한 내비게이션 장치
KR20180109455A (ko) * 2017-03-28 2018-10-08 엘지전자 주식회사 상황인식적으로 맵을 관리하는 방법, 이를 구현하는 장치
KR20200094384A (ko) * 2019-01-30 2020-08-07 현대자동차주식회사 포인트 클라우드의 군집화 장치 및 그 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7047306B2 (ja) * 2017-09-27 2022-04-05 沖電気工業株式会社 情報処理装置、情報処理方法、及びプログラム
KR102541067B1 (ko) * 2018-06-29 2023-06-07 현대오토에버 주식회사 정밀 지도 생성 및 갱신 장치와 방법
KR20220129218A (ko) * 2021-03-16 2022-09-23 한국전자통신연구원 장애물에 관한 비행 상황을 인지하여 무인 이동체의 속도 제어 방법 및 무인 이동체

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140044199A (ko) * 2012-10-04 2014-04-14 (주)휴빌론 도로 소통 상황에 따라 안전운행 정보를 제공하는 방법 및 이를 위한 내비게이션 장치
KR20180109455A (ko) * 2017-03-28 2018-10-08 엘지전자 주식회사 상황인식적으로 맵을 관리하는 방법, 이를 구현하는 장치
KR20200094384A (ko) * 2019-01-30 2020-08-07 현대자동차주식회사 포인트 클라우드의 군집화 장치 및 그 방법

Also Published As

Publication number Publication date
WO2024085287A1 (ko) 2024-04-25

Similar Documents

Publication Publication Date Title
US11585935B2 (en) Low quality pose lane associator
CN110869981B (zh) 用于自主车辆的高清晰度地图数据的向量数据编码
CN109863513B (zh) 用于自主车辆控制的神经网络系统
US20190025071A1 (en) Information processing device
US11859990B2 (en) Routing autonomous vehicles using temporal data
US11340093B2 (en) Submap geographic projections
US11073400B2 (en) Map creation from hybrid data
US11668573B2 (en) Map selection for vehicle pose system
US20170176193A1 (en) Generation of Link Node Routing Graph Using a Straight Skeleton Algorithm
US11493359B2 (en) Control device, control method, and mobile object
US11441913B2 (en) Autonomous vehicle waypoint routing
US10359287B2 (en) Coordinating sensor platforms performing persistent surveillance
CN114089375A (zh) 运载工具、用于运载工具的方法和存储介质
WO2020154670A1 (en) Vehicle routing with local and general routes
US20220262177A1 (en) Responding to autonomous vehicle error states
Wu et al. A non-rigid hierarchical discrete grid structure and its application to UAVs conflict detection and path planning
JP6913353B2 (ja) 移動体制御システム
WO2022027057A1 (en) Routing feature flags
KR102557606B1 (ko) 자율주행 및 관제를 위한 컨텍스트 맵 구축 방법
JP7135690B2 (ja) 情報処理装置および方法、プログラム、並びに移動体制御システム
US20220065647A1 (en) Autonomous vehicle planned route prediction
US20210095977A1 (en) Revising self-driving vehicle routes in response to obstructions
KR102530521B1 (ko) 드론과 로봇의 협업 기반 컨텍스트 맵 구축 방법
KR102529332B1 (ko) 컨텍스트 맵을 활용한 로봇 기반 최적 실내 배송경로 탐색 방법
KR102639289B1 (ko) 도심항공모빌리티를 위한 고해상도 대용량 수치지형도 처리장치 및 처리방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant