KR20210041304A - 도로 경계 추출 장치 및 방법 - Google Patents

도로 경계 추출 장치 및 방법 Download PDF

Info

Publication number
KR20210041304A
KR20210041304A KR1020190123829A KR20190123829A KR20210041304A KR 20210041304 A KR20210041304 A KR 20210041304A KR 1020190123829 A KR1020190123829 A KR 1020190123829A KR 20190123829 A KR20190123829 A KR 20190123829A KR 20210041304 A KR20210041304 A KR 20210041304A
Authority
KR
South Korea
Prior art keywords
road boundary
road
box
view image
las
Prior art date
Application number
KR1020190123829A
Other languages
English (en)
Other versions
KR102568111B1 (ko
Inventor
선화동
Original Assignee
현대엠엔소프트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대엠엔소프트 주식회사 filed Critical 현대엠엔소프트 주식회사
Priority to KR1020190123829A priority Critical patent/KR102568111B1/ko
Publication of KR20210041304A publication Critical patent/KR20210041304A/ko
Application granted granted Critical
Publication of KR102568111B1 publication Critical patent/KR102568111B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

도로 경계 추출 장치 및 방법이 개시된다. 본 발명의 도로 경계 추출 장치는 주행경로를 기준으로 기 설정된 설정 간격으로 3차원 영역 박스를 생성하고 3차원 영역 박스 내에 위치한 라이다 센서의 3차원 점군 데이터를 이용하여 LAS 단면뷰 이미지를 생성하는 이미지 생성부; LAS 단면뷰 이미지에서 도로 경계를 추출하는 도로 경계 추출부; 및 도로 경계를 이용하여 도로 경계 선형을 생성하는 도로 경계 선형 생성부를 포함하는 것을 특징으로 한다.

Description

도로 경계 추출 장치 및 방법{APPARATUS AND METHOD FOR DETECTING ROAD EDGE}
본 발명은 도로 경계 추출 장치 및 방법에 관한 것으로써, 더욱 상세하게는 주행경로를 기준으로 기 설정된 설정 간격으로 3차원 영역 박스를 추출하고 추출된 3차원 영역 박스의 LAS(Location Aware System) 단면뷰 이미지를 이용하여 도로 경계를 추출하는 도로 경계 추출 장치 및 방법에 관한 것이다.
자율주행 기술을 구현하기 위해서는 주행 환경 인지 능력을 갖추게 하는 것이 가장 중요한 과제라고 할 수 있다. 이를 위해 많은 연구자들은 자동차에 다양한 인지 센서를 장착하고 수집된 데이터들을 기반으로 환경 인지 기술을 연구하고 있다.
그러나, 대부분의 센서들이 날씨, 자연광, 높은 빌딩과 같은 환경적인 요소의 영향을 많이 받기 때문에 사전에 구축해 놓은 정밀지도 기반으로 자율주행을 하는 것이 훨씬 더 안전하고 정확한 자율주행을 보장할 수 있다.
자율주행용 정밀지도는 차선, 도로 경계, 도로 곡률, 신호등 위치, 표지판 위치 등 자율주행 시스템에 필요한 3차원 도로 환경정보를 수십 센티미터 수준의 정확도로 제공한다.
종래에는 MMS(Mobile Mapping System) 차량의 라이다(LiDAR) 센서에 의해 측정된 3차원 점군 데이터를 사용하여 도로 경계를 추출한다. 이와 같이 3차원 점군 데이터를 기반으로 도로 경계를 추출하는 경우에는 데이터 처리량이 상대적으로 많은 문제점이 있었고, 딥러닝을 이용하더라도 학습 데이터를 생성하는데 어려움이 있었다.
본 발명의 배경기술은 대한민국 공개특허공보 10-2013-0096012호(2013.08.29)의 '라이다 데이터를 이용한 도로의 곡선반경, 종단 및 횡단 경사도 산출 방법'에 개시되어 있다.
본 발명은 전술한 문제점을 개선하기 위해 창안된 것으로서, 본 발명의 일 측면에 따른 목적은 주행경로를 기준으로 기 설정된 설정 간격으로 3차원 영역 박스를 추출하고 추출된 3차원 영역 박스의 LAS(Location Aware System) 단면뷰 이미지를 이용하여 도로 경계를 추출하는 도로 경계 추출 장치 및 방법을 제공하는 데 있다.
본 발명의 일 측면에 따른 도로 경계 추출 장치는 주행경로를 기준으로 기 설정된 설정 간격으로 3차원 영역 박스를 생성하고 상기 3차원 영역 박스 내에 위치한 라이다 센서의 3차원 점군 데이터를 이용하여 LAS 단면뷰 이미지를 생성하는 이미지 생성부; 상기 LAS 단면뷰 이미지에서 도로 경계를 추출하는 도로 경계 추출부; 및 상기 도로 경계를 이용하여 도로 경계 선형을 생성하는 도로 경계 선형 생성부를 포함하는 것을 특징으로 한다.
본 발명의 상기 이미지 생성부는 주행경로를 기준으로 상기 설정 간격으로 상기 3차원 영역 박스를 생성하는 3차원 영역 박스 처리부; 및 상기 3차원 영역 박스 내 상기 3차원 점군 데이터를 이용하여 상기 LAS 단면뷰 이미지를 3채널 컬러로 생성하는 이미지 처리부를 포함하는 것을 특징으로 한다.
본 발명의 상기 3채널 컬러는 R 채널, G 채널 및 B 채널을 포함하고, 상기 R 채널은 상기 LAS 단면뷰 이미지의 픽셀 영역에 투영되는 상기 3차원 점군 데이터의 개수를 나타내고, 상기 G 채널은 상기 3차원 점군 데이터의 깊이 정보를 나타내며, 상기 B 채널은 라이다 센서의 반사 강도를 나타내는 것을 특징으로 한다.
본 발명의 상기 3차원 영역 박스 처리부는 상기 설정 간격의 보간점을 주행경로를 따라 생성하는 보간점 생성부; 및 상기 보간점 사이의 보간점 벡터를 생성하고 상기 보간점 벡터의 중심점을 중심으로 상기 3차원 영역 박스를 추출하는 3차원 영역 박스 추출부를 포함하는 것을 특징으로 한다.
본 발명의 상기 3차원 영역 박스 추출부는 상기 보간점 벡터와 정북 방향과의 사이각, 및 상기 보간점 벡터와 수평면과의 사이각에 따라 상기 3차원 영역 박스를 회전시키는 것을 특징으로 한다.
본 발명의 상기 도로 경계 추출부는 상기 LAS 단면뷰 이미지를 입력받아 딥러닝 모델을 이용하여 상기 도로 경계를 추출하는 것을 특징으로 한다.
본 발명의 상기 도로 경계 추출부는 상기 딥러닝 모델을 이용하여 도로 경계 클래스가 포함된 도로 경계 박스를 검출한 후 상기 도로 경계 박스 내에서 상기 도로 경계의 위치를 검출하는 것을 특징으로 한다.
본 발명의 상기 도로 경계 박스는 상기 보간점 벡터를 중심으로 상기 LAS 단면뷰 이미지의 좌측에 생성되는 좌측 도로 경계 박스 및 상기 LAS 단면뷰 이미지의 우측에 생성되는 우측 도로 경계 박스 중 적어도 하나를 포함하는 것을 특징으로 한다.
본 발명의 상기 도로 경계 추출부는 상기 좌측 도로 경계 박스의 우측 하단을 상기 도로 경계의 위치로 결정하고, 상기 우측 도로 경계 박스의 좌측 하단을 상기 도로 경계의 위치로 결정하는 것을 특징으로 한다.
본 발명의 상기 도로 경계 선형 생성부는 상기 LAS 단면뷰 이미지의 중심점의 절대좌표, 상기 3차원 영역 박스의 회전 정보, 및 상기 3차원 영역 박스의 크기를 이용하여 상기 도로 경계를 월드 좌표계의 절대좌표로 변환하는 좌표 변환부; 및 상기 월드 좌표계의 절대좌표 및 상기 도로 경계 클래스를 이용하여 상기 도로 경계 선형을 추출하는 도로 경계 선형 추출부를 포함하는 것을 특징으로 한다.
본 발명의 일 측면에 따른 도로 경계 추출 방법은 이미지 생성부가 주행경로를 기준으로 기 설정된 설정 간격으로 3차원 영역 박스를 생성하고 상기 3차원 영역 박스 내에 위치한 라이다 센서의 3차원 점군 데이터를 이용하여 LAS 단면뷰 이미지를 생성하는 단계; 도로 경계 추출부가 상기 LAS 단면뷰 이미지에서 도로 경계를 추출하는 단계; 및 도로 경계 선형 생성부가 상기 도로 경계를 이용하여 도로 경계 선형을 생성하는 단계를 포함하는 것을 특징으로 한다.
본 발명의 상기 LAS 단면뷰 이미지를 생성하는 단계에서, 상기 이미지 생성부는 주행경로를 기준으로 상기 설정 간격으로 상기 3차원 영역 박스를 생성하고, 상기 3차원 영역 박스 내 상기 3차원 점군 데이터를 이용하여 상기 LAS 단면뷰 이미지를 3채널 컬러로 생성하는 것을 특징으로 한다.
본 발명의 상기 3채널 컬러는 R 채널, G 채널 및 B 채널을 포함하고, 상기 R 채널은 상기 LAS 단면뷰 이미지의 픽셀 영역에 투영되는 상기 3차원 점군 데이터의 개수를 나타내고, 상기 G 채널은 상기 3차원 점군 데이터의 깊이 정보를 나타내며, 상기 B 채널은 라이다 센서의 반사 강도를 나타내는 것을 특징으로 한다.
본 발명의 상기 LAS 단면뷰 이미지를 생성하는 단계에서, 상기 이미지 생성부는 상기 설정 간격의 보간점을 주행경로를 따라 생성하고, 상기 보간점 사이의 보간점 벡터를 생성한 후 상기 보간점 벡터의 중심점을 중심으로 상기 3차원 영역 박스를 추출하는 것을 특징으로 한다.
본 발명의 상기 LAS 단면뷰 이미지를 생성하는 단계에서, 상기 이미지 생성부는 상기 보간점 벡터와 정북 방향과의 사이각, 및 상기 보간점 벡터와 수평면과의 사이각에 따라 상기 3차원 영역 박스를 회전시키는 것을 특징으로 한다.
본 발명의 상기 도로 경계를 추출하는 단계에서, 상기 도로 경계 추출부는 상기 LAS 단면뷰 이미지를 입력받아 딥러닝 모델을 이용하여 상기 도로 경계를 추출하는 것을 특징으로 한다.
본 발명의 상기 도로 경계를 추출하는 단계에서, 상기 도로 경계 추출부는 상기 딥러닝 모델을 이용하여 도로 경계 클래스가 포함된 도로 경계 박스를 검출한 후 상기 도로 경계 박스 내에서 상기 도로 경계의 위치를 검출하는 것을 특징으로 한다.
본 발명의 상기 도로 경계 박스는 상기 보간점 벡터를 중심으로 상기 LAS 단면뷰 이미지의 좌측에 생성되는 좌측 도로 경계 박스 및 상기 LAS 단면뷰 이미지의 우측에 생성되는 우측 도로 경계 박스 중 적어도 하나를 포함하는 것을 특징으로 한다.
본 발명의 상기 도로 경계를 추출하는 단계에서, 상기 도로 경계 추출부는 상기 좌측 도로 경계 박스의 우측 하단을 상기 도로 경계의 위치로 결정하고, 상기 우측 도로 경계 박스의 좌측 하단을 상기 도로 경계의 위치로 결정하는 것을 특징으로 한다.
본 발명의 상기 도로 경계 선형을 생성하는 단계에서, 상기 도로 경계 선형 생성부는 상기 LAS 단면뷰 이미지의 중심점의 절대좌표, 상기 3차원 영역 박스의 회전 정보, 및 상기 3차원 영역 박스의 크기를 이용하여 상기 도로 경계를 월드 좌표계의 절대좌표로 변환하고, 상기 월드 좌표계의 절대좌표 및 상기 도로 경계 클래스를 이용하여 상기 도로 경계 선형을 추출하는 것을 특징으로 한다.
본 발명의 일 측면에 따른 도로 경계 추출 장치 및 방법은 주행경로를 기준으로 기 설정된 설정 간격으로 3차원 영역 박스를 추출하고 추출된 3차원 영역 박스의 LAS(Location Aware System) 단면뷰 이미지를 이용하여 도로 경계를 정밀하게 추출할 수 있다.
본 발명의 다른 측면에 따른 도로 경계 추출 장치 및 방법은 방대한 3차원 점군 데이터에서 객체를 추출하지 않고 2차원 이미지에서 추출하므로 도로 경계를 신속하고 정확하게 추출할 수 있다.
도 1 은 본 발명의 일 실시예에 따른 도로 경계 추출 장치의 블럭 구성도이다.
도 2 는 본 발명의 일 실시예에 따른 LAS(Location Aware System) 단면뷰 이미지를 생성하는 과정을 도식화한 도면이다.
도 3 은 본 발명의 일 실시예에 따른 3차원 영역 박스 내 점군 데이터를 나타낸 도면이다.
도 4 는 본 발명의 일 실시예에 따른 LAS 단면뷰 이미지를 나타낸 도면이다.
도 5 는 본 발명의 일 실시예에 따른 도로 경계 클래스를 나타낸 도면이다.
도 6 은 본 발명의 일 실시예에 따른 도로 경계 클래스 검출 결과를 나타낸 도면이다.
도 7 은 본 발명의 일 실시예에 따른 도로 경계 클래스에 대한 재현율과 정밀도를 나타낸 그래프이다.
도 8 은 본 발명의 일 실시예에 따른 도로 경계 추출 방법을 도시한 순서도이다.
이하에서는 본 발명의 일 실시예에 따른 도로 경계 추출 장치 및 방법을 첨부된 도면들을 참조하여 상세하게 설명한다. 이러한 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 이용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야할 것이다.
본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.
도 1 은 본 발명의 일 실시예에 따른 도로 경계 추출 장치의 블럭 구성도이고, 도 2 는 본 발명의 일 실시예에 따른 LAS(Location Aware System) 단면뷰 이미지를 생성하는 과정을 도식화한 도면이며, 도 3 은 본 발명의 일 실시예에 따른 3차원 영역 박스 내 점군 데이터를 나타낸 도면이며, 도 4 는 본 발명의 일 실시예에 따른 LAS 단면뷰 이미지를 나타낸 도면이며, 도 5 는 본 발명의 일 실시예에 따른 도로 경계 클래스를 나타낸 도면이며, 도 6 은 본 발명의 일 실시예에 따른 도로 경계 클래스 검출 결과를 나타낸 도면이며, 도 7 은 본 발명의 일 실시예에 따른 도로 경계 클래스에 대한 재현율과 정밀도를 나타낸 그래프이다.
도 1 을 참조하면, 본 발명의 일 실시예에 따른 도로 경계 추출 장치는 이미지 생성부(10), 도로 경계 추출부(20), 및 도로 경계 선형 생성부(30)를 포함한다.
이미지 생성부(10)는 주행경로를 기준으로 기 설정된 설정 간격으로 3차원 영역 박스를 생성하고 3차원 영역 박스 내에 위치한 라이다 센서의 3차원 점군 데이터를 이용하여 2차원의 LAS(Location Aware System) 단면뷰(Slice View) 이미지를 생성한다. 설정 간격에 대해서는 후술한다.
이미지 생성부(10)는 3차원 영역 박스 처리부(11) 및 이미지 처리부(12)를 포함한다.
3차원 영역 박스 처리부(11)는 MMS(Mobile Mapping System) 차량이 주행하는 주행경로를 기준으로 상기한 설정 간격으로 3차원 영역 박스를 생성한다. 3차원 영역 박스 처리부(11)는 보간점 생성부(111), 3차원 영역 박스 추출부(112)를 포함한다.
도 2 를 참조하면, 보간점 생성부(111)는 MMS 차량이 주행하는 상태에서 설정 간격으로 보간점을 주행경로를 따라 설정 간격으로 생성한다. .
설정 간격은 보간점 간의 간격이며, 등간격으로 설정될 수 있다. 일 예로, 보간점은 3m로 설정될 수 있다. 보간점은 3차원 영역 박스를 생성하기 위한 기준이 된다. 1개의 3차원 영역 박스를 생성하기 위해서는 2개의 보간점을 필요로 한다.
3차원 영역 박스 추출부(112)는 보간점 사이의 보간점 벡터를 생성하고 보간점 벡터의 중심점을 중심으로 3차원 박스를 추출한다.
즉, 3차원 영역 박스 추출부(112)는 보간점 생성부(111)에 의해 보간점이 연속적으로 생성되는 과정에서, 인접한 2개의 보간점 사이의 보간점 벡터를 생성한다. 3차원 영역 박스 추출부(112)는 2개의 보간점 사이에 생성된 보간점 벡터의 중심점(OB)을 검출하고, 검출된 중심점(OB)을 중심으로 3차원 영역 박스를 생성한다.
3차원 영역 박스의 크기는 MMS 차량이 주행하는 도로를 기준으로 좌우 10미터 총 20미터 폭으로 설정되고, 높이는 도로면 기준 상하 3미터 총 6미터로 설정되며, 깊이는 주행 방향으로 3미터로 설정될 수 있다. 3차원 영역 박스의 크기와 높이 및 깊이는 상기한 실시예에 한정되는 것은 아니며, 도로의 폭과 넓이 차선의 개수 등에 따라 다양하게 설정될 수 있다.
한편, 중심점(OB)이 생성되면, 3차원 영역 박스 추출부(112)는 보간점 벡터와 정북 방향과의 사이각(α), 및 보간점 벡터와 수평면과의 사이각(β)에 따라 3차원 영역 박스를 회전시킨다. 이러한 회전에 따라, 3차원 영역 박스는 MMS 차량의 주행 방향과 수직한 방향으로 형성될 수 있다. 이와 같이 3차원 영역 박스를 회전시키는 이유는 주행 경로와 도로 경계가 서로 평행하기 때문이다. MMS 차량이 도로를 따라 주행하는 경우 주행궤적과 도로경계가 연속적으로 나타나므로, 상기한 보간점 벡터를 기준으로 후술한 LAS(Location Aware System) 단면뷰 이미지를 생성하면 도로 경계가 샤프한 선형으로 나타날 수 있다.
이미지 처리부(12)는 3차원 영역 박스 내 3차원 점군 데이터를 이용하여 3채널 컬러의 LAS 단면뷰 이미지를 생성한다.
3차원 점군 데이터는 MMS 차량의 라이다(LiDAR)를 통해 검출될 수 있다. 라이다를 통해 3차원 점군 데이터를 수집하는 것은 당업자에게 자명한 사항이므로 여기서는 그 상세한 설명을 생략한다.
3채널 컬러는 R 채널, G 채널 및 B 채널이 포함될 수 있다. 이들 각 채널의 화소강도는 후술하는 좌표변환을 위한 값과 딥러닝 모델을 통해 검출될 수 있는 값에 따라 다양하게 결정될 수 있다.
R 채널은 LAS 단면뷰 이미지의 픽셀 영역에 투영되는 3차원 점군 데이터의 개수를 나타내고, G 채널은 3차원 점군 데이터의 깊이 정보를 나타내며, B 채널은 라이다 센서의 반사 강도를 나타낸다.
이와 같이, RGB 채널 각각을 설정한 이유는, 반사강도의 경우 투사각, 거리 등 여러 요인에 의해 값이 영향을 받지만 특히 사물의 표면 재질에 따라 강도가 달라지는 특성이 있고, 도로 경계의 경우 주행경로 방향과 일치하면서 연속되기 때문에 밀도가 높으며, 깊이 정보는 추출된 LAS 단면뷰 이미지의 좌표와 함께 단면뷰 생성정보를 이용하여 절대 좌표를 구하는데 사용될 수 있기 때문이다.
도 3 에는 3차원 영역 박스 내 3차원 점군 데이터가 3채널 컬러로 나타내어진 예가 도시되었다.
한편, 이미지 처리부(12)는 상기한 3차원 영역 박스 내 3차원 점군 데이터를 이용하여 도 4 에 도시된 바와 같은 LAS 단면뷰 이미지를 생성한다.
도로 경계 추출부(20)는 LAS 단면뷰 이미지에서 도로 경계를 추출한다.
즉, 도로 경계 추출부(20)는 이미지 처리부(12)에 의해 생성된 LAS 단면뷰 이미지를 입력받아 딥러닝 모델을 이용하여 도로 경계를 추출한다. 이 경우 도로 경계 추출부(20)는 딥러닝 모델을 이용하여 도로 경계 클래스가 포함된 도로 경계 박스를 검출한 후 도로 경계 박스 내에서 도로 경계의 위치를 검출한다.
도로 경계 클래스는 도 5 에 도시된 바와 같은 도로 경계에 설치되는 구조물, 예컨데 연석, 가드레일 스틸, 가드레일 콘크리트, 중앙분리대 스틸, 중앙분리대 콘크리트, 및 벽 등을 나타낸다. 도로 경계 클래스는 상기한 실시예에 한정되는 것은 아니다.
이러한 도로 경계 클래스는 도로 경계를 위한 구조물의 형태에 대응되게 다양하게 나타내어질 수 있다.
도로 경계 박스는 도로 경계 위치를 추출하기 위해 도로 경계 클래스의 주변에 생성되는 사각 박스이다. 도로 경계 박스는 도로 경계 클래스의 크기와 모양 등에 따라 다양하게 설정될 수 있다. 도로 경계 박스는 관리자 등에 의해 딥러닝 모델에 사전에 학습된다. 도로 경계 박스에는 MMS 차량의 주행 벡터가 지나가는 부분을 중심으로 좌측 도로 경계 박스와 우측 도로 경계 박스가 포함될 수 있다. 좌측 도로 경계 박스는 MMS 차량의 좌측의 도로 경계의 위치를 추출하는데 이용되고, 우측 도로 경계 박스는 MMS 차량의 우측의 도로 경계의 위치를 추출하는데 이용될 수 있다.
딥러닝 모델로는 YOLOv3 모델이 채용될 수 있다. 딥러닝 모델은 사전에 관리자 등에 의해 도로 경계 박스가 생성되면 이러한 도로 경계 박스를 학습한다.
이후, 도로 경계 클래스는 이미지 처리부(12)로부터 LAS 단면뷰 이미지가 입력되면 딥러닝 모델을 이용하여 해당 LAS 단면뷰 이미지에서 도로 경계의 위치를 추출한다.
즉, 도로 경계는 도로면이 끝나는 지점인 바, 도로 경계 추출부(20)는 딥러닝 모델을 이용하여 상기한 도로 경계에 형성되어 있는 구조물(연석, 가드레일 스틸, 가드레일 콘크리트, 중앙분리대 스틸, 중앙분리대 콘크리트, 및 벽)과 같이 위로 솟아있는 경계 지점을 도로 경계의 위치로서 추출한다.
도 6 에는 도로 경계 클래스 검출 결과를 나타낸 도면이다.
도 6 을 참조하면, 도로 경계 추출부(20)는 검출된 도로 경계 박스 내 특정 위치를 도로 경계의 위치로 결정한다.
LAS 단면뷰 이미지의 x축 중앙은 MMS 차량의 주행 벡터가 지나가는 부분이다. 따라서 도로 경계 추출부(20)는 중앙을 기준으로 좌측에서 추출된 좌측 도로 경계 박스의 우측 하단을 도로 경계의 위치(붉은색 점)로 추출하고, 우측 도로 경계 박스의 좌측 하단을 도로 경계의 위치(분홍색 점)로 추출한다.
좌측 도로 경계 박스에는 중앙분리대 콘크리트의 도로 경계 클래스가 나타나고, 우측 도로 경계 박스에는 가드레일 스틸의 도로 경계 클래스가 나타난다.
이렇게 추출된 2차원 좌표는 3차원 절대좌표로 변환되어 정밀지도 생성에 사용될 수 있는 선형을 생성하는데 사용된다.
도로 경계 선형 생성부(30)는 도로 경계 추출부(20)에 의해 추출된 도로 경계를 이용하여 도로 경계 선형을 생성한다.
도로 경계 선형 생성부(30)는 좌표 변환부(31) 및 도로 경계 선형 추출부(32)를 포함한다.
좌표 변환부(31)는 LAS 단면뷰 이미지의 중심점의 절대좌표, 3차원 영역 박스의 회전 정보, 및 3차원 영역 박스의 크기를 이용하여 도로 경계를 월드 좌표계의 절대좌표로 변환한다.
여기서, LAS 단면뷰 이미지의 중심점의 절대좌표는 LAS 단면뷰 이미지의 중심점의 픽셀 좌표로서 3차원 영역 박스의 중심점의 절대좌표이다.
3차원 영역 박스의 회전 정보는 보간점 벡터와 정북 방향과의 사이각(α), 및 보간점 벡터와 수평면과의 사이각(β)이다.
3차원 영역 박스의 크기는 MMS 차량이 주행하는 도로를 기준으로 좌우 10미터 총 20미터 폭으로 설정될 수 있다.
도로 경계 선형 추출부(32)는 좌표 변환부(31)에 의해 추출된 월드 좌표계의 절대좌표 및 도로 경계 클래스를 이용하여 정밀 지도에 이용될 수 있는 도로 경계 선형을 추출한다. MMS 차량의 주행시 LAS 단면뷰 이미지는 순차적으로 생성된다. 이에, 도로 경계 선형 추출부(32)는 이들 LAS 단면뷰 이미지를 기반으로 추출된 월드 좌표계의 절대좌표 및 도로 경계 클래스를 연속적으로 트래킹(Tracking)하여 도로 경계 선형을 추출함으로써, 모든 LAS 단면뷰 이미지에서 도로 경계 선형을 추출하고, 이러한 도로 경계 선형을 데이터베이스부(미도시)에 저장한다.
도 7 에는 딥러닝 모델 중 YOLOv3 모델을 학습하여 도로 경계 선형을 추출한 경우의 결과가 도시되었다. YOLO 디텍터의 클래스일 확률을 1%~99% 범위로 변경하면서 재현율(Recall)과 정밀도(Precision)를 구했을 때 도 7 에 도시된 그래프와 같은 결과를 얻었다. 여기서 확률을 10%로 설정하였을 때 두 지표(재현율과 정밀도)가 각각 99%, 96%로 가장 높게 나왔다. LAS 단면뷰 이미지의 평면은 도로 주행 방향과 수직이라고 가정했을 때 동일한 도로 경계 클래스 즉 같은 경계에 속할 경우 LAS 단면뷰 이미지의 좌표는 크게 변하지 않는다. 따라서, 도로 경계 선형 추출부(32)에 의한 월드 좌표계의 절대좌표 및 도로 경계 클래스에 대한 트레킹이 가능해질 수 있다.
이하 본 발명의 일 실시예에 따른 도로 경계 추출 방법을 도 8 을 참조하여 상세하게 설명한다.
도 8 은 본 발명의 일 실시예에 따른 도로 경계 추출 방법을 도시한 순서도이다.
도 8 을 참조하면, 먼저 보간점 생성부(111)가 MMS 차량이 주행하는 상태에서 설정 간격으로 보간점을 주행경로를 따라 생성한다.
이어, 3차원 영역 박스 추출부(112)는 보간점 생성부(111)에 의해 보간점이 연속적으로 생성되는 과정에서, 인접한 2개의 보간점 사이의 보간점 벡터를 생성하고, 이들 2개의 보간점 사이에 생성된 보간점 벡터의 중심점(OB)을 검출한다.
3차원 영역 박스 추출부(112)는 보간점 벡터와 정북 방향과의 사이각(α), 및 보간점 벡터와 수평면과의 사이각(β)에 따라 3차원 영역 박스를 회전시킨다. 이에 따라, 3차원 영역 박스는 MMS 차량의 주행 방향과 수직한 방향으로 형성될 수 있다.
이미지 처리부(12)는 3차원 영역 박스 내 3차원 점군 데이터를 이용하여 3채널 컬러의 LAS 단면뷰 이미지를 생성한다(S10). 여기서, 3차원 점군 데이터는 MMS 차량의 라이다(LiDAR)를 통해 검출된다.
이 경우, 3차원 점군 데이터는 3채널 컬러로 설정되며, 3채널 컬러는 R 채널, G 채널 및 B 채널이 포함될 수 있다. R 채널은 LAS 단면뷰 이미지의 픽셀 영역에 투영되는 3차원 점군 데이터의 개수를 나타내고, G 채널은 3차원 점군 데이터의 깊이 정보를 나타내며, B 채널은 라이다 센서의 반사 강도를 나타낸다.
이어 이미지 처리부(12)는 생성된 LAS 단면뷰 이미지를 도로 경계 추출부(20)에 입력한다(S20).
도로 경계 추출부(20)는 딥러닝 모델을 이용하여 도로 경계 클래스가 포함된 도로 경계 박스를 검출한 후 도로 경계 박스 내에서 도로 경계의 위치를 검출한다(S30). 여기서, 도로 경계 클래스는 연석, 가드레일 스틸, 가드레일 콘크리트, 중앙분리대 스틸, 중앙분리대 콘크리트, 및 벽 등이 포함될 수 있다.
도로 경계 추출부(20)는 상기한 바와 같이 도로 경계 박스 내 특정 위치를 도로 경계의 위치로 결정하는데, LAS 단면뷰 이미지의 x축 중앙을 기준으로 좌측에서 추출된 좌측 도로 경계 박스의 우측 하단을 도로 경계의 위치(붉은색 점)로 추출하고, 우측 도로 경계 박스의 좌측 하단을 도로 경계의 위치(분홍색 점)로 추출한다.
좌표 변환부(31)는 LAS 단면뷰 이미지의 중심점의 절대좌표, 3차원 영역 박스의 회전 정보, 및 3차원 영역 박스의 크기를 이용하여 도로 경계를 월드 좌표계의 절대좌표로 변환한다(S40).
이어, 도로 경계 선형 추출부(32)는 좌표 변환부(31)에 의해 추출된 월드 좌표계의 절대좌표 및 도로 경계 클래스를 이용하여 정밀 지도에 이용될 수 있는 도로 경계 선형을 추출하는데, MMS 차량의 주행에 따라 LAS 단면뷰 이미지가 순차적으로 생성되므로, 이들 LAS 단면뷰 이미지를 기반으로 추출된 월드 좌표계의 절대좌표 및 도로 경계 클래스를 연속적으로 트래킹(Tracking)하여 도로 경계 선형을 추출한다(S60).
이와 같이, 본 발명의 일 실시예에 따른 도로 경계 추출 장치 및 방법은 주행경로를 기준으로 기 설정된 간격으로 3차원 영역 박스를 추출하고 추출된 3차원 영역 박스의 LAS(Location Aware System) 단면뷰를 이용하여 도로 경계를 정밀하게 추출할 수 있다.
또한, 본 발명의 일 실시예에 따른 도로 경계 추출 장치 및 방법은 방대한 3차원 점군 데이터에서 객체를 추출하지 않고 2차원 이미지에서 추출하므로 도로 경계를 신속하고 정확하게 추출할 수 있다.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며 당해 기술이 속하는 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의하여 정해져야할 것이다.
10: 이미지 생성부 11: 3차원 영역 박스 처리부
111: 보간점 생성부 112: 3차원 영역 박스 추출부
12: 이미지 처리부 20: 도로 경계 추출부
30: 도로 경계 선형 생성부 31: 좌표 변환부
32: 도로 경계 선형 추출부

Claims (20)

  1. 주행경로를 기준으로 기 설정된 설정 간격으로 3차원 영역 박스를 생성하고 상기 3차원 영역 박스 내에 위치한 라이다 센서의 3차원 점군 데이터를 이용하여 LAS 단면뷰 이미지를 생성하는 이미지 생성부;
    상기 LAS 단면뷰 이미지에서 도로 경계를 추출하는 도로 경계 추출부; 및
    상기 도로 경계를 이용하여 도로 경계 선형을 생성하는 도로 경계 선형 생성부를 포함하는 도로 경계 추출 장치.
  2. 제 1 항에 있어서, 상기 이미지 생성부는
    주행경로를 기준으로 상기 설정 간격으로 상기 3차원 영역 박스를 생성하는 3차원 영역 박스 처리부; 및
    상기 3차원 영역 박스 내 상기 3차원 점군 데이터를 이용하여 상기 LAS 단면뷰 이미지를 3채널 컬러로 생성하는 이미지 처리부를 포함하는 것을 특징으로 하는 도로 경계 추출 장치.
  3. 제 2 항에 있어서, 상기 3채널 컬러는
    R 채널, G 채널 및 B 채널을 포함하고, 상기 R 채널은 상기 LAS 단면뷰 이미지의 픽셀 영역에 투영되는 상기 3차원 점군 데이터의 개수를 나타내고, 상기 G 채널은 상기 3차원 점군 데이터의 깊이 정보를 나타내며, 상기 B 채널은 라이다 센서의 반사 강도를 나타내는 것을 특징으로 하는 도로 경계 추출 장치.
  4. 제 2 항에 있어서, 상기 3차원 영역 박스 처리부는
    상기 설정 간격의 보간점을 주행경로를 따라 생성하는 보간점 생성부; 및
    상기 보간점 사이의 보간점 벡터를 생성하고 상기 보간점 벡터의 중심점을 중심으로 상기 3차원 영역 박스를 추출하는 3차원 영역 박스 추출부를 포함하는 것을 특징으로 하는 도로 경계 추출 장치.
  5. 제 4 항에 있어서, 상기 3차원 영역 박스 추출부는
    상기 보간점 벡터와 정북 방향과의 사이각, 및 상기 보간점 벡터와 수평면과의 사이각에 따라 상기 3차원 영역 박스를 회전시키는 것을 특징으로 하는 도로 경계 추출 장치.
  6. 제 3 항에 있어서, 상기 도로 경계 추출부는
    상기 LAS 단면뷰 이미지를 입력받아 딥러닝 모델을 이용하여 상기 도로 경계를 추출하는 것을 특징으로 하는 도로 경계 추출 장치.
  7. 제 6 항에 있어서, 상기 도로 경계 추출부는
    상기 딥러닝 모델을 이용하여 도로 경계 클래스가 포함된 도로 경계 박스를 검출한 후 상기 도로 경계 박스 내에서 상기 도로 경계의 위치를 검출하는 것을 특징으로 하는 도로 경계 추출 장치.
  8. 제 6 항에 있어서, 상기 도로 경계 박스는
    상기 보간점 벡터를 중심으로 상기 LAS 단면뷰 이미지의 좌측에 생성되는 좌측 도로 경계 박스 및 상기 LAS 단면뷰 이미지의 우측에 생성되는 우측 도로 경계 박스 중 적어도 하나를 포함하는 것을 특징으로 하는 도로 경계 추출 장치.
  9. 제 8 항에 있어서, 상기 도로 경계 추출부는
    상기 좌측 도로 경계 박스의 우측 하단을 상기 도로 경계의 위치로 결정하고, 상기 우측 도로 경계 박스의 좌측 하단을 상기 도로 경계의 위치로 결정하는 것을 특징으로 하는 도로 경계 추출 장치.
  10. 제 7 항에 있어서, 상기 도로 경계 선형 생성부는
    상기 LAS 단면뷰 이미지의 중심점의 절대좌표, 상기 3차원 영역 박스의 회전 정보, 및 상기 3차원 영역 박스의 크기를 이용하여 상기 도로 경계를 월드 좌표계의 절대좌표로 변환하는 좌표 변환부; 및
    상기 월드 좌표계의 절대좌표 및 상기 도로 경계 클래스를 이용하여 상기 도로 경계 선형을 추출하는 도로 경계 선형 추출부를 포함하는 것을 특징으로 하는 도로 경계 추출 장치.
  11. 이미지 생성부가 주행경로를 기준으로 기 설정된 설정 간격으로 3차원 영역 박스를 생성하고 상기 3차원 영역 박스 내에 위치한 라이다 센서의 3차원 점군 데이터를 이용하여 LAS 단면뷰 이미지를 생성하는 단계;
    도로 경계 추출부가 상기 LAS 단면뷰 이미지에서 도로 경계를 추출하는 단계; 및
    도로 경계 선형 생성부가 상기 도로 경계를 이용하여 도로 경계 선형을 생성하는 단계를 포함하는 도로 경계 추출 방법.
  12. 제 11 항에 있어서, 상기 LAS 단면뷰 이미지를 생성하는 단계에서,
    상기 이미지 생성부는 주행경로를 기준으로 상기 설정 간격으로 상기 3차원 영역 박스를 생성하고, 상기 3차원 영역 박스 내 상기 3차원 점군 데이터를 이용하여 상기 LAS 단면뷰 이미지를 3채널 컬러로 생성하는 것을 특징으로 하는 도로 경계 추출 방법.
  13. 제 12 항에 있어서, 상기 3채널 컬러는
    R 채널, G 채널 및 B 채널을 포함하고, 상기 R 채널은 상기 LAS 단면뷰 이미지의 픽셀 영역에 투영되는 상기 3차원 점군 데이터의 개수를 나타내고, 상기 G 채널은 상기 3차원 점군 데이터의 깊이 정보를 나타내며, 상기 B 채널은 라이다 센서의 반사 강도를 나타내는 것을 특징으로 하는 도로 경계 추출 방법.
  14. 제 12 항에 있어서, 상기 LAS 단면뷰 이미지를 생성하는 단계에서,
    상기 이미지 생성부는 상기 설정 간격의 보간점을 주행경로를 따라 생성하고, 상기 보간점 사이의 보간점 벡터를 생성한 후 상기 보간점 벡터의 중심점을 중심으로 상기 3차원 영역 박스를 추출하는 것을 특징으로 하는 도로 경계 추출 방법.
  15. 제 14 항에 있어서, 상기 LAS 단면뷰 이미지를 생성하는 단계에서,
    상기 이미지 생성부는 상기 보간점 벡터와 정북 방향과의 사이각, 및 상기 보간점 벡터와 수평면과의 사이각에 따라 상기 3차원 영역 박스를 회전시키는 것을 특징으로 하는 도로 경계 추출 방법.
  16. 제 13 항에 있어서, 상기 도로 경계를 추출하는 단계에서,
    상기 도로 경계 추출부는 상기 LAS 단면뷰 이미지를 입력받아 딥러닝 모델을 이용하여 상기 도로 경계를 추출하는 것을 특징으로 하는 도로 경계 추출 방법.
  17. 제 16 항에 있어서, 상기 도로 경계를 추출하는 단계에서,
    상기 도로 경계 추출부는 상기 딥러닝 모델을 이용하여 도로 경계 클래스가 포함된 도로 경계 박스를 검출한 후 상기 도로 경계 박스 내에서 상기 도로 경계의 위치를 검출하는 것을 특징으로 하는 도로 경계 추출 방법.
  18. 제 16 항에 있어서, 상기 도로 경계 박스는
    상기 보간점 벡터를 중심으로 상기 LAS 단면뷰 이미지의 좌측에 생성되는 좌측 도로 경계 박스 및 상기 LAS 단면뷰 이미지의 우측에 생성되는 우측 도로 경계 박스 중 적어도 하나를 포함하는 것을 특징으로 하는 도로 경계 추출 방법.
  19. 제 18 항에 있어서, 상기 도로 경계를 추출하는 단계에서,
    상기 도로 경계 추출부는 상기 좌측 도로 경계 박스의 우측 하단을 상기 도로 경계의 위치로 결정하고, 상기 우측 도로 경계 박스의 좌측 하단을 상기 도로 경계의 위치로 결정하는 것을 특징으로 하는 도로 경계 추출 방법.
  20. 제 17 항에 있어서, 상기 도로 경계 선형을 생성하는 단계에서,
    상기 도로 경계 선형 생성부는 상기 LAS 단면뷰 이미지의 중심점의 절대좌표, 상기 3차원 영역 박스의 회전 정보, 및 상기 3차원 영역 박스의 크기를 이용하여 상기 도로 경계를 월드 좌표계의 절대좌표로 변환하고, 상기 월드 좌표계의 절대좌표 및 상기 도로 경계 클래스를 이용하여 상기 도로 경계 선형을 추출하는 것을 특징으로 하는 도로 경계 추출 방법.
KR1020190123829A 2019-10-07 2019-10-07 도로 경계 추출 장치 및 방법 KR102568111B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190123829A KR102568111B1 (ko) 2019-10-07 2019-10-07 도로 경계 추출 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190123829A KR102568111B1 (ko) 2019-10-07 2019-10-07 도로 경계 추출 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20210041304A true KR20210041304A (ko) 2021-04-15
KR102568111B1 KR102568111B1 (ko) 2023-08-17

Family

ID=75440777

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190123829A KR102568111B1 (ko) 2019-10-07 2019-10-07 도로 경계 추출 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102568111B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2620924A (en) * 2022-07-22 2024-01-31 Oxa Autonomy Ltd A computer-implemented method of generating a lane boundary model of a route traversed by an autonomous vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6266828A (ja) * 1985-09-19 1987-03-26 オリンパス光学工業株式会社 内視鏡
JP2014089691A (ja) * 2012-10-30 2014-05-15 Google Inc 車両横方向レーン位置決め制御
KR20180058606A (ko) * 2016-11-23 2018-06-01 한국전자통신연구원 객체 인식 장치, 이를 포함하는 자율 주행 시스템, 및 객체 인식 장치를 이용한 객체 인식 방법
KR20190080009A (ko) * 2017-12-28 2019-07-08 한국국토정보공사 차선 정보를 이용한 자동 도화 방법
KR20190080022A (ko) * 2017-12-28 2019-07-08 현대엠엔소프트 주식회사 스테레오 점군 처리장치 및 그 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6266828A (ja) * 1985-09-19 1987-03-26 オリンパス光学工業株式会社 内視鏡
JP2014089691A (ja) * 2012-10-30 2014-05-15 Google Inc 車両横方向レーン位置決め制御
KR20180058606A (ko) * 2016-11-23 2018-06-01 한국전자통신연구원 객체 인식 장치, 이를 포함하는 자율 주행 시스템, 및 객체 인식 장치를 이용한 객체 인식 방법
KR20190080009A (ko) * 2017-12-28 2019-07-08 한국국토정보공사 차선 정보를 이용한 자동 도화 방법
KR20190080022A (ko) * 2017-12-28 2019-07-08 현대엠엔소프트 주식회사 스테레오 점군 처리장치 및 그 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2620924A (en) * 2022-07-22 2024-01-31 Oxa Autonomy Ltd A computer-implemented method of generating a lane boundary model of a route traversed by an autonomous vehicle

Also Published As

Publication number Publication date
KR102568111B1 (ko) 2023-08-17

Similar Documents

Publication Publication Date Title
US10628671B2 (en) Road modeling from overhead imagery
KR102125959B1 (ko) 포인트 클라우드 데이터 사이의 매칭 관계를 확정하는 방법 및 장치
CN110832279B (zh) 对准由自主车辆捕获的数据以生成高清晰度地图
CN110850439B (zh) 一种高精度三维点云地图构建方法
US11971274B2 (en) Method, apparatus, computer program, and computer-readable recording medium for producing high-definition map
US20200250439A1 (en) Automated Road Edge Boundary Detection
CN101617197B (zh) 测量装置、测量方法及地物识别装置
JP2017223511A (ja) 道路構造化装置、道路構造化方法、及び道路構造化プログラム
WO2018113451A1 (zh) 一种地图数据系统、其生成和使用方法及应用
CN108345008A (zh) 一种目标物检测方法、点云数据提取方法及装置
CN105719284A (zh) 一种数据处理方法、装置及终端
CN112346463B (zh) 一种基于速度采样的无人车路径规划方法
CN113034566B (zh) 高精度地图构建方法、装置、电子设备及存储介质
CN102208013A (zh) 风景匹配参考数据生成系统和位置测量系统
CN111062958B (zh) 一种城市道路要素提取方法
Zang et al. Lane boundary extraction from satellite imagery
KR20170126740A (ko) 물체 탐지 장치 및 방법
Ravi et al. Lane width estimation in work zones using LiDAR-based mobile mapping systems
KR20210041305A (ko) 차선 추출 장치 및 방법
CN112070756A (zh) 一种基于无人机倾斜摄影的路面立体病害测量方法
Gressenbuch et al. Mona: The munich motion dataset of natural driving
González-Jorge et al. Evaluation of driver visibility from mobile lidar data and weather conditions
KR102568111B1 (ko) 도로 경계 추출 장치 및 방법
Wang et al. Automatic estimation of road slopes and superelevations using point clouds
KR102475042B1 (ko) 정밀 지도 구축 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant