KR101097182B1 - 3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법 - Google Patents

3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법 Download PDF

Info

Publication number
KR101097182B1
KR101097182B1 KR1020100066885A KR20100066885A KR101097182B1 KR 101097182 B1 KR101097182 B1 KR 101097182B1 KR 1020100066885 A KR1020100066885 A KR 1020100066885A KR 20100066885 A KR20100066885 A KR 20100066885A KR 101097182 B1 KR101097182 B1 KR 101097182B1
Authority
KR
South Korea
Prior art keywords
point
information
dimensional
distance
nearest
Prior art date
Application number
KR1020100066885A
Other languages
English (en)
Inventor
송재복
권태범
주상현
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020100066885A priority Critical patent/KR101097182B1/ko
Application granted granted Critical
Publication of KR101097182B1 publication Critical patent/KR101097182B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

본 발명은 3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법에 관한 것으로서, 거리 센서를 회전시켜 센싱한 환경정보로부터 3차원 거리 정보를 추출하는 3차원 거리정보 처리단계와, 상기 3차원 거리정보를 2차원 평면에 투영시켜 최근접점(nearest point)을 추출하는 최근접점 추출단계와, 상기 추출된 최근접점을 고도지도와의 정합이 유리한 정도에 따라 분류하는 최근접점 분류단계를 포함한다. 상기 본 발명에 따른 3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법은 환경을 3차원으로 센싱한 정보 중 고도지도에 반영되어 있는 정보를 구분함으로서, 고도지도와 센서정보의 정합 정확도를 향상시킬 수 있으며, 무인 차량의 위치추정에 사용할 경우 그 위치추정의 정확도 등의 성능을 향상시킬 수 있다.

Description

3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법 {METHOD FOR EXTRACTING THE MACHABLE INFORMATION WITH ELAVATION MAP IN 3-DIMENSION DISTANCE INFORMATION}
본 발명은 3차원 거리정보에서 정보를 추출하는 방법에 관한 것으로서, 보다 상세하게는 3차원 거리정보에서 최근접점 정보를 추출함으로서 고도지도와의 정합 정확도를 향상시킬 수 있는 3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법에 관한 것이다.
최근 무인차량의 자율주행에 대한 군사분야 및 산업분야의 수요 발생으로 이에 관한 연구가 활발하게 진행되고 있다. 무인차량의 자율주행은 많은 요소기술을 필요로 하는데, 환경에 대한 자신의 위치를 인식하는 위치추정 기술이 가장 중요한 기술 중 하나이다. 실외환경의 경우 GPS(Global Positioning System)를 사용하면 위치추정 문제를 해결할 수 있지만, GPS 신호가 도달하지 않는 환경에서는 위치추정을 수행할 수 없는 단점이 있다. 따라서 환경에 대한 지도와 무인차량에 장착된 센서로 수집한 정보를 정합하여 무인차량의 위치를 추정하는 방법에 대한 연구가 진행되고 있다. 다만, 지도와 센서정보를 정합하여 무인차량의 위치를 인식하기 위해서는 환경에 대한 지도를 미리 가지고 있어야 한다. 야외환경에 대한 가장 대표적인 지도는 고도지도(elevation map)이다. 고도지도는 환경을 바둑판 모양의 일정한 크기의 격자로 나눈 후 각 격자에 해당하는 장애물의 최고 높이(혹은 고도)를 저장한 지도이다. 따라서, 하나의 격자에 해당하는 부분에, 높이가 다른 여러 장애물이 존재한다면, 가장 높은 장애물만 표현할 수 있고 그 아래 부분은 표현하지 못한다. 이와 같이, 고도지도는 상대적으로 작성이 용이하고 저장공간을 적게 차지하는 장점이 있지만, 3차원 환경을 정확하게 표현하지 못하는 단점이 있다. 즉, 특정환경에 대한 고도지도와 동일한 환경을 3차원으로 센싱한 정보를 비교하면 큰 차이가 존재할 수 있다. 이와 같은 문제를 해결하기 위한 기존 발명으로서, 3차원 환경을 정확히 표현할 수 있는 지도(MLS map : Multi-Level Surface map)를 작성하는 방법이 있었지만, 고도지도에 비하여 지도작성이 어렵고 저장공간이 많이 필요한 단점이 있었다.
본 발명의 목적은 환경에 대한 3차원 센싱정보 중 고도지도와의 정합에 유리한 정보를 추출하여 고도지도와 센서정보의 정합 정확도를 향상시킬 수 있는 3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법을 제공하는 데 있다.
상기 본 발명의 목적에 따른 3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법은 거리 센서를 회전시켜 센싱한 환경정보로부터 3차원 거리 정보를 추출하는 3차원 거리정보 처리단계와, 3차원 거리정보를 2차원 평면에 투영시켜 최근접점(nearest point)을 추출하는 최근접점 추출단계와, 상기 추출된 최근접점을 고도지도와의 정합이 유리한 정도에 따라 분류하는 최근접점 분류단계를 포함한다.
상기 본 발명의 세부적인 목적에 따른 3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법은 거리 센서가 레이저 스캐너, 적외선 스캐너, 라이다(lidar), 레이다 중 어느 하나인 것이다.
상기 본 발명의 세부적인 목적에 따른 3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법은 3차원 거리 정보 처리단계가, 2차원 평면상에서 기설정된 각도 범위와 각도 간격으로 장애물까지의 거리를 측정하고, 거리 센서를 회전시키는 것에 의하여 장애물까지의 3차원 거리 정보를 획득하는 것이다.
상기 본 발명의 세부적인 목적에 따른 3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법은 최근접점 추출단계가, 지면과 평행한 평면상에서 센서의 위치를 원점으로 하는 극좌표계로 설정하는 단계와, 평면을 일정한 각도 간격으로 구분하는 단계와, 평면에 3차원 거리정보를 포함한 센싱점들을 2차원 평면에 투영시키는 단계와, 구분된 각 구역에 포함된 센싱점들 중 2차원 평면상에서 센서로부터의 거리가 가장 가까운 센싱점을 추출하는 단계를 포함하는 것이다.
상기 본 발명의 세부적인 목적에 따른 3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법은 최근접점 분류단계가, 구역에 포함된 센싱점이 하나뿐인 경우 UN(UnKnown) point로 분류하고, 구역에 포함된 센싱점 중 최근접점보다 더 먼 거리에서 더 높은 장애물이 탐지된 경우 그 최근접점을 NH(Nearest and Highest) point로 분류하고, 구역에 포함된 센싱점 중 최근접점과 비슷한 거리의 장애물들은 탐지되지만, 더 먼 거리에서 더 높은 장애물이 탐지되지 않는 경우 그 최근접점을 NPH(Nearest and Potentially Highest) point로 분류하고, 구역에 포함된 센싱점 중 최근접점보다 더 먼 거리에서 더 낮은 장애물만 탐지되는 경우 NNH(Nearest but Not Highest) point로 분류한다.
본 발명에 따르면, 환경을 3차원으로 센싱한 정보 중 고도지도에 반영되어 있는 정보를 구분함으로서, 고도지도와 센서정보의 정합 정확도를 향상시킬 수 있으며, 무인 차량의 위치추정에 사용할 경우 그 위치추정의 정확도 등의 성능을 향상시킬 수 있다.
도 1은 본 발명의 일 실시예에 따른 센서의 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법의 흐름도이다.
도 2는 본 발명에 따른 거리 센서의 일 예를 나타낸 도면이다.
도 3은 본 발명에 따른 3차원 환경을 센싱하기 위한 2차원 거리 센서를 회전시키는 예시도이다.
도 4는 실제 야외 환경(a), 실제 야외 환경에 대한 고도 지도(b) 및 3차원으로 센싱한 결과(c)를 나타낸 도면이다.
도 5는 서로 다른 형태의 환경이 동일한 고도지도로 표현되는 예시도이다.
도 6은 2차원 평면을 일정 각도 간격의 여러 구역으로 구분한 후 3차원으로 센싱한 정보를 2차원 평면에 투영한 경우를 나타낸 도면이다.
도 7은 다양한 환경에서 거리 센서를 회전시키며 센싱할 때 고도지도에 저장된 고도와 센싱한 고도의 차이를 나타낸 도면이다.
도 8은 본 발명에 따른 3차원 센싱점을 분류하였을 때, 고도지도와 일치하는 센싱점과 일치하지 않는 센싱점을 구분한 예시도이다.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 센서의 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법의 흐름도이다. 도 1에 도시된 바와 같이, 센서의 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법은, 2차원 평면상에서 장애물까지의 거리를 측정하는 거리 센서를 회전시켜 센싱한 환경정보로부터 3차원 거리정보를 추출하는 3차원 거리정보 처리단계(S110)와, 3차원 거리정보를 2차원 평면에 투영시켜 최근접점(nearest point)을 추출하는 최근접점 추출단계(S120)와, 추출된 최근접점을 고도지도와의 정합이 유리한 정도에 따라 분류하는 최근접점 분류단계(S130)를 포함하고 있다.
도 2는 본 발명에 따른 거리 센서의 일 예를 나타낸 도면이다. 도 2에 도시된 바와 같이 거리 센서(210)는 2차원 평면상에서 기설정된 각도 범위 amax 이내에서 기설정된 각도 간격 astep으로 장애물까지의 거리 ri를 측정한다. i는 측정값의 순서이다. 이와 같은 방식으로 환경에 대한 거리정보를 얻을 수 있는 센서는 레이저 스캐너, 적외선 스캐너, 라이다(lidar), 레이다 등이 있으며, 가장 대표적인 거리 센서는 레이저 스캐너이다.
도 3은 본 발명에 따른 3차원 환경을 센싱하기 위한 2차원 거리 센서(310)를 회전시키는 예시도이다. 도 3에 도시된 바와 같이, 2차원 거리 센서를 이용하여, 3차원 환경을 측정하기 위해서는 거리 센서를 회전축(311)을 기준으로 회전시키는 것에 의하여 장애물까지의 3차원 거리 정보를 획득할 수 있다.
도 4는 실제 야외 환경(a), 동일한 환경에 대한 고도지도(b), 동일한 환경을 3차원으로 센싱한 결과(c)를 나타낸다. 도 4의 (a)와 같은 환경에서 거리 센서를 회전시키며 환경에 대한 거리 정보를 수집하면 도 4의 (c)와 같이 환경에 대한 3차원 거리 정보를 얻을 수 있다. 고도지도는 환경을 바둑판 모양의 일정한 크기의 격자로 나눈 후 각 격자에 해당하는 장애물의 최고 높이(혹은 고도)를 저장한 지도이다. 따라서 하나의 격자에 해당하는 부분에 높이가 다른 여러 장애물이 존재한다면, 가장 높은 장애물만 표현할 수 있고 그 아래 부분은 표현하지 못한다. 도 4의 (a)의 실제 환경에 대한 고도지도는 도 4의 (b)인데, 동일한 격자에 서로 다른 높이로 존재하는 A부분(410)과 B부분(420)이 고도지도에서는 B부분(430)만 표현되는 것을 확인할 수 있다. 이에 반해, 환경에 대한 3차원 거리 정보인 도 4의 (c)에는 A부분(440)과 B부분(450)이 모두 표현되어 있는데, 이 중 고도지도에서 추출할 수 있는 정보와 비교하여 유사한 정보와 그렇지 않은 정보를 구분할 수 있다면 거리정보와 고도지도의 정합에 유용하게 활용할 수 있다.
도 5는 서로 다른 형태의 환경이 동일한 고도지도로 표현되는 예시도이다. 도 5에 도시된 바와 같이, 환경 1(510)과 환경 2(520)와 환경 3(530)은 각기 다른 형태를 가지지만, 각 환경은 동일한 고도지도(540)로 표현된다. 즉, 환경을 3차원으로 센싱한 정보와 고도지도 사이에는 불일치가 존재할 수 있다.
도 6은 2차원 평면을 일정 각도 간격의 여러 구역으로 구분한 후 3차원으로 센싱한 정보를 2차원 평면에 투영한 경우를 나타낸 도면이다. 도 6에 도시된 바와 같이, 환경으로부터 3차원으로 센싱한 정보 중 최근접점(nearest point)을 추출하기 위하여, 지면과 평행한 평면상에서 센서의 위치를 원점으로 하는 극좌표계를 설정하고, 평면을 일정한 각도 간격으로 구분하여 구역(630)을 설정한다. 그리고, 거리 센서를 전방을 향한 각도부터 상방(하늘 방향)을 향한 각도까지 회전시키며 환경을 센싱하면, 3차원 환경에 대한 방대한 양의 센싱점을 얻을 수 있다. 다음으로, 3차원 거리정보를 포함한 센싱점들을 2차원 평면에 투영시키면 하나의 구역에 다수의 센싱점(610)이 존재하게 된다. 하나의 구역에 존재하는 센싱점들(610) 중 높이와 상관 없이 2차원 평면상에서 센서로부터의 거리가 가장 가까운 센싱점을 찾으면 그 센싱점이 최근접점(620)이 된다. 각 구역마다 하나의 최근접점이 존재하거나, 센싱점이 하나도 포함되지 않은 구역에는 최근접점이 존재하지 않을 것이다.
도 7은 다양한 환경에서 거리 센서를 회전시키며 센싱할 때 고도지도에 저장된 고도와 센싱한 고도의 차이를 나타낸 도면이다. 도 7에 도시된 바와 같이, 예를 들어 4가지 환경의 경우에 있어서, 최근접점의 고도지도에 저장된 고도(720)와 최근접점의 센싱한 고도(710)는 서로 일치할 수도 있고, 다를 수도 있다는 것을 확인할 수 있다. 따라서, 각 경우에 대한 3차원 환경을 센싱한 정보의 가치를 예상하여 고도지도와의 정합에 사용할 것인지를 판단할 필요가 있다.
한 구간 안에 존재하는 다수의 센싱점을 이용하여 그 구역의 최근접점을 몇 가지로 분류하는 것이 가능하다. 본 발명에서는 UN(UNknown), NH(Nearest and Highest), NPH(Nearest and Potentially Highest), NNH(Nearest but Not Highest)의 4개로 분류한다. 각각의 특징은 다음과 같다.
UN point는 구역 안에 존재하는 센싱점이 하나뿐이어서 분류가 불가능한 점을 말한다. 즉, UN point에서는 고도지도를 이용하여 예측한 최근접점의 고도와 실제 측정한 고도가 일치할 가능성을 예측할 수 없으며, 따라서, 고도지도를 이용하여 최근접점까지 예측한 거리와 실제 측정한 거리가 일치할 가능성을 예측할 수 없다.
NH point는 고도지도를 이용하여 예측한 최근접점의 고도와 실제 측정한 고도가 일치하는 점을 말한다. 즉, 거리 센서를 이용하여 측정한 센싱점 상부에 장애물이 없어 고도지도를 이용하여 최근접점까지 예측한 거리나 실제 측정한 거리가 일치할 가능성이 높다.
NPH point는 고도지도를 이용하여 예측한 최근접점의 고도와 실제 측정한 고도가 일치할 가능성이 높은 점을 말한다. 즉, 주로 벽이나 수직한 면을 센싱한 점이다. 따라서, 고도지도를 이용하여 최근접점까지 예측한 거리와 실제 측정한 거리가 일치할 가능성이 NH보다 낮다.
NNH point는 고도지도를 이용하여 예측한 최근접점의 고도와 실제 측정한 고도가 일치할 가능성이 매우 낮은 점을 말한다. 즉, 거리 센서를 이용하여 정한 센싱점 상부에 장애물이 존재하여 고도지도에서 최근접점까지 예측한 거리와 실체 측정한 거리가 일치할 가능성이 매우 낮다.
또한, 각각은 다음과 같은 방법으로 분류한다.
먼저, 구역에 포함된 센싱점이 하나뿐인 경우에는 UN point로 분류하고, 구역에 포함된 센싱점 중 최근접점보다 더 먼 거리에서 더 높은 장애물이 탐지된 경우 그 최근접점을 NH point로 분류하고, 구역에 포함된 센싱점 중 최근접점과 비슷한 거리의 장애물은 탐지되지만 더 먼 거리에서 더 높은 장애물이 탐지되지 않는 경우 그 최근접점을 NPH point로 분류하고, 구역에 포함된 센싱점 중 최근접점보다 더 먼 거리에서 더 낮은 장애물만 탐지되는 경우 NNH point로 분류한다.
도 8은 본 발명에 따른 3차원 센싱점을 분류하였을 때, 고도지도와 일치하는 센싱점과 일치하지 않는 센싱점을 구분한 예시도이다. 도 8에 도시된 바와 같이, 구조물의 가장 윗부분을 센싱한 점들은 NH로 분류되었는데, 거리 센서의 위치에서 이 부분까지의 거리를 고도지도를 이용하여 예측하면 실제 센서로 측정한 거리와 유사하다. 구조물의 아래 부분을 센싱한 점들은 NNH로 분류되었는데, 고도지도에는 이 부분이 반영되어 있지 않으므로 예측한 거리와 실제 측정한 거리가 유사하지 않을 것이다. 구조물의 윗부분 모서리까지 측정하지 못하고 벽 부분만 측정한 센싱점은 NPH로 분류되었는데, 이 부분까지의 거리를 고도지도를 이용하여 예측하면 실제 센서로 측정한 거리와 유사할 가능성이 높기는 하지만, NH로 분류된 센싱점 만큼은 아니다. 분류된 결과를 보면 고도지도와 일치하는 부분이 NH와 NPH로 분류되고, 그렇지 않은 부분이 NNH로 분류된 것을 확인할 수 있다. 따라서, 본 발명에 의하면 거리 센서를 회전시켜 얻은 3차원 환경정보 중 고도지도와의 정합에 유리한 정보를 추출할 수 있다. 또한, 이 결과를 이용하여 센싱점을 선별적으로 정합에 활용한다면 정합 정확도를 높일 수 있다.
이상에서 설명한 바와 같이, 바람직한 실시예를 통하여 본 발명에 관하여 상세히 설명하였으나, 본 발명은 이에 한정되는 것은 아니며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양하게 변경, 응용이 가능함은 당업자에게 자명하다. 따라서, 본 발명의 진정한 보호 범위는 다음의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술적 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.
210 : 거리 센서
310 : 거리 센서
311 : 회전축
410 : A 부분
420 : B 부분
430 : B 부분
440 : A 부분
450 : B 부분
510 : 환경 1
520 : 환경 2
530 : 환경 3
540 : 고도지도
610 : 한 구역 내의 센싱점들
620 : 평면상 최근접점
630 : 일정 간격으로 구분된 구역
710 : 최근접점의 센싱한 고도
720 : 최근접점의 고도지도에 저장된 고도

Claims (5)

  1. 거리 센서를 회전시켜 센싱한 환경정보로부터 3차원 거리 정보를 추출하는 3차원 거리정보 처리단계와,
    상기 3차원 거리정보를 2차원 평면에 투영시켜 최근접점(nearest point)을 추출하는 최근접점 추출단계와,
    고도지도와의 정합시 정확도를 높이기 위해서 상기 추출된 최근접점을 분류하되, 구역에 포함된 센싱점이 하나뿐인 경우 UN(UnKnown) point로 분류하고, 구역에 포함된 센싱점 중 최근접점보다 더 먼 거리에서 더 높은 장애물이 탐지된 경우 그 최근접점을 NH(Nearest and Highest) point로 분류하며, 구역에 포함된 센싱점 중 최근접점과 비슷한 거리의 장애물들은 탐지되지만 더 먼 거리에서 더 높은 장애물이 탐지되지 않는 경우 그 최근접점을 NPH(Nearest and Potentially Highest) point로 분류하고, 구역에 포함된 센싱점 중 최근접점보다 더 먼 거리에서 더 낮은 장애물만 탐지되는 경우 NNH(Nearest but Not Highest) point로 분류하는 최근접점 분류단계를 포함하는 것을 특징으로 하는 3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법.
  2. 제 1 항에 있어서,
    상기 거리 센서는 레이저 스캐너, 적외선 스캐너, 라이다(lidar), 레이다 중 어느 하나인 것을 특징으로 하는 3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법.
  3. 제 1 항에 있어서,
    상기 3차원 거리 정보 처리단계는,
    2차원 평면상에서 기설정된 각도 범위와 각도 간격으로 장애물까지의 거리를 측정하고, 상기 거리 센서를 회전시키는 것에 의하여 장애물까지의 3차원 거리 정보를 획득하는 것을 특징으로 하는 3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법.
  4. 제 1 항에 있어서,
    상기 최근접점 추출단계는,
    지면과 평행한 평면을, 센서를 원점으로 하는 극좌표계로 표현하는 단계와,
    상기 평면을 일정한 각도 간격으로 구분하는 단계와,
    상기 평면에 3차원 거리정보를 포함한 센싱점들을 2차원 평면에 투영시키는 단계와,
    상기 구분된 각 구역에 포함된 센싱점들 중 2차원 평면상에서 센서로부터의 거리가 가장 가까운 센싱점을 추출하는 단계를 포함하는 것을 특징으로 하는 3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법.
  5. 삭제
KR1020100066885A 2010-07-12 2010-07-12 3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법 KR101097182B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100066885A KR101097182B1 (ko) 2010-07-12 2010-07-12 3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100066885A KR101097182B1 (ko) 2010-07-12 2010-07-12 3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법

Publications (1)

Publication Number Publication Date
KR101097182B1 true KR101097182B1 (ko) 2011-12-21

Family

ID=45506740

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100066885A KR101097182B1 (ko) 2010-07-12 2010-07-12 3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법

Country Status (1)

Country Link
KR (1) KR101097182B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101391525B1 (ko) 2012-07-19 2014-05-07 고려대학교 산학협력단 이동 로봇의 지도 형성 방법 및 위치 인식 방법
KR20180027242A (ko) * 2016-09-06 2018-03-14 국방과학연구소 무인 차량을 위한 주변 환경 매핑 방법 및 장치
CN108771370A (zh) * 2018-05-24 2018-11-09 夏文才 一种智能家居红外指引装置
KR102025113B1 (ko) * 2018-08-27 2019-09-25 영남대학교 산학협력단 LiDAR를 이용한 이미지 생성 방법 및 이를 위한 장치
KR102115294B1 (ko) * 2020-02-28 2020-06-02 주식회사 파블로항공 무인항공기 충돌 회피 방법

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101391525B1 (ko) 2012-07-19 2014-05-07 고려대학교 산학협력단 이동 로봇의 지도 형성 방법 및 위치 인식 방법
KR20180027242A (ko) * 2016-09-06 2018-03-14 국방과학연구소 무인 차량을 위한 주변 환경 매핑 방법 및 장치
KR101864127B1 (ko) 2016-09-06 2018-06-29 국방과학연구소 무인 차량을 위한 주변 환경 매핑 방법 및 장치
CN108771370A (zh) * 2018-05-24 2018-11-09 夏文才 一种智能家居红外指引装置
KR102025113B1 (ko) * 2018-08-27 2019-09-25 영남대학교 산학협력단 LiDAR를 이용한 이미지 생성 방법 및 이를 위한 장치
US11609332B2 (en) 2018-08-27 2023-03-21 Research Cooperation Foundation Of Yeungnam University Method and apparatus for generating image using LiDAR
KR102115294B1 (ko) * 2020-02-28 2020-06-02 주식회사 파블로항공 무인항공기 충돌 회피 방법

Similar Documents

Publication Publication Date Title
CN108152831B (zh) 一种激光雷达障碍物识别方法及系统
CN110807350B (zh) 用于面向扫描匹配的视觉slam的系统和方法
CN110542908B (zh) 应用于智能驾驶车辆上的激光雷达动态物体感知方法
CN105806344B (zh) 一种基于局部地图拼接的栅格地图创建方法
JP6166294B2 (ja) 自動運転システム、自動運転の方法及びコンピューティング装置
Han et al. Enhanced road boundary and obstacle detection using a downward-looking LIDAR sensor
US8521418B2 (en) Generic surface feature extraction from a set of range data
CN111077541B (zh) 一种障碍物识别方法、障碍物识别装置及移动机器人
McDaniel et al. Terrain classification and identification of tree stems using ground‐based LiDAR
KR101762504B1 (ko) 레이저 거리 센서를 이용한 바닥 장애물 검출 방법
US9042639B2 (en) Method for representing surroundings
Yokoyama et al. Pole-like objects recognition from mobile laser scanning data using smoothing and principal component analysis
US20090228204A1 (en) System and method for map matching with sensor detected objects
KR101097182B1 (ko) 3차원 거리정보에서 고도지도와의 정합에 유리한 정보를 추출하는 방법
CN104040590A (zh) 用于估计物体的姿态的方法
US9558564B1 (en) Method for finding important changes in 3D point clouds
Schlichting et al. Vehicle localization by lidar point correlation improved by change detection
JP6322564B2 (ja) 点群解析処理装置、方法、及びプログラム
Li et al. A new 3D LIDAR-based lane markings recognition approach
CN113030997B (zh) 一种基于激光雷达的露天矿区可行驶区域检测方法
Cheng et al. Ground segmentation algorithm based on 3D LiDAR point cloud
Gehrung et al. A fast voxel-based indicator for change detection using low resolution octrees
Song et al. Natural landmark extraction in cluttered forested environments
Opromolla et al. PCA-based line detection from range data for mapping and localization-aiding of UAVs
CN115930946A (zh) 室内外交变环境下动态障碍物多特征描述的方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141202

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151202

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20161202

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee