KR20200085436A - 배경추정기술을 활용한 라이다 객체 인식 시스템 - Google Patents

배경추정기술을 활용한 라이다 객체 인식 시스템 Download PDF

Info

Publication number
KR20200085436A
KR20200085436A KR1020190001519A KR20190001519A KR20200085436A KR 20200085436 A KR20200085436 A KR 20200085436A KR 1020190001519 A KR1020190001519 A KR 1020190001519A KR 20190001519 A KR20190001519 A KR 20190001519A KR 20200085436 A KR20200085436 A KR 20200085436A
Authority
KR
South Korea
Prior art keywords
point cloud
background
cloud information
lidar
information
Prior art date
Application number
KR1020190001519A
Other languages
English (en)
Other versions
KR102214848B1 (ko
Inventor
심재술
지창현
김덕규
Original Assignee
영남대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 영남대학교 산학협력단 filed Critical 영남대학교 산학협력단
Priority to KR1020190001519A priority Critical patent/KR102214848B1/ko
Publication of KR20200085436A publication Critical patent/KR20200085436A/ko
Application granted granted Critical
Publication of KR102214848B1 publication Critical patent/KR102214848B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

일 실시 예에 있어서, 배경추정기술을 활용한 라이다 객체 인식 시스템이 개시된다. 상기 배경추정기술을 활용한 라이다 객체 인식 시스템은 반사파를 통하여 주위의 포인트 클라우드 정보를 획득하는 스캐너 및 상기 포인트 클라우드 정보 중에서 배경에서 기인하는 포인트 클라우드 정보를 분리하여 이동체를 검출하는 검출부를 포함한다. 상기 검출부는 상기 포인트 클라우드 정보의 거리값을 기준으로 상기 배경에서 기인하는 포인트 클라우드 정보를 분리하여 상기 이동체를 검출한다.
본 명세서에서 개시하는 배경추정기술을 활용한 라이다 객체 인식 시스템은 라이다를 통하여 획득한 주위의 포인트 클라우드 정보에서 배경과 객체를 분리하고, 배경과 분리된 객체와 관련된 포인트 클라우드 정보에서 객체를 추정하는 배경추정기술을 활용함으로써 심한 환경변화에서도 정확한 인식이 가능하며, 비교적 먼 거리의 이동체를 판별할 수 있는 효과를 제공해 줄 수 있다.

Description

배경추정기술을 활용한 라이다 객체 인식 시스템{Lidar system for object recognition using background estimation technique}
본 명세서에서 개시하는 기술은 객체 인식 시스템에 관한 것으로, 보다 상세하게는 라이다를 통하여 획득한 주위의 포인트 클라우드 정보에서 배경과 객체를 분리하고 분리된 객체와 관련된 포인트 클라우드 정보에서 객체를 추정하는 배경추정기술을 활용한 라이다 객체 인식 시스템에 관한 것이다.
현재 카메라, 라이다, 레이더 등의 여러 가지 센서들을 이용하여 자율 주행 차량과 로봇의 이동에 필요한 주변 맵 생성 및 보행자 검출 기술 연구가 활발히 진행 중이다. 고가의 3D 라이다, 다수의 2D 라이다 또는 2대 이상의 카메라 등을 이용한 초기의 연구는 정확한 객체의 인식을 위해서는 비용이 많이 드는 문제가 있었다.
최근 이러한 고비용의 문제를 해결하여 그 응용 범위를 넓히기 위해 카메라와 저가의 2D 라이다를 이용한 대체 인식 기술 연구가 활발히 진행 중이다. 이때의 2D 라이다 데이터는 주로 깊이(depth) 정보제공과 객체의 관심영역(ROI)을 찾는 역할을 하고, 카메라로 얻은 영상 데이터로 주변환경 및 객체를 인식한다. 하지만, 카메라 영상 기반의 주변환경 및 객체 인식은 어두운 장소, 흐린 날씨등과 같이 조명이 거의 없는 환경이나 조명 변화가 심한 환경에서 인식이 어려운 문제가 있었다. 다른 보행자 검출 기술 중 2D 라이다 센서를 이용한 고차원 휴먼 특성함수(HCF) 기반의 보행자 탐지 알고리즘이 있다. 이 기술은 라이다 데이터로 얻은 폭, 두께, 기울기 정보로 신체너비, 폭, 자세를 추정하고, 미리 저장된 사람의 특징 데이터를 이용하여 사람을 탐지한다. 하지만, 이 기술 또한 2.5m이내의 가까운 사람만을 탐지할 수 있어서 자율 주행 차량이나 로봇과 같은 분야에는 적합하지 않은 문제가 있다.
주변환경 인식 기술과 관련한 종래 기술로는 대한민국등록특허 KR 10-1491314 "레이저 스캐너를 이용한 장애물 인식 장치 및 방법" 등이 있다.
본 명세서에서 개시하는 기술은 상기한 종래 기술의 문제점을 해결하기 위하여 도출된 것으로서, 라이다를 통하여 획득한 주위의 포인트 클라우드 정보에서 배경과 객체를 분리하고, 배경과 분리된 객체와 관련된 포인트 클라우드 정보에서 객체를 추정하기 위해 배경을 분리하는 배경추정기술을 활용함으로써 심한 환경변화에서도 이동 객체의 정확한 인식이 가능하며, 가까운 거리만이 아니라 비교적 먼 거리에서도 이동체를 판별할 수 있는 객체 인식 시스템을 제공한다.
일 실시 예에 있어서, 배경추정기술을 활용한 라이다 객체 인식 시스템이 개시(disclosure)된다. 상기 배경추정기술을 활용한 라이다 객체 인식 시스템은 반사파를 통하여 주위의 포인트 클라우드 정보를 획득하는 스캐너 및 상기 포인트 클라우드 정보 중에서 배경에서 기인하는 포인트 클라우드 정보를 분리하여 이동체를 검출하는 검출부를 포함한다. 상기 검출부는 상기 포인트 클라우드 정보의 거리값을 기준으로 상기 배경에서 기인하는 포인트 클라우드 정보를 분리하여 상기 이동체를 검출한다.
일례로, 상기 스캐너는 라이다 센서 및 상기 라이다 센서를 회전시키는 회전부를 포함할 수 있다. 상기 라이다 센서는 상기 회전부에 의한 회전과정에서 상기 포인트 클라우드 정보를 획득할 수 있다.
이 경우, 상기 라이다 센서가 획득하는 상기 포인트 클라우드 정보는 회전평면의 방위각(azimuth)에 대응하여 맵핑될 수 있다.
한편, 배경추정기술을 활용한 라이다 객체 인식 시스템은 상기 라이다 센서가 획득하는 상기 포인트 클라우드 정보의 오차를 줄이기 위한 필터부를 더 포함할 수 있다.
상기 포인트 클라우드 정보는 상기 라이다 센서에서 상기 배경 또는 상기 이동체까지의 거리정보를 포함할 수 있으며, 상기 포인트 클라우드 정보는 0도에서 360도 사이의 방위각에서 일정한 양자화 간격으로 양자화될 수 있다.
한편, 방위각을 기준으로 양자화된 포인트 클라우드 정보는 상기 회전부의 회전을 기준으로 프레임화될 수 있다. 상기 검출부는 현재 프레임에서의 특정 방위각에 맵핑되는 포인트의 거리정보인 제1거리값과 적어도 하나 이상의 이전 프레임에서의 상기 특정 방위각에 맵핑되는 포인트의 거리정보인 제2거리값을 비교하여 현재 프레임에서의 상기 특정 방위각에 맵핑되는 포인트가 상기 배경에서 기인하는지 아니면 상기 이동체에서 기인하는지 여부를 판단할 수 있다.
상기 검출부는 방위각을 기준으로 양자화되고 프레임화된 상기 포인트 클라우드 정보에서 상기 배경에서 기인하는 포인트 클라우드 정보를 분리하여 상기 이동체에서 기인하는 포인트 클라우드 정보-이하 분석대상정보라 함-를 검출할 수 있다. 상기 검출부는 상기 분석대상정보 중 인접한 방위각의 포인트 사이의 거리를 기준거리와 비교하여 상기 분석대상정보를 클러스터링할 수 있다.
상기 검출부는 클러스터링된 상기 분석대상정보를 미리 설정한 규칙에 따라 특정 모양에 대응하여 상기 이동체의 형상을 식별할 수 있다.
일례로, 클러스터링된 상기 분석대상정보는 포인트 개수 또는 메인피쳐라인으로 맵핑될 수 있으며, 상기 검출부는 상기 포인트 개수 또는 상기 메인피쳐라인의 길이와 폭의 비율을 미리 설정된 기준과 비교하여 상기 이동체의 형상을 식별할 수 있다.
본 명세서에서 개시하는 배경추정기술을 활용한 라이다 객체 인식 시스템은 라이다를 통하여 획득한 주위의 포인트 클라우드 정보에서 배경과 객체를 분리하고, 배경과 분리된 객체와 관련된 포인트 클라우드 정보에서 객체를 추정하는 배경추정기술을 활용함으로써 심한 환경변화에서도 정확한 인식이 가능하며, 거리에 따른 이동 객체의 인식률의 저하 문제를 해결할 수 있다.
또한, 본 명세서에서 개시하는 배경추정기술을 활용한 라이다 객체 인식 시스템은 배경제거기법 및 클러스터링(clustering) 포인트(point) 개수 또는 메인피쳐라인(Main Feature Line, MFL)을 이용하여 잠정적인 이동물체를 판단하는 형상룰(shaping rule) 기법을 활용함으로써 먼 거리에 위치하는 배경 정보가 이동체 정보로 판단되거나, 가까운 거리에 위치하는 이동체 정보가 배경 정보로 인식되는 문제를 해결해 줄 수 있는 효과를 제공해 줄 수 있다.
전술한 내용은 이후 보다 자세하게 기술되는 사항에 대해 간략화된 형태로 선택적인 개념만을 제공한다. 본 내용은 특허 청구 범위의 주요 특징 또는 필수적 특징을 한정하거나, 특허청구범위의 범위를 제한할 의도로 제공되는 것은 아니다.
도 1은 본 명세서에서 개시하는 배경추정기술을 활용한 라이다 객체 인식 시스템의 블록도이다.
도 2는 본 명세서에서 개시하는 양자화된 방위각의 일례를 보여주는 도면이다.
도 3 및 도 4는 본 명세서에서 개시하는 필터부의 동작을 설명하기 위한 일례를 보여주는 도면이다.
도 5는 본 명세서에서 개시하는 배경추정을 설명하기 위한 도면이다.
도 6 및 도 7은 본 명세서에서 개시하는 분석대상정보를 클러스터링하는 과정을 설명하기 위한 도면이다.
도 8은 본 명세서에서 개시하는 기술을 통하여 이동체를 검출한 실험결과를 보여주는 도면이다.
이하, 본 명세서에 개시된 실시 예들을 도면을 참조하여 상세하게 설명하고 자 한다. 본문에서 달리 명시하지 않는 한, 도면의 유사한 참조번호들은 유사한 구성요소들을 나타낸다. 상세한 설명, 도면들 및 청구항들에서 상술하는 예시적인 실시 예들은 한정을 위한 것이 아니며, 다른 실시 예들이 이용될 수 있으며, 여기서 개시되는 기술의 사상이나 범주를 벗어나지 않는 한 다른 변경들도 가능하다. 당업자는 본 개시의 구성요소들, 즉 여기서 일반적으로 기술되고, 도면에 기재되는 구성요소들을 다양하게 다른 구성으로 배열, 구성37, 결합, 도안할 수 있으며, 이것들의 모두는 명백하게 고안되어지며, 본 개시의 일부를 형성하고 있음을 용이하게 이해할 수 있을 것이다. 도면에서 여러 층(또는 막), 영역 및 형상을 명확하게 표현하기 위하여 구성요소의 폭, 길이, 두께 또는 형상 등은 과장되어 표현될 수도 있다.
일 구성요소가 다른 구성요소와 "마련"이라고 언급되는 경우, 상기 일 구성요소가 상기 다른 구성요소와 직접 마련되는 경우는 물론, 이들 사이에 추가적인 구성요소가 개재되는 경우도 포함할 수 있다.
개시된 기술에 관한 설명은 구조적 내지 기능적 설명을 위한 실시 예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시 예에 의하여 제한되는 것으로 해석되어서는 아니된다. 즉, 실시 예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물을 포함하는 것으로 이해되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, “포함하다” 또는 “가지다” 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
여기서 사용된 모든 용어들은 다르게 정의되지 않는 한, 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석 될 수 없다.
도 1은 본 명세서에서 개시하는 배경추정기술을 활용한 라이다 객체 인식 시스템의 블록도이다. 도 2는 본 명세서에서 개시하는 양자화된 방위각의 일례를 보여주는 도면이다. 도 3 및 도 4는 본 명세서에서 개시하는 필터부의 동작을 설명하기 위한 일례를 보여주는 도면이다. 도 5는 본 명세서에서 개시하는 배경추정을 설명하기 위한 도면이다. 도 6 및 도 7은 본 명세서에서 개시하는 분석대상정보를 클러스터링하는 과정을 설명하기 위한 도면이다. 도 8은 본 명세서에서 개시하는 기술을 통하여 이동체를 검출한 실험결과를 보여주는 도면이다.
이하 도면을 참조하여 본 명세서에서 개시하는 배경추정기술을 활용한 라이다 객체 인식 시스템을 설명하기로 한다.
도면을 참조하면, 배경추정기술을 활용한 라이다 객체 인식 시스템(100)은 스캐너(110) 및 검출부(120)를 포함한다. 몇몇 다른 실시 예들에 있어서, 배경추정기술을 활용한 라이다 객체 인식 시스템(100)은 선택적으로(optionally) 필터부(130)를 더 포함할 수 있다.
스캐너(110)는 반사파를 통하여 주위의 포인트 클라우드 정보를 획득한다. 스캐너(110)는 광을 송신하고 반사파를 수신함으로써 거리값 정보를 포함하는 주위의 포인트 클라우드 정보를 획득할 수 있다.
검출부(120)는 상기 포인트 클라우드 정보 중에서 배경에서 기인하는 포인트 클라우드 정보를 분리하여 이동체를 검출한다. 검출부(120)는 상기 포인트 클라우드 정보의 거리값을 기준으로 상기 배경에서 기인하는 포인트 클라우드 정보를 분리하여 상기 이동체를 검출한다.
일 실시 예에 있어서, 스캐너(110)는 라이다 센서(112) 및 라이다 센서(112)를 회전시키는 회전부(114)를 포함할 수 있다. 라이다 센서(112)는 레이저 펄스를 방사하고 주위의 물체로부터 반사되는 반사파를 수신하여 물체까지의 거리를 측정할 수 있다. 라이다 센서(112)는 회전부(114)에 의한 회전과정에서 상기 포인트 클라우드 정보를 획득할 수 있다. 이를 통하여 스캐너(110)는 주위의 정보를 임의의 평면에 대하여 회전부(114)의 회전축을 중심으로 또는 라이다 센서(112)를 기준으로 거리값 정보를 포함하는 포인트 클라우드 정보의 형태로 획득할 수 있다. 상기 임의의 평면은 예로서 지면에 평행한 평면일 수 있으나 이에 한정되는 것은 아니다.
상기의 예시는 이해를 위한 예시로서, 스캐너(110)는 주위와 대향하는 복수의 라이다 센서(112)를 활용하여 주위의 정보를 임의의 평면에 대한 라이다 센서(112)를 기준으로 거리값 정보를 포함하는 포인트 클라우드 정보의 형태로 획득할 수도 있다.
이하 설명의 편의상 스캐너(110)로서 라이다 센서(112) 및 회전부(114)를 포함하는 회전형 스캐너(110)를 활용하여 본 명세서에서 개시하는 기술을 설명하기로 한다. 이러한 설명이 본 명세서에서 개시하는 기술의 권리범위를 한정할 의도가 아님을 분명히 밝혀둔다.
도 2에 예로서 도시한 바와 같이, 라이다 센서(112)가 획득하는 상기 포인트 클라우드 정보는 임의의 평면의 방위각에 대응하여 맵핑될 수 있다. 이하 임의의 평면을 회전평면이라 칭하기로 한다. 즉, 라이다 센서(112)가 획득하는 상기 포인트 클라우드 정보는 회전평면의 방위각에 대응하여 맵핑될 수 있다. 이를 통하여 본 명세서에서 개시하는 기술은 주위의 정보를 방위각과 이에 대응되는 거리값 정보를 포함하는 포인트 클라우드 정보의 형태로 획득할 수 있다.
필터부(130)는 라이다 센서(112)가 획득하는 상기 포인트 클라우드 정보의 오차를 줄이기 위해 사용될 수 있다. 라이다 센서(112)로 주변환경을 측정한 값에는 빛 등으로 인한 노이즈가 있을 수 있다. 이러한 노이즈로 인해 실제 주변환경과는 다른 값이 측정될 수 있다. 라이다 센서(112)가 획득하는 데이타의 신뢰도를 향상시키기 위하여 필터부(130)가 사용될 수 있다. 도 3 및 도 4에 예로서 표현한 바와 같이, 필터부(130)로서 메디안 필터(median filter)가 예로서 사용될 수 있으나, 이는 예시로서 평균 필터(mean filter) 등 다양한 필터가 사용될 수도 있다. 필터부(130)에 대한 자세한 내용은 후술하는 실험사례에서 설명하기로 한다.
한편, 상기 포인트 클라우드 정보는 라이다 센서(112)를 회전시키는 매 회전마다 미리 설정된 방위각별로 획득되어 프레임화될 수 있다. 프레임에는 상기 포인트 클라우드 정보로서 미리 설정된 방위각별로 대응된 거리값 정보가 포함될 수 있다. 라이다 센서(112)를 회전시키는 회전방식으로 미리 설정된 방위각별로 상기 포인트 클라우드 정보를 얻을 경우에 회전과정에서 발생하는 라이다 센서(112), 회전부(114)의 흔들림 등으로 인하여 반복적인 회전을 통하여 얻어지는 방위각이 달라지는 문제가 발생할 수 있다. 이를 해결하기 위해 방위각을 양자화(quantization)하는 방법이 활용될 수 있다.
다시 말하면, 상기 포인트 클라우드 정보는 라이다 센서(112)에서 상기 배경 또는 상기 이동체까지의 거리정보를 포함하며, 상기 포인트 클라우드 정보는 0도에서 360도 사이의 방위각에서 일정한 양자화 간격으로 양자화될 수 있다. 도 2에는 0도에서 360도의 방위각을 1도 간격으로 양자화한 경우가 예로서 표현되어 있다. 방위각의 양자화는 다양한 방식으로 이뤄질 수 있으나, 예로서 측정되는 방위각을 0.5도를 기준으로 가까운 방위각으로 대응시키는 방식으로 이뤄질 수 있다.
검출부(120)의 배경과 이동체를 구분하는 과정은 아래의 과정을 통하여 수행될 수 있다. 방위각을 기준으로 양자화된 포인트 클라우드 정보는 회전부(114)의 회전을 기준으로 프레임화될 수 있다. 검출부(120)는 현재 프레임에서의 특정 방위각에 맵핑되는 포인트의 거리정보인 제1거리값과 적어도 하나 이상의 이전 프레임에서의 상기 특정 방위각에 맵핑되는 포인트의 거리정보인 제2거리값을 비교하여 현재 프레임에서의 상기 특정 방위각에 맵핑되는 포인트가 상기 배경에서 기인하는지 아니면 상기 이동체에서 기인하는지 여부를 판단할 수 있다.
보다 구체적으로 설명하면, 라이다 센서(112)가 측정한 포인트 클라우드 정보는 프레임에 미리 설정된 방위각별로 거리값이 반영되어 저장될 수 있다. 도 5를 참조하면, 라이다 센서(112)가 측정하는 현재 프레임(t)에서의 특정 방위각에 맵핑되는 포인트의 거리정보인 제1거리값은 L(t)이며, 라이다 센서(112)가 측정한 직전 프레임(t-1)에서의 특정 방위각에 맵핑되는 포인트의 거리정보인 제2거리값은 L(t-1)이라고 하자.
도 5의 (a)에 도시된 바와 같이, 배경(background)에서 기인하는 포인트의 거리인 제2거리값 L(t-1)은 이동체(moving target)에서 기인하는 포인트의 거리인 제1거리값 L(t)보다 크다. 큰 거리인 L(t-1)을 배경에서 기인하는 거리로 보고, L(t-1)과 L(t)의 차이인 거리차를 기준값과 비교하여 기준값 이상일 경우에 L(t)을 이동체에서 기인하는 거리로 보고 이동체를 식별할 수 있다.
한편, 도 5의 (b)에 도시된 바와 같이, 배경에서 기인하는 포인트의 거리인 제2거리값 L(t-1)은 배경에서 기인하는 포인트의 거리인 제1거리값 L(t)과 동일하다. L(t-1)과 L(t)의 차이인 거리차를 기준값과 비교하여 기준값 미만일 경우에 L(t)을 배경에서 기인하는 거리로 보고 배경을 식별할 수 있다. 상술한 내용에서는 하나의 이전 프레임과 현재 프레임을 비교하였으나, 현재 프레임과 비교되는 이전 프레임의 개수는 여러 개 일 수 있다.
현재 프레임과 비교되는 이전 프레임의 개수가 여러 개 일 경우에 특정 방위각에 맵핑되는 포인트의 가장 큰 거리값을 배경에서 기인하는 거리로 보고, 라이다 센서(112)가 측정하는 현재 프레임(t)에서의 특정 방위각에 맵핑되는 포인트의 거리를 이와 비교하여 기준값 이상인지 미만인지를 기준으로 현재 프레임(t)에서의 특정 방위각에 맵핑되는 포인트가 이동체에서 기인하는지 또는 배경에서 기인하는지 여부를 판단할 수 있다.
상술한 방식으로 검출부(120)는 방위각을 기준으로 양자화되고 프레임화된 상기 포인트 클라우드 정보에서 상기 배경에서 기인하는 포인트 클라우드 정보를 분리하여 상기 이동체에서 기인하는 포인트 클라우드 정보-이하 분석대상정보라 함-를 검출할 수 있다. 검출부(120)는 상기 분석대상정보 중 인접한 방위각의 포인트 사이의 거리를 기준거리와 비교하여 상기 분석대상정보를 클러스터링할 수 있다.
다시 말하면, 이동체의 크기는 다양할 수 있다. 이동체의 크기에 따라 이동체에서 반사되어 관찰되는 반사파에 기인하는 포인트의 개수를 달라질 수 있다. 도 6에 예로서 도시한 바와 같이, 방위각 1도로 양자화된 경우에 인접한 방위각에서 각각 얻어지는 포인트는 동일한 이동체에서 기인한 것일 수 있다. 스캐너(110)에서 이동체까지의 거리를 L이라고 할 경우에 인접한 방위각에 기인하는 이동체 표면 사이의 거리 X는 아래의 수식으로 표현될 수 있다.
X=2L×sin(θ/2), θ:양자화된 방위각
이 경우, 기준거리와 X를 비교하여 X가 기준거리 이하이면 두 포인트는 하나의 물체에서 기인하는 포인트로 판단하고, 하나의 물체에서 기인하는 포인트들은 클러스터링될 수 있다.
한편, 검출부(120)는 클러스터링된 상기 분석대상정보를 미리 설정한 규칙에 따라 특정 모양에 대응하여 상기 이동체의 형상을 식별할 수 있다.
일 실시 예에 있어서, 클러스터링된 상기 분석대상정보는 포인트 개수 또는 메인피쳐라인(Main Feature Line, MFL)으로 맵핑될 수 있다. 검출부(120)는 상기 포인트 개수 또는 상기 메인피쳐라인의 길이와 폭의 비율을 미리 설정된 기준과 비교하여 상기 이동체의 형상을 식별할 수 있다.
일례로, 도 7에 예로서 도시한 방식으로 포인트 개수에 따라 이동체는 원과 원이 아닌 경우로 식별될 수 있으며, 원이 아닌 경우는 메인피처라인의 길이와 폭의 비율을 기준으로 선 및 사각형으로 식별될 수 있다. 미리 설정한 규칙은 예로서 원은 사람, 직선은 벽, 사각형은 건물 등으로 정해진 규칙일 수 있다.
한편, 양자화된 방위각을 기준으로 주위의 포인트 클라우드 정보를 획득하는 경우에 스캐너(110)와 이동체 사이의 거리에 따라 동일한 이동체라도 이동체에서 얻어지는 포인트의 개수, 간격(X)은 달라질 수 있다. 이를 보상하기 위해서 검출부(120)는 표준거리를 기준으로 스캐너(110)가 획득한 포인트 클라우드 정보를 정규화할 수 있다.
이하 본 명세서에서 개시하는 기술과 관련하여 실제 제작하여 얻은 내용을 실시예로서 설명하기로 한다. 후술하는 내용은 본 기술의 이해를 돕기 위하여 설명되는 부분으로서 후술하는 내용에 의하여 본 기술의 권리범위를 제한할 의도가 아님을 분명히 밝혀둔다.
실험은 지면 1m 높이에 라이다 센서(112)를 설치한 후, 2Hz로 라이다 센서(112)를 회전시키면서 초당 1000번의 포인트를 측정(거리측정)하는 방식으로 수행되었다. 라이다 센서(112)로 얻은 포인트 데이타는 프레임마다 방위각이 달라지는 문제가 있어서 방위각을 1도 간격으로 양자화하여 360개의 방위각 행렬을 만들었다.
라이다 센서(112)로 주변환경을 측정한 값에는 빛 등으로 인한 노이즈가 있을 수 있어 이를 제거하기 위하여 도 3에 도시한 바와 같이 3-neighbor median filter를 활용하였다. 필터링을 위하여 적용한 수식은 다음과 같다.
R(t,i)=median(R(t,i-1),R(t,i),R(t,i+1))
여기서, R(t,i)은 현재 프레임에서 i번째 방위각에 해당하는 거리값, t는 프레임, i는 방위각을 의미함
즉, 노이즈 제거를 위해 각 프레임에서 이전 방위각, 현재 방위각, 다음 방위각에 해당하는 3개의 인접한 거리값을 median filter를 이용하여 중간값을 얻고, 현재 방위각 거리값에 대입했다.
도 4는 상술한 과정을 통하여 노이즈가 제거된 결과를 보여준다.
다음으로, Max bin을 활용하여 배경을 추정하였다. 스캐너(110)로 스캔한 점 데이터들은 크게 정지장애물 데이터인 배경 데이터와 이동장애물 데이터로 나눌 수 있다. 각 프레임에서 방위각별로 거리 데이터를 비교하면 정지장애물 데이터는 max 거리값을 가진다. 이러한 특징을 이용하여 4개의 이전 프레임과 현재 프레임의 방위각별 거리데이터를 비교하여 구한 max 거리값을 배경으로 추정했다.
Background(t,i)=max((R(t-4,i),R(t-3,i),R(t-2,i),R(t-1,i),R(t,i))
추정한 배경값과 현재 프레임을 아래의 수식과 같이 비교하여 배경의 거리값과 현재 프레임의 거리값이 기준값(threshold)을 넘을 경우에 현재 프레임의 거리값을 이동체 물체에 의한 거리값으로 판단했다.
Background(t,i)-R(t,i)≥Threshold
다음으로, 이동체 물체로부터 기인하는 포인트들을 클러스터링했다. 클러스터링은 인접 방위각 점들의 거리가 기준거리 값 이하이면 같은 물체로 클러스터링했다. 도 6과 같이 각 방위각의 간격이 1°이고, 라이다 센서(112)로 최대 측정 가능한 거리가 4m라고 고려할 경우, 방위각별 점들의 거리는 7cm를 넘을 수 없다. 따라서 클러스터링 기준거리를 7cm로 설정했다.
상술한 과정으로 클러스터링된 데이터를 아래의 식과 도 7을 기준으로 한 형상룰(shaping rule)을 이용하여 원(보행자), 사각형(건물), 직선(벽)으로 3가지의 모양으로 결정했다.
if pointnum≤5 → model:원
elseif pointnum>5 and Dmax≥0.2×MFL distance → model:사각형
else → model:직선
상술한 방식으로 도 8에 도시한 바와 같이 배경을 분리하여 이동체를 추출할 수 있었다.
이상 상술한 바와 같이, 본 명세서에서 개시하는 배경추정기술을 활용한 라이다 객체 인식 시스템은 라이다를 통하여 획득한 주위의 포인트 클라우드 정보에서 배경과 객체를 분리하고, 배경과 분리된 객체와 관련된 포인트 클라우드 정보에서 객체를 추정하는 배경추정기술을 활용함으로써 심한 환경변화에서도 정확한 인식이 가능하며, 비교적 먼 거리의 이동체를 판별할 수 있는 효과를 제공해 줄 수 있다.
또한, 본 명세서에서 개시하는 배경추정기술을 활용한 라이다 객체 인식 시스템은 배경제거기법 및 클러스터링(clustering) 포인트(point) 개수 또는 메인피쳐라인(Main Feature Line, MFL)을 이용하여 잠정적인 이동물체를 판단하는 형상룰(shaping rule) 기법을 활용함으로써 먼 거리에 위치하는 배경 정보가 이동체 정보로 판단되거나, 가까운 거리에 위치하는 이동체 정보가 배경 정보로 인식되는 문제를 해결해 줄 수 있는 효과를 제공해 줄 수 있다.
상기로부터, 본 개시의 다양한 실시 예들이 예시를 위해 기술되었으며, 아울러 본 개시의 범주 및 사상으로부터 벗어나지 않고 가능한 다양한 변형 예들이 존재함을 이해할 수 있을 것이다. 그리고 개시되고 있는 상기 다양한 실시 예들은 본 개시된 사상을 한정하기 위한 것이 아니며, 진정한 사상 및 범주는 하기의 청구항으로부터 제시될 것이다.
100: 배경추정기술을 활용한 라이다 객체 인식 시스템
110: 스캐너
112: 라이다 센서
114 : 회전부
120: 검출부
130: 필터부

Claims (9)

  1. 반사파를 통하여 주위의 포인트 클라우드 정보를 획득하는 스캐너; 및
    상기 포인트 클라우드 정보 중에서 배경에서 기인하는 포인트 클라우드 정보를 분리하여 이동체를 검출하는 검출부를 포함하며,
    상기 검출부는 상기 포인트 클라우드 정보의 거리값을 기준으로 상기 배경에서 기인하는 포인트 클라우드 정보를 분리하여 상기 이동체를 검출하는 배경추정기술을 활용한 라이다 객체 인식 시스템.
  2. 제1항에 있어서,
    상기 스캐너는 라이다 센서 및 상기 라이다 센서를 회전시키는 회전부를 포함하며,
    상기 라이다 센서는 상기 회전부에 의한 회전과정에서 상기 포인트 클라우드 정보를 획득하는 배경추정기술을 활용한 라이다 객체 인식 시스템.
  3. 제2항에 있어서,
    상기 라이다 센서가 획득하는 상기 포인트 클라우드 정보는 회전평면의 방위각에 대응하여 맵핑되는 배경추정기술을 활용한 라이다 객체 인식 시스템.
  4. 제3항에 있어서,
    상기 라이다 센서가 획득하는 상기 포인트 클라우드 정보의 오차를 줄이기 위한 필터부를 더 포함하는 배경추정기술을 활용한 라이다 객체 인식 시스템.
  5. 제3항 또는 제4항에 있어서,
    상기 포인트 클라우드 정보는 상기 라이다 센서에서 상기 배경 또는 상기 이동체까지의 거리정보를 포함하며,
    상기 포인트 클라우드 정보는 0도에서 360도 사이의 방위각에서 일정한 양자화 간격으로 양자화되는 배경추정기술을 활용한 라이다 객체 인식 시스템.
  6. 제5항에 있어서,
    방위각을 기준으로 양자화된 포인트 클라우드 정보는 상기 회전부의 회전을 기준으로 프레임화되며,
    상기 검출부는 양자화된 상기 주의의 포인트 클라우드 정보 중에서 현재 프레임에서의 특정 방위각에 맵핑되는 포인트의 거리정보인 제1거리값과 적어도 하나 이상의 이전 프레임에서의 상기 특정 방위각에 맵핑되는 포인트의 거리정보인 제2거리값을 비교하여 현재 프레임에서의 상기 특정 방위각에 맵핑되는 포인트가 상기 배경에서 기인하는지 아니면 상기 이동체에서 기인하는지 여부를 판단하는 배경추정기술을 활용한 라이다 객체 인식 시스템.
  7. 제6항에 있어서,
    상기 검출부는 방위각을 기준으로 양자화되고 프레임화된 상기 포인트 클라우드 정보에서 상기 배경에서 기인하는 포인트 클라우드 정보를 분리하여 상기 이동체에서 기인하는 포인트 클라우드 정보-이하 분석대상정보라 함-를 검출하며,
    상기 검출부는 상기 분석대상정보 중 인접한 방위각의 포인트 사이의 거리를 기준거리와 비교하여 상기 분석대상정보를 클러스터링하는 배경추정기술을 활용한 라이다 객체 인식 시스템.
  8. 제7항에 있어서,
    상기 검출부는 클러스터링된 상기 분석대상정보를 미리 설정한 규칙에 따라 특정 모양에 대응하여 상기 이동체의 형상을 식별하는 배경추정기술을 활용한 라이다 객체 인식 시스템.
  9. 제8항에 있어서,
    클러스터링된 상기 분석대상정보는 포인트 개수 또는 메인피쳐라인으로 맵핑되며,
    상기 검출부는 상기 포인트 개수 또는 상기 메인피쳐라인의 길이와 폭의 비율을 미리 설정된 기준과 비교하여 상기 이동체의 형상을 식별하는 배경추정기술을 활용한 라이다 객체 인식 시스템.
KR1020190001519A 2019-01-07 2019-01-07 배경추정기술을 활용한 라이다 객체 인식 시스템 KR102214848B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190001519A KR102214848B1 (ko) 2019-01-07 2019-01-07 배경추정기술을 활용한 라이다 객체 인식 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190001519A KR102214848B1 (ko) 2019-01-07 2019-01-07 배경추정기술을 활용한 라이다 객체 인식 시스템

Publications (2)

Publication Number Publication Date
KR20200085436A true KR20200085436A (ko) 2020-07-15
KR102214848B1 KR102214848B1 (ko) 2021-02-10

Family

ID=71603630

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190001519A KR102214848B1 (ko) 2019-01-07 2019-01-07 배경추정기술을 활용한 라이다 객체 인식 시스템

Country Status (1)

Country Link
KR (1) KR102214848B1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102284197B1 (ko) * 2021-04-05 2021-08-02 정승혁 라이다 데이터를 이용한 실내 맵 생성 방법 및 장치
KR102301442B1 (ko) * 2020-10-30 2021-09-14 (주)오토노머스에이투지 라이다 센서의 센싱 포인트들을 전처리하기 위한 방법 및 이를 이용한 컴퓨팅 장치
KR102310790B1 (ko) 2020-10-28 2021-10-07 연세대학교 산학협력단 포인트 클라우드 기반 검출 객체 오류 보정 장치 및 방법
KR102360543B1 (ko) * 2021-10-08 2022-02-09 우리로봇 주식회사 서비스 로봇의 타깃 위치 결정 방법 및 그 방법을 실행하는 서비스 로봇
KR20230053330A (ko) 2021-10-14 2023-04-21 부산대학교 산학협력단 시간과 강도 정보를 이용한 라이다의 노이즈 제거를 위한 장치 및 방법
WO2023149781A1 (ko) * 2022-02-07 2023-08-10 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
WO2024018337A1 (ja) * 2022-07-22 2024-01-25 ロベルト·ボッシュ·ゲゼルシャフト·ミト•ベシュレンクテル·ハフツング 物体検出装置及び物体検出方法並びにコンピュータプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Aleksey Golovinskiy 외 2인. Shape-based Recognition of 3D Point Clouds in Urban Environments. IEEE 12th International Conference on Computer Vision (ICCV), 2009년 1부.* *
Diksha Chouhan. A STATISTICAL METHOD OF BACKGROUND ESTIMATION AND OBJECT REMOVAL. International Journal of Pure and Applied Mathematics, 2018년 6월 25일 1부.* *
Jizhou Yan 외 4인. Automatic Extraction of Moving Objects from Image and LIDAR Sequences. 2014 Second International Conference on 3D Vision, 2014년 1부.* *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102310790B1 (ko) 2020-10-28 2021-10-07 연세대학교 산학협력단 포인트 클라우드 기반 검출 객체 오류 보정 장치 및 방법
KR102301442B1 (ko) * 2020-10-30 2021-09-14 (주)오토노머스에이투지 라이다 센서의 센싱 포인트들을 전처리하기 위한 방법 및 이를 이용한 컴퓨팅 장치
KR102284197B1 (ko) * 2021-04-05 2021-08-02 정승혁 라이다 데이터를 이용한 실내 맵 생성 방법 및 장치
KR102360543B1 (ko) * 2021-10-08 2022-02-09 우리로봇 주식회사 서비스 로봇의 타깃 위치 결정 방법 및 그 방법을 실행하는 서비스 로봇
KR20230053330A (ko) 2021-10-14 2023-04-21 부산대학교 산학협력단 시간과 강도 정보를 이용한 라이다의 노이즈 제거를 위한 장치 및 방법
WO2023149781A1 (ko) * 2022-02-07 2023-08-10 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
WO2024018337A1 (ja) * 2022-07-22 2024-01-25 ロベルト·ボッシュ·ゲゼルシャフト·ミト•ベシュレンクテル·ハフツング 物体検出装置及び物体検出方法並びにコンピュータプログラム

Also Published As

Publication number Publication date
KR102214848B1 (ko) 2021-02-10

Similar Documents

Publication Publication Date Title
KR102214848B1 (ko) 배경추정기술을 활용한 라이다 객체 인식 시스템
EP3208635B1 (en) Vision algorithm performance using low level sensor fusion
JP5297078B2 (ja) 車両の死角における移動物体を検知するための方法、および死角検知装置
US10364130B2 (en) Speed detection system of passenger conveyor and speed detection method thereof
EP2889641B1 (en) Image processing apparatus, image processing method, program and image processing system
EP3299330B1 (en) Detection of state of engagement between step and comb plate of passenger conveyor
US10101448B2 (en) On-board radar apparatus and region detection method
US20030011509A1 (en) Method for detecting stationary object on road
CN112215306B (zh) 一种基于单目视觉与毫米波雷达融合的目标检测方法
RU151809U1 (ru) Видеосистема для обеспечения безопасности транспортных средств
Jung et al. Structure analysis based parking slot marking recognition for semi-automatic parking system
JP2007255979A (ja) 物体検出方法および物体検出装置
KR20190060341A (ko) 레이더 및 카메라 융합 시스템 및 그것을 이용한 타겟 탐지 방법
TW201009757A (en) Object position detecting device and method
JP6557923B2 (ja) 車載レーダ装置及び領域検出方法
KR20200095888A (ko) 무인 선박 시스템의 상황인지 방법 및 장치
Bai et al. Stereovision based obstacle detection approach for mobile robot navigation
KR20210064591A (ko) 차량용 다중 센서를 위한 딥러닝 처리 장치 및 방법
CN112183330A (zh) 基于点云的目标检测方法
Hyun et al. Multi-level Fusion Scheme for Target Classification using Camera and Radar Sensors
KR102259151B1 (ko) 카메라와 라이다를 활용한 객체 감지 트래킹 시스템
CN110827257B (zh) 一种嵌入式机载红外图像视觉导航定位方法
CN115131756A (zh) 一种目标检测方法及装置
US10970861B2 (en) Method of determining a transformation matrix
KR101907875B1 (ko) 퓨전 탐지 시스템, 탐지 프로세서, 레이더 장치 및 물체 탐지 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant