KR102090487B1 - 융합 센서를 이용한 오브젝트 탐지 장치 및 방법 - Google Patents

융합 센서를 이용한 오브젝트 탐지 장치 및 방법 Download PDF

Info

Publication number
KR102090487B1
KR102090487B1 KR1020180029452A KR20180029452A KR102090487B1 KR 102090487 B1 KR102090487 B1 KR 102090487B1 KR 1020180029452 A KR1020180029452 A KR 1020180029452A KR 20180029452 A KR20180029452 A KR 20180029452A KR 102090487 B1 KR102090487 B1 KR 102090487B1
Authority
KR
South Korea
Prior art keywords
sensor
region
radar
interest
data
Prior art date
Application number
KR1020180029452A
Other languages
English (en)
Other versions
KR20190108018A (ko
Inventor
이종훈
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020180029452A priority Critical patent/KR102090487B1/ko
Publication of KR20190108018A publication Critical patent/KR20190108018A/ko
Application granted granted Critical
Publication of KR102090487B1 publication Critical patent/KR102090487B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Electromagnetism (AREA)

Abstract

융합 센서를 이용한 오브젝트 탐지 장치 및 방법이 개시된다. 융합 센서를 이용한 오브젝트 탐지 방법은 오브젝트를 탐지하고자 하는 탐색 영역에 대해 라이다 센서 및 레이더 센서를 이용하여 라이다 데이터 및 레이더 데이터를 수집하는 단계; 상기 수집된 라이다 데이터 및 레이더 데이터에 기초하여 상기 탐색 영역 내에 존재하는 오브젝트를 각각 추출하는 단계; 상기 수집된 라이다 데이터를 이용하여 상기 라이다 센서의 관심 영역을 설정하고, 상기 라이다 데이터에 기초하여 추출된 오브젝트를 이용하여 폐색 깊이(Occluded Depth)를 생성하는 단계; 상기 수집된 레이더 데이터를 이용하여 상기 레이더 센서의 관심 영역을 설정하는 단계; 및 상기 라이다 센서의 관심 영역 또는 폐색 깊이와 상기 레이더 센서의 관심 영역을 이용하여 상기 탐색 영역 내에 존재하는 오브젝트가 움직이는 오브젝트인지 여부를 판단하는 단계를 포함할 수 있다.

Description

융합 센서를 이용한 오브젝트 탐지 장치 및 방법{AN OBJECT DETECTING APPARATUS AND METHOD USING FUSION SENSOR}
본 발명은 라이다 센서 및 레이더 센서를 융합한 융합 센서를 이용하여 부분적으로 가려진 오브젝트를 탐지하기 위한 방법으로 알고리즘의 계산량을 최소화하여 융합 센서를 이용하여 추출된 오브젝트가 보행자인지의 여부를 판단하는 장치 및 방법에 관한 것이다.
최근에는 지능형 차량에 대한 연구가 많은 지속적으로 수행되고 있다. 일례로 고급 운전자 보조 시스템, 고급 스마트 크루즈 컨트롤, 차선 유지 보조 시스템 및 자율 응급 제동 시스템과 같은 자율 주행 기술을 개발하기 위해 다양한 기술이 적용되고 있다. 이러한 기술적 진보에도 불구하고 보행자 사고율은 매년 계속 증가하고 있다.
카메라, 라이다 및 레이더를 사용하여 보행자를 비롯한 오브젝트를 탐지하는 기술이 지속적으로 개발되고 있다. 라이다(Lidar)는 센서와 오브젝트 사이의 정확한 거리를 측정 할 수 있고, 넓은 시야각을 통해 오브젝트를 탐지할 수 있다. 반면, 라이다 기반의 탐지 기술은 오브젝트의 형태를 이용하여 오브젝트를 탐지하는 카메라 기반의 탐지 기법에 비해 상대적으로 낮은 탐지 성능을 보인다. 레이더는 거리와 속도를 추출하기 위해 도플러 시프트를 사용한다. 그러나 레이더 기반의 오브젝트 탐지 알고리즘은 수신 레이더 신호가 많은 산란 신호로 나타나기 때문에 대상을 인식하기가 어렵고 처리 시간이 오래 걸리는 단점이 존재한다. 이와 같은 단일 센서의 한계를 극복하기 위한 연구가 활발히 진행되고 있다.
최근에는 단일 센서의 한계를 극복하고 오브젝트의 탐지 성능을 향상시키기 위하여 센서 융합 기술이 제안되었다. 라이다 - 카메라 융합 기술의 경우, 라이다 기반의 신호 처리가 대상의 관심 영역(Region of Interest, RoI)을 추출하는 데 사용되고, 카메라 기반의 이미지 처리가 오브젝트의 탐지를 위한 전체 처리 시간을 줄이기 위해 적용되었다. 즉, 최종적으로 라이다에서 할당 된 관심 영역에서 이미지 처리가 완료된다.
기존의 라이다 - 레이더 융합 기술은 주로 차량 및 오토바이의 존재를 감지하는 데 사용되었다. 이동하는 차량의 속도 정보는 레이더에서 추출되고, 오브젝트의 모양과 유형은 라이다로 측정 한 너비, 길이, 높이 및 위치를 사용하여 추정될 수 있다. 그러나 보행자의 탐지 방법은 보행자가 이동 중에 반사가 적고 산란점이 적기 때문에 기존의 센서 융합 기술에서는 아직 연구되지 않았다. 특히, 보행자가 다른 오브젝트에 의해 부분적으로 가려진 경우, 폐색된 보행자를 탐지하는데 엄청난 어려움이 있다. 이것은 보행자의 모양이나 특징(feature) 정보를 추출하기가 어렵기 때문이다.
이와 같은 문제를 해결하기 위해 카메라를 기반으로 한 센서 융합 기법에 대해 다양한 연구가 제안되어왔다. 센서 융합 기술은 센서를 통해 추출 된 오브젝트와 기계 학습을 위한 교육 데이터 간의 유사성을 결정할 때 카메라를 사용하여 물체를 탐지하고 분류한다. 그러나 이 기술을 사용하여 기계 학습을 수행하려면 보행자의 다양한 기능이 필요하다. 카메라 기반의 탐지 기법은 보행자에게서 부분적으로 나타나는 얼굴, 팔, 다리 등의 특징 정보를 추출하고, 추출된 특징 정보를 이용하여 오브젝트를 분류하기 위해 유사성 평가 및 추적 기술이 여러 프레임에 걸쳐 수행될 수 있다. 이 과정에서 특징 정보가 없어 보행자가 누락 될 가능성이 존재한다.
본 발명은 라이다 센서와 레이더 센서를 융합한 융합 센서를 이용하여 부분적으로 가려진 오브젝트를 탐지하기 위한 방법으로 알고리즘의 계산량을 최소화하여 융합 센서를 이용하여 추출된 오브젝트가 보행자인지의 여부를 판단하는 장치 및 방법을 제공한다.
본 발명의 일실시예에 따른 융합 센서를 이용한 오브젝트 탐지 방법은 오브젝트를 탐지하고자 하는 탐색 영역에 대해 라이다 센서 및 레이더 센서를 이용하여 라이다 데이터 및 레이더 데이터를 수집하는 단계; 상기 수집된 라이다 데이터 및 레이더 데이터에 기초하여 상기 탐색 영역 내에 존재하는 오브젝트를 각각 추출하는 단계; 상기 수집된 라이다 데이터를 이용하여 상기 라이다 센서의 관심 영역을 설정하고, 상기 라이다 데이터에 기초하여 추출된 오브젝트를 이용하여 폐색 깊이(Occluded Depth)를 생성하는 단계; 상기 수집된 레이더 데이터를 이용하여 상기 레이더 센서의 관심 영역을 설정하는 단계; 및 상기 라이다 센서의 관심 영역 또는 폐색 깊이와 상기 레이더 센서의 관심 영역을 이용하여 상기 탐색 영역 내에 존재하는 오브젝트가 움직이는 오브젝트인지 여부를 판단하는 단계를 포함할 수 있다.
상기 판단하는 단계는 상기 라이다 센서의 관심 영역과 상기 레이더 센서의 관심 영역에 대해 중첩 영역이 존재하는지 여부를 식별하는 단계; 및 상기 중첩 영역이 존재하는 것으로 식별되면, 상기 중첩 영역 내에 움직이는 오브젝트가 존재하는 것으로 판단하는 단계를 포함할 수 있다.
상기 중첩 영역 내에 움직이는 오브젝트가 존재하는 것으로 판단된 경우, 상기 움직이는 오브젝트가 보행자인지의 여부를 결정하는 단계를 더 포함하고, 상기 결정하는 단계는 상기 레이더 데이터를 통해 도출된 레이더 도플러 패턴 및 상기 라이다 데이터를 통해 추출된 오브젝트가 보행자인지의 여부를 판단하기 위해 도출된 곡선 형태의 특징 함수를 이용할 수 있다.
상기 판단하는 단계는 상기 라이다 센서의 폐색 깊이와 상기 레이더 센서의 관심 영역에 대해 중첩 영역이 존재하는지 여부를 식별하는 단계; 및 상기 중첩 영역이 존재하는 것으로 식별되면, 상기 중첩 영역 내에 움직이는 오브젝트가 존재하는 것으로 판단하는 단계를 포함할 수 있다.
상기 중첩 영역 내에 움직이는 오브젝트가 존재하는 것으로 판단된 경우, 상기 움직이는 오브젝트가 보행자인지의 여부를 결정하는 단계를 더 포함하고, 상기 결정하는 단계는 상기 레이더 데이터를 통해 도출된 레이더 도플러 패턴을 이용할 수 있다.
상기 생성하는 단계는 상기 라이다 센서를 통해 추출된 오브젝트의 폭, 길이, 높이, 위치를 포함하는 라이다 데이터 및 상기 라이다 데이터를 통해 추출된 오브젝트가 보행자인지의 여부를 판단하기 위해 도출된 곡선 형태의 특징 함수를 이용하여 상기 라이다 센서의 관심 영역을 설정할 수 있다.
상기 생성하는 단계는 상기 라이다 센서를 기준으로 상기 라이다 센서를 통해 추출된 오브젝트에 의해 가려진 영역 중 상기 라이다 센서의 최대 오브젝트 탐지 거리 내에 대응되는 영역을 상기 라이다 센서의 폐색 깊이로 생성할 수 있다.
상기 설정하는 단계는 상기 레이더 센서를 통해 추출된 오브젝트에 대한 탐지 범위, 속도 및 방위각을 이용하여 상기 레이더 센서의 관심 영역을 설정할 수 있다.
상기 라이다 센서와 상기 레이더 센서가 배치된 위치에 따른 차이를 보상하기 위하여 상기 라이다 센서의 좌표계와 상기 레이더 센서의 좌표계를 일치시키는 단계를 더 포함하고, 상기 수집하는 단계는 상기 좌표계가 일치된 라이다 센서 및 레이더 센서를 이용하여 상기 라이다 데이터 및 레이더 데이터를 수집할 수 있다.
본 발명의 일실시예에 따른 융합 센서를 이용한 오브젝트 탐지 장치는 오브젝트를 탐지하고자 하는 탐색 영역에 대해 라이다 센서 및 레이더 센서를 이용하여 라이다 데이터 및 레이더 데이터를 수집하는 수집부; 상기 수집된 라이다 데이터 및 레이더 데이터에 기초하여 상기 탐색 영역 내에 존재하는 오브젝트를 각각 추출하는 추출부; 상기 수집된 라이다 데이터를 이용하여 상기 라이다 센서의 관심 영역을 설정하고, 상기 라이다 데이터에 기초하여 추출된 오브젝트를 이용하여 폐색 깊이(Occluded Depth)를 생성하며, 상기 수집된 레이더 데이터를 이용하여 상기 레이더 센서의 관심 영역을 설정하는 설정부; 및 상기 라이다 센서의 관심 영역 또는 폐색 깊이와 상기 레이더 센서의 관심 영역을 이용하여 상기 탐색 영역 내에 존재하는 오브젝트가 움직이는 오브젝트인지 여부를 판단하는 판단부를 포함할 수 있다.
상기 판단부는 상기 라이다 센서의 관심 영역과 상기 레이더 센서의 관심 영역에 대해 중첩 영역이 존재하는지 여부를 식별하고, 상기 중첩 영역이 존재하는 것으로 식별되면, 상기 중첩 영역 내에 움직이는 오브젝트가 존재하는 것으로 판단할 수 있다.
상기 중첩 영역 내에 움직이는 오브젝트가 존재하는 것으로 판단된 경우, 상기 움직이는 오브젝트가 보행자인지의 여부를 결정하는 결정부를 더 포함하고, 상기 결정부는 상기 레이더 데이터를 통해 도출된 레이더 도플러 패턴 및 상기 라이다 데이터를 통해 추출된 오브젝트가 보행자인지의 여부를 판단하기 위해 도출된 곡선 형태의 특징 함수를 이용할 수 있다.
상기 판단부는 상기 라이다 센서의 폐색 깊이와 상기 레이더 센서의 관심 영역에 대해 중첩 영역이 존재하는지 여부를 식별하고, 상기 중첩 영역이 존재하는 것으로 식별되면, 상기 중첩 영역 내에 움직이는 오브젝트가 존재하는 것으로 판단할 수 있다.
상기 중첩 영역 내에 움직이는 오브젝트가 존재하는 것으로 판단된 경우, 상기 움직이는 오브젝트가 보행자인지의 여부를 결정하는 결정부를 더 포함하고, 상기 결정부는 상기 레이더 데이터를 통해 도출된 레이더 도플러 패턴을 이용할 수 있다.
상기 생성부는 상기 라이다 센서를 통해 추출된 오브젝트의 폭, 길이, 높이, 위치를 포함하는 라이다 데이터 및 상기 라이다 데이터를 통해 추출된 오브젝트가 보행자인지의 여부를 판단하기 위해 도출된 곡선 형태의 특징 함수를 이용하여 상기 라이다 센서의 관심 영역을 설정할 수 있다.
상기 생성부는 상기 라이다 센서를 기준으로 상기 라이다 센서를 통해 추출된 오브젝트에 의해 가려진 영역 중 상기 라이다 센서의 최대 오브젝트 탐지 거리 내에 대응되는 영역을 상기 라이다 센서의 폐색 깊이로 생성할 수 있다.
상기 설정부는 상기 레이더 센서를 통해 추출된 오브젝트에 대한 탐지 범위, 속도 및 방위각을 이용하여 상기 레이더 센서의 관심 영역을 설정할 수 있다.
상기 라이다 센서와 상기 레이더 센서가 배치된 위치에 따른 차이를 보상하기 위하여 상기 라이다 센서의 좌표계와 상기 레이더 센서의 좌표계를 일치시키는 보정부를 더 포함하고, 상기 수집부는 상기 좌표계가 일치된 라이다 센서 및 레이더 센서를 이용하여 상기 라이다 데이터 및 레이더 데이터를 수집할 수 있다.
본 발명의 일실시예에 의하면, 라이다 센서와 레이더 센서를 융합한 융합 센서를 이용하여 보다 적은 처리 시간과 연산량을 통해 부분적으로 가려진 오브젝트를 탐지할 수 있다.
도 1은 본 발명의 일실시예에 따른 오브젝트 탐지 장치를 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 사람의 자세에 따른 라이다 측정 데이터와 피팅 곡선의 비교를 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 관심 영역의 생성 절차를 도시한 도면이다.
도 4는 본 발명의 일실시예에 따른 오브젝트 탐지 장치가 수행하는 보행자 탐지 방법을 순서대로 나타낸 플로우챠트를 도시한 도면이다.
도 5는 본 발명의 일실시예에 따른 폐색 깊이에 기반한 라이다 센서와 레이더 센서를 융합하여 오브젝트를 탐지하는 예를 도시한 도면이다.
도 6은 본 발명의 일실시예에 따른 실내 실험 환경을 도시한 도면이다.
도 7은 본 발명의 일실시예에 따른 실내 시나리오에서의 실험 결과를 도시한 도면이다.
도 8은 본 발명의 일실시예에 따른 실외 실험 환경 및 최종 탐지 결과를 도시한 도면이다.
도 9는 본 발명의 일실시예에 따른 전면 폐색 시나리오에 대한 실험 결과를 도시한 도면이다.
도 10은 본 발명의 일실시예에 따른 한 명의 가려진 보행자에 대한 실험 결과를 도시한 도면이다.
도 11은 본 발명의 일실시예에 따른 복잡한 실제 환경에서의 실험 결과를 도시한 도면이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 본 발명의 일실시예에 따른 오브젝트 탐지 장치를 도시한 도면이다.
본 발명의 일실시예에 따른 오브젝트 탐지 장치(100)는 보정부(101), 수집부(102), 추출부(103), 설정부(104), 판단부(105) 및 결정부(106)로 구성될 수 있다. 먼저 보정부(101)는 라이다 센서(110) 및 레이더 센서(120)의 초기 장착 위치에 의한 오프셋을 고려하여 라이다 센서(110) 및 레이더 센서(120)로부터 수신된 라이다 데이터 및 레이더 데이터에 대한 좌표의 오차를 보정할 수 있다.
일반적으로 라이다 센서(110)를 통해 획득할 수 있는 라이다 데이터는 직각 좌표계로 표시되고, 레이더 센서(120)를 통해 획득할 수 있는 레이더 데이터는 극 좌표계로 표시될 수 있다. 따라서, 본 발명과 같이 라이다 센서(110)와 레이더 센서(120)를 융합한 오브젝트 탐지 장치(100)를 이용하여 오브젝트를 탐지하기 위해서는 레이더 센서(120)를 통해 획득되는 레이더 데이터를 라이다 데이터와 같이 직각 좌표계로 변환하여 표시해야 한다. 따라서, 보정부(101)는 극 좌표계를 직각 좌표계로 변환하는 방법을 포함할 수 있다. 이때, 라이다 센서(110)와 레이더 센서(120)는 오브젝트 탐지 장치(100)에 포함되거나 별도로 존재할 수 있다.
그리고, 라이다 센서(110)와 레이더 센서(120)는 초기 장착된 위치에 따라 동일한 오브젝트를 탐지하더라도 획득 가능한 라이다 데이터와 레이더 데이터는 서로 다른 값을 가질 수 있다. 따라서, 보정부(101)는 라이다 센서(110)와 레이더 센서(120)가 초기 장착된 위치에 의한 오프셋을 고려하여 라이다 센서(110) 및 레이더 센서(120)로부터 수신된 라이다 데이터 및 레이더 데이터에 대한 좌표의 오차를 보정할 수 있다.
이때, 보정부(101)는 라이다 센서(110)가 레이더 센서(120)에 비해 우수한 거리 정확도를 나타내기 때문에 라이다 센서(110)를 기준으로 라이다 데이터 및 레이더 데이터에 대한 좌표의 오차를 보정할 수 있다. 다만, 보정부(101)는 라이다 센서(110)가 유효한 빛의 세기에 따른 동작 범위 내에서 동작할 경우에는 라이다 센서(110)를 기준으로 좌표의 오차를 보정하고, 그 이외의 경우에는 레이더 센서(120)를 기준으로 좌표의 오차를 보정할 수 있다.
수집부(102)는 오브젝트를 탐색하고자 하는 탐색 영역에 대해 라이다 센서(110) 및 레이더 센서(120)를 이용하여 라이다 데이터 및 레이더 데이터를 수집할 수 있다. 이때, 수집부(102)를 통해 수집되는 라이다 데이터 및 레이더 데이터는 라이다 센서(110)와 레이더 센서(120)의 초기 장착된 위치에 의한 오프셋을 고려하여 보정된 데이터일 수 있다.
이때, 라이다 센서(110)를 통해 수집되는 라이다 데이터는 동일한 오브젝트에 대해서 다중 산란 점이 존재하며, 레이더 센서(120)를 통해 수집되는 레이더 데이터는 동일한 오브젝트에 대해서 단일 산란 점이 존재한다.
추출부(103)는 수집된 라이다 데이터 및 레이더 데이터에 기초하여 탐색 영역 내에 존재하는 오브젝트를 각각 추출할 수 있다. 구체적으로 추출부(103)는 라이다 데이터에 기초하여 오브젝트까지의 거리, 오브젝트가 위치한 각도 및 높이를 측정할 수 있고, 레이더 데이터에 기초하여 오브젝트의 범위와 속도를 측정할 수 있다.
구체적으로 추출부(103)는 라이다 데이터의 다중 산란 점을 클러스터링할 수 있다. 이때, 클러스터링 프로세스를 통해 산란 지점은 오브젝트의 수에 강하게 의존하는 여러 그룹으로 결합될 수 있다. 일반적으로 라이다 데이터의 다중 산란 점을 클러스터링하기 위한 방법이 다수 존재하며, 그 일례로 거리 기반 클러스터링, 표준 편차 클러스터링 및 K-평균 알고리즘 등이 있다. 거리 기반 클러스터링은 각 분산된 점 사이의 거리가 임계 값 내에 있으면 동일한 클러스터로 그룹화하는 일반적인 방법이고, 임계 값은 거리에 따라 벡터 노름 연산에 의해 계산될 수 있다. 표준 편차 클러스터링은 라이다 데이터에서 획득한 오브젝트 점의 표준 편차를 사용하여 계산되고 임계 값을 초과하지 않으면 클러스터를 생성할 수 있다. 이와 같은 표준 편차 클러스터링 방법은 비슷한 위치에 있는 오브젝트를 클러스터링 하는 데 적합하지만 거리 기반 클러스터링과 달리 다른 유형의 인접 오브젝트를 분리하는 데는 적합하지 않다. K-평균 알고리즘은 잘 알려진 클러스터링 기술이다. 그러나 클러스터링 성능은 초기 값에 크게 좌우될 수 있어 본 발명의 추출부(103)는 간단한 거리 기반 클러스터링 방법을 사용하여 라이다 데이터의 다중 산란 점을 클러스터링하였다.
추출부(103)는 이와 같이 클러스터링된 라이다 데이터로부터 탐지 영역 내의 오브젝트에 대한 폭, 길이, 높이, 위치 및 곡선과 같은 특징 정보를 추출하고, 레이더 데이터로부터 R & V 계산을 통해 오브젝트의 범위, 속도 및 각도와 같은 오브젝트의 파라미터 정보를 추출할 수 있다.
설정부(104)는 추출부(103)에 의해 각각 추출된 오브젝트에 기초하여 라이다 센서(110) 및 레이더 센서(120)에 대해 움직이는 오브젝트가 존재할 것으로 예상되는 관심 영역을 각각 설정할 수 있다. 먼저 설정부(104)는 수집된 라이다 데이터에 기초하여 추출된 오브젝트의 후방으로 폐색 깊이(Occluded Depth)를 생성할 수 있다. 폐색 깊이는 탐색 영역 중 라이다 센서(110)가 출력하는 레이저 신호가 통과하지 않는 영역을 의미할 수 있다. 이후 설정부(104)는 수집된 라이다 데이터에 기초하여 추출된 오브젝트의 폭, 길이, 높이, 위치 및 라이다 데이터를 통해 추출된 오브젝트가 보행자인지의 여부를 판단하기 위해 도출된 곡선 형태의 특징 함수를 이용하여 라이다 센서(110)의 관심 영역을 설정할 수 있다.
다음으로 설정부(104)는 수신된 레이더 데이터에 기초하여 추출된 오브젝트의 탐지 범위, 속도 및 방위각을 이용하여 레이더 센서(120)의 관심 영역을 설정할 수 있다. 이때, 설정부(104)는 미리 설정된 기준에 따라 추출부(103)를 통해 추출된 오브젝트 중 움직이는 오브젝트에 대응하는 영역을 관심 영역으로 설정할 수 있다.
판단부(105)는 라이다 센서(110)의 관심 영역 또는 폐색 깊이와 레이더 센서(120)의 관심 영역을 이용하여 탐색 영역 내에 존재하는 오브젝트가 움직이는 오브젝트인지 여부를 판단할 수 있다. 먼저 판단부(105)는 각각 설정된 라이다 센서(110)의 관심 영역과 레이더 센서(120)의 관심 영역을 비교할 수 있다. 보다 구체적으로 판단부(105)는 각각 생성된 라이다 센서(110)의 관심 영역과 레이더 센서(120)의 관심 영역이 서로 중첩되는 경우, 해당 중첩 영역을 융합 관심 영역(Fusion RoI)으로 설정하고, 설정된 융합 관심 영역 내에 움직이는 오브젝트가 존재하는 것으로 판단할 수 있다.
그러나 라이다 센서(110)는 추출된 오브젝트의 후방 영역 즉, 폐색 깊이에 대응되는 영역에 대해서는 오브젝트가 존재한다 할지라도 탐지하지 못하는 단점이 존재한다. 따라서, 본 발명에서는 폐색 깊이(Occluded Depth)라는 새로운 개념을 도입하여 가려진 오브젝트에 대한 탐지 방법을 제공한다.
따라서, 라이다 센서(110)의 관심 영역과 레이더 센서(120)의 관심 영역이 서로 중첩되지 않는 경우, 판단부(105)는 라이다 센서(110)의 폐색 깊이와 레이더 센서(120)의 관심 영역을 비교할 수 있다. 이때, 만약 라이다 센서(110)의 폐색 깊이와 레이더 센서(120)의 관심 영역이 서로 중첩되는 경우, 해당 중첩 영역을 폐색 관심 영역(Occluded RoI)으로 설정하고, 설정된 폐색 관심 영역 내에 움직이는 오브젝트가 존재하는 것으로 판단할 수 있다.
이후 결정부(106)는 중첩 영역(융합 관심 영역 및 폐색 관심 영역) 내에 움직이는 오브젝트가 존재하는 것으로 판단된 경우, 해당 움직이는 오브젝트가 보행자인지의 여부를 결정할 수 있다.
구체적으로 라이다 데이터를 통해 추출된 오브젝트가 사람인 경우, 해당 라이다 데이터로부터 사람의 형태를 특정할 수 있는 곡선 형태의 특징 함수가 도출될 수 있다. 일례로 도 2는 라이다 센서(110)를 통해 수집된 라이다 데이터를 이용하여 다양한 자세에 따른 사람의 특징 데이터를 보여준다. 도 2에서 알 수 있는 바와 같이, 사람의 자세에 대응하는 라이다 데이터는 유선형을 형성하는 고유한 특징을 가질 수 있으며, 유선형의 라이다 데이터를 통해 도출된 특징 함수(ex, Fitting curve)는 대략 2 차 및 그 이상의 다항식 함수로 도출될 수 있다. 이와 같이 결정부(106)는 도출된 특징 함수의 기울기를 통해 다른 오브젝트와 고유하게 구별되는 사람을 특정할 수 있다.
레이더 센서(120)는 움직이는 오브젝트 중 사람에 해당하는 오브젝트를 측정할 수 있다. 보행 중인 사람의 도플러 분포는 한쪽 다리가 고정되어 다른쪽 다리가 앞으로 나아갈 때 고유한 반복적인 도플러 및 마이크로 도플러 패턴을 갖는다. 이와 같은 도플러 패턴을 이용하여 다른 장애물과 구별되는 사람을 특정할 수 있다.
이때, 결정부(106)는 융합 관심 영역 내에 존재하는 움직이는 오브젝트에 대해서는 라이다 데이터로부터 도출된 사람의 형태를 특징 지을 수 있는 곡선 형태의 특징 함수를 이용하거나 레이더 데이터로부터 도출된 사람의 도플러 분포를 이용하여 해당 움직이는 오브젝트가 보행자인지의 여부를 결정할 수 있다. 그러나 폐색 영역 내에 존재하는 움직이는 오브젝트에 대해서는 라이다 데이터가 존재하지 않으므로 레이더 데이터로부터 도출된 사람의 도플러 분포를 이용하여 해당 움직이는 오브젝트가 보행자인지의 여부를 결정할 수 있다.
도 3은 본 발명의 일실시예에 따른 관심 영역의 생성 절차를 도시한 도면이다.
일반적으로 라이다 센서(110)는 가시거리(Line of Sight, LoS) 내에 존재하는 오브젝트만을 탐지하기 때문에 오브젝트가 장애물에 의해 부분적으로 가려진 경우 탐지하는데 어려움이 있다. 따라서, 본 발명에서는 오브젝트가 다른 장애물 뒤에 숨어있을 가능성을 확인하기 위해 폐색 깊이라는 새로운 개념을 정의한다. 폐색 깊이는 라이다 센서(110)를 통해 추출된 오브젝트의 후방에 대응하는 영역일 수 있다. 이와 같은 오브젝트의 후방 영역, 즉 폐색 깊이는 라이다 센서(110)가 오브젝트를 탐지할 수 없으나 해당 영역에 오브젝트가 존재할 가능성이 있는 영역을 의미한다. 폐색 깊이는 라이다 센서(110)에 의해 추출된 오브젝트의 최외각 점에서 라이다 센서(110)의 최대 검출 거리까지 채워진 영역으로 설정될 수 있다.
구체적으로 도 3은 라이다 센서(110) 및 레이더 센서(120)의 관심 영역 설정, 폐색 깊이와 라이다 센서(110)의 관심 영역 간 연결 방법, 폐색 깊이와 레이더 센서(120)의 관심 영역을 이용하여 폐색 관심 영역을 설정하는 방법, 그리고 융합 관심 영역을 설정하는 방법을 보여준다. 이때, 라이다 센서(110)와 레이더 센서(120) 간의 상대적 위치 차이는 보정 처리 후에 보상된다고 가정한다.
도 3의 (a)는 레이더 센서(120)의 관심 영역을 설정하는 방법을 보여준다. 도 3의 (a)에 도시 된 바와 같이, 레이더 센서(120)의 관심 영역은 레이더에 의해 검출된 타겟 오브젝트를 둘러싸는 영역으로서 표현될 수 있다. 즉, 레이더 센서(120)의 관심 영역은 4개의 경계점으로 구성된 사각 영역
Figure 112018025310622-pat00001
으로 표현될 수 있다.
Figure 112018025310622-pat00002
Figure 112018025310622-pat00003
Figure 112018025310622-pat00004
Figure 112018025310622-pat00005
여기서
Figure 112018025310622-pat00006
은 레이더 센서(120)의 각도 분해능이며,
Figure 112018025310622-pat00007
=
Figure 112018025310622-pat00008
이고,
Figure 112018025310622-pat00009
=
Figure 112018025310622-pat00010
이다.
Figure 112018025310622-pat00011
은 레이더 센서(120)와 타겟 오브젝트 사이의 거리이고,
Figure 112018025310622-pat00012
Figure 112018025310622-pat00013
에 해당하는 레이더 센서(120)의 거리 분해능이다. c는 빛의 속도이고,
Figure 112018025310622-pat00014
는 대역폭이다. 이와 같이 레이더 센서(120)의 관심 영역은 레이더 센서(120)의 각도 분해능 및 거리 분해능에 크게 의존한다.
도 3의 (b)는 라이다 센서(110)의 관심 영역을 설정하는 방법을 보여준다. 레이더 센서(120)의 관심 영역과 마찬가지로 라이다 센서(110)의 관심 영역은 타겟 오브젝트를 둘러싸는 4개의 경계점으로 구성된 사각 영역
Figure 112018025310622-pat00015
로 표현될 수 있다.
Figure 112018025310622-pat00016
Figure 112018025310622-pat00017
Figure 112018025310622-pat00018
Figure 112018025310622-pat00019
여기서
Figure 112018025310622-pat00020
은 라이다 센서(110)를 통해 측정된 타겟 오브젝트의 수평각을 나타내고,
Figure 112018025310622-pat00021
은 라이다 센서(110)와 타겟 오브젝트의 표면 사이의 거리를 나타내며,
Figure 112018025310622-pat00022
=
Figure 112018025310622-pat00023
이고,
Figure 112018025310622-pat00024
=
Figure 112018025310622-pat00025
이다.
Figure 112018025310622-pat00026
은 각각 소정의 폭 및 길이 경계를 나타낸다.
도 3의 (c)는 라이다 센서(110)의 측정으로부터 폐색 깊이를 생성하는 방법을 보여준다. 도 3의 (c)와 같이 폐색 깊이는 타겟 오브젝트의 후방 영역에 대해 4개의 경계점으로 구성된 사각 영역
Figure 112018025310622-pat00027
로 표현될 수 있다.
Figure 112018025310622-pat00028
Figure 112018025310622-pat00029
Figure 112018025310622-pat00030
Figure 112018025310622-pat00031
여기서,
Figure 112018025310622-pat00032
라이다 센서(110)의 최대 탐지 거리를 나타낸다.
폐색 깊이는 라이다 센서(110)에서 추출된 타겟 오브젝트의 후방 영역에 생성된다. 도 3의 (d)는 폐색 깊이와 레이더 센서(120)의 관심 영역으로부터 폐색 관심 영역을 설정하는 방법을 보여준다. 구체적으로 폐색 관심 영역은 폐색 깊이와 레이더 센서(120)의 관심 영역이 중첩되는 영역일 수 있다. 이와 같은 폐색 관심 영역은 도 3의 (d)와 같이 중첩 영역에 대한 4개의 경계점으로 구성된 사각 영역
Figure 112018025310622-pat00033
로 표현될 수 있다.
Figure 112018025310622-pat00034
Figure 112018025310622-pat00035
Figure 112018025310622-pat00036
Figure 112018025310622-pat00037
여기서
Figure 112018025310622-pat00038
은 레이더 센서(120)의 각도 분해능이 라이다 센서(110)를 통해 측정된 타겟 오브젝트의 수평각 보다 큰 것을 나타낸다. 폐색 관심 영역에 대한 4개 경계점의 방정식은
Figure 112018025310622-pat00039
대신
Figure 112018025310622-pat00040
이 사용된다는 점을 제외하고, 레이더 센서(120)의 관심 영역에 대한 4개 경계점의 방정식과 동일하다.
도 3의 (e)는 라이다 센서(110)의 관심 영역과 레이더센서(120)의 관심 영역이 중첩된 융합 관심 영역을 설정하는 방법을 보여준다. 도 3의 (e)와 같이 융합 관심 영역은 4개의 경계점 F1 내지 F4로 둘러싸인 사각 영역 F로 표현될 수 있다. 다시 말해서 융합 관심 영역은 레이더 센서(120)의 관심 영역 M과 라이다 센서(110)의 관심 영역 G의 교집합에 대응하는 영역이다.
도 4는 본 발명의 일실시예에 따른 오브젝트 탐지 장치가 수행하는 보행자 탐지 방법을 순서대로 나타낸 플로우챠트를 도시한 도면이다.
단계(401 내지 402)에서 오브젝트 탐지 장치(100)는 오브젝트를 탐색하고자 하는 탐색 영역에 대한 라이다 데이터 및 레이더 데이터를 수집할 수 있다. 이때, 오브젝트 탐지 장치(100)를 통해 수집되는 라이다 데이터 및 레이더 데이터는 라이다 센서(110)와 레이더 센서(120)의 초기 장착된 위치에 의한 오프셋을 고려하여 보정된 데이터일 수 있다. 일례로, 도 5의 (a)는 제1 보행자에 의해 제2 보행자가 가려지는 상황을 나타내는 스냅 샷으로 오브젝트 탐지 장치(100)는 이와 같은 상황에 대해 라이다 데이터 및 레이더 데이터를 수집할 수 있다.
단계(403)에서 오브젝트 탐지 장치(100)는 수집된 라이다 데이터에 기초하여 탐색 영역 내에 존재하는 오브젝트를 추출할 수 있다. 일례로, 도 5의 (b)는 라이다 센서(110)를 통해 수집된 라이다 데이터로부터 추출된 오브젝트의 예를 보여준다.
단계(404)에서 오브젝트 탐지 장치(100)는 수집된 레이더 데이터에 기초하여 탐색 영역 내에 존재하는 오브젝트를 추출할 수 있다. 일례로 도 5의 (c)는 레이더 센서(120)를 통해 수집된 레이더 데이터로부터 추출된 오브젝트의 예를 보여준다. 라이다 센서(110)가 제1 보행자만을 추출하는 것과는 달리 레이더 센서(120)는 제1 보행자에 의해 가려진 제2 보행자도 추출하는 것을 확인할 수 있다.
단계(405)에서 오브젝트 탐지 장치(100)는 단계(403)에서 추출된 오브젝트의 후방으로 폐색 깊이를 생성할 수 있다. 폐색 깊이는 탐색 영역 중 라이다 센서(110)가 출력하는 레이저 신호가 통과하지 않는 영역을 의미할 수 있다. 일례로, 도 5의 (e)와 같이 오브젝트 탐지 장치(100)는 추출된 오브젝트의 후방으로 폐색 깊이를 생성할 수 있다.
단계(406)에서 오브젝트 탐지 장치(100)는 단계(403)에서 추출된 오브젝트에 대응하는 직각 좌표에 기초하여 라이다 센서(110)의 관심 영역을 설정할 수 있다. 이때, 오브젝트 탐지 장치(403)는 수집된 라이다 데이터에 기초하여 추출된 오브젝트의 폭, 길이, 높이, 위치 및 라이다 데이터를 통해 추출된 오브젝트가 보행자인지의 여부를 판단하기 위해 도출된 곡선 형태의 특징 함수를 이용하여 라이다 센서(110)의 관심 영역을 설정할 수 있다. 일례로, 도 5의 (d)와 같이 오브젝트 탐지 장치(100)는 가시 거리 내에 존재하는 제1 보행자에 대해 라이다 센서(110)의 관심 영역을 설정할 수 있다.
단계(407)에서, 오브젝트 탐지 장치(100)는 단계(404)에서 추출된 오브젝트를 기반으로 레이더 센서(120)의 관심 영역을 설정할 수 있다. 보다 구체적으로 오브젝트 탐지 장치(100)는 수신된 레이더 데이터에 기초하여 추출된 오브젝트의 탐지 범위, 속도 및 방위각을 이용하여 레이더 센서(120)의 관심 영역을 설정할 수 있다. 일례로, 도 5의 (c)와 같이 오브젝트 탐지 장치(100)는 가시 거리 내에 존재하는 제1 보행자는 물론 제1 보행자에 의해 가려진 제2 보행자가 위치한 영역에 대해서도 관심 영역을 설정할 수 있다.
단계(408)에서 오브젝트 탐지 장치(100)는 단계(406)에서 설정된 라이다 센서(110)에 대한 관심 영역과 단계(407)에서 설정된 레이더 센서(120)에 대한 관심 영역을 비교하여 융합 관심 영역을 설정할 수 있다. 다시 말하자면, 오브젝트 탐지 장치(100)는 라이다 센서(110)의 관심 영역과 레이더 센서(120)의 관심 영역이 서로 중첩되는 경우, 단계(408)와 같이 해당 중첩 영역을 융합 관심 영역으로 설정하고, 단계(409)와 같이 설정된 융합 관심 영역 내에 움직이는 오브젝트가 존재하는 것으로 판단할 수 있다. 일례로, 도 5의 (f)와 같이 오브젝트 탐지 장치(100)는 융합 관심 영역(Fusion RoI) 내에 움직이는 오브젝트가 존재하는 것으로 판단할 수 있다.
그러나 라이다 센서(110)는 추출된 오브젝트의 후방 영역 즉, 폐색 깊이에 대응되는 영역에 대해서는 오브젝트가 존재한다 할지라도 탐지하지 못하는 단점이 존재한다. 따라서, 본 발명에서는 폐색 깊이(Occluded Depth)라는 새로운 개념을 도입하여 가려진 오브젝트에 대한 탐지 방법을 제공한다.
따라서, 단계(410)에서 오브젝트 탐지 장치(100)는 라이다 센서(110)의 관심 영역과 레이더 센서(120)의 관심 영역이 서로 중첩되지 않는 경우, 라이다 센서(110)의 폐색 깊이와 레이더 센서(120)의 관심 영역을 비교할 수 있다. 다시 말하자면, 오브젝트 탐지 장치(100)는 라이다 센서(110)의 폐색 깊이와 레이더 센서(120)의 관심 영역이 서로 중첩되는 경우, 단계(410)와 같이 해당 중첩 영역을 폐색 관심 영역으로 설정하고, 단계(411)와 같이 설정된 폐색 관심 영역 내에 움직이는 오브젝트가 존재하는 것으로 판단할 수 있다. 일례로, 도 5의 (f)와 같이 오브젝트 탐지 장치(100)는 폐색 관심 영역(Occlusion RoI) 내에 움직이는 오브젝트가 존재하는 것으로 판단할 수 있다.
단계(412)에서, 오브젝트 탐지 장치(100)는 융합 관심 영역 및 폐색 관심 영역에 존재하는 것으로 판단된 움직이는 오브젝트가 보행자 인지의 여부를 결정할 수 있다. 구체적으로 라이다 데이터를 통해 추출된 오브젝트가 사람인 경우, 해당 라이다 데이터로부터 사람의 형태를 특정할 수 있는 곡선 형태의 특징 함수가 도출될 수 있다. 또한 레이더 데이터를 통해 추출된 오브젝트가 사람인 경우, 해당 레이더 데이터로부터 사람을 특정할 수 있는 도플러 패턴을 도출할 수 있다.
이때, 오브젝트 탐지 장치(100)는 융합 관심 영역 내에 존재하는 움직이는 오브젝트에 대해서는 라이다 데이터로부터 도출된 사람의 형태를 특정할 수 있는 곡선 형태의 특징 함수를 이용하거나 레이더 데이터로부터 도출된 사람을 특정할 수 있는 도플러 패턴을 이용하여 해당 움직이는 오브젝트가 보행자인지의 여부를 결정할 수 있다. 그러나 폐색 영역 내에 존재하는 움직이는 오브젝트에 대해서는 라이다 데이터가 존재하지 않으므로 레이더 데이터로부터 도출된 사람을 특정할 수 있는 도플러 패턴을 이용하여 해당 움직이는 오브젝트가 보행자인지의 여부를 결정할 수 있다. 일례로, 도 5의 (g)와 같이 오브젝트 탐지 장치(100)는 융합 관심 영역(Fusion RoI) 및 폐색 관심 영역(Occlusion RoI) 내에 존재하는 움직이는 오브젝트에 대해 움직이는 오브젝트가 보행자인지의 여부를 결정할 수 있다.
본 발명에서 제안된 오브젝트 탐지 알고리즘의 성능을 검증하기 위해 실내 및 실제 도로 환경에서 다양한 실험을 수행하였다. 본 발명의 실험에서 Velodyne VLP-16 라이다 센서와 24-GHz 주파수 변조 연속파(FMCW) 레이더 센서를 사용하였다. 하기의 표 1은 라이다 센서 및 레이더 센서의 주요 사양을 보여준다.
Figure 112018025310622-pat00041
레이더 센서는 차량의 범퍼 위치에 부착되었으며 라이다 센서는 지면에서 약 2m 높이에 설치되었다. 이와 같은 설치 구성은 자율 주행 차량과 비슷한 구성을 가지고 있고, 실험은 장애물 거리를 6m, 8m 및 10m로 변경하여 수행되었다. 두 명의 움직이는 보행자가 서로 가까워지거나 멀어지는 환경에서 다중 타겟 실험이 이루어졌다.
레이더 센서는 고속 램프 기반 FMCW 변조를 사용하였다. 오브젝트에서 반사된 신호는 아날로그-디지털 변환기를 통해 샘플링 되었고, 램프 당 샘플링 된 신호는 거리-FFT를 통해 거리-주파수 스펙트럼으로 변환되었다. 일반적으로, 보행자는 상대적으로 낮은 반사율을 갖기 때문에, 강한 주변 혼란으로 인해 보행자로부터 반사 된 신호는 마스킹 될 수 없다. 따라서 이동 타겟의 표시는 혼란 성분을 제거하고 움직이는 오브젝트만을 추출하였다. 그런 다음 거리-도플러 맵은 도플러-FFT 처리로 구축되었다. 이동 타겟은 최종적으로 2-D 거리-도플러 맵에서 추출할 수 있으며, 획득한 거리 및 속도 정보는 레이더 센서의 관심 영역 내에 존재하는 이동 타겟의 정보이다. 보행자의 도플러 패턴은 도플러-FFT 처리로부터 얻어졌다.
많은 실험이 다양한 실내 및 실외 상황에서 이루졌으며 실험에서 타겟은 일반적인 보행자 및 부분적으로 가려진 보행자를 의미한다. 도 6은 실내 실험 시나리오와 최종 탐지 결과의 몇 가지 전형적인 예를 요약 한 것이다. 실내 시나리오 (1)에서 보행자는 아무런 방해 없이 움직이고, 시나리오 (2)에서 보행자는 장애물에 의해 완전히 가려질 수 있다. 시나리오 (3)에서 보행자는 일시적으로 숨겨지고 가시 거리의 공간을 벗어난다. 실험 결과에서 라이다 센서의 관심 영역은 L_RoI, 레이더 센서의 관심 영역은 R_RoI로 표시되고, 폐색 깊이(Occ_D)와 레이더의 관심 영역이 중첩된 폐색 관심 영역은 O_RoI, 레이더의 관심 영역과 라이더의 관심 영역이 중첩된 융합 관심 영역은 F_RoI로 표현된다. 또한 기호 #P는 해당 관시 영역에서 사람이 발견되었음을 의미한다.
도 7은 여러 실내 및 실외 환경에서 보행자 감지 결과의 예를 보여준다. 개방 된 환경에서, 도 7에서 보듯이 보행자는 라이다 센서와 레이더 센서를 통해 동시에 측정되었다. 도 7의 (a)는 실험의 실제 장면이다. 도 7의 (b)는 라이다 측정 데이터를 보여준다. 도 7의 (c)는 레이더 센서의 관심 영역을 나타낸다. 이때, 레이더 센서의 관심 영역에 대한 수평 경계는 레이더 센서의 방위각 범위에 의해 결정되고, 수직 경계는 보행자를 식별하는 소정의 임계 값으로 설정된다. 도 7 (c)에서, 레이더 센서의 관심 영역 및 라이다 센서의 원시 데이터 클러스터는 각각 파선 사각형 및 검은 점으로 표시된다. 레이더 센서의 관심 영역에는 움직이는 오브젝트가 하나뿐이므로 이 클러스터의 오브젝트는 움직이고 있다는 것을 알 수 있다.
도 7의 (d)에서 라이다 센서의 관심 영역은 적절한 사람의 폭, 길이, 높이 및 기울기로 측정된 데이터를 클러스터링하여 만든 직사각형으로 표시된다. 타겟의 정확한 위치를 얻기 위해 도 7의 (e)와 같이 레이더 센서의 관심 영역과 라이다 센서의 관심 영역을 비교하여 도 7의 (f)와 같이 융합 관심 영역을 추출하였다. 폐색 깊이는 도 7의 (g)와 같이 라이다 센서를 통해 추출된 오브젝트의 후방 영역에 대해 두 선 사이에 채워진 영역으로 지정되었다. 도 7의 (h)는 장벽이 없는 상황에서의 최종 탐지 결과를 보여준다.
이때, 융합 관심 영역 내에 존재하는 움직이는 오브젝트가 보행자인지의 여부를 확인하기 위해 도플러 패턴이 사용되었다. 도 7의 (i) 및 도 7의 (j)는 각각 주파수 영역에서 레이더 측정 범위 및 도플러 스펙트럼을 도시한다. 도 7의 (j)는 레이더 센서에서 측정 한 보행자의 속도 분포이다. 측정된 순간 속도는 보행자 이동으로 인해 약 5km/h의 넓은 분포를 보인다. 도 7의 (k) 및 도 7의 (l)은 각각 이동하는 보행자에 대한 레이더 출력 시간에 따른 측정 범위 및 도플러 변화를 도시한다. 도 7의 (l)에 도시 된 바와 같이, 레이더 센서를 통해 측정된 도플러 패턴은 사람의 움직임 중에 다리와 팔이 흔들리는 것에 기인한다. 일반적으로 움직이는 보행자는 한 다리를 고정하고 다른 다리를 스윙하며 움직일 때 반복적인 도플러와 수 개의 마이크로 도플러 패턴을 가진다.
도 8은 실외 실험 상황과 최종 탐지 결과의 몇 가지 전형적인 예를 요약 한 것이다. 실험에서 단일 타겟과 다중 타겟을 고려하였다. 또한 일시적 및 공간적 사건 모두에서 순간 및 부분 폐색을 고려하여 다양한 폐색 시나리오가 포함되었다. 실외 시나리오 (1), (2) 및 (3)은 실내 시나리오와 동일한 구성을 갖고, 실외 시나리오 (4)와 (5)는 다중 타겟 및 부분적으로 가려진 폐색 상황이 고려되었다.
도 9는 전방 폐색을 이용한 실외 시나리오 (2)에서의 보행자 검출 결과를 보여준다 도 9의 (a)는 실외에 있는 보행자의 상황을 보여주는 스냅 사진이다. 여기서, 보행자는 부분적으로 폐색된다. 도 9의 (b)는 라이다 센서를 통해 수집된 라이다 데이터이다. 수집된 라이다 데이터에서 보행자는 정면에 존재하는 장애물에 의해 가려져 측정되지 않았다. 도 9의 (c)는 레이더 센서의 관심 영역과 폐색 깊이를 보여준다. 장애물에 의해 가려진 보행자는 레이더 센서의 관심 영역과 폐색 깊이를 이용하여 탐지 할 수 있다. 도 9의 (d)는 레이더 센서의 관심 영역과 폐색 깊이가 중첩된 폐색 관심 영역을 이용하여 보행자를 검출한 결과이다. 도 9의 (e)는 장애물, 나무 및 보행자에 해당하는 레이더 데이터의 거리 스펙트럼이고, 도 9의 (f)는 레이더 데이터의 도플러 스펙트럼이다. 약 5 km/hr의 속도에서 넓은 피크가 관찰되며, 이 피크는 가려진 보행자에 해당한다. 도 9의 (g) 및 도 9의 (h)는 보행자가 부분적으로 가려진 상태로 움직이는 상황에서의 시간에 따른 레이더 데이터의 거리 변화 및 도플러 변화를 각각 나타낸다.
도 10은 많은 실외 실험에서 가려진 보행자에 대한 감지 결과 중 하나를 보여준다. 도 10의 (a)는 실제 실험 사진이다. 보행자가 정면에 존재하는 장애물에 의해 부분적으로 가려진 것을 확인할 수 있다. 도 10의 (b)는 라이다 센서를 통해 수집된 라이다 데이터이다. 비록 도 10의 (a)와 같이 장애물 뒤에 보행자가 존재하지만 라이다 데이터로는 보행자가 감지되지 않았다. 도 10의 (c)는 폐색 깊이와 레이더의 관심 영역을 나타낸다. 본 발명에서 제안하는 오브젝트 탐지 알고리즘에서는 폐색 깊이와 레이더의 관심 영역이 중첩되는 영역을 폐색 관심 영역으로 설정할 수 있다. 도 10의 (d)는 이와 같은 폐색 관심 영역을 이용하여 가려진 보행자를 검출한 결과를 보여준다. 도 10의 (e) 및 도 10의 (f)는 각각 레이더 데이터의 거리 스펙트럼 및 도플러 스펙트럼을 나타낸다. 장애물과 보행자에 해당하는 두 개의 피크는 거리 스펙트럼에서 명확하게 분리되어 있으며 도플러 스펙트럼에서 관찰되는 약 5km/h의 속도에서 넓은 피크가 가려진 보행자에 해당한다.
도 10의 (g)는 동일한 실험 환경에서의 또 다른 사진이다. 도 10의 (h)는 라이다 센서를 통해 수집된 라이다 데이터이다. 보행자가 장애물의 인접 영역에서 감지된다. 도 10의 (i)는 설정된 라이다의 관심 영역과 레이더의 관심 영역을 보여준다. 도 10의 (j)는 설정된 라이다의 관심 영역과 레이더의 관심 영역이 중첩된 융합 관심 영역과 해당 융합 관심 영역에서의 최종 보행자 탐지 결과를 보여준다. 보행자 및 인접한 장애물은 융합 관심 영역 내에 존재하는 오브젝트의 레이더 데이터에 대한 도플러 분포를 통해 분리된다. 도 10의 (k) 및 도 10의 (l)은 각각 보행자 및 인접한 장애물에 대한 레이더 데이터의 거리 스팩트럼과 도플러 스펙트럼을 보여준다 이때, 거리 스펙트럼에서 보행자 및 주변 장애물은 매우 가까운 거리에 있기 때문에 병합되어 구분을 못할 수 있지만 도플러 스펙트럼을 통해 정지된 장애물과 보행자를 구분할 수 있다. 도 10의 (m) 및 도 10의 (n)은 이 실험에서 보행자를 결정하기 위한 레이더 데이터의 시간에 따른 거리 변화 및 도플러 변화를 각각 나타낸다.
도 11은 폐색이 부분적으로 발생하는 것을 고려한 다중 타겟 실험 결과를 보여준다 실험은 실제 포장 도로에서 수행되었고, 도 11의 (a)와 도 11 (h)는 두 명의 보행자가 움직이는 상황에 대한 실제 실험 사진을 보여준다. 도 11의 (b)는 라이다 데이터를 통해 수집된 라이다 데이터를 보여준다. 이 상황에서는 폐색이 발생하지 않았으며 보행자와 주변 개체 모두 라이다 데이터에서 측정되었다. 도 11 (c)에서, 레이더 센서의 관심 영역은 2 명의 보행자가 매우 가까이에서 움직였기 때문에, 하나의 통일된 레이더 관심 영역으로 설정되었고, 라이다 센서의 관심 영역은 두 개의 클러스터로 표시되었다. 도 11의 (d)는 각 보행자의 탐지 결과로부터 생성된 융합 관심 영역을 보여 준다. 도 11의 (e)는 두 명의 보행자에 대한 레이더 데이터의 거리 스펙트럼을 보여준다. 거리 스펙트럼을 통해 두 명의 보행자 외에도 많은 장애물을 포함한 혼란이 있는 것을 확인할 수 있다. 도 11의 (f)와 도 11의 (g)는 각각 보행자 #1과 보행자 #2에 대한 레이더 데이터의 도플러 스펙트럼을 보여준다. 이러한 레이더 데이터의 도플러 스펙트럼에 따르면, 보행자는 장애물과 같은 혼란과 구별될 수 있다.
그림 11의 (h)는 동일한 시나리오에서 한 명의 보행자가 다른 보행자에 의해 부분적으로 가려진 상황에 대한 실제 실험 사진이다. 도 11의 (i)는 라이다 데이터를 보여주는데 한 명의 보행자는 많은 산란 점에 의해 명확하게 표현되는 반면 부분적으로 가려진 보행자에게는 산재한 점이 있는 것을 확인할 수 있다. 도 11의 (j)는 레이더 센서의 관심 영역과 폐색 깊이를 보여주고, 도 11의 (k)는 최종 보행자 탐지 결과를 보여준다. 도 11의 (l)은 근접한 두 보행자의 레이더 데이터에 대한 거리 스펙트럼을 보여준다. 도 11의 (l)에 도시 된 바와 같이, 두 명의 보행자가 매우 가깝다면, 레이더 데이터의 거리 스펙트럼만을 사용하여 두 명의 보행자를 분리하는 것은 어려울 수 있다. 그러나 본 발명에서 제안하는 오브젝트 탐지 알고리즘은 도 11의 (m)고 같이 두 명의 보행자에 대한 레이더 데이터의 도플러 스펙트럼을 이용하여 두 명의 보행자 각각을 구분할 수 있다. 마지막으로 도 11의 (n) 및 도 11의 (o)는 두 명의 보행자 각각에 대한 레이더 데이터의 시간에 따른 거리 변화 및 도플러 변화를 나타낸다.
다양한 실내 및 실외 실험에 따르면 본 발명에서 제안된 오브젝트 탐지 방법은 부분적으로 가려진 보행자를 탐지하는 데 매우 효과적이라는 것을 증명했다. 하기의 표 2는 다양한 실험에서 분석한 보행자 검출율을 요약 한 것이다.
Figure 112018025310622-pat00042
본 발명에서는 부분적으로 가려진 보행자를 감지 할 때 제안된 센서 융합 방법의 유효성을 검증하기 위해 제안된 방법이 있는 경우와 없는 경우를 사용하여 오브젝트 탐지를 시연하였다. 제안된 방법이 없다면 실내 및 실외에서의 탐지율은 각각 약 45 % 및 53 %인데 이것은 가려진 보행자가 감지되지 않아서 발생하였다. 그러나 제안된 방법은 실내 및 실외에서 약 89 % 이상의 탐지율을 보이는데, 이는 보행자를 폐색 깊이와 사람을 특정할 수 있는 도플러 패턴을 이용하여 탐지하였기 때문이다. 실험 결과에 따르면 제안된 센서 융합 기법은 시공간적 사건에서 부분적으로 가려진 보행자를 탐지하는데 훨씬 더 많은 향상을 가져온다. 나무나 가벼운 기둥 등 다양한 장애물로 둘러싸인 실제 도로 환경의 경우에도 제안된 방법은 약 89 %의 훨씬 높은 탐지율을 보였다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.
100: 오브젝트 탐지 장치
101: 보정부
102: 수집부
103: 추출부
104: 설정부
105: 판단부
106: 결정부
110: 라이다 센서
120: 레이더 센서

Claims (19)

  1. 오브젝트를 탐지하고자 하는 탐색 영역에 대해 라이다 센서 및 레이더 센서를 이용하여 라이다 데이터 및 레이더 데이터를 수집하는 단계;
    상기 수집된 라이다 데이터의 다중 산란점을 클러스터링하여 상기 탐색 영역 내의 오브젝트를 추출하고, 상기 수집된 레이더 데이터에 기초하여 상기 탐색 영역 내에 존재하는 오브젝트를 추출하는 단계;
    상기 라이다 데이터를 통해 추출된 제1 정보를 이용하여 상기 라이다 센서의 관심 영역을 설정하고, 상기 라이다 데이터에 기초하여 추출된 오브젝트를 이용하여 폐색 깊이(Occluded Depth)를 생성하는 단계;
    상기 레이더 데이터를 통해 추출된 제2 정보를 이용하여 상기 레이더 센서의 관심 영역을 설정하는 단계; 및
    상기 라이다 센서의 관심 영역 또는 폐색 깊이와 상기 레이더 센서의 관심 영역을 이용하여 상기 탐색 영역 내에 존재하는 움직이는 오브젝트가 보행자인지 여부를 판단하는 단계
    를 포함하고,
    상기 라이다 센서의 관심 영역은,
    상기 라이다 센서를 통해 측정된 오브젝트의 수평각 및 상기 라이다 센서와 오브젝트의 사이의 거리에 기초하여 설정되고,
    상기 레이더 센서의 관심 영역은,
    상기 레이더 센서의 각도 분해능, 상기 레이더 센서와 오브젝트 사이의 거리 및 상기 레이더 센서의 거리 분해능에 기초하여 설정되는 융합 센서를 이용하며,
    상기 판단하는 단계는,
    상기 라이다 센서의 관심 영역 또는 폐색 깊이와 상기 레이더 센서의 관심 영역 간의 중첩 영역의 존재 여부를 식별하는 단계;
    상기 식별된 중첩 영역의 존재 여부에 기초하여 상기 탐색 영역 내에 존재하는 오브젝트가 움직이는 오브젝트인지 여부를 판단하는 단계;
    상기 움직이는 오브젝트가 상기 탐색 영역 내에 존재하는 것으로 판단된 경우, 상기 식별된 중첩 영역의 종류에 따라 상기 움직이는 오브젝트가 보행자인지의 여부를 결정하기 위한 방법을 선택하는 단계; 및
    상기 선택된 방법에 기초하여 상기 움직이는 오브젝트가 보행자인지의 여부를 결정하는 단계
    를 포함하고,
    상기 결정하는 단계는,
    상기 라이다 센서의 관심 영역과 상기 레이더 센서의 관심 영역 간에 중첩 영역이 존재하여 상기 중첩 영역 내에 움직이는 오브젝트가 존재하는 것으로 판단된 경우, 상기 움직이는 오브젝트가 보행자인지의 여부를 판단하기 위해 도출된 곡선 형태의 특징 함수에 상기 라이다 데이터를 적용함으로써 상기 움직이는 오브젝트가 보행자인지의 여부를 결정하고,
    상기 라이다 센서의 폐색 깊이와 상기 레이더 센서의 관심 영역 간에 중첩 영역이 존재하여 상기 중첩 영역 내에 움직이는 오브젝트가 존재하는 것으로 판단된 경우, 상기 레이더 데이터를 통해 도출된 레이더 도플러 패턴을 이용하여 상기 움직이는 오브젝트가 보행자인지의 여부를 결정하는 오브젝트 탐지 방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 제1항에 있어서,
    상기 생성하는 단계는,
    상기 라이다 센서를 기준으로 상기 라이다 센서를 통해 추출된 오브젝트에 의해 가려진 영역 중 상기 라이다 센서의 최대 오브젝트 탐지 거리 내에 대응되는 영역을 상기 라이다 센서의 폐색 깊이로 생성하는 융합 센서를 이용한 오브젝트 탐지 방법.
  8. 삭제
  9. 제1항에 있어서,
    상기 라이다 센서와 상기 레이더 센서가 배치된 위치에 따른 차이를 보상하기 위하여 상기 라이다 센서의 좌표계와 상기 레이더 센서의 좌표계를 일치시키는 단계
    를 더 포함하고,
    상기 수집하는 단계는,
    상기 좌표계가 일치된 라이다 센서 및 레이더 센서를 이용하여 상기 라이다 데이터 및 레이더 데이터를 수집하는 융합 센서를 이용한 오브젝트 탐지 방법.
  10. 제1항, 제7항 및 제9항 중 어느 한 항의 방법을 실행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체.
  11. 오브젝트를 탐지하고자 하는 탐색 영역에 대해 라이다 센서 및 레이더 센서를 이용하여 라이다 데이터 및 레이더 데이터를 수집하는 수집부;
    상기 수집된 라이다 데이터의 다중 산란점을 클러스터링하여 상기 탐색 영역 내의 오브젝트를 추출하고, 상기 수집된 레이더 데이터에 기초하여 상기 탐색 영역 내에 존재하는 오브젝트를 추출하는 추출부;
    상기 라이다 데이터를 통해 식별된 제1 정보를 이용하여 상기 라이다 센서의 관심 영역을 설정하고, 상기 라이다 데이터에 기초하여 추출된 오브젝트를 이용하여 폐색 깊이(Occluded Depth)를 생성하며, 상기 레이더 데이터를 통해 식별된 제2 정보를 이용하여 상기 레이더 센서의 관심 영역을 설정하는 설정부; 및
    상기 라이다 센서의 관심 영역 또는 폐색 깊이와 상기 레이더 센서의 관심 영역을 이용하여 상기 탐색 영역 내에 존재하는 오브젝트가 움직이는 오브젝트인지 여부를 판단하는 판단부
    를 포함하고,
    상기 설정부는,
    상기 라이다 센서를 통해 측정된 오브젝트의 수평각 및 상기 라이다 센서와 오브젝트의 사이의 거리에 기초하여 상기 라이다 센서의 관심 영역을 설정하고,
    상기 레이더 센서의 각도 분해능, 상기 레이더 센서와 오브젝트 사이의 거리 및 상기 레이더 센서의 거리 분해능에 기초하여 상기 레이더 센서의 관심 영역을 설정하는 융합 센서를 이용하며,
    상기 판단부는,
    상기 라이다 센서의 관심 영역 또는 폐색 깊이와 상기 레이더 센서의 관심 영역 간의 중첩 영역의 존재 여부를 식별하고, 상기 식별된 중첩 영역의 존재 여부에 기초하여 상기 탐색 영역 내에 존재하는 오브젝트가 움직이는 오브젝트인지 여부를 판단하며, 상기 움직이는 오브젝트가 상기 탐색 영역 내에 존재하는 것으로 판단된 경우, 상기 식별된 중첩 영역의 종류에 따라 상기 움직이는 오브젝트가 보행자인지의 여부를 결정하기 위한 방법을 선택하고, 상기 선택된 방법에 기초하여 상기 움직이는 오브젝트가 보행자인지의 여부를 결정하며,
    상기 라이다 센서의 관심 영역과 상기 레이더 센서의 관심 영역 간에 중첩 영역이 존재하여 상기 중첩 영역 내에 움직이는 오브젝트가 존재하는 것으로 판단된 경우, 상기 움직이는 오브젝트가 보행자인지의 여부를 판단하기 위해 도출된 곡선 형태의 특징 함수에 상기 라이다 데이터를 적용함으로써 상기 움직이는 오브젝트가 보행자인지의 여부를 결정하고,
    상기 라이다 센서의 폐색 깊이와 상기 레이더 센서의 관심 영역 간에 중첩 영역이 존재하여 상기 중첩 영역 내에 움직이는 오브젝트가 존재하는 것으로 판단된 경우, 상기 레이더 데이터를 통해 도출된 레이더 도플러 패턴을 이용하여 상기 움직이는 오브젝트가 보행자인지의 여부를 결정하는 오브젝트 탐지 장치.
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 제11항에 있어서,
    상기 설정부는,
    상기 라이다 센서를 기준으로 상기 라이다 센서를 통해 추출된 오브젝트에 의해 가려진 영역 중 상기 라이다 센서의 최대 오브젝트 탐지 거리 내에 대응되는 영역을 상기 라이다 센서의 폐색 깊이로 생성하는 융합 센서를 이용한 오브젝트 탐지 장치.
  18. 삭제
  19. 제11항에 있어서,
    상기 라이다 센서와 상기 레이더 센서가 배치된 위치에 따른 차이를 보상하기 위하여 상기 라이다 센서의 좌표계와 상기 레이더 센서의 좌표계를 일치시키는 보정부
    를 더 포함하고,
    상기 수집부는,
    상기 좌표계가 일치된 라이다 센서 및 레이더 센서를 이용하여 상기 라이다 데이터 및 레이더 데이터를 수집하는 융합 센서를 이용한 오브젝트 탐지 장치.


KR1020180029452A 2018-03-13 2018-03-13 융합 센서를 이용한 오브젝트 탐지 장치 및 방법 KR102090487B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180029452A KR102090487B1 (ko) 2018-03-13 2018-03-13 융합 센서를 이용한 오브젝트 탐지 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180029452A KR102090487B1 (ko) 2018-03-13 2018-03-13 융합 센서를 이용한 오브젝트 탐지 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20190108018A KR20190108018A (ko) 2019-09-23
KR102090487B1 true KR102090487B1 (ko) 2020-03-18

Family

ID=68069194

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180029452A KR102090487B1 (ko) 2018-03-13 2018-03-13 융합 센서를 이용한 오브젝트 탐지 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102090487B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220086155A (ko) 2020-12-16 2022-06-23 현대자동차주식회사 트랙병합 모듈 및 트랙병합 방법

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110806588A (zh) * 2019-10-17 2020-02-18 北醒(北京)光子科技有限公司 一种基于激光雷达的人流量检测系统
KR102253031B1 (ko) * 2019-11-29 2021-05-17 이인텔리전스 주식회사 다중 레이더 센서를 위한 센서 퓨전 시스템
CN111257909B (zh) * 2020-03-05 2021-12-07 安徽意欧斯物流机器人有限公司 一种多2d激光雷达融合建图与定位方法及系统
DE102020123920B3 (de) * 2020-09-15 2021-08-19 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren und System zum automatischen Labeling von Radardaten
KR102464094B1 (ko) * 2020-10-12 2022-11-09 (주)투핸즈인터랙티브 이중 라이다 센서 구조의 모션 트래킹 장치

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101489836B1 (ko) * 2013-09-13 2015-02-04 자동차부품연구원 보행자 감지 및 충돌 회피 장치 및 방법
JP2015190777A (ja) * 2014-03-27 2015-11-02 株式会社豊田中央研究所 歩行者検出装置
US20160328860A1 (en) * 2015-05-06 2016-11-10 The Boeing Company Occlusion-Robust Visual Object Fingerprinting using Fusion of Multiple Sub-Region Signatures
JP2017037641A (ja) * 2015-07-30 2017-02-16 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 自律移動体に対する不正確なセンサ・データの関連付けを最小限とする方法
US20170242117A1 (en) * 2016-02-19 2017-08-24 Delphi Technologies, Inc. Vision algorithm performance using low level sensor fusion
KR101784611B1 (ko) * 2016-06-09 2017-11-06 재단법인대구경북과학기술원 라이다 센서 및 레이더 센서를 이용한 사람 탐지 장치 및 방법
KR101804681B1 (ko) * 2016-06-09 2017-12-05 재단법인대구경북과학기술원 저해상도 2d 라이다 센서를 이용한 사람 탐지 장치 및 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160066854A (ko) * 2014-12-03 2016-06-13 한국건설기술연구원 자율주행 차량의 기상관측 장치 및 방법
KR102535618B1 (ko) * 2016-05-02 2023-05-23 한국전자통신연구원 융합형 물체 감지 정보를 이용한 운전자 보조 시스템 및 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101489836B1 (ko) * 2013-09-13 2015-02-04 자동차부품연구원 보행자 감지 및 충돌 회피 장치 및 방법
JP2015190777A (ja) * 2014-03-27 2015-11-02 株式会社豊田中央研究所 歩行者検出装置
US20160328860A1 (en) * 2015-05-06 2016-11-10 The Boeing Company Occlusion-Robust Visual Object Fingerprinting using Fusion of Multiple Sub-Region Signatures
JP2017037641A (ja) * 2015-07-30 2017-02-16 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 自律移動体に対する不正確なセンサ・データの関連付けを最小限とする方法
US20170242117A1 (en) * 2016-02-19 2017-08-24 Delphi Technologies, Inc. Vision algorithm performance using low level sensor fusion
KR101784611B1 (ko) * 2016-06-09 2017-11-06 재단법인대구경북과학기술원 라이다 센서 및 레이더 센서를 이용한 사람 탐지 장치 및 방법
KR101804681B1 (ko) * 2016-06-09 2017-12-05 재단법인대구경북과학기술원 저해상도 2d 라이다 센서를 이용한 사람 탐지 장치 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220086155A (ko) 2020-12-16 2022-06-23 현대자동차주식회사 트랙병합 모듈 및 트랙병합 방법

Also Published As

Publication number Publication date
KR20190108018A (ko) 2019-09-23

Similar Documents

Publication Publication Date Title
KR102090487B1 (ko) 융합 센서를 이용한 오브젝트 탐지 장치 및 방법
US11821988B2 (en) Ladar system with intelligent selection of shot patterns based on field of view data
US11235785B2 (en) Method for object avoidance during autonomous navigation
CN108116410B (zh) 用于控制车辆的速度的方法和设备
CN106991389B (zh) 确定道路边沿的装置和方法
US10627228B2 (en) Object detection device
JP6752024B2 (ja) 画像処理装置
KR101784611B1 (ko) 라이다 센서 및 레이더 센서를 이용한 사람 탐지 장치 및 방법
Broggi et al. A new approach to urban pedestrian detection for automatic braking
KR20200067629A (ko) 레이더 데이터를 처리하는 장치 및 방법
KR101891460B1 (ko) 차도 위의 반사체를 인식하고 평가하기 위한 방법 및 장치
CN109085570A (zh) 基于数据融合的车辆检测跟踪算法
US20120140076A1 (en) Forward collision warning trap and pedestrian advanced warning system
CN110171405A (zh) 基于检测对象制动车辆的系统和方法
WO2005002921A2 (en) Method and apparatus for pedestrian detection
EP1402498A1 (en) An object location system for a road vehicle
Kim et al. Low-level sensor fusion network for 3d vehicle detection using radar range-azimuth heatmap and monocular image
US20200301019A1 (en) Object recognition device and vehicle control system
CN112784679A (zh) 车辆避障方法和装置
García et al. Fusion procedure for pedestrian detection based on laser scanner and computer vision
CN110824495B (zh) 基于激光雷达的果蝇视觉启发的三维运动目标检测方法
Weisswange et al. An integrated ADAS for assessing risky situations in urban driving
KR102260004B1 (ko) 보행자 인식 능동 표시 방법 및 이러한 방법을 수행하는 장치
Dumont et al. AWARE: A video monitoring library applied to the air traffic control context
KR102612438B1 (ko) 교통 객체 위치 추정 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant