KR20220126472A - 라이다 센서를 이용한 객체 추적 방법 및 장치, 이 장치를 포함하는 차량 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체 - Google Patents

라이다 센서를 이용한 객체 추적 방법 및 장치, 이 장치를 포함하는 차량 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체 Download PDF

Info

Publication number
KR20220126472A
KR20220126472A KR1020210030786A KR20210030786A KR20220126472A KR 20220126472 A KR20220126472 A KR 20220126472A KR 1020210030786 A KR1020210030786 A KR 1020210030786A KR 20210030786 A KR20210030786 A KR 20210030786A KR 20220126472 A KR20220126472 A KR 20220126472A
Authority
KR
South Korea
Prior art keywords
time
lidar
sensor
update
time difference
Prior art date
Application number
KR1020210030786A
Other languages
English (en)
Inventor
유민균
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020210030786A priority Critical patent/KR20220126472A/ko
Publication of KR20220126472A publication Critical patent/KR20220126472A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/52

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

실시 예의 라이다 센서를 이용한 객체 추적 방법은, 매 스텝마다, 포인트 클라우드 데이터의 신호 처리를 시작하는 인식 시점을 기준으로 복수의 라이다 센서별 업데이트 시점이 서로 다른가를 검사하는 단계와, 업데이트 시점이 서로 다를 경우, 매 스텝마다 복수의 라이다 센서 중에서 주 센서를 선택하는 단계와, 이전 스텝에서 선택된 주 센서의 업데이트 시점과 현 스탭에서 선택된 주 센서의 업데이트 시점 간의 시간차를 현 스텝에서의 스텝 시간차로서 구하는 단계 및 현 스텝에서 선택된 주 센서에서 획득한 포인트 클라우드 데이터를 신호 처리할 때, 스텝 시간차를 이용하여 현 스텝에서 트랙의 속성 정보를 구하는 단계를 포함한다.

Description

라이다 센서를 이용한 객체 추적 방법 및 장치, 이 장치를 포함하는 차량 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체{Method and apparatus for tracking an object using LIDAR sensor, vehicle including the apparatus, and recording medium for recording program performing the method}
실시 예는 라이다 센서를 이용한 객체 추적 방법 및 장치, 이 장치를 포함하는 차량 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체에 관한 것이다.
예를 들어, 차량의 하이웨이 드라이빙 파일럿(HDP:Highway Driving Pilot) 시스템은 운전자가 차량의 속도와 자기 차선에 위치한 선행차량과의 거리를 설정하면, 엑셀이나 브레이크 페달을 밟지 않아도 운전자가 설정한 조건에 맞추어 차량의 속도를 유지하는 기능을 제공한다. 라이다(LIDAR: Light Detection and Ranging) 센서를 이용하여 타겟 차량에 대한 정보를 획득하고, 획득된 정보를 이용하여 HDP 기능을 수행할 수 있다. 그러나, 라이다 센서를 이용하여 획득한 타겟 차량에 대한 정보가 부정확할 경우, HDP 기능을 잘못 수행하는 등 차량에 대한 신뢰도가 저하될 수 있다.
특히, 자율주행을 위해 복수의 라이다 센서를 이용할 경우, 복수의 라이다 센서에서 객체를 센싱하여 포인트 클라우드 데이터를 획득하여 업데이트하는 시점이 일치하지 않거나 포인트 클라우드 데이터를 신호 처리하는 시점과 라이다 센서의 업데이트 시점 간에 동기가 맞지 않을 수 있다. 이 경우, 하나의 동일 객체를 감지함에도 불구하고, 복수의 라이다 센서에서 획득한 포인트 클라우드 데이터의 위치가 서로 달라질 수 있다.
실시 예는 트랙의 속성 정보를 정확하게 구할 수 있는 라이다 센서를 이용한 객체 추적 방법 및 장치, 이 장치를 포함하는 차량 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체를 제공한다.
실시 예에서 해결하고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제는 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
일 실시 예에 의한 라이다 센서를 이용한 객체 추적 방법은, 매 스텝마다, 포인트 클라우드 데이터의 신호 처리를 시작하는 인식 시점을 기준으로 복수의 라이다 센서별 업데이트 시점이 서로 다른가를 검사하는 단계; 상기 업데이트 시점이 서로 다를 경우, 상기 매 스텝마다 상기 복수의 라이다 센서 중에서 주 센서를 선택하는 단계; 이전(t-1) 스텝에서 선택된 주 센서의 업데이트 시점과 현(t) 스탭에서 선택된 주 센서의 업데이트 시점 간의 시간차를 상기 현 스텝에서의 스텝 시간차로서 구하는 단계; 및 상기 현 스텝에서 선택된 상기 주 센서에서 획득한 포인트 클라우드 데이터를 신호 처리할 때, 상기 스텝 시간차를 이용하여 상기 현 스텝에서 상기 트랙의 상기 속성 정보를 구하는 단계를 포함할 수 있다.
예를 들어, 상기 업데이트 시점이 서로 다른가를 검사하는 단계는 상기 복수의 라이다 센서별로 상기 업데이트 시점을 기록하는 단계; 상기 기록된 업데이트 시점과 상기 인식 시점 간의 시간차를 비동기 시간으로서 상기 복수의 라이다 센서별로 구하는 단계; 및 상기 복수의 라이다 센서별로 상기 비동기 시간이 서로 다른가를 검사하는 단계를 포함할 수 있다.
예를 들어, 상기 주 센서를 선택하는 단계는 상기 복수의 라이다 센서별로, 상기 포인트 클라우드 데이터에 의해 구성되는 윤곽의 충돌 기준면에 분포된 포인트의 개수를 카운팅하는 단계; 및 상기 복수의 라이다 센서 중에서, 상기 카운팅된 개수가 가장 많은 센서를 상기 주 센서로서 선택하는 단계를 포함할 수 있다.
예를 들어, 상기 현 스텝에서의 스텝 시간차는 이전(t-1) 스텝에서 선택된 주 센서의 업데이트 시점 중 가장 늦은 시점과 현(t) 스탭에서 선택된 주 센서의 업데이트 시점 중 가장 늦은 시점 간의 시간차에 해당할 수 있다.
예를 들어, 상기 복수의 라이더 센서별로 상기 포인트 클라우드 데이터를 센싱하는 업데이트 주기와 상기 포인트 클라우드 데이터를 신호 처리하는 주기는 서로 배수 관계가 아닐 수 있다.
예를 들어, 상기 속성 정보를 구하는 단계는 상기 스텝 시간차를 이용하여 상기 트랙의 속도, 헤딩 정보 또는 형상 중 적어도 하나를 상기 속성 정보로서 구할 수 있다.
다른 실시 예에 의한 라이다 센서를 이용한 객체 추적 방법은, 매 스텝마다, 복수의 라이다 센서별 업데이트 횟수가 서로 다른가를 검사하는 단계; 상기 업데이트 횟수가 서로 다를 경우, 상기 매 스텝마다 상기 복수의 라이다 센서 중에서 주 센서를 선택하는 단계; 이전(t-1) 스텝에서 선택된 주 센서의 업데이트 시점과 현(t) 스탭에서 선택된 주 센서의 업데이트 시점 간의 시간차를 상기 현 스텝에서의 스텝 시간차로서 구하는 단계; 및 상기 현 스텝에서 선택된 상기 주 센서에서 획득한 포인트 클라우드 데이터를 신호 처리할 때, 상기 스텝 시간차를 이용하여 상기 현 스텝에서 상기 트랙의 상기 속성 정보를 구하는 단계를 포함할 수 있다.
또 다른 실시 예에 의한 라이다 센서를 이용한 객체 추적 장치는, 매 스텝마다, 포인트 클라우드 데이터의 신호 처리를 시작하는 인식 시점을 기준으로 복수의 라이다 센서별 업데이트 시점이 서로 다른가를 검사하는 센싱 시점 검사부; 상기 센싱 시점 검사부에서 검사된 결과에 응답하여, 상기 매 스텝마다 상기 복수의 라이다 센서 중에서 주 센서를 선택하는 센서 선택부; 이전(t-1) 스텝에서 선택된 주 센서의 업데이트 시점과 현(t) 스탭에서 선택된 주 센서의 업데이트 시점 간의 시간차를 상기 현 스텝에서의 스텝 시간차로서 산출하는 스텝 시간차 산출부; 및 상기 현 스텝에서 선택된 상기 주 센서에서 획득한 포인트 클라우드 데이터를 신호 처리할 때, 상기 스텝 시간차를 이용하여 상기 현 스텝에서 상기 트랙의 상기 속성 정보를 생성하는 속성 정보 생성부를 포함할 수 있다.
예를 들어, 상기 센싱 시점 검사부는 상기 복수의 라이다 센서별로 상기 업데이트 시점을 기록하는 시점 기록부; 상기 기록된 업데이트 시점과 상기 인식 시점 간의 시간차를 비동기 시간으로서 상기 복수의 라이다 센서별로 산출하는 비동기 시간 산출부; 및 상기 복수의 라이다 센서별로 상기 비동기 시간이 서로 다른가를 검사하는 비동기 시간 검사부를 포함할 수 있다.
예를 들어, 상기 센서 선택부는 상기 복수의 라이다 센서별로, 상기 포인트 클라우드 데이터에 의해 구성되는 윤곽의 충돌 기준면에 분포된 포인트의 개수를 카운팅하는 카운터; 및 상기 복수의 라이다 센서 중에서, 상기 카운팅된 개수가 가장 많은 센서를 상기 주 센서로서 선택하는 개수 비교부를 포함할 수 있다.
예를 들어, 상기 스텝 시간차 산출부는 이전(t-1) 스텝에서 선택된 주 센서의 업데이트 시점 중 가장 늦은 시점과 현(t) 스탭에서 선택된 주 센서의 업데이트 시점 중 가장 늦은 시점 간의 시간차를 상기 스텝 시간차로서 산출할 수 있다.
예를 들어, 상기 복수의 라이더 센서별로 상기 포인트 클라우드 데이터를 센싱하는 업데이트 주기와 상기 포인트 클라우드 데이터를 신호 처리하는 주기는 서로 배수 관계가 아닐 수 있다.
예를 들어, 상기 속성 정보 생성부는 상기 스텝 시간차를 이용하여 상기 트랙의 속도, 헤딩 정보 또는 형상 중 적어도 하나를 상기 속성 정보로서 생성할 수 있다.
또 다른 실시 예에 의한 차량은, 라이다 센서; 및 상기 라이다 센서를 이용하는 전술한 객체 추적 장치를 포함할 수 있다.
또 다른 실시 예에 의하면, 라이다 센서를 이용하여 객체를 추적하는 객체 추적 방법을 실행하기 위한 프로그램을 기록한 기록 매체는, 매 스텝마다, 포인트 클라우드 데이터의 신호 처리를 시작하는 인식 시점을 기준으로 복수의 라이다 센서별 업데이트 시점이 서로 다른가를 검사하는 기능; 상기 업데이트 시점이 서로 다를 경우, 상기 매 스텝마다 상기 복수의 라이다 센서 중에서 주 센서를 선택하는 기능; 이전(t-1) 스텝에서 선택된 주 센서의 업데이트 시점과 현(t) 스탭에서 선택된 주 센서의 업데이트 시점 간의 시간차를 상기 현 스텝에서의 스텝 시간차로서 구하는 기능; 및 상기 현 스텝에서 선택된 상기 주 센서에서 획득한 포인트 클라우드 데이터를 신호 처리할 때, 상기 스텝 시간차를 이용하여 상기 현 스텝에서 상기 트랙의 상기 속성 정보를 구하는 기능을 구현하는 프로그램을 기록하며, 컴퓨터로 읽혀질 수 있다.
예를 들어, 상기 업데이트 시점이 서로 다른가를 검사하는 기능은 상기 복수의 라이다 센서별로 상기 업데이트 시점을 기록하는 기능; 상기 기록된 업데이트 시점과 상기 인식 시점 간의 시간차를 비동기 시간으로서 상기 복수의 라이다 센서별로 구하는 기능; 및 상기 복수의 라이다 센서별로 상기 비동기 시간이 서로 다른가를 검사하는 기능을 포함할 수 있다.
예를 들어, 상기 주 센서를 선택하는 기능은 상기 복수의 라이다 센서별로, 상기 포인트 클라우드 데이터에 의해 구성되는 윤곽의 충돌 기준면에 분포된 포인트의 개수를 카운팅하는 기능; 및 상기 복수의 라이다 센서 중에서, 상기 카운팅된 개수가 가장 많은 센서를 상기 주 센서로서 선택하는 기능을 포함할 수 있다.
실시 예에 따른 라이다 센서를 이용한 객체 추적 방법 및 장치, 이 장치를 포함하는 차량 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체는 복수의 라이다 센서의 업데이트 시점들이 서로 다르고 업데이트 주기와 인식 시점의 주기가 서로 배수 관계가 아닐 경우, 또는 업데이트 시점들은 서로 동일하지만 업데이트 주기와 인식 시점의 주기가 서로 배수 관계가 아닐 경우, 또는 업데이트 주기와 인식 시점의 주기는 서로 배수 관계를 갖지만 업데이트 시점들이 서로 다를 경우 등, 복수의 라이다 센서의 동기가 맞지 않을 때에도, 속성 정보 예를 들어, 속도, 헤딩, 형상에 대한 정보를 정확하게 구할 수 있다.
또한, 본 실시 예에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며 언급하지 않은 또 다른 효과는 아래의 기재로부터 본 발명이 속하는 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 일 실시 예에 의한 라이다 센서를 이용한 객체 추적 방법을 설명하기 위한 플로우차트이다.
도 2는 다른 실시 예에 의한 라이다 센서를 이용한 객체 추적 방법을 설명하기 위한 플로우차트이다.
도 3은 실시 예에 의한 라이다 센서를 이용한 객체 추적 장치를 설명하기 위한 블록도이다.
도 4는 도 1 및 도 2에 도시된 객체 추적 방법의 이해를 돕기 위한 타이밍도를 나타낸다.
도 5는 도 1에 도시된 제110A 단계의 실시 예에 의한 플로우차트를 나타낸다.
도 6은 도 1 및 도 2에 도시된 제120 단계의 실시 예에 의한 플로우차트를 나타낸다.
도 7은 제120 단계 또는 제120A 단계의 이해를 돕기 위한 도면이다.
도 8 (a) 내지 (c)는 각 스텝 별로 주 센서가 선택되는 과정을 설명하기 위한 도면이다.
도 9는 도 4에 도시된 타이밍도의 일 례를 나타내는 타이밍이다.
도 10은 실시 예에 의한 라이다 센서를 이용한 객체 추적 장치의 블록도를 나타낸다.
도 11은 도 10에 도시된 센싱 시점 검사부의 일 실시 예에 의한 블록도이다.
도 12는 도 10에 도시된 센서 선택부의 실시 예에 의한 블록도를 나타낸다.
도 13 (a) 내지 (c)는 비교예에 의한 객체 추적 방법의 문제점을 설명하기 위한 도면이다.
도 14 (a) 내지 (c)는 스텝에서 제1 및 제2 라이다 센서에서 획득된 포인트 클라우드 데이터를 각각 나타내는 도면이다.
이하, 본 발명을 구체적으로 설명하기 위해 실시 예를 들어 설명하고, 발명에 대한 이해를 돕기 위해 첨부도면을 참조하여 상세하게 설명하기로 한다. 그러나, 본 발명에 따른 실시 예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 아래에서 상술하는 실시 예들에 한정되는 것으로 해석되지 않아야 한다. 본 발명의 실시 예들은 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다.
본 실시 예의 설명에 있어서, 각 구성요소(element)의 "상(위) 또는 하(아래)(on or under)"에 형성되는 것으로 기재되는 경우에 있어, 상(위) 또는 하(아래)(on or under)는 두 개의 구성요소(element)가 서로 직접(directly)접촉되거나 하나 이상의 다른 구성요소(element)가 상기 두 구성요소(element) 사이에 배치되어(indirectly) 형성되는 것을 모두 포함한다.
또한 "상(위)" 또는 "하(아래)(on or under)"로 표현되는 경우 하나의 구성요소(element)를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.
또한, 이하에서 이용되는 "제1" 및 "제2," "상/상부/위" 및 "하/하부/아래" 등과 같은 관계적 용어들은, 그런 실체 또는 요소들 간의 어떠한 물리적 또는 논리적 관계 또는 순서를 반드시 요구하거나 내포하지는 않으면서, 어느 한 실체 또는 요소를 다른 실체 또는 요소와 구별하기 위해서 이용될 수도 있다.
이하, 실시 예에 의한 라이다 센서를 이용한 객체 추적 방법(100A, 100B) 및 장치(600, 800), 이 장치를 포함하는 차량(1000) 및 이 방법(100A, 100B)을 실행하기 위한 프로그램을 기록한 기록 매체를 첨부된 도면을 참조하여 다음과 같이 설명한다.
도 1은 일 실시 예에 의한 라이다 센서를 이용한 객체 추적 방법(100A)을 설명하기 위한 플로우차트이고, 도 2는 다른 실시 예에 의한 라이다 센서를 이용한 객체 추적 방법(100B)을 설명하기 위한 플로우차트이고, 도 3은 실시 예에 의한 라이다 센서(500)를 이용한 객체 추적 장치(600)를 설명하기 위한 블록도이다.
도 1 및 도 2에 도시된 객체 추적 방법(100A, 100B)을 설명하기에 앞서, 도 3에 도시된 객체 추적 장치(600)의 구성 및 동작을 다음과 같이 설명한다.
도 3에 도시된 라이다 센서(500)를 이용한 객체 추적 장치(600)는 전처리(preprocessing)부(610), 군집화(clustering)부(620), 형상 분석(shape analysis)부(또는, 세그먼트(segment))부)(630) 및 객체 추적부(또는, 추적부, 추적 및 분류부, 또는 객체 검출부)(640)를 포함할 수 있다. 또는, 객체 추적 장치(600)에서 전처리부(610)는 생략될 수도 있다. 또한, 실시 예에 의한 차량(1000)은 라이다 센서(500), 객체 추적 장치(600) 및 차량 장치(700)를 포함할 수 있다.
라이다 센서(500)는 예를 들어, 905 ㎚ 내지 1550 ㎚의 파장을 갖는 원형의 단일 레이저 펄스를 객체로 조사한 후, 측정 범위 내에 있는 객체에서 반사된 레이저 펄스가 되돌아온 시간을 측정하여, 라이다 센서(500)로부터 객체까지의 거리, 객체의 방향, 속도, 온도, 물질 분포 및 농도 특성 등과 같이 객체에 대한 정보를 센싱할 수 있다. 여기서, 객체란, 라이다 센서(500)가 장착된 차량(이하, ‘자차’라 한다)(1000)의 외부에 존재하는 다른 차량, 사람, 사물 등일 수 있으나, 실시 예는 객체의 특정한 종류에 국한되지 않는다.
라이다 센서(500)는 레이저 펄스를 송신하는 송신부(미도시)와, 센서 범위 내에 존재하는 객체의 표면에서 반사되어 돌아오는 레이저를 수신하는 수신부(미도시)를 포함할 수 있다. 수신부는 라이다 센서(500)가 이동 또는 회전없이 한 번에 관측할 수 있는 영역인 시야각(FOV: Field Of View)을 갖는다.
라이다 센서(500)는 레이더(RaDAR: Radio Detecting And Ranging) 센서에 비해 종/횡방향에 대한 감지 정확도가 높기 때문에, 정확한 종/횡방향 위치 정보를 제공할 수 있어, 장애물 검출 및 차량 위치 인식 등에 활용이 용이하다. 라이다 센서(500)로서, 2차원(2D) 라이다 센서와 3차원 라이다 센서가 있다. 2D 라이다 센서는 틸팅 또는 회전 이동이 가능하도록 구성되며, 틸팅 또는 회전되어 3차원 정보가 포함된 라이다 데이터를 확보하기 위해 이용될 수 있다. 3D 라이다 센서는 3차원의 다수의 점들을 얻을 수 있어, 장애물의 높이 정보까지 예측이 가능하여 정확하고 세밀한 객체 검출이나 추적에 도움을 준다. 3D 라이다 센서는 2D 라이다 센서가 복수의 레이어로 구성되어 3차원 정보가 포함된 라이다 데이터를 생성할 수도 있다.
라이다 센서(500)는 단일 객체에 대해 복수 개의 점(또는, 포인트(point))으로 구성된 포인트 클라우드(cloud) 데이터를 출력한다.
실시 예에 의한 객체 추적 방법(100A, 100B) 및 장치(600)는 라이다 센서(500)의 특정한 형태, 위치 및 종류에 국한되지 않는다.
또한, 실시 예에 의하면, 라이다 센서(500)는 차량(1000)의 전방, 측방, 후방 또는 상방 중 적어도 2곳에 위치한 복수 개일 수 있으며, 실시 예에 의한 객체 추적 방법(100A, 100B) 및 장치(600)와 이를 포함하는 차량(1000)은 라이다 센서(500)가 차량(1000)에 장착되는 특정한 위치에 국한되지 않는다.
한편, 객체 추적 장치(600)는 포인트 클라우드 데이터를 수신하고, 이를 이용하여 객체의 존재 여부를 검사하고, 객체를 추적을 시작하거나 유지하거나 중단하고, 객체에 대한 정보를 갱신, 보관 또는 삭제하고, 나아가 객체의 종류를 분류할 수도 있다.
전처리부(610)는 포인트 클라우드 데이터를 전처리할 수 있다. 이를 위해, 전처리부(610)는 라이다 센서(500)와 차량(1000) 간의 좌표를 맞추는 캘리브레이션을 수행할 수 있다. 즉, 라이다 센서(500)가 차량(1000)에 장착된 위치 각도에 따라 기준 좌표계에 맞게 포인트 클라우드 데이터를 변환할 수 있다. 또한, 전처리부(610)는 포인트 클라우드 데이터의 세기(intensity) 또는 컨피던스(confidence) 정보를 통해 세기 또는 반사율이 낮은 점은 필터링을 통해 제거할 수도 있다.
또한, 전처리부(610)는 자차(1000)의 차체에 의해 반사되는 데이터를 제거할 수도 있다. 즉, 라이다 센서(500)의 장착 위치와 시야각에 따라 자차(1000)의 차체에 의해 가려지는 영역이 존재하므로, 전처리부(610)는 기준 좌표계를 이용하여 자차(1000)의 차체에서 반사되는 데이터를 제거할 수 있다.
군집화부(620)는 라이다 센서(500)를 통해 획득한 객체에 대한 복수의 점으로 구성된 포인트 클라우드 데이터를 미리 정한 규칙에 따라 의미있는 단위로 그룹핑한다. 만일, 전처리부(610)가 생략되지 않을 경우, 군집화부(620)는 전처리부(610)에 의해 전처리된 포인트 클라우드 데이터를 그룹핑할 수 있다. 예를 들어, 군집화부(620)는 차량 모델링 또는 가드레일 모델링 등을 적용하여 포인트 클라우드 데이터를 그룹핑하여 객체의 외곽 형태를 군집화할 수 있다. 라이다 센서(500)에서 센싱된 결과는 복수의 점이며, 각 점은 위치에 대한 정보만을 갖는다. 따라서, 군집화부(620)는 라이다 센서(500)에서 센싱된 복수의 점을 의미있는 형상 단위로 그룹핑하는 역할을 한다.
예를 들어, 군집화부(620)의 종류로서, 2D 군집화와 3D 군집화가 있다. 2D 군집화란, 높이 정보를 고려하지 않고 데이터를 X-Y 평면으로 투영하여 군집화를 수행하는 것으로서, 점 단위 또는 특정 구조화된 단위로 군집화를 수행할 수 있다. 3D 군집화란, 높이 정보(Z)를 모두 고려하여 X-Y-Z 평면에서 군집화를 수행하는 것을 의미한다.
형상 분석부(630)는 군집화부(620)에서 군집화된 결과를 이용하여 채널별로 복수의 세그먼트 박스(box)에 대한 정보를 생성한다. 여기서, 세그먼트 박스란, 군집화된 결과를 기하학적인 박스 형상으로 변환한 결과를 의미할 수 있다. 또한, 세그먼트 박스에 대한 정보란, 세그먼트 박스의 폭, 길이, 위치 또는 방향(또는, 헤딩(heading)) 중 적어도 하나를 의미할 수 있다.
이하에서 설명되는 실시 예에 의한 객체 추적부(640)에 대한 설명은 전처리부(610)의 존재 여부, 전처리부(610), 군집화부(620) 및 형상 분석부(630) 각각에서 수행되는 특정한 동작 형태에 국한되지 않는다. 즉, 전처리부(610)가 생략되거나, 전처리부(610)에서 포인트 클라우드 데이터를 전술한 바와 달리 처리하거나, 군집화부(620)에서 전술한 바와 달리 포인트 클라우드 데이터를 군집화하거나, 형상 분석부(630)가 전술한 바와 달리 세그먼트 박스 정보를 생성할 경우에도 실시 예에 의한 객체 추적부(640)는 적용될 수 있다.
객체 추적부(640)는 채널별로 복수의 세그먼트 박스 중에서 추적 중인 객체(이하, ‘타겟 객체’라 한다)와 현 시점에서 ‘연계(association)된 세그먼트 박스’(또는, ‘최종 세그먼트 박스’, 또는 ‘연계 세그먼트 박스’)를 선정할 수 있다. 여기서, ‘연계’란, 라이다 센서(500)의 가시성과 객체의 형상에 따라 동일 객체에 대해 복수의 세그먼트 박스가 획득될 수 있는데, 복수의 세그먼트 박스 정보 중에서, 현재 추적 중인 타겟 객체의 추적을 유지하기 위해 사용될 박스를 선정하는 과정을 의미한다. 이러한 연계는 매 주기마다 수행될 수 있다.
객체 추적부(640)는 형상 분석부(630)로부터 채널별로 제공되는 복수의 세그먼트 박스 각각으로부터 연계된 세그먼트 박스를 선정하기 위해, 복수의 세그먼트 박스 각각의 정보를 정해진 포맷으로 변환하고, 변환된 포맷을 갖는 복수의 세그먼트 박스(또는, 메타 객체의 세그먼트 박스) 중에서 연계된 세그먼트 박스를 선정할 수 있다.
또한, 객체 추적부(640)는 연계된 세그먼트 박스에 대한 정보를 이용하여 타겟 객체가 장애물인지, 차량인지, 사람인지 구분할 수도 있다.
설명의 편의상, 도 1 및 도 2에 도시된 객체 추적 방법(100A, 100B)은 도 3에 도시된 객체 추적 장치(600)의 객체 추적부(640)에서 수행되는 것으로 설명하지만, 실시 예는 이에 국한되지 않는다. 즉, 다른 실시 예에 의하면, 도 1 및 도 2에 도시된 객체 추적 방법(100A, 100B)은 도 3에 도시된 객체 추적부(640)이외에 객체 추적 장치(600)에 포함된 다른 구성 요소에서도 수행될 수도 있다. 또한, 도 3에 도시된 객체 추적부(640)는 도 1 및 도 2에 도시된 객체 추적 방법(100A, 100B)을 수행하는 것으로 설명하지만, 실시 예는 이에 국한되지 않는다.
실시 예에 의하면, 객체 추적부(640)는 복수의 라이다 센서(500) 각각에서 획득된 포인트 클라우드 데이터를 신호 처리하여 트랙의 속성 정보를 구할 수 있다. 객체 추적부(640)는 매 주기마다 이러한 속성 정보를 구하는 신호 처리를 수행할 수 있다. 이하, 속성 정보를 구하는 주기를 ‘스텝’(step)이라 하고, 포인트 클라우드 데이터에 대한 신호 처리를 시작하는 시점을 ‘인식 시점’이라 한다.
일 실시 예에 의한 객체 추적 방법(100A)에 의하면, 매 스텝마다 인식 시점을 기준으로 복수의 라이다 센서(500)별로 업데이트 시점이 서로 다른가를 검사한다(제110A). 여기서, ‘업데이트 시점’이란, 라이다 센서(500)가 포인트 클라우드 데이터를 획득하는 시점, 또는 획득된 포인트 클라우드 데이터를 저장하는 시점, 또는 라이다 센서(500)가 센싱 동작을 시작하는 시점 또는 라이다 센서(500)의 센싱 동작에 의해 획득되어 저장된 포인트 클라우드 데이터가 갱신되는 시점을 의미할 수 있다.
또는, 다른 실시 예에 의한 객체 추적 방법(100B)에 의하면, 매 스텝마다, 인식 시점을 기준으로 복수의 라이다 센서(500)별 업데이트 횟수가 서로 다른가를 검사할 수도 있다(제110B 단계). 여기서, 업데이트 횟수란, 업데이트 시점의 개수를 의미할 수 있다.
이와 같이, 제110B 단계가 다름을 제외하면, 도 2에 도시된 객체 추적 방법(100B)은 도 1에 도시된 객체 추적 방법(100A)과 동일하므로, 도 1과 동일한 부분에 대해서는 동일한 참조부호를 사용하며 도 2에 도시된 객체 추적 방법(100B)에 대한 설명을 생략한다.
이하, 도 1 및 도 2에 도시된 객체 추적 방법(100A, 100B)의 이해를 돕기 위해, 복수의 라이다 센서(500)는 2개의 제1 및 제2 라이다 센서를 포함하고, 제1 및 제2 라이다 센서 각각은 차량(1000)의 전방, 측방, 후방 또는 상부 중 어느 한 곳에 배치된 센서(예를 들어, 제1 라이다 센서는 차량(1000)의 오른쪽에 배치된 센서이고, 제2 라이다 센서는 차량(1000)의 왼쪽에 배치된 센서)인 것으로 설명하지만, 실시 예는 라이다 센서(500)의 특정한 개수나 제1 및 제2 라이다 센서 각각의 특정한 위치에 국한되지 않는다.
도 4는 도 1 및 도 2에 도시된 객체 추적 방법(100A, 100B)의 이해를 돕기 위한 타이밍도를 나타낸다.
도 4에서, 화살표(A1)는 제1 라이다 센서의 업데이터 시점(t11, t12, t13, t14, t15, t16, t17)(이하, ‘제1 업데이트 시점’이라 함)을 나타내고, 화살표(A2)는 제2 라이다 센서의 업데이트 시점(t21, t22, t23, t24, t25, t26)(이하, ‘제2 업데이트 시점’이라 함)을 나타내고, 화살표(A3)는 인식 시점(t31, t32)을 나타낸다.
제1 업데이트 시점의 주기(이하, ‘제1 주기’라 함)를 ‘T1’이라 할 경우 제1 업데이트 시점(t11, t12, t13, t14, t15, t16, t17)에서 인접한 시점 간의 시간 차는 T1이고, 제2 업데이트 시점의 주기(이하, ‘제2 주기’라 함)를 ‘T2’라 할 경우 제2 업데이트 시점(t21, t22, t23, t24, t25, t26)에서 인접한 시점 간의 시간 차는 T2이고, 인식 시점의 주기(이하, ‘제3 주기’라 함)를 ‘T3’이라 할 경우 인식 시점(t31, t32)에서 인접한 시점 간의 시간차는 T3이다.
이해를 돕기 위해, 도 4에서 3개의 스텝(S(t-1), St, S(t+1))만을 도시하였다. S(t-1)은 이전 시점의 스텝(이하, ‘이전 스텝’이라 함)을 나타내고, S(t)는 현재 시점의 스텝(이하, ‘현 스텝’이라 함)을 나타내고, S(t+1)은 다음 시점의 스텝(이하, ‘이후 스텝’이라 함)을 나타낸다.
제110A 및 제110B 단계 각각은 매 스텝 예를 들어, 이전 스텝(S(t-1)), 현 스텝(St) 및 이후 스텝(S(t+1)) 각각에서 수행될 수 있다.
일 실시 예에 의하면, 이전 스텝(S(t-1))에서, 인식 시점(t31)을 기준으로 제1 업데이트 시점(t11, t12, t13)과 제2 업데이트 시점(t21, t22)이 서로 다른가를 검사한다(제110A 단계). 현 스텝(St)에서, 인식 시점(t32)을 기준으로 제1 업데이트 시점(t14, t15)과 제2 업데이트 시점(t23, t24, t25)이 서로 다른가를 검사한다(제110A 단계). 이후 스텝(S(t+1))에서도 제110A 단계가 동일하게 수행될 수 있다.
이하, 각 스텝에서, 제1 라이다 센서의 업데이트 횟수를 ‘ 제1 횟수’라 칭하고 제2 라이다 센서의 업데이트 횟수를 ‘제2 횟수’라 칭한다.
다른 실시 예에 의하면, 이전 스텝(S(t-1))에서, 제1 횟수와 제2 횟수가 서로 다른가를 검사한다(제110B 단계). 현 스텝(St)에서, 제1 횟수와 제2 횟수가 서로 다른가를 검사한다(제110B 단계). 이후 스텝(S(t+1))에서도 제110B 단계가 수행될 수 있다.
도 5는 도 1에 도시된 제110A 단계의 실시 예에 의한 플로우차트를 나타낸다.
복수의 라이다 센서별로 업데이트 시점을 기록한다(제112 단계). 예를 들어, 매 스텝(S(t-1), St, S(t+1))별로 제1 업데이트 시점과 제2 업데이트 시점을 기록한다. 도 4에 예시된 바와 같이 이전 스텝(S(t-1))에서 제1 업데이트 시점(t11, t12, t13)과 제2 업데이트 시점(t21, t22)을 기록하고, 현 스텝(St)에서 제1 업데이트 시점(t14, t15)과 제2 업데이트 시점(t23, t24, t25)을 기록하고, 이후 스텝(S(t+1))에서 제1 업데이트 시점(t16, t17, …)과 제2 업데이트 시점(t26, …)을 기록한다.
제112 단계 후에, 매 스텝(S(t-1), St, S(t+1))별로 복수의 라이다 센서 각각의 기록된 업데이트 시점과 인식 시점 간의 시간 차(이하,’ 비동기 시간’이라 한다)를 복수의 라이다 센서별로 구한다(제114 단계).
예를 들어, 도 4을 참조하면, 이전 스텝(S(t-1)에서, 제1 업데이트 시점(t13)과 인식 시점(t31) 간의 비동기 시간(이하, ‘제1 비동기 시간’이라 함)과 제2 업데이트 시점(t22)과 인식 시점(t31) 간의 비동기 시간(이하, ‘제2 비동기 시간’이라 함)을 구한다. 현 스텝(St)에서, 제1 업데이트 시점(t15)과 인식 시점(t32) 간의 제1 비동기 시간과 제2 업데이트 시점(t25)과 인식 시점(t32) 간의 제2 비동기 시간을 구한다. 이후 스텝(S(t+1)에서도 제1 및 제2 비동기 시간을 구한다. 인식 시점(t31)을 기준으로, 제1 비동기 시간은 다음 수학식 1과 같고, 제2 비동기 시간은 다음 수학식 2와 같이 표현될 수 있다.
Figure pat00001
여기서, US1은 제1 비동기 시간을 나타낸다.
Figure pat00002
여기서, US2는 제2 비동기 시간을 나타낸다.
제114 단계 후에, 매 스텝(S(t-1), St, S(t+1))마다 복수의 라이다 센서별로 비동기 시간이 서로 다른가를 검사한다(제116 단계). 예를 들어, 이전 스텝(S(t-1)에서, 제1 비동기 시간과 제2 비동기 시간이 서로 다른가를 검사하고, 현 스텝(St)에서 제1 비동기 시간과 제2 비동기 시간이 서로 다른가를 검사하고, 이후 스텝(S(t+1)에서 제1 비동기 시간과 제2 비동기 시간이 서로 다른가를 검사한다.
다시, 도 1을 참조하면, 제110A 단계를 수행하여 제1 “G 제2 업데이트 시점들이 서로 다른 것으로 결정될 때 또는 도 2에 도시된 제110B 단계를 수행하여 제1 및 제2 횟수들이 서로 다른 것으로 결정될 때, 매 스텝마다(또는, 트랙별로) 복수의 라이다 센서 중에서 주 센서를 선택한다(제120 단계). 이와 같이, 제120 단계는 모든 라이다 트랙에 대해 수행될 수 있다.
도 4의 경우, 매 스텝(S(t-1), St, S(t+1)) 각각에서 제1 비동기 시간과 제2 비동기 시간이 다르므로, 제120 단계가 수행될 수 있다. 또는, 도 4의 경우, 매 스텝(S(t-1), St, S(t+1)) 각각에서 제1 횟수와 제2 횟수가 다르므로, 제120 단계가 수행될 수 있다.
복수의 라이다 센서 중에서, 포인트 클라우드 데이터에 의해 구성되는 윤곽(contour)과 관련되는 포인트(또는, 점)를 많이 획득한 센서가 주 센서로서 결정될 수 있다.
도 6은 도 1 및 도 2에 도시된 제120 단계의 실시 예(120A)에 의한 플로우차트를 나타낸다.
복수의 라이다 센서 각각에 대해, 윤곽(contour)의 충돌 기준면에 분포된 포인트의 개수를 카운팅한다(제122 단계). 여기서, 충돌 기준면이란, 윤곽에서 자차(1000)와 대향하는 쪽에 위치한 면을 의미한다. 예를 들어, 윤곽(contour)의 충돌 기준면에 분포된 포인트 중에서, 제1 라이다 센서에 의해 획득된 포인트의 개수를 카운팅하고, 제2 라이다 센서에 의해 획득된 포인트의 개수를 카운팅한다.
제122 단계 후에, 복수의 라이다 센서 중에서, 카운팅된 개수가 가장 많은 센서를 주 센서로서 선택한다(제124 단계). 예를 들어, 윤곽(contour)의 충돌 기준면에 분포된 포인트 중에서, 제1 라이다 센서에 의해 획득된 포인트의 개수가 제2 라이다 센서에 의해 획득된 포인트의 개수보다 많을 경우 제1 라이다 센서를 주 센서로서 선택한다. 또는, 윤곽(contour)의 충돌 기준면에 분포된 포인트 중에서, 제2 라이다 센서에 의해 획득된 포인트의 개수가 제1 라이다 센서에 의해 획득된 포인트의 개수보다 많을 경우 제2 라이다 센서를 주 센서로서 선택한다.
도 7은 제120 단계 또는 제120A 단계의 이해를 돕기 위한 도면으로서, 자차(BO)를 기준으로 3개의 추적 대상(B1, B2, B3)을 예시적으로 나타내는 도면이다.
도 7에서, 제1 내지 제3 추적 대상(B1, B2, B3)이 직사각형 박스의 형태로 모사되어 있으며, 제1, 제2 및 제3 추적 대상(B1, B2, B3)은 제1, 제2 및 제3 방향(D1, D2, D3)으로 각각 진행하는 것으로 도시되어 있다.
전술한 바와 같이, 복수의 라이다 센서가 2개의 제1 및 제2 라이다 센서를 포함할 경우, 추적 대상(B1, B2, B3) 각각에서 제1 라이다 센서에 의해 획득된 포인트 클라우드 데이터의 점(PNT1)과 제2 라이다 센서에 의해 획득된 포인트 클라우드 데이터의 점(PNT2)이 도시되어 있다.
여기서, 제1 추적 대상(B1)의 경우 원형 점선 내 충돌 기준면에 분포된 포인트 중에서 제1 라이다 센서에 의해 획득된 점(PNT1)의 개수가 제2 라이다 센서에 의해 획득된 점(PNT2)의 개수보다 더 많다. 따라서, 제1 및 제2 라이다 센서 중에서 충돌 기준면에 더 많이 분포된 점(PNT1)을 획득한 제1 라이다 센서가 주 센서로서 결정된다.
제2 추적 대상(B2)의 경우 원형 점선 내 충돌 기준면에 분포된 포인트 중에서 제2 라이다 센서에 의해 획득된 점(PNT2)의 개수가 제1 라이다 센서에 의해 획득된 점(PNT1)의 개수보다 더 많다. 따라서, 제1 및 제2 라이다 센서 중에서 충돌 기준면에 더 많이 분포된 점(PNT2)을 획득한 제2 라이다 센서가 주 센서로서 결정된다.
제3 추적 대상(B3)의 경우 원형 점선 내 충돌 기준면에 분포된 포인트 중에서 제1 라이다 센서에 의해 획득된 점(PNT1)의 개수가 제2 라이다 센서에 의해 획득된 점(PNT2)의 개수보다 더 많다. 따라서, 제1 및 제2 라이다 센서 중에서 충돌 기준면에 더 많이 분포된 점(PNT1)을 획득한 제1 라이다 센서가 주 센서로서 결정된다.
도 8 (a) 내지 (c)는 각 스텝 별로 주 센서가 선택되는 과정을 설명하기 위한 도면이다.
도 8 (a)에 도시된 이전 스텝(S(t-1))의 경우, 충돌 기준면 상에 분포된 점 중에서 제1 라이다 센서에서 획득된 점(PNT1)의 개수가 제2 라이다 센서에서 획득된 점(PNT2)의 개수보다 더 많으므로 제1 라이다 센서가 주 센서로서 선택된다.
도 8 (b)에 도시된 현 스텝(St)의 경우, 충돌 기준면 상에 분포된 점 중에서 제2 라이다 센서에서 획득된 점(PNT2)의 개수가 제1 라이다 센서에서 획득된 점(PNT1)의 개수보다 더 많으므로 제2 라이다 센서가 주 센서로서 선택된다.
도 8 (c)에 도시된 이후 스텝(S(t+1))의 경우, 충돌 기준면 상에 분포된 점 중에서 제1 라이다 센서에서 획득된 점(PNT1)의 개수가 제2 라이다 센서에서 획득된 점(PNT2)의 개수보다 더 많으므로 제1 라이다 센서가 주 센서로서 선택된다.
다시, 도 1 및 도 2를 참조하면, 제120 단계 후에, 이전(t-1) 스텝에서 선택된 주 센서의 업데이트 시점과 현(t) 스탭에서 선택된 주 센서의 업데이트 시점 간의 시간차를 현 스텝에서의 ‘스텝 시간차’로서 구한다(제130 단계).
도 9는 도 4에 도시된 타이밍도의 일 례를 나타내는 타이밍도로서, 제1 업데이트 시점의 제1 주기(T1)는 40㎜sec이고, 제2 업데이트 시점의 제2 주기(T2)는 40㎜sec이고, 인식 시점의 제3 주기(T3)는 100㎜sec인 경우이다. 따라서, 도 9에 도시된 10㎜sec, 50㎜sec, 90㎜sec, 130㎜sec, 170㎜sec, 210㎜sec 및 250㎜sec는 도 4에 도시된 제1 업데이트 시점(t11, t12, t13, t14, t15, t16, t17)에 각각 해당하고, 도 9에 도시된 30㎜sec, 70㎜sec, 110㎜sec, 150㎜sec, 190㎜sec 및 230㎜sec는 도 4에 도시된 제2 업데이트 시점(t21, t22, t23, t24, t25, t26)에 각각 해당하고, 도 9에 도시된 100㎜sec 및 200㎜sec는 도 4에 도시된 제1 및 제2 인식 시점(t31, t32)에 각각 해당한다.
만일, 복수의 라이다 센서가 2개의 제1 및 제2 라이다 센서를 포함할 경우, 이전 스템(S(t-1))에서 선택된 주 센서와 현 스텝(St)에서 선택된 주 센서의 종류에 따라 도 9에 예시된 바와 같이 현 스텝(St)에서 4가지의 서로 다른 스텝 시간차(STD1, STD2, STD3, STD4)가 있을 수 있다.
이전 스텝(S(t-1))에서 제1 라이다 센서가 주 센서로서 선택되고 현 스텝(St)에서 제1 라이다 센서가 주 센서로서 선택된 제1 경우(①)에, 이전 스텝(S(t-1))에서 제1 라이다 센서의 제1 업데이트 시점과 현 스텝(St)에서 제1 라이다 센서의 제1 업데이트 시점 간의 시간차가 제1 스텝 시간차(STD1)로서 결정될 수 있다.
이전 스텝(S(t-1))에서 제1 라이다 센서가 주 센서로서 선택되고 현 스텝(St)에서 제2 라이다 센서가 주 센서로서 선택된 제2 경우(②)에, 이전 스텝(S(t-1))에서 제1 라이다 센서의 제1 업데이트 시점과 현 스텝(St)에서 제2 라이다 센서가 제2 업데이트 시점 간의 시간차가 제2 스텝 시간차(STD2)로서 결정될 수 있다.
이전 스텝(S(t-1))에서 제2 라이다 센서가 주 센서로서 선택되고 현 스텝(St)에서 제1 라이다 센서가 주 센서로서 선택된 제3 경우(③)에, 이전 스텝(S(t-1))에서 제2 라이다 센서의 제2 업데이트 시점과 현 스텝(St)에서 제1 라이다 센서가 제1 업데이트 시점 간의 시간차가 제3 스텝 시간차(STD3)로서 결정될 수 있다.
이전 스텝(S(t-1))에서 제2 라이다 센서가 주 센서로서 선택되고 현 스텝(St)에서 제2 라이다 센서가 주 센서로서 선택된 제4 경우(④)에, 이전 스텝(S(t-1))에서 제2 라이다 센서의 제2 업데이트 시점과 현 스텝(St)에서 제2 라이다 센서가 제2 업데이트 시점 간의 시간차가 제4 스텝 시간차(STD4)로서 결정될 수 있다.
현 스텝(St)에서 스텝 시간차(STD1, STD2, STD3, STD4)는 이전 스텝(S(t-1))에서 선택된 주 센서의 업데이트 시점 중 가장 늦은 시점과 현 스탭(St)에서 선택된 주 센서의 업데이트 시점 중 가장 늦은 시점 간의 시간차에 해당할 수 있다.
도 4 및 도 9를 참조하면, 제1 경우(①)에서, 현 스텝(St)에서의 스텝 시간차(STD1)는, 이전 스텝(S(t-1))에서 선택된 주 센서인 제1 라이다 센서의 제1 업데이트 시점(t11, t12, t13) 중 가장 늦은 시점(t13)과 현 스탭(St)에서 선택된 주 센서인 제1 라이다 센서의 제1 업데이트 시점(t14, t15) 중 가장 늦은 시점(t15) 간의 시간차(t15-t13)에 해당할 수 있다. 예를 들어, 도 9를 참조하면, 제1 경우(①)에서, 현 스텝(St)에서 스텝 시간차(STD1)는 80㎜sec일 수 있다.
제2 경우(②)에서, 현 스텝(St)에서의 스텝 시간차(STD2)는, 이전 스텝(S(t-1))에서 선택된 주 센서인 제1 라이다 센서의 제1 업데이트 시점(t11, t12, t13) 중 가장 늦은 시점(t13)과 현 스탭(St)에서 선택된 주 센서인 제2 라이다 센서의 제2 업데이트 시점(t23, t24, t25) 중 가장 늦은 시점(t25) 간의 시간차(t25-t13)에 해당할 수 있다. 예를 들어, 제2 경우(②)에서, 도 9를 참조하면, 현 스텝(St)에서 스텝 시간차(STD2)는 100㎜sec일 수 있다.
제3 경우(③)에서, 현 스텝(St)에서의 스텝 시간차(STD3)는, 이전 스텝(S(t-1))에서 선택된 주 센서인 제2 라이다 센서의 제2 업데이트 시점(t21, t22) 중 가장 늦은 시점(t22)과 현 스탭(St)에서 선택된 주 센서인 제1 라이다 센서의 제1 업데이트 시점(t14, t15) 중 가장 늦은 시점(t15) 간의 시간차(t15-t22)에 해당할 수 있다. 예를 들어, 제3 경우(③)에서, 도 9를 참조하면, 현 스텝(St)에서 스텝 시간차(STD3)는 100㎜sec일 수 있다.
제4 경우(④)에서, 현 스텝(St)에서의 스텝 시간차(STD4)는, 이전 스텝(S(t-1))에서 선택된 주 센서인 제2 라이다 센서의 제2 업데이트 시점(t21, t22) 중 가장 늦은 시점(t22)과 현 스탭(St)에서 선택된 주 센서인 제2 라이다 센서의 제2 업데이트 시점(t23, t24, t25) 중 가장 늦은 시점(t25) 간의 시간차(t25-t22)에 해당할 수 있다. 예를 들어, 제4 경우(④)에서, 도 9를 참조하면, 현 스텝(St)에서 스텝 시간차(STD4)는 120㎜sec일 수 있다.
다시, 도 1 및 도 2를 참조하면, 제130 단계 후에, 현 스텝(St)에서 선택된 주 센서에서 획득한 포인트 클라우드 데이터를 신호 처리할 때, 현 스텝(St)에서 구해진 스텝 시간차를 이용하여 현 스텝(St)에서 트랙의 속성 정보를 구한다(제140 단계). 예를 들어, 스텝 시간차를 이용하여 트랙의 속도, 헤딩 정보 또는 형상 중 적어도 하나를 속성 정보로서 구할 수 있다. 속도는 거리를 시간으로 제산한 결과인데, 속도를 구할 때 사용되는 시간은 제130 단계에서 구한 스텝 시간차에 해당한다.
이하, 실시 예에 의한 라이다 센서를 이용한 객체 추적 장치를 첨부된 도면을 참조하여 다음과 같이 설명한다.
도 10은 실시 예에 의한 라이다 센서를 이용한 객체 추적 장치(800)의 블록도를 나타낸다.
예를 들어, 도 10에 도시된 객체 추적 장치(800)는 도 3에 도시된 객체 추적부(640)에 포함될 수 있으나, 실시 예는 이에 국한되지 않는다.
설명의 편의상, 도 1에 도시된 객체 추적 방법(100A)은 도 10에 도시된 객체 추적 장치(800)에서 수행되는 것으로 설명하지만, 실시 예는 이에 국한되지 않는다. 즉, 다른 실시 예에 의하면, 도 1에 도시된 객체 추적 방법(100A)은 도 10에 도시된 객체 추적 장치(800)와 다른 구성을 갖는 객체 추적 장치에서도 수행될 수 있다. 또한, 도 10에 도시된 객체 추적 장치(800)는 도 1에 도시된 객체 추적 방법(100A)을 수행하는 것으로 설명하지만, 실시 예는 이에 국한되지 않는다.
도 10에 도시된 객체 추적 장치(800)는 센싱 시점 검사부(72), 센서 선택부(74), 스텝 시간차 산출부(76) 및 속성 정보 생성부(78)를 포함할 수 있다.
센싱 시점 검사부(72)는 매 스텝마다, 포인트 클라우드 데이터의 신호 처리를 시작하는 인식 시점을 기준으로 복수의 라이다 센서별로 업데이트 시점이 서로 다른가를 검사한다. 즉, 센싱 시점 검사부(72)는 도 1에 도시된 제110A 단계를 수행하는 역할을 한다. 예를 들어, 센싱 시점 검사부(72)는 입력단자 IN1을 통해 인식 시점과 제1 및 제2 업데이트 시점을 받아서, 인식 시점을 기준으로 제1 업데이트 시점과 제2 업데이트 시점이 다른가를 검사하고, 검사된 결과를 센서 선택부(74)로 출력할 수 있다.
도 11은 도 10에 도시된 센싱 시점 검사부(72)의 일 실시 예(72A)에 의한 블록도이다.
설명의 편의상, 도 5에 도시된 제110A 단계는 도 11에 도시된 센싱 시점 검사부(72A)에서 수행되는 것으로 설명하지만, 실시 예는 이에 국한되지 않는다. 즉, 다른 실시 예에 의하면, 도 5에 도시된 제110A 단계는 도 11에 도시된 센싱 시점 검사부(72A)와 다른 구성을 갖는 센싱 시점 검사부에서도 수행될 수 있다.
도 11에 도시된 센싱 시점 검사부(72A)는 시점 기록부(82), 비동기 시간 산출부(84) 및 비동기 시간 검사부(86)를 포함할 수 있다.
시점 기록부(82)는 복수의 라이다 센서별 업데이트 시점을 기록하고, 기록된 시점을 비동기 시간 산출부(84)로 출력할 수 있다. 시점 기록부(82)는 도 5에 도시된 제112 단계를 수행할 수 있다. 이를 위해, 시점 기록부(82)는 입력단자 IN2를 통해 인식 시점, 제1 업데이트 시점 및 제2 업데이트 시점 중 적어도 하나를 받아서 기록하거나 미리 저장하여 기록할 수 있다. 이때, 시점 기록부(82)는 제1 및 제2 업데이트 시점을 출력단자 OUT2를 통해 스텝 시간차 산출부(76)로 출력할 수 있다.
비동기 시간 산출부(84)는 시점 기록부(82)로부터 출력되는 기록된 제1 및 제2 업데이트 시점과 인식 시점 간의 시간차인 비동기 시간을 산출하여 비동기 시간 검사부(86)로 출력할 수 있다. 비동기 시간 산출부(84)는 도 5에 도시된 제114 단계를 수행할 수 있다. 이를 위해, 비동기 시간 산출부(84)는 시점 기록부(82)로부터 출력되는 인식 시점과 제1 업데이트 시점 간의 시간차를 제1 비동기 시간으로서 출력하고, 시점 기록부(82)로부터 출력되는 인식 시점과 제2 업데이트 시점 간의 시간차를 제2 비동기 시간으로서 출력할 수 있다.
비동기 시간 검사부(86)는 복수의 라이다 센서별로 비동기 시간이 서로 다른가를 검사하고, 검사된 결과를 출력단자 OUT3을 통해 센서 선택부(74)로 출력할 수 있다. 비동기 시간 검사부(86)는 도 5에 도시된 제116 단계를 수행할 수 있다. 즉, 비동기 시간 검사부(86)는 제1 비동기 시간과 제2 비동기 시간이 서로 다른가 그렇지 않으면 서로 동일한가를 비교 검사하고, 그 결과를 출력단자 OUT3을 통해 센서 선택부(74)로 출력할 수 있다.
다시, 도 10을 참조하면, 선세 선택부(74)는 센싱 시점 검사부(72)에서 검사된 결과에 응답하여, 매 스텝마다 복수의 라이다 센서 중에서 주 센서를 선택하고, 선택된 주 센서에 대한 정보를 스텝 시간차 산출부(76)로 출력할 수 있다. 센서 선택부(74)는 도 1에 도시된 제120 단계를 수행할 수 있다.
도 12는 도 10에 도시된 센서 선택부(74)의 실시 예(74A)에 의한 블록도를 나타낸다.
설명의 편의상, 도 6에 도시된 제120A 단계는 도 12에 도시된 센서 선택부(74A)에서 수행되는 것으로 설명하지만, 실시 예는 이에 국한되지 않는다. 즉, 다른 실시 예에 의하면, 도 6에 도시된 제120A 단계는 도 12에 도시된 센서 선택부(74A)와 다른 구성을 갖는 센서 선택부에서도 수행될 수 있다.
도 12에 도시된 센서 선택부(74A)는 카운터(92) 및 개수 비교부(94)를 포함할 수 있다.
카운터(92)는 입력단자 IN3을 통해 센싱 시점 검사부(72)로부터 제공된 검사된 결과를 통해 인식 시점을 기준으로 제1 업데이트 시점과 제2 업데이트 시점이 서로 다른 것으로 인식되면, 포인트 클라우드 데이터에 의해 구성되는 윤곽의 충돌 기준면에 분포된 복수의 라이다 센서별 포인트의 개수를 카운팅하고, 카운팅된 결과를 개수 비교부(94)로 출력한다. 카운터(92)는 도 6에 도시된 제122 단계를 수행하는 역할을 한다.
개수 비교부(94)는 복수의 라이다 센서 중에서, 카운팅된 개수가 가장 많은 센서를 주 센서로서 선택하고, 선택된 주 센서에 대한 정보를 출력단자 OUT4를 통해 스텝 시간차 산출부(76)로 출력한다. 개수 비교부(94)는 도 6에 도시된 제124 단계를 수행하는 역할을 한다.
다시, 도 10을 참조하면, 스텝 시간차 산출부(76)는 이전 스텝(S(t-1))에서 선택된 주 센서의 업데이트 시점과 현 스탭(St)에서 선택된 주 센서의 업데이트 시점 간의 시간차를 현 스텝에서의 스텝 시간차로서 산출하고, 산출된 스텝 시간차를 속성 정보 생성부(78)로 출력한다. 스텝 시간차 산출부(76)는 도 1에 도시된 제130 단계를 수행하는 역할을 한다. 이를 위해, 스텝 시간차 산출부(76)는 이전 스텝(S(t-1))에서 선택된 주 센서의 업데이트 시점과 현 스탭(St)에서 선택된 주 센서의 업데이트 시점을 센싱 시점 검사부(72)로부터 제공받을 수 있다.
속성 정보 생성부(78)는 현 스텝(St)에서 선택된 주 센서에서 획득한 포인트 클라우드 데이터를 신호 처리할 때, 스텝 시간차 산출부(76)로부터 출력된 스텝 시간차를 이용하여 현 스텝에서 트랙의 속성 정보를 생성하고, 생성된 속성 정보를 출력단자 OUT1을 통해 출력한다. 속성 정보 생성부(78)는 도 1에 도시된 제140 단계를 수행하는 역할을 한다. 따라서, 속성 정보 생성부(78)는 현 스탭(St)에서 구해진 스텝 시간차를 이용하여 현 스탭(St)에서 트랙의 속도, 헤딩 정보 또는 형상 중 적어도 하나를 속성 정보로서 생성하여 출력단자 OUT1을 통해 출력할 수 있다.
한편, 도 3을 참조하면, 예를 들어, 전술한 객체 추적 방법(100A, 100B) 및 장치(600)가 차량(1000)에 이용될 경우, 차량(1000)은 차량 장치(700)를 더 포함할 수 있다. 차량 장치(700)는 객체 추적부(640)에서 추적된 타겟 객체에 대한 정보 및 타겟 객체의 종류에 따라, 차량(1000)을 제어할 수 있다.
차량 장치(700)는 객체 추적 장치(600)에서 객체에 대해 판별된 정보를 수신하여 차량(1000)을 제어할 수 있다. 예를 들어, 이러한 차량 장치(700)는 선행차량과의 차간 간격을 유지하며 차선을 유지하는 차선 유지 시스템, 차량 주변 장애물을 감지하는 장애물 감지 시스템, 충돌위험을 감지하는 충돌 예방 시스템, 전방위 장애물을 검출하여 자율 주행을 수행하는 자율 주행 시스템, 인접 차량 접근 시 경고 및 차량 제어를 수행하는 안전운전 시스템 등을 포함할 수 있다.
한편, 라이다 센서(500)를 이용하여 객체를 추적하는 객체 추적 방법(100A, 100B)을 실행하기 위한 프로그램을 기록한 기록 매체는, 매 스텝마다, 포인트 클라우드 데이터의 신호 처리를 시작하는 인식 시점을 기준으로 복수의 라이다 센서별로 업데이트 시점이 서로 다른가를 검사하는 기능, 업데이트 시점이 서로 다를 경우, 매 스텝마다 복수의 라이다 센서 중에서 주 센서를 선택하는 기능, 이전 스텝(S(t-1))에서 선택된 주 센서의 업데이트 시점과 현 스탭(St)에서 선택된 주 센서의 업데이트 시점 간의 시간차를 현 스텝에서의 스텝 시간차로서 구하는 기능 및 현 스텝에서 선택된 주 센서에서 획득한 포인트 클라우드 데이터를 신호 처리할 때, 스텝 시간차를 이용하여 현 스텝에서 트랙의 속성 정보를 구하는 기능을 구현하는 프로그램을 기록하고, 컴퓨터는 기록 매체를 읽을 수 있다.
또한, 업데이트 시점이 서로 다른가를 검사하는 기능은 복수의 라이다 센서별로 업데이트 시점을 기록하는 기능, 기록된 업데이트 시점과 인식 시점 간의 시간차를 비동기 시간으로서 복수의 라이다 센서별로 구하는 기능 및 복수의 라이다 센서별로 비동기 시간이 서로 다른가를 검사하는 기능을 포함하여 구현하는 프로그램을 기록하고, 컴퓨터는 기록 매체를 읽을 수 있다.
또한, 주 센서를 선택하는 기능은 복수의 라이다 센서별로, 포인트 클라우드 데이터에 의해 구성되는 윤곽의 충돌 기준면에 분포된 포인트의 개수를 카운팅하는 기능 및 복수의 라이다 센서 중에서, 카운팅된 개수가 가장 많은 센서를 주 센서로서 선택하는 기능을 포함하여 구현하는 프로그램을 기록하고, 컴퓨터는 기록 매체를 읽을 수 있다.
컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 가변 렌즈 구동 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
이하, 비교 예 및 실시 예에 의한 객체 추적 방법을 첨부된 도면을 참조하여 다음과 같이 설명한다.
비교 예에 의한 객체 추적 방법에 의하면, 복수의 라이다 센서의 업데이트 시점이 서로 달라 일치하지 않거나 업데이트 시점과 인식 시점 간의 주기가 배수 관계에 있지 않을 수 있다. 이로 인해, 포인트 클라우드 데이터를 신호 처리할 때, 복수의 라이다 센서에서 각기 획득한 포인트 클라우드 데이터를 통합 처리하는데 문제가 발생할 수 있다.
도 13 (a) 내지 (c)는 비교예에 의한 객체 추적 방법의 문제점을 설명하기 위한 도면이다.
도 13 (a)에 도시된 원형 점선으로 표시한 객체를 2개의 라이다 센서에 의해 획득한 포인트 클라우드 데이터가 도 13 (b) 및 도 13 (c)에 각각 보여진다.
만일, 제1 및 제2 라이드 센서의 제1 및 제2 업데이트 시점이 서로 동일하고, 제1 및 제2 주기(T1, T2)와 제3 주기(T3)가 서로 배수 관계에 있다면, 동일한 객체에 대해 제1 및 제2 라이다 센서에서 획득한 포인트 클라우드 데이터의 위치가 도 13 (c)에 점선으로 표시한 바와 같이 동일하다.
그러나, 도 13 (a)에 도시된 자차의 전방에 위치한 동일한 객체에 대한 정보를 제1 및 제2 라이다 센서가 센싱할 때, 제1 업데이트 시점과 제2 업데이트 시점이 달라질 경우 또는 제1 및 제2 주기(T1, T2)가 제3 주기(T3)와 배수 관계에 있지 않을 경우, 비교예에 의하면, 도 13 (b)의 원형 점선으로 표시한 바와 같이 포인트 클라우드 데이터에 층이 지는 현상이 나오면서, 제1 및 제2 라이다 센서에서 획득한 포인트 클라우드 데이터의 위치가 서로 달라지게 된다.
도 14 (a) 내지 (c)는 스텝(S(t-1), St, S(t+1))에서 제1 및 제2 라이다 센서에서 획득된 포인트 클라우드 데이터를 각각 나타내는 도면으로서, 각 스텝(S(t-1), St, S(t+1))에서 트랙 박스(TB)의 모습을 나타낸다.
제1 및 제2 라이다 센서의 제1 및 제2 업데이트 시점이 서로 다르고, 제1 및 제2 주기(T1, T2)가 각각 40㎜sec이고, 제3 주기(T3)가 100㎜sec로서 제1 및 제2 주기(T1, T2)와 배수 관계가 아닐 때, 도 4 및 도 9에 도시된 바와 같이 이전 스텝(S(t-1))에서 제1 횟수는 3개이고 제2 횟수는 2개로서 서로 다르고, 현 스텝(St)에서 제1 횟수는 2개이고 제2 횟수는 3개로서 서로 다르다. 따라서, 도 14 (b)에 도시된 바와 같이, 제1 라이다 센서에서 획득된 포인트 클라우드 데이터와 제2 라이다 센서에서 획득된 포인트 클라우드 데이터의 위치가 서로 달라지게 된다. 이 경우, 일정한 제3 주기(T3)를 이용하여 트랙의 속성 정보를 구할 경우, 속성 정보가 부정확하게 구해질 수 있다.
반면에, 제1 업데이트 시점과 제2 업데이트 시점이 서로 다르고 제1 및 제2 주기(T1, T2)가 제3 주기(T3)와 배수 관계가 아닐 경우, 또는 제1 업데이트 시점과 제2 업데이트 시점이 서로 동일하지만 제1 및 제2 주기(T1, T2)가 제3 주기(T3)와 배수 관계가 아닐 경우, 또는 제1 및 제2 주기(T1, T2)가 제3 주기(T3)와 배수 관계를 갖지만 제1 업데이트 시점과 제2 업데이트 시점이 서로 다를 경우에, 실시 예에 의하면, 주 센서로서 선택되지 않은 라이다 센서에서 획득된 포인트 클라우드 데이터를 이용하지 않고, 현 스텝에서 구한 스텝 시간 차와 주 센서에서 획득된 포인트 클라우드 데이터만을 이용하여 현 스텝에서 트랙의 속성 정보를 구한다. 따라서, 실시 예에 의하면, 속성 정보 예를 들어, 속도, 헤딩, 형상에 대한 정보를 정확하게 구할 수 있다.
전술한 여러 개의 실시 예는 서로 조합될 수 없다고 특별히 언급되지 않는 한, 서로 조합할 수 있다.
또한, 여러 개의 실시 예 중 어느 하나의 실시 예에 대한 설명에서 누락된 부분은 특별히 언급되지 않는 한, 다른 실시 예에 대한 설명이 적용될 수 있다.
이상에서 실시 예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시 예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시 예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (17)

  1. 매 스텝마다, 포인트 클라우드 데이터의 신호 처리를 시작하는 인식 시점을 기준으로 복수의 라이다 센서별 업데이트 시점이 서로 다른가를 검사하는 단계;
    상기 업데이트 시점이 서로 다를 경우, 상기 매 스텝마다 상기 복수의 라이다 센서 중에서 주 센서를 선택하는 단계;
    이전(t-1) 스텝에서 선택된 주 센서의 업데이트 시점과 현(t) 스탭에서 선택된 주 센서의 업데이트 시점 간의 시간차를 상기 현 스텝에서의 스텝 시간차로서 구하는 단계; 및
    상기 현 스텝에서 선택된 상기 주 센서에서 획득한 포인트 클라우드 데이터를 신호 처리할 때, 상기 스텝 시간차를 이용하여 상기 현 스텝에서 상기 트랙의 상기 속성 정보를 구하는 단계를 포함하는 라이다 센서를 이용한 객체 추적 방법.
  2. 제1 항에 있어서, 상기 업데이트 시점이 서로 다른가를 검사하는 단계는
    상기 복수의 라이다 센서별로 상기 업데이트 시점을 기록하는 단계;
    상기 기록된 업데이트 시점과 상기 인식 시점 간의 시간차를 비동기 시간으로서 상기 복수의 라이다 센서별로 구하는 단계; 및
    상기 복수의 라이다 센서별로 상기 비동기 시간이 서로 다른가를 검사하는 단계를 포함하는 라이다 센서를 이용한 객체 추적 방법.
  3. 제2 항에 있어서, 상기 주 센서를 선택하는 단계는
    상기 복수의 라이다 센서별로, 상기 포인트 클라우드 데이터에 의해 구성되는 윤곽의 충돌 기준면에 분포된 포인트의 개수를 카운팅하는 단계; 및
    상기 복수의 라이다 센서 중에서, 상기 카운팅된 개수가 가장 많은 센서를 상기 주 센서로서 선택하는 단계를 포함하는 라이다 센서를 이용한 객체 추적 방법.
  4. 제1 항에 있어서, 상기 현 스텝에서의 스텝 시간차는
    이전(t-1) 스텝에서 선택된 주 센서의 업데이트 시점 중 가장 늦은 시점과 현(t) 스탭에서 선택된 주 센서의 업데이트 시점 중 가장 늦은 시점 간의 시간차에 해당하는 라이다 센서를 이용한 객체 추적 방법.
  5. 제1 항에 있어서,
    상기 복수의 라이더 센서별로 상기 포인트 클라우드 데이터를 센싱하는 업데이트 주기와 상기 포인트 클라우드 데이터를 신호 처리하는 주기는 서로 배수 관계가 아닌 라이다 센서를 이용한 객체 추적 방법.
  6. 제1 항에 있어서, 상기 속성 정보를 구하는 단계는
    상기 스텝 시간차를 이용하여 상기 트랙의 속도, 헤딩 정보 또는 형상 중 적어도 하나를 상기 속성 정보로서 구하는 라이다 센서를 이용한 객체 추적 방법.
  7. 매 스텝마다, 복수의 라이다 센서별 업데이트 횟수가 서로 다른가를 검사하는 단계;
    상기 업데이트 횟수가 서로 다를 경우, 상기 매 스텝마다 상기 복수의 라이다 센서 중에서 주 센서를 선택하는 단계;
    이전(t-1) 스텝에서 선택된 주 센서의 업데이트 시점과 현(t) 스탭에서 선택된 주 센서의 업데이트 시점 간의 시간차를 상기 현 스텝에서의 스텝 시간차로서 구하는 단계; 및
    상기 현 스텝에서 선택된 상기 주 센서에서 획득한 포인트 클라우드 데이터를 신호 처리할 때, 상기 스텝 시간차를 이용하여 상기 현 스텝에서 상기 트랙의 상기 속성 정보를 구하는 단계를 포함하는 라이다 센서를 이용한 객체 추적 방법.
  8. 매 스텝마다, 포인트 클라우드 데이터의 신호 처리를 시작하는 인식 시점을 기준으로 복수의 라이다 센서별 업데이트 시점이 서로 다른가를 검사하는 센싱 시점 검사부;
    상기 센싱 시점 검사부에서 검사된 결과에 응답하여, 상기 매 스텝마다 상기 복수의 라이다 센서 중에서 주 센서를 선택하는 센서 선택부;
    이전(t-1) 스텝에서 선택된 주 센서의 업데이트 시점과 현(t) 스탭에서 선택된 주 센서의 업데이트 시점 간의 시간차를 상기 현 스텝에서의 스텝 시간차로서 산출하는 스텝 시간차 산출부; 및
    상기 현 스텝에서 선택된 상기 주 센서에서 획득한 포인트 클라우드 데이터를 신호 처리할 때, 상기 스텝 시간차를 이용하여 상기 현 스텝에서 상기 트랙의 상기 속성 정보를 생성하는 속성 정보 생성부를 포함하는 라이다 센서를 이용한 객체 추적 장치.
  9. 제8 항에 있어서, 상기 센싱 시점 검사부는
    상기 복수의 라이다 센서별로 상기 업데이트 시점을 기록하는 시점 기록부;
    상기 기록된 업데이트 시점과 상기 인식 시점 간의 시간차를 비동기 시간으로서 상기 복수의 라이다 센서별로 산출하는 비동기 시간 산출부; 및
    상기 복수의 라이다 센서별로 상기 비동기 시간이 서로 다른가를 검사하는 비동기 시간 검사부를 포함하는 라이다 센서를 이용한 객체 추적 장치.
  10. 제9 항에 있어서, 상기 센서 선택부는
    상기 복수의 라이다 센서별로, 상기 포인트 클라우드 데이터에 의해 구성되는 윤곽의 충돌 기준면에 분포된 포인트의 개수를 카운팅하는 카운터; 및
    상기 복수의 라이다 센서 중에서, 상기 카운팅된 개수가 가장 많은 센서를 상기 주 센서로서 선택하는 개수 비교부를 포함하는 라이다 센서를 이용한 객체 추적 장치.
  11. 제8 항에 있어서, 상기 스텝 시간차 산출부는
    이전(t-1) 스텝에서 선택된 주 센서의 업데이트 시점 중 가장 늦은 시점과 현(t) 스탭에서 선택된 주 센서의 업데이트 시점 중 가장 늦은 시점 간의 시간차를 상기 스텝 시간차로서 산출하는 라이다 센서를 이용한 객체 추적 장치.
  12. 제8 항에 있어서,
    상기 복수의 라이더 센서별로 상기 포인트 클라우드 데이터를 센싱하는 업데이트 주기와 상기 포인트 클라우드 데이터를 신호 처리하는 주기는 서로 배수 관계가 아닌 라이다 센서를 이용한 객체 추적 장치.
  13. 제8 항에 있어서, 상기 속성 정보 생성부는
    상기 스텝 시간차를 이용하여 상기 트랙의 속도, 헤딩 정보 또는 형상 중 적어도 하나를 상기 속성 정보로서 생성하는 라이다 센서를 이용한 객체 추적 장치.
  14. 라이다 센서; 및
    상기 라이다 센서를 이용하며, 제8 항 내지 제13 항 중 어느 한 항에 기재된 객체 추적 장치를 포함하는 차량.
  15. 라이다 센서를 이용하여 객체를 추적하는 객체 추적 방법을 실행하기 위한 프로그램을 기록한 기록 매체에 있어서,
    매 스텝마다, 포인트 클라우드 데이터의 신호 처리를 시작하는 인식 시점을 기준으로 복수의 라이다 센서별 업데이트 시점이 서로 다른가를 검사하는 기능;
    상기 업데이트 시점이 서로 다를 경우, 상기 매 스텝마다 상기 복수의 라이다 센서 중에서 주 센서를 선택하는 기능;
    이전(t-1) 스텝에서 선택된 주 센서의 업데이트 시점과 현(t) 스탭에서 선택된 주 센서의 업데이트 시점 간의 시간차를 상기 현 스텝에서의 스텝 시간차로서 구하는 기능; 및
    상기 현 스텝에서 선택된 상기 주 센서에서 획득한 포인트 클라우드 데이터를 신호 처리할 때, 상기 스텝 시간차를 이용하여 상기 현 스텝에서 상기 트랙의 상기 속성 정보를 구하는 기능을 구현하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
  16. 제15 항에 있어서, 상기 업데이트 시점이 서로 다른가를 검사하는 기능은
    상기 복수의 라이다 센서별로 상기 업데이트 시점을 기록하는 기능;
    상기 기록된 업데이트 시점과 상기 인식 시점 간의 시간차를 비동기 시간으로서 상기 복수의 라이다 센서별로 구하는 기능; 및
    상기 복수의 라이다 센서별로 상기 비동기 시간이 서로 다른가를 검사하는 기능을 포함하여 구현하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
  17. 제16 항에 있어서, 상기 주 센서를 선택하는 기능은
    상기 복수의 라이다 센서별로, 상기 포인트 클라우드 데이터에 의해 구성되는 윤곽의 충돌 기준면에 분포된 포인트의 개수를 카운팅하는 기능; 및
    상기 복수의 라이다 센서 중에서, 상기 카운팅된 개수가 가장 많은 센서를 상기 주 센서로서 선택하는 기능을 포함하여 구현하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
KR1020210030786A 2021-03-09 2021-03-09 라이다 센서를 이용한 객체 추적 방법 및 장치, 이 장치를 포함하는 차량 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체 KR20220126472A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210030786A KR20220126472A (ko) 2021-03-09 2021-03-09 라이다 센서를 이용한 객체 추적 방법 및 장치, 이 장치를 포함하는 차량 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210030786A KR20220126472A (ko) 2021-03-09 2021-03-09 라이다 센서를 이용한 객체 추적 방법 및 장치, 이 장치를 포함하는 차량 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체

Publications (1)

Publication Number Publication Date
KR20220126472A true KR20220126472A (ko) 2022-09-16

Family

ID=83445289

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210030786A KR20220126472A (ko) 2021-03-09 2021-03-09 라이다 센서를 이용한 객체 추적 방법 및 장치, 이 장치를 포함하는 차량 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체

Country Status (1)

Country Link
KR (1) KR20220126472A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117953459A (zh) * 2024-03-25 2024-04-30 安徽蔚来智驾科技有限公司 感知融合结果获取方法、可读存储介质及智能设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117953459A (zh) * 2024-03-25 2024-04-30 安徽蔚来智驾科技有限公司 感知融合结果获取方法、可读存储介质及智能设备

Similar Documents

Publication Publication Date Title
US10949684B2 (en) Vehicle image verification
CN111492265B (zh) 基于3d激光雷达测量的多分辨率、同时定位和地图绘制
Barth et al. Estimating the driving state of oncoming vehicles from a moving platform using stereo vision
KR102195164B1 (ko) 다중 라이다를 이용한 다중 물체 인식 시스템 및 방법
KR102453933B1 (ko) 3차원 공간을 추적하는 차량 및 센싱 장치, 그리고 저장매체에 저장된 컴퓨터 프로그램
CN110286389B (zh) 一种用于障碍物识别的栅格管理方法
CN106503653A (zh) 区域标注方法、装置和电子设备
US11941888B2 (en) Method and device for generating training data for a recognition model for recognizing objects in sensor data of a sensor, in particular, of a vehicle, method for training and method for activating
US20210072397A1 (en) Generation of synthetic lidar signals
CN113592905B (zh) 基于单目摄像头的车辆行驶轨迹预测方法
CN114758504B (zh) 一种基于滤波校正的网联车超速预警方法及系统
KR102456151B1 (ko) 레이더 및 카메라 기반의 센서 퓨전 시스템 및 주변 차량의 위치 산출 방법
CN109002800A (zh) 基于多传感器融合的三维目标实时识别机构及识别方法
CN116529784A (zh) 用于增加激光雷达数据的方法和系统
Bruno et al. Analysis and fusion of 2d and 3d images applied for detection and recognition of traffic signs using a new method of features extraction in conjunction with deep learning
CN111661111A (zh) 轨道交通障碍探测方法及装置
CN112036422B (zh) 一种基于多传感器信息融合的航迹管理方法、系统及计算机可读介质
KR20220126472A (ko) 라이다 센서를 이용한 객체 추적 방법 및 장치, 이 장치를 포함하는 차량 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체
Krajewski et al. Using drones as reference sensors for neural-networks-based modeling of automotive perception errors
CN113988197A (zh) 基于多相机、多激光雷达的联合标定及目标融合检测方法
KR20230101560A (ko) 차량용 라이다 시스템 및 그 객체 검출 방법
CN114675295A (zh) 一种障碍物判定的方法、装置、设备及存储介质
CN111126363B (zh) 自动驾驶车辆的物体识别方法及装置
Diaz-Ruiz et al. Vision-only 3d tracking for self-driving cars
CN117173666A (zh) 一种针对非结构化道路的自动驾驶目标识别方法及系统

Legal Events

Date Code Title Description
A201 Request for examination