KR20210048552A - Lidar 센서가 장착된 자동차의 도로 감지 방법 - Google Patents

Lidar 센서가 장착된 자동차의 도로 감지 방법 Download PDF

Info

Publication number
KR20210048552A
KR20210048552A KR1020217010105A KR20217010105A KR20210048552A KR 20210048552 A KR20210048552 A KR 20210048552A KR 1020217010105 A KR1020217010105 A KR 1020217010105A KR 20217010105 A KR20217010105 A KR 20217010105A KR 20210048552 A KR20210048552 A KR 20210048552A
Authority
KR
South Korea
Prior art keywords
lidar
angle
vehicle
plane
coordinates
Prior art date
Application number
KR1020217010105A
Other languages
English (en)
Inventor
파루크 걀라비
Original Assignee
르노 에스.아.에스.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 르노 에스.아.에스. filed Critical 르노 에스.아.에스.
Publication of KR20210048552A publication Critical patent/KR20210048552A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • G05D1/0236Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

적어도 하나의 회전식 다층 LIDAR 센서(1) 및 적어도 하나의 데이터 처리 수단이 제공된 자동차의 도로 감지 방법에 있어서, 상기 자동차 주변의 LIDAR 데이터를 획득하고, 획득한 LIDAR 데이터에서 차량 평면에 대한 빔 각도가 0 이상인 데이터를 제거하고, 차량 평면에 대한 각각의 빔 각도 및 각각의 LIDAR 데이텀에 대해 LIDAR 데이텀에 대응되는 포인트의 이론적 좌표는 특히 차량 평면에 대한 빔 각도와 차량 평면에서의 빔 각도의 함수로서 결정되며, 이론적 좌표 및 LIDAR 데이텀의 좌표 사이의 표준 편차가 결정되고, 표준 편차가 미리 정의된 임계값보다 낮으면 LIDDAR 데이텀이 도로의 일부를 형성하는 것으로 결정된다.

Description

LIDAR 센서가 장착된 자동차의 도로 감지 방법
본 발명은 자율 주행 차량의 제어, 특히 그러한 차량을 제어하기 위한 차선 감지에 관한 것이다.
현재 사용되는 위성 위치 확인 시스템은 몇 미터 이내의 정확도로 위치를 획득할 수 있는 글로벌 네비게이션 위성 시스템 GNSS이다. 실시간 운동학적 RTK 보정 기능이 있는 GNSS 시스템은 약 5cm의 정확도를 갖는다. 그러나, 그러한 시스템은 비용이 많이 들어 양산 차량에 사용할 수 없다.
그 외에, 상용 GNSS 시스템을 추가적인 센서와 병합하면 그러한 간극을 채우는 게 가능하다. 추가 센서는 가속도계, 자이로스코프 또는 주행 거리계일 수 있다. 따라서, “u-blox” 센서와 같은 추가 센서로 보완된 상용 GNSS 시스템에서 얻은 정확도는 약 2-3 m이다.
이러한 정확도는 여전히 차량이 위치한 차선(“차선 레벨”)을 획득하는 데 충분하지 않다.
낮은 카메라 가격 및 개선된 인식 알고리즘은 마킹 라인을 감지하고 결과적으로 주행 차선을 인지하기 위해 카메라를 사용함으로써 이러한 문제를 해결할 수 있게 했다. 그럼에도 불구하고, 감지는 완벽하지 않다. 카메라는 수동 센서이기 때문에, 자체 광원을 생성하지 않으므로 빛이 존재하지 않을 때 작동하지 않는다. 또한, 카메라의 원리는 2D 평면 상의 3D 환경의 투영 형상에 의존하므로 주변 환경의 3D 정보의 손실을 야기한다. 따라서, 단일 카메라의 경우(단안(monocular)의 경우)에 주변 환경의 3D 재구성 작업이 어렵다.
그러나 LIDAR 센서(빛을 기반으로 거리를 감지하고 결정하는 “Light Detection and Ranging”의 약어)와 같이, 주변 환경의 3D 표현을 제공하는 현 시장에서 이용 가능한 액티브 센서와 관련된 해결책이 존재한다. 이러한 센서는 센서가 완전히 회전할 때마다 70만 포인트에 달할 수 있는 매우 조밀한 클라우드를 수집하는 게 가능하다. 이렇게 얻은 포인트 클라우드는 주기적으로 새로 고쳐지는 대량의 데이터를 나타낸다. 이러한 데이터를 실시간으로 처리하는 것이 진정한 기술적 과제이다.
이러한 특별한 경우에, 하나의 목적은 처리할 테이터의 양을 줄이고 처리 속도를 높이기 위해 도로를 분할하는 것이다.
실제로, 도로는 LIDAR 데이터 전체의 하위 집합일 뿐이다.
최신 기술을 통해 차량에 근접한 도로 표면을 획득하기 위한 센서 사용이 알려져 있다. 센서를 사용하여 도로 측정 값을 회수하면, 도로 마킹만 유지하기 위한 필터를 적용함으로써 도로를 나타내는 데이터를 제거한다. 차선 경계를 감지하기 위한 차동(difference) 필터와 가우스(Gaussian) 필터의 두 가지 필터가 언급된다. 그런 다음 필터링된 데이터를 예상 차선 마킹과 비교한다. 예상 차선 표시에 대한 정보는 특정 포인트에서의 차선 폭, 차선 위치 및 차선 사이의 관계와 같은 도로 섹션에 대한 데이터로 구성된 파일(pile)에 존재한다.
그러나, 해당 문헌에서는 어떻게 마킹을 분리할 수 있도록 도로를 식별하고 도로를 나타내는 데이터를 적용하는지에 대해서 설명하지 않는다. 또한, 처리를 단순화하기 위해 차선의 사전 식별에 의존하므로 시스템을 사용하기 위해서는 사전 작업이 필요한다.
따라서, 해결해야 할 기술적 과제는 도로를 효과적이며 효율적으로 기술하는 것이다
본 발명은 회전식 다층 LIDAR 센서 및 적어도 하나의 데이터 처리 수단이 제공된 자동차용 도로 감지 방법에 관한 것으로, 다음의 단계들을 포함한다:
LIDAR 센서로 자동차 주변의 LIDAR 데이터를 극좌표로서 획득하고,
획득된 LIDAR 데이터에서 차량 평면에 대한 빔 각도와 관련된 극좌표가 0 이상인 데이터를 제거하며,
차량 평면에 대한 각각의 빔 각도 및 각각의 LIDAR 데이텀에 대해 다음의 단계가 수행된다.
LIDAR 데이텀에 대응되는 포인트의 이론적 좌표는 차량 평면에 대한 빔 각도 및 차량 평면에서의 빔 각도의 함수로서 결정,
이론적 좌표와 LIDAR 데이텀 좌표 사이의 표준 편차 결정, 및
표준 편차가 미리 정의된 임계값보다 낮으면 LIDAR 데이텀이 도로의 일부를 형성하는 것으로 결정된다.
LIDAR 데이텀은 1 회전에 걸쳐 LIDAR 센서에 의해 획득된 포인트 클라우드의 일 포인트이거나 차량 평면에 대해 동일한 빔 각도를 갖는 LIDAR 센서에 의해 획득된 포인트 클라우드의 적어도 2개의 연속된 포인트들로 구성된 일 섹션일 수 있다.
LIDAR 데이텀이 포인트 클라우드의 일 포인트일 때, LIDAR 데이텀에 대응되는 포인트의 이론적 좌표가 차량을 중심으로 한 도로의 평면 내에 새겨진 이상적인 원에 포함된 포인트의 좌표로 결정할 수 있다.
LIDAR 데이텀이 포인트 클라우드의 적어도 두 개의 포인트들로 구성된 섹션인 경우, 이론적 좌표와 섹션의 좌표는 데카르트(Cartesian) 좌표로 정의되고 차량 평면에서 차량의 이동 방향 좌표, 차량 평면에서 차량의 이동 방향과 직각인 방향의 좌표, 차량 평면에 대한 법선 상의 이론적 좌표를 포함하며, 차량 평면에 대한 법선 상의 이론적 좌표는 섹션 내에 포함된 LIDAR 센서에 의해 획득된 포인트 클라우드의 포인트들의 차량 평면에 수직인 좌표의 평균으로 정의되며, 다른 이론적 좌표는 차량을 중심으로 한 도로 평면 내에 새겨진 이상적인 원 상의 포인트의 좌표로 정의될 수 있다.
차량 평면에서 섹터를 스캔하는 방향과 각각 관련된 적어도 2개의 섹터를 결정할 수 있으며, 각 센터에 대하여 다음의 단계를 수행할 수 있다.
LIDAR 데이터는 스캔 방향으로 스캔되고, 각 LIDAR 데이텀이 도로에 속하는지 여부가 결정되며, LIDAR 데이터의 스캐닝은 LIDAR 데이텀이 도로에 속하지 않는다고 결정되고 스캔되지 않은 섹터의 LIDAR 데이터가 도로에 속하지 않는다고 결정되면 즉시 중단된다.
각 섹터에 대해, 불규칭성의 영향을 줄이기 위해 표준 편차의 결정 결과에 가우스 필터를 적용할 수 있으며, 가우스 필터는 특히 크기 3커널 및 표준 편차 5일 수 있다.
전방으로 주행하는 차량의 이동 방향은 차량 평면에서의 빔 각도의 각도 0에 대응되는 것으로 정의할 수 있으며, 4개의 섹터가 차량 평면에서 정의된다.
제1섹터는 차량 평면에서의 각도가 각도 0에서 각도 π/2까지 확장되는 LIDAR 데이터를 포함하며, LIDAR 데이터는 차량 평면에서 초기 각도 0에서 최종 각도 π/2까지 스캔된다.
제2섹터는 차량 평면에서의 각도가 각도 π/2에서 각도 π까지 확장되는 LIDAR 데이터를 포함하며, LIDAR 데이터는 차량 평면에서 초기 각도 π에서 최종 각도 π/2까지 스캔된다.
제3섹터는 차량 평면에서의 각도가 각도 π에서 각도 3π/2까지 연장되는 LIDAR 데이터를 포함하며, LIDAR 데이터는 차량 평면에서 초기 각도 π에서 최종 각도 3π/2까지 스캔된다.
제4섹터는 차량 평면에서의 각도가 각도 3π/2에서 각도 0까지 연장되는 LIDAR 데이터를 포함하며, LIDAR 데이터는 차량 평면에서 초기 각도 0에서 최종 각도 3π/2까지 스캔된다.
각 섹터와 관련된 단계는 별개의 처리 수단을 통해 수행될 수 있다.
차량 평면에 대한 각각의 빔 각도에 대하여, LIDAR 센서에 의해 감지된 반사된 광 강도가 미리 결정된 임계값보다 낮으면 도로에 속한 LIDAR 데이텀이 지면 상의 마킹에 해당된다고 결정할 수 있다. 추적 방법은 도로가 적어도 부분적으로 가려질 때 도로 추적을 보장하는 데 사용될 수 있다.
자동차는 자율 주행 차량일 수 있다.
도로를 효과적이며 효율적으로 기술할 수 있다.
본 발명의 다른 목적, 특징 및 이점은 온전히 비제한적인 예로서 첨부된 도면을 참조한 이하의 설명을 통해 명백해질 것이다:
도 1은 차량의 평면에 대한 레이저 빔의 각도에 대하여 얻어진 LIDAR 데이터의 극좌표 뷰(polar view)를 나타낸다.
도 2는 상기 방법에 의해 스캔된 섹터의 예를 나타낸다.
도로 감지 방법은 회전식 다층 LIDAR 센서를 사용함으로써 차량에 대한 도로의 위치를 결정하도록 할 수 있다.
LIDAR는 일정한 간격으로 레이저 빔을 방출함으로써 센서와 장애물 사이의 거리를 결정할 수 있도록 하는 센서이며, 빔은 주변 물체에 의해 반사된다. 이렇게 반사된 빔은 LIDAR에 의해 검출되어 빔을 반사시킨 물체의 위치를 추정한다.
LIDAR 센서는 또한 회전 운동, 특히 360°로 구동되어 주변 포인트들의 위치를 감지할 수 있다.
그러한 LIDAR 센서(도 1의 참조 부호 1)는 차량 평면에 대하여 각각 다른 각도로 배향된 여러 레이저를 포함한다. 회전 및 한 번의 회전 동안 다수의 획득을 수행함으로써, LIDAR 센서는 각각의 레이저 빔의 표면 반사 포인트들의 위치를 결정하고 포인트 클라우드를 형성하며, 포인트 클라우드의 좌표는 LIDAR 센서에 대한 반사 포인트의 상대적 위치에 대응한다.
반사 포인트 P의 좌표는 일반적으로 (r,θ,φ) 형식의 극 좌표로 표현되며 r은 센서와 반사 포인트 사이의 거리, θ는 차량 평면에 대한 빔의 각도, φ는 차량 평면에서의 빔의 각도를 나타낸다. 도 1은 이러한 참조 프레임을 나타낸다. 차량의 평면은 차량 섀시(chassis)의 평면 또는 차량의 섀시에 평행한 평면으로 이해된다.
LIDAR 센서는 각각의 완전한 회전마다 매우 큰 포인트 클라우드를 생성하기 때문에, 계산 시간을 제한하기 위해 세분화를 수행하여야 한다. 나머지 설명에서, 포인트 클라우드의 일 포인트는 LIDAR 데이텀(datum)으로 간주된다.
세분화의 첫 번째 단계 동안, 고려되는 유일한 데이터는 각도 θ가 음수인 LIDAR 데이터, 즉 차량 평면에 평행한 센서를 통해 통과하는 평면 아래의 각도로 방출되는 레이저 빔으로부터 파생된 LIDAR 데이터이다. 사실상, 이러한 빔만이 도로와 상호 작용할 수 있다.
세분화의 두 번째 단계 동안, LIDAR 데이터는 차량 평면에 대한 각도 θ의 함수로 분리된다. 실제로, 발명자들은 차량 평면에 대하여 주어진 각도 θ로 방출된 레이저 빔이 부드럽고 연속적이며 사실상 평평하다고 여겨지는 도로에서 이상적인 원을 형성한다는 것은 인식했다.
반면, 레이저 빔이 도로가 아닌 무언가를 통과하면 이상적인 원 주변의 위치 분산이 얻어진다.
도로의 포인트를 식별하기 위해, 차량 평면에 대한 각도 θ와 연관된 각 LIDAR 데이터 세트에 대해 이하의 하위 단계가 수행된다.
이상적인 원의 포인트의 이론적 좌표 (xth,yth,zth)는 차량 평면에 대한 각도 θ의 함수로 결정된다.
차량 평면에 대한 주어진 각도 θ 및 차량 평면에서의 각각의 각도 φ에 대해, 이론적 좌표 (xth,yth,zth)와 하나의 동일한 각도 φ에 대한 LIDAR 데이텀의 좌표 (xi,yi,zi) 사이의 표준 편차 σ는 이하의 수학식 1을 적용하여 결정된다.
[수학식 1]
Figure pct00001
위의 세분화를 적용했음에도 불구하고, 처리할 데이터의 양은 여전히 많다. 차량 평면에 대한 주어진 각도 θ에 대해, LIDAR 센서는 차량 평면의 각도 φ에 대해 360° 또는 2π를 스캔한다.
LIDAR 센서로부터 얻은 포인트 클라우드의 세분화를 개선하기 위해, 차량 평면에서 각도 φ와 관련된 포인트 수를 줄이는 것이 제안된다.
이를 달성하기 위해, LIDAR 센서의 해상도는 도로 감지 능력에 큰 영향 없이 저하될 수 있다.
그런 다음, Si 섹션 내에서, 차량 평면에 대해 하나의 동일한 각도 θ를 가지며 차량 평면에서 각도 φ가 연속적이며 미리 정의된 각도 간격 △φ에 걸쳐 연장되는 여러 지점이 함께 그룹화된다. 미리 정의된 각도 간격은 1° 내지 5° 사이의 값을 취할 수 있다. 도 1은 그러한 섹션 Si를 나타낸다. 포인트의 그룹화는 섹션의 포인트 좌표의 평균값을 결정함으로써 수행될 수 있다. 따라서 섹션 Si는 LIDAR 센서로부터 얻어진 포인트 클라우드의 포인트에 대한 대체 LIDAR 데이텀을 형성한다.
섹션 Si(i는 1에서 n까지 다양하며 n은 총 섹션 수) 내에서 이러한 포인트의 그룹화는 차량 평면에 대해 하나의 동일한 각도 θ를 갖는 모든 포인트에 대해 수행되며, 이는 표준 편차 σ의 결정 전에 수행된다.
다른 실시예에서, 섹션 Si가 LIDAR 데이터로 간주될 때, 각각의 섹션 Si에 대해, 이상적인 원의 포인트의 이론적 높이 zth는 섹션 Si에 포함된 포인트 클라우드의 포인트의 높이 zi의 평균 zμ 의해 대체된다. 이때 수학식 1의 수정된 버전이 표준 편차 σ를 결정하는 데 사용된다.
[수학식 2]
Figure pct00002
수학식 1 및 수학식 2는 데카르트 좌표로 표현된다. 그러나, 이러한 방정식을 극좌표 기준 프레임에서 표현된 방정식으로 변환하는 것은 당업자의 일반적인 지식의 일부를 형성한다. 따라서 방법의 모든 단계에 대해 극좌표 참조 프레임을 유지하는 것이 가능하다.
고려된 LIDAR 데이터, 포인트 클라우드의 포인트 또는 섹션 Si와는 별도로, 표준 편차 σ가 미리 정의된 임계값 미만인 LIDAR 데이터는 도로의 일부를 형성하고 다른 섹션은 도로의 일부를 형성하지 않는 것으로 결정된다.
처리할 데이터의 양을 더 줄이기 위해, 표준 편차 σ를 결정할 때 하나의 동일한 각도 θ를 갖는 모든 LIDAR 데이터를 스캔하지 않는 것이 제안된다.
이를 위해, 차량 평면 내의 각도 φ에 대응되는 공간은 섹터로 세분된다. 도 2에 도시된 하나의 실시예에서, 차량의 전방 좌측 제1섹터(Q1), 차량의 후방 좌측 제2섹터(Q2), 차량의 후방 우측 제3섹터(Q3) 및 차량의 전방 우측 제4섹터(Q4)를 정의하는 것이 가능하다. 한계 각도 φ에 대해 섹터를 정의할 수도 있다. 따라서, 각도 φ = 0에서 φ = π/2까지 연장된 제1섹터(Q1), 각도 φ = π/2에서 φ = π까지의 제2섹터(Q2), 각도 φ = π에서 φ = 3π/2까지의 제3섹터(Qd) 및 각도 φ = 3π/2에서 φ = 0까지의 제4섹터(Q4)가 전진하는 차량의 이동 방향에 정렬된다.
하나의 동일한 각도 θ를 갖는 LIDAR 데이터가 도로에 속하는지 결정하려고 할 때, LIDAR 데이터는 제1섹터(Q1)에 대해 0에서 π/2까지, 제2섹터(Q2)에 대해 π에서 π/2까지, 제3섹터(Q3)에 대해 π에서 3π/2까지, 제4섹터에 대해 0에서 3π/2까지 변화하는 각도 φ에 대해 스캔된다. 이러한 스캔 순서는 차량의 우선적인 이동 방향인 차량 앞뒤의 도로 감지에 우선 순위를 부여하는 것이 가능하게 한다.
섹터를 스캔할 때, 도로에 해당하지 않는 LIDAR 데이터, 즉 표준 편차 σ가 미리 결정된 임계값을 초과하는 LIDAR 데이터를 찾는다. 탐색은 각도 사이의 각각의 섹터에 대해 상기 식별된 방향에서 표준 편차의 미리 결정된 임계값 이상이 되는 각도까지 수행된다. 그러면, 섹터의 LIDAR 데이터의 스캔이 중지된다. 스캔되지 않은 나머지 LIDAR 데이터는 도로의 일부를 형성하지 않는 것으로 간주된다.
4개 섹터에 대한 탐색을 수행한 후, 도로에 대응되지 않는 LIDAR 데이터는 제거되어 도로의 LIDAR 데이터만 유지된다.
특정 실시예에서, 표준 편차 σ를 갖는 가우스 필터는 도로에 속하는 포인트 또는 섹션을 검색하기 전에 불규칙성의 영향을 줄이기 위해 각 섹터 Q1, Q2, Q3, Q4에 적용된다. 크기 3 커널(kernel) 및 표준 편차 5인 필터가 이러한 용도를 위해 특히 적합한다.
특정 실시예에서, 차선 마킹은 각 포인트에 대해 반사된 레이저 빔의 강도의 함수로서 추구된다. 실제로, LIDAR 센서는 반사되는 빛의 강도에 따라 다양한 물질을 감지할 수 있도록 한다. 따라서 지상 마킹의 반사율을 사용하여 도로의 차선 경계를 식별하는 것이 가능하다.
이를 위해, 도로에 대응되는 각각의 포인트와 연관된 강도가 미리 결정된 임계값과 비교된다. 지면의 마킹은 도로에 속하는 미리 결정된 임계값보다 강도가 낮은 지점이다.
특정 실시예에서, (예를 들어, 차량에 의해) 가려질 때 도로 제한의 추적을 보장하기 위해 추적 방법이 사용된다.
1: LIDAR 센서

Claims (10)

  1. 회전식 다층 LIDAR 센서(1) 및 적어도 하나의 데이터 처리 수단이 제공된 자동차의 도로 감지 방법에 있어서,
    상기 LIDAR 센서(1)로 상기 자동차 주변의 LIDAR 데이터를 극좌표로서 획득하는 단계,
    획득된 상기 LIDAR 데이터에서 차량 평면에 대한 빔 각도와 관련된 극좌표가 0 이상인 데이터를 제거하는 단계,
    상기 차량 평면에 대한 각각의 빔 각도 및 각각의 LIDAR 데이텀(datum)에 대해:
    상기 LIDAR 데이텀에 대응되는 포인트의 이론적 좌표를 상기 차량 평면에 대한 빔 각도 및 상기 차량 평면에서의 빔 각도의 함수로서 결정하는 단계,
    상기 이론적 좌표와 상기 LIDAR 데이텀의 좌표 사이의 표준 편차를 결정하는 단계, 및
    상기 표준 편차가 미리 정의된 임계값보다 낮으면 상기 LIDAR 데이텀이 도로의 일부를 형성하는 것으로 결정하는 단계를 포함하는, 도로 감지 방법.
  2. 제1항에 있어서,
    상기 LIDAR 데이텀은 1회전에 걸쳐 상기 LIDAR 센서에 의해 획득된 포인트 클라우드의 일 포인트이거나 상기 차량 평면에 대해 동일한 빔 각도를 갖는 상기 LIDAR 센서에 의해 획득된 상기 포인트 클라우드의 적어도 2개의 연속된 포인트들로 구성된 섹션인, 도로 감지 방법.
  3. 제2항에 있어서,
    상기 LIDAR 데이텀이 상기 포인트 클라우드의 일 포인트인 경우, 상기 LIDAR 데이텀에 대응되는 상기 포인트의 상기 이론적 좌표를 상기 차량을 중심으로 한 상기 도로의 평면 내에 새겨진 이상적인 원에 포함된 포인트의 좌표로 결정하는, 도로 감지 방법.
  4. 제2항에 있어서,
    상기 LIDAR 데이텀이 상기 포인트 클라우드의 적어도 2개의 포인트들을 포함하는 섹션인 경우,
    상기 이론적 좌표와 상기 섹션의 좌표는 데카르트(Cartesian) 좌표로 정의되고, 상기 차량 평면에서 차량의 이동 방향 좌표, 상기 차량 평면에서 차량의 이동 방향에 직각인 방향의 좌표 및 상기 차량 평면에 대한 법선 상의 이론적 좌표를 포함하며,
    상기 차량 평면에 대한 법선 상의 이론적 좌표는 상기 섹션 내에 포함된 상기 LIDAR 센서에 의해 획득된 상기 포인트 클라우드의 포인트들의 차량 평면에 수직인 좌표의 평균으로 정의되며,
    다른 이론적 좌표는 상기 차량을 중심으로 한 상기 도로 평면 내에 새겨인 이상적인 원 상의 일 포인트의 좌표로 정의되는, 도로 감지 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 차량 평면에서 상기 섹터를 스캔하는 방향과 각각 관련된 적어도 2개의 섹터가 결정되며,
    각 섹터에서, 상기 LIDAR 데이터는 스캔 방향으로 스캔되고, 각 LIDAR 데이텀이 도로에 속하는지 여부가 결정되며, 상기 LIDAR 데이터의 스캐닝은 LIDAR 데이텀이 도로에 속하지 않는다고 결정되고 스캔되지 않은 섹터의 LIDAR 데이터가 도로에 속하지 않는다고 결정되면 즉시 중단되는, 도로 감지 방법.
  6. 제5항에 있어서,
    각각의 섹터에 대해, 불규칙성의 영향을 줄이기 위해 표준 편차의 결정 결과에 가우스(Gaussian) 필터를 적용하며, 상기 가우스 필터는 크기 3 커널(kernel) 및 표준 편차 5인, 도로 감지 방법.
  7. 제5항 또는 제6항에 있어서,
    전방으로 주행하는 상기 차량의 이동 방향은 상기 차량 평면에서의 빔 각도의 각도 0에 대응되는 것으로 정의되고,
    상기 차량 평면에서 4개의 섹터가 정의되며,
    제1섹터는 상기 차량 평면에서의 각도가 각도 0에서 각도 π/2까지 확장되는 LIDAR 데이터를 포함하며, LIDAR 데이터는 상기 차량 평면에서 초기 각도 0에서 최종 각도 π/2까지 스캔되고,
    제2섹터는 상기 차량 평면에서의 각도가 각도 π/2에서 각도 π까지 확장되는 LIDAR 데이터를 포함하며, LIDAR 데이터는 상기 차량 평면에서 초기 각도 π에서 각도 π/2까지 스캔되고,
    제3섹터는 상기 차량 평면에서의 각도가 각도 π에서 각도 3π/2까지 확장되는 LIDAR 데이터를 포함하며, LIDAR 데이터는 상기 차량 평면에서 초기 각도 π에서 각도 3π/2까지 스캔되며,
    제4섹터는 상기 차량 평면에서의 각도가 각도 3π/2에서 각도 0까지 확장되는 LIDAR 데이터를 포함하며, LIDAR 데이터는 상기 차량 평면에서 초기 각도 0에서 3π/2까지 스캔되는, 도로 감지 방법.
  8. 제5항 내지 제7항 중 어느 한 항에 있어서,
    각각의 섹터와 관련된 단계들은 개별 처리 수단을 통해 수행되는, 도로 감지 방법.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상기 차량 평면에 대한 각각의 빔 각도에 대해, 상기 LIDAR 센서에 의해 감지된 반사된 광 강도가 이미 결정된 임계값보다 낮은 경우, 상기 도로에 속하는 LIDAR 데이텀이 지면 상의 마킹에 대응되는 것으로 결정되는, 도로 감지 방법.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서,
    상기 자동차는 자율 주행 차량인, 도로 감지 방법
KR1020217010105A 2018-09-11 2019-07-08 Lidar 센서가 장착된 자동차의 도로 감지 방법 KR20210048552A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1858137A FR3085656B1 (fr) 2018-09-11 2018-09-11 Procede de detection de route pour un vehicule automobile muni d'un capteur lidar
FR1858137 2018-09-11
PCT/EP2019/068265 WO2020052830A1 (fr) 2018-09-11 2019-07-08 Procede de detection de route pour un vehicule automobile muni d'un capteur lidar

Publications (1)

Publication Number Publication Date
KR20210048552A true KR20210048552A (ko) 2021-05-03

Family

ID=65201368

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217010105A KR20210048552A (ko) 2018-09-11 2019-07-08 Lidar 센서가 장착된 자동차의 도로 감지 방법

Country Status (7)

Country Link
US (1) US20210333397A1 (ko)
EP (1) EP3850397B1 (ko)
JP (1) JP7410932B2 (ko)
KR (1) KR20210048552A (ko)
CN (1) CN112673280A (ko)
FR (1) FR3085656B1 (ko)
WO (1) WO2020052830A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230271607A1 (en) * 2022-02-28 2023-08-31 Nissan North America, Inc. Vehicle lane marking detection system
CN116153057A (zh) * 2022-09-12 2023-05-23 东北林业大学 基于激光雷达点云估算车道宽度的方法
CN115453549A (zh) * 2022-09-13 2022-12-09 浙江科聪控制技术有限公司 一种基于二维激光雷达的环境直角点坐标角度的提取方法
CN117468941B (zh) * 2023-12-28 2024-03-12 四川省铁路建设有限公司 基于智能自检台车的隧道缺陷检测方法及自检台车

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4523095B2 (ja) 1999-10-21 2010-08-11 富士通テン株式会社 情報処理装置、情報統合装置および情報処理方法
US8699755B2 (en) * 2009-02-20 2014-04-15 Navteq B.V. Determining travel path features based on retroreflectivity
JP5267592B2 (ja) 2010-04-09 2013-08-21 株式会社デンソー 物体認識装置
JP2012225806A (ja) 2011-04-20 2012-11-15 Toyota Central R&D Labs Inc 道路勾配推定装置及びプログラム
US9110196B2 (en) * 2012-09-20 2015-08-18 Google, Inc. Detecting road weather conditions
JP6453701B2 (ja) 2015-04-23 2019-01-16 株式会社デンソー 姿勢推定装置
CN104950313B (zh) 2015-06-11 2017-11-07 同济大学 一种路面提取及道路坡度识别方法
US20180211119A1 (en) * 2017-01-23 2018-07-26 Ford Global Technologies, Llc Sign Recognition for Autonomous Vehicles

Also Published As

Publication number Publication date
EP3850397A1 (fr) 2021-07-21
WO2020052830A1 (fr) 2020-03-19
EP3850397B1 (fr) 2024-01-10
JP7410932B2 (ja) 2024-01-10
US20210333397A1 (en) 2021-10-28
CN112673280A (zh) 2021-04-16
JP2022503671A (ja) 2022-01-12
FR3085656A1 (fr) 2020-03-13
FR3085656B1 (fr) 2023-04-28

Similar Documents

Publication Publication Date Title
JP6931096B2 (ja) オンボードセンサの外部パラメータを較正する方法及び装置、並びに関連する車両
KR20210048552A (ko) Lidar 센서가 장착된 자동차의 도로 감지 방법
JP7090597B2 (ja) 位置特定基準データを生成及び使用する方法及びシステム
KR102083909B1 (ko) 포인트 클라우드 맵 기반의 자율주행차량용 차선데이터 정보 자동 추출 방법
US10705220B2 (en) System and method for ground and free-space detection
US9989967B2 (en) All weather autonomously driven vehicles
US9395192B1 (en) Methods and systems for road and lane boundary tracing
US20190265038A1 (en) Vehicle localisation using the ground surface with an event camera
US10705534B2 (en) System and method for ground plane detection
Yoneda et al. Urban road localization by using multiple layer map matching and line segment matching
CN113673282A (zh) 目标检测方法和装置
US20230266473A1 (en) Method and system for object detection for a mobile robot with time-of-flight camera
US11474243B2 (en) Self-calibrating sensor system for a wheeled vehicle
US20220122324A1 (en) Systems and methods for map generation based on ray-casting and semantic class images
Kellner et al. Road curb detection based on different elevation mapping techniques
US11592559B2 (en) Vehicle sensor fusion
JP5375249B2 (ja) 移動経路計画装置、移動体制御装置及び移動体
JP2023068009A (ja) 地図情報作成方法
FR2938228A1 (fr) Procede de mesure de distance au moyen d'une camera embarquee dans un vehicule automobile
JP2021060944A (ja) 路側端検出方法、及び、路側端検出装置
CN114212106B (zh) 一种车辆的可行驶区域内安全概率的确定方法及装置
WO2024075577A1 (ja) 鉱山車両自律走行システム
US20240103177A1 (en) Using glancing angle distance to segment lidar imagery
CA3066364A1 (fr) Dispositif electronique et procede de surveillance d'une scene autour d'un vehicule automobile, vehicule automobile, systeme de transport et programme d'ordinateur associes
Corbin Road-side Obstacle Detection and Threat Assessment

Legal Events

Date Code Title Description
E902 Notification of reason for refusal